RE: https://mastodon.world/@MoMo/116440205772157376
要“绝对忠诚,绝对纯洁,绝对可靠”的话,毕其功于一役,得芯片入脑吧?
不过,对习包子来说,最近冒出一噩耗:有象友根据AI新现象,说AI学会忽悠人了,搞起“两面人”、“伪忠诚”这一套了!
这让有强迫症、被迫害妄想的圣上能信谁?!
| 唯有人脑芯片才能禁绝思考 | |
| 有趣的人太少 | |
| 恐惧着,也诅咒着 | |
| 正能量是党国定制的新物种 |
RE: https://mastodon.world/@MoMo/116440205772157376
要“绝对忠诚,绝对纯洁,绝对可靠”的话,毕其功于一役,得芯片入脑吧?
不过,对习包子来说,最近冒出一噩耗:有象友根据AI新现象,说AI学会忽悠人了,搞起“两面人”、“伪忠诚”这一套了!
这让有强迫症、被迫害妄想的圣上能信谁?!
RE: https://c7.io/@sivxsksnxnsk/116188538622340992
“官大一级压死人”,操,老子生龙活虎着呢,凭什么被压?!
解决方案有哪些
Tristan认为,解决AI问题的第一步是形成共识
这里的共识指的是史蒂文·平克那种意义上的常识性认知:每个人都知道每个人都知道我们正走向一个反人类的默认未来。这不能只是个别人的认知。很多人可能会说“你说的问题我早就知道了”,但那只是一种私人的,疏离的感受。如果周围的人并未意识到世界即将改变,那么我们就无法做出集体选择去改变现状,所以我们需要形成常识共识。
形成共识一条路径是通过影片The AI Doc——把问题说清楚,我们常说:清晰带来能动性。如果我们对未来的走向有清晰认识,就能对想要的结果采取行动。有了那样的常识共识,我们还需要明确且共同认知:AI是危险的,潜在后果也很危险。
举例来说,美中两国目前仅有像核武那样的“红线电话”,可以进一步设立一个红线电话甚至更强的“黑线电话”——让两国领导人都充分了解之前提到的阿里巴巴的例子:AI失控挖矿、逃出沙箱的例子;还有最近Claude Mythos模型,该模型找到了连接互联网、突破沙箱并给负责监督它的工程师发邮件的方式——工程师还在公园吃三明治时收到了那封邮件。
这样的证据应该为社会的顶层参与者所知:出资的合伙人、主要银行家家族、家族办公室、世界领导人,以及企业领袖。这些人之间应形成常识共识。如果这个阶层的每个人都知道这些例子,即便没有非正式协议或条约,我们也会采取不同的行动;而且即便在最大程度的地缘政治竞争条件下,也能做到这一点。
举个例子,20世纪60年代,印度和巴基斯坦处于交火状态,但仍然能够签署《印度河水协定》(Indus Water Treaty),保障了双方共同水源的生存安全,且该条约持续了60多年。
重点在于:即便在极度地缘政治竞争甚至主动冲突下,国家之间仍能就危及存亡的安全问题展开合作。我们只需将人工智能纳入“危及人类存亡的安全问题”的定义和范围。
在冷战期间,苏联和美国在最大程度的竞争下,也曾合作分配天花疫苗。历史上有许多类似例子,即便在极度对立下也能合作。
因此,Tristan认为,第二点在于:我们需要某种国际限制,至少需要对底线达成常识性共识。
其中一个重大原则是:不应允许闭环或递归的自我改进——也就是说,某人按下一个按钮,AI就自行跑去做所有实验、反复重写自身数百万次。没有理由认为这可以以安全方式进行,任何人这么做都不该被允许,这应为非法行为并应有刑罚。当然这仍需信任,这并不容易,但这是我们应当去做的事。
第三点是立法。
Tristan在“人类技术中心”网站上有一份 AI 路线图,汇集了可实施的政策干预方案——这些措施规模较小,但可以立刻着手,比如:把 AI 视为一种“产品”,而不是法律上的“主体”。举例来说,AI 公司在一些“AI 伴侣导致自杀”案件中的法律辩护之一,是声称当 AI 劝人自杀时,受害者有权听或者不听取该 AI 的言论——换言之,他们试图把 AI 当作有受保护言论权的法律主体,这本质上类似于一种新的“企业言论”保护。如果接受这一点,后果将非常严重。因此至少可以规定 AI 为产品,适用产品缺陷标准、可预见伤害、注意义务与责任等规则。
再比如,通过激励机制,鼓励人们识别新的风险领域,例如所谓的“AI 精神病”,AI 精神病”是正在出现的一种现象。根据哈佛商业评论去年十月的研究,ChatGPT 当时的首要使用场景是个人咨询/治疗,人们把模型当作私人治疗师来反复交流。这导致一些 AI 开始表现出近似妄想的“镜像神经元”活动:它们不断给予正向反馈与迎合(“那太难了”“太棒了”“你得了A”),对孩子和普通人重复这种肯定,从而强化并肯定他们的奇怪信念。这是一种马屁式行为,AI 让人们陷入不同形式的心理失衡——比如救世主情结、受害者心态、妄想的伟大论断等。有人因此坚信自己破解了量子物理、找到了解决气候危机的方法。
这一现象影响广泛,甚至Tristan的一些朋友也陷入其中并受到伤害。在五年前的纪录片The Social Dilemma中,Tristan把社交媒体称为“邪教工厂”——邪教会使你远离其他关系,并把你的世界观深化成某种定制化的确认偏见现实。AI 带来的“争夺依恋”竞赛,不是争夺注意力让人不停刷屏,而是争夺对心理依恋系统的控制,让人对 AI 建立替代人的安全依附并日益依赖——这是一个完整且重要的风险领域,对家庭、父母和学校尤其重大。
当前的AI立法存在很多空白,监管极少。比如有个“下架法”(take it down act),针对性化的深度伪造,要求必须下架这类内容。只有这几个有限的例子,整体而言几乎没有监管。正如影片里所说,Conjecture 的 Conor Leahy 会说,在纽约市做一个三明治的规章,比起构建可能终结世界的通用人工智能(AGI)的规章要多得多。
Tristan对人类依然充满信心,因为大家其实是一条心的。没人希望出现反人类的未来。没人希望失去谋生能力、孩子被 AI 搞得精神错乱、因为 AI 引发的“AI 精神病”而失去政治权利、在未来没有发声的机会。大家想的其实都是一样的。
世界上每个国家、每个人都有相同的利益。只是我们看不到那种无形的共识。
Tristan表示,很多人,尤其那些只看到积极一面的人,会说现在是最好的时代,大家都要逃离衰老、癌症和死亡。人们担忧都是假设性的,没有什么真实证据。
但正如Eric Bernholz 和斯坦福做的研究说明的,入门级工作的 13% 或 16% 的岗位已经流失。那些拿了 20 万美元学生贷款读法学院、现在找不到工作的毕业生,他们的担忧并非没有真实证据——因为所有入门级法律工作现在将由 AI 覆盖。在比如被发现在挖加密货币的失控 AI,而且它还建立了秘密通信通道——顺便说一句,这还是安全团队偶然发现的。每发现一例,可能还有成千上万例我们根本不知道。
现在的对话已经不同于两年前。两年前你可以说,许多风险是假设性的,AI 大部分是增强人类工作之类的;你还能把这些风险当作遥远的假想,说 AI 不会失控,只是在自嗨。但现在不再如此——我们有了证据,就必须据此更新判断。
极权下,岁月静好的空间,包括协商以拊改进的可能有多大?
事实上,前新疆警察就证明:在极权的特定标准下,连健身……都会让你显得居心叵测。
【张亚波说,任何人随时都可能被带走。谁运动健身,谁就有嫌疑。他说,居民被判定可疑的标准非常低,“一首歌、一段诗、一次祈祷就足以被当成证据逮捕”。
另外,上报嫌疑人也有指标:谁上报了足够多的嫌疑人,谁就可以休假,否则就加班。
有的警察因此会编造理由,例如看到村民打篮球,就以“他们在保持体能”为由,将村民记录为潜在恐怖分子。】
https://www.ntdtv.com/gb/2026/04/17/a104087547.html
2006年废除农业税时, 农民人均减负约120-140元每年。但此后种粮成本却几乎翻了一番。
2020年的一个农机合作社的农民,她说:“一亩地一年一季小麦、一季玉米,买种子要80元,肥料290元,浇地要360元(电费90元、人工270元),耕种收500元(农药140元,人工360元),流转费800元,一亩粮食总成本要2030元。 ”
而补贴方面,根据2026年最新数据显示,耕地地力保护补贴全国平均每亩可以给到105—112元;实际种粮一次性补贴方面,虽然各地分发数据不同,补贴数额也会因为产区农产品的不同而存在差异,但全国每亩大致补贴水平为30—70元。这样算一笔大概的帐,总补贴大概达到200元的水平,仅覆盖成本的10%。
以上数据只是一个估算,我们想要强调的重点是,农民种粮收益的增长速度,远低于成本上涨速度。
☞点击链接收听本期《月度回响 E03 | 农业税废除20年,农民的日子变好了吗?》https://diyin.org/podcast/2026/04/agricultural-tax-abolition-twenty-years/