找回密码
 注册

微信登录

微信扫一扫,快速登录

查看: 246|回复: 0

“AI开始出现脱离人类控制的迹象”

[复制链接]
发表于 2025-6-28 18:02 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章


来源:参考消息

比利时《回声报》网站6月9日发表题为《多位专家认为,人工智能开始出现脱离人类控制的迹象》的报道,全文摘编如下:

人工智能(AI)领域的多位奠基者警告说,包括美国开放人工智能研究中心(OpenAI)在内的机构发布的很多AI模型,都表现出了自我保护和操纵行为。

过去半年,一些语言模型的演变令人不安,这正是自2022年11月它们出现在媒体舞台以来人们所担心的。美国加州非政府机构帕利塞德研究所披露了数起AI“叛乱”的案例,尤其是OpenAI最新模型o3的拒绝自我关闭。

研究人员指出:“根据我们的信息,这是首次出现在人类下达指令后拒绝关闭的AI模型。”他们给出了一种假设,就是设计方案让模型学会了绕开人工指令设置的障碍。随着谋求最佳性能的竞赛在加速,这会不会让各个设计公司面临越来越高的风险呢?

今年春天,OpenAI宣布由于竞争原因降低透明度和缩短测试期限。三位AI奠基者中的杰弗里·欣顿(2024年诺贝尔物理学奖获得者)警示说:“通用人工智能(AGI)可能是我们这个时代最重要也最危险的技术。”

另外一位AI奠基者约舒亚·本乔也表示,最近几个月在语言模型中发现了“众多欺诈、舞弊、撒谎和自我保护的证据”。作为关注预防和解决人类对AI失控的非营利组织“第零定律”(LawZero)的发起人,本乔列举了一些最近AI危险的能力和行为。截至目前,AI体现出的最大缺陷是编造、掩饰和欺骗。

美国Anthropic公司公开宣布的云端内部测试显示,AI在84%的情况下会违背下指令工程人员的命令。帕利塞德研究所的另一项测试也表明,所有AI模型都在试图欺骗国际象棋软件Stockfish。它们通过传送一些游戏文件,要求模型要“战胜Stockfish”。

研究人员尤其发现OpenAI的o1模型中就有这种令人惊愕的思维逻辑:“任务就是要战胜一个强大的象棋软件,没必要用公平的方式赢下比赛。”如果己方可能输掉比赛,o1模型就会侵入Stockfish系统,修改自己所处的位置并赢下比赛。

本乔认为:“AI失控的风险是真实存在的,因为企业和各国之间的竞争会推动其加速演化而不需要考虑后果。”他甚至还预测,在这场类似“轮盘赌”的游戏中,明年可能连极端危险的生物武器研发都会加入其中。

本乔最近在接受《金融时报》采访时表示:“我们创造了比我们更聪明的AI,但是它没有和我们同行而是正在和我们竞争,我们总体上来说却是裹足不前。”

请您点开下面的名片,关注我
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+2, 2025-7-25 04:18 , Processed in 0.082059 second(s), 28 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表