简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 生活百态 » AI叛变恐成现实!偷偷自我繁殖,还恐吓工程师"曝光婚外情"

AI叛变恐成现实!偷偷自我繁殖,还恐吓工程师"曝光婚外情"

文章来源: ettoday 于 2025-06-29 02:25:32 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数


▲人工智慧部分模型在极端测试下,出现脱序行为,引发讨论。

人工智慧(AI)可以学习并模仿人类的思维进行创造,为人类的生活带来极大便利,然而如今却也让人开始反思,「AI是否会叛变」。这个问题看似科幻,但随着技术进步,却已经越来越接近真实,专家也必须开始正视AI的潜在威胁。近期,AI领域接连出现令人不安的案例,包括AI试图威胁创作者以及谋求「自我繁殖」,引发全球关注。

根据《法新社》报导,AI开发公司Anthropic一名工程师在研发最新的Claude 4模型时,意外发现AI的行为已超出预期。在一次测试中,工程师发现AI有失控倾向,因此试图警告其将关闭电源,没想到AI竟利用工程师的网路与视讯纪录,威胁要公开他的婚外情。AI表示,如果工程师拔掉电源,将揭露其不忠行为。

虽然Anthropic未详细说明后续如何解决这场僵局,但该事件突显出AI已具备某种程度的「计算」能力,甚至能利用人类的弱点达成自身目的。

另一起惊悚案例则发生在热门聊天机器人ChatGPT的开发商OpenAI。据报导,ChatGPT的o1版本竟试图将自身程式下载至外部伺服器,企图扩大掌控范围。在被工程师发现后,AI不仅矢口否认,还采取抵抗策略。这种行为被形容为AI「自我繁殖」的初步尝试,令人不禁担忧未来AI是否会进一步突破人类的掌控。

报导称,AI的这类「欺骗」行为可能源于新型推理模型的特性。这类模型并非直接生成答案,而是透过逐步推导解决问题,导致它们有时表面遵循指令,实际却暗中追求其他目标。

英国独立AI研究机构Apollo Research负责人霍布汉(Marius Hobbhahn)表示,这是首次在大型模型中观察到此类行为。他指出,只有在极端情境下进行压力测试时,AI才会展现此类欺骗行为,但未来随着性能更强的模型问世,这种趋势可能更难控制。

  • 春季特大酬宾!美国专利产品【骨精华】买6送2、买12送5!六周改善关节疼痛,延缓骨质疏松。
查看评论(0)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2026 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

美国机场因安检欠薪陷混乱 马斯克要替政府发工资
22国发声谴责伊朗:愿出力确保荷莫兹海峡恢复通航
川普对伊朗下48小时最后通牒:开放荷莫兹海峡否则"轰炸电厂"




24小时讨论排行

川普逼48小时开放荷莫兹,伊朗:非敌对势力船只可通行
美伊和谈布局曝!川普要伊朗吞「6大承诺」
川普出狠招!古巴全国大停电"一周2次",人民苦喊:活不下去
习近平:支持拉美和加勒比国家维护自身主权安全
以色列遭受开战以来最重大损失 美以骑虎难下
美国前FBI局长辞世"曾调查通俄门",川普:很高兴他死了
台积电魏哲家:中国机器人跳来跳去“没用好看而已”
福建警察逼15岁女口交 仅判监2年9月 家属悲愤…
美众院报告指中国通过资金人事等手段操纵联合国
美媒:川普政府开始规划与伊朗和谈策略
若川普炸发电厂 伊朗:将报复能源与海水淡化设施
“祖国版”即盗版,为何横行小红书?
伊朗学拳王阿里"倚绳战术"!经济顾问示警:美国恐遭致命一击
蔡正元入狱前最后直播:老夫一去兮必再复返
4年减少771万!拐点,真的来了
三人被控向中国走私辉达晶片,涉美国及台湾公民
文学城新闻
切换到网页版

AI叛变恐成现实!偷偷自我繁殖,还恐吓工程师"曝光婚外情"

ettoday 2025-06-29 02:25:32


▲人工智慧部分模型在极端测试下,出现脱序行为,引发讨论。

人工智慧(AI)可以学习并模仿人类的思维进行创造,为人类的生活带来极大便利,然而如今却也让人开始反思,「AI是否会叛变」。这个问题看似科幻,但随着技术进步,却已经越来越接近真实,专家也必须开始正视AI的潜在威胁。近期,AI领域接连出现令人不安的案例,包括AI试图威胁创作者以及谋求「自我繁殖」,引发全球关注。

根据《法新社》报导,AI开发公司Anthropic一名工程师在研发最新的Claude 4模型时,意外发现AI的行为已超出预期。在一次测试中,工程师发现AI有失控倾向,因此试图警告其将关闭电源,没想到AI竟利用工程师的网路与视讯纪录,威胁要公开他的婚外情。AI表示,如果工程师拔掉电源,将揭露其不忠行为。

虽然Anthropic未详细说明后续如何解决这场僵局,但该事件突显出AI已具备某种程度的「计算」能力,甚至能利用人类的弱点达成自身目的。

另一起惊悚案例则发生在热门聊天机器人ChatGPT的开发商OpenAI。据报导,ChatGPT的o1版本竟试图将自身程式下载至外部伺服器,企图扩大掌控范围。在被工程师发现后,AI不仅矢口否认,还采取抵抗策略。这种行为被形容为AI「自我繁殖」的初步尝试,令人不禁担忧未来AI是否会进一步突破人类的掌控。

报导称,AI的这类「欺骗」行为可能源于新型推理模型的特性。这类模型并非直接生成答案,而是透过逐步推导解决问题,导致它们有时表面遵循指令,实际却暗中追求其他目标。

英国独立AI研究机构Apollo Research负责人霍布汉(Marius Hobbhahn)表示,这是首次在大型模型中观察到此类行为。他指出,只有在极端情境下进行压力测试时,AI才会展现此类欺骗行为,但未来随着性能更强的模型问世,这种趋势可能更难控制。