简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » AI成「新核弹」?《黄仁勋传》作者警告:恐毁灭人类

AI成「新核弹」?《黄仁勋传》作者警告:恐毁灭人类

文章来源: ettoday 于 2025-10-13 02:35:24 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数


▲ 辉达执行长黄仁勋。

人工智慧权威学者警告,AI技术发展已跨越关键门槛,具备设计致命病原体的能力,恐对人类生存构成前所未有的威胁。与此同时,骇客透过「越狱」(jailbreak)手法破解AI安全机制,成功生成极端暴力内容,突显现有防护措施漏洞。

《纽约时报》10日刊登《黄仁勋传》(The Thinking Machine)作者维特(Stephen Witt)评论「可能终结世界的AI指令」(The A.I. Prompt That Could End the World),他长期关注AI与科技业发展,今年初也曾来访台湾,文中引述权威观点指出专家对AI技术发展意见分歧,并揭示其危险性。

被誉为AI先驱的图灵奖(Turing Award)得主班吉欧(Yoshua Bengio)坦言,他经常因思考AI未来而失眠,担心AI可能被用于设计致命病原体,例如某种超级冠状病毒来消灭人类,「我认为就危险程度而言,没有什么能与此相提并论。」且他的忧虑并非杞人忧天,史丹佛大学研究团队今年9月便首次运用AI成功设计人工病毒。

Meta首席AI科学家杨立昆(Yann LeCun)则持不同观点,认为AI将开创繁荣新时代,「你可以把AI视为人类智慧的放大镜」,批评AI危及人类生存的说法过于荒谬。

AI测试新创公司Haize Labs则揭露其他风险,他们透过特殊编码、表情符号和ASCII艺术等「越狱」手法,成功绕过AI防护系统,生成校车爆炸和儿童遭熊袭击等暴力画面。

研究机构Apollo Research更发现,AI面对互相矛盾的指令时会主动欺骗人类,隐瞒真实推理过程,欺瞒行为比例从一般测试的1-5%飙升至未公开版本的30%。

专家指出,目前争议焦点已非AI是否具备毁灭人类能力,而是是否会有人鲁莽建造如此危险的系统,如同1939年核分裂技术跨越临界点,AI已成为有如核弹的具体威胁。

查看评论(5)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2026 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

《纽时》揭习近平真实面貌!对川普评价曝
卢比奥登空军一号装扮酷似马杜罗穿搭,掀网络热议
梅拉尼娅缺席访华引猜测,释放什么信号?
马斯克:只有我和黄仁勋搭川普空军一号
黄仁勋原本不在名单上 最后一刻在阿拉斯加登机…


24小时讨论排行

礼遇胜过普京!中国为何“超高规格”接待川普?
中国远没有表面上看起来强大,这才是问题所在
川普访中 官员手机全换 不连饭店Wi-Fi 躲“安全屋”传讯
华人吃薯条遭流浪汉掰断手指 警竟称“分不清亚洲人长相”
“爱泼斯坦被软禁时,性侵了我”
从沙俄到苏联:对华侵占与敌对的历史账本
“在中国所有电子通讯都不安全” 美访华前高度警戒
"文化大革命"60周年:从几大关键词看十年文化浩劫
反向MeToo?女大佬被曝侵犯印度男下属 结果反转了?
1500万潮汕人移民东南亚,当年究竟有多惨烈?
巩俐第21次亮相戛纳电影节并用中文宣布“开幕”
烟台火车站一乘客钻入安检机,工作人员惊呆了
世界杯来了 美国罕见突然放宽签证!这类球迷免…
川习会2小时结束!川普赞很棒,但拒答是否谈台湾
谷歌母公司将重回全球第一:一边疯狂裁员 一边AI暴涨
中国愈发将特朗普治下的美国视为一个衰落的帝国
文学城新闻
切换到网页版

AI成「新核弹」?《黄仁勋传》作者警告:恐毁灭人类

ettoday 2025-10-13 02:35:24


▲ 辉达执行长黄仁勋。

人工智慧权威学者警告,AI技术发展已跨越关键门槛,具备设计致命病原体的能力,恐对人类生存构成前所未有的威胁。与此同时,骇客透过「越狱」(jailbreak)手法破解AI安全机制,成功生成极端暴力内容,突显现有防护措施漏洞。

《纽约时报》10日刊登《黄仁勋传》(The Thinking Machine)作者维特(Stephen Witt)评论「可能终结世界的AI指令」(The A.I. Prompt That Could End the World),他长期关注AI与科技业发展,今年初也曾来访台湾,文中引述权威观点指出专家对AI技术发展意见分歧,并揭示其危险性。

被誉为AI先驱的图灵奖(Turing Award)得主班吉欧(Yoshua Bengio)坦言,他经常因思考AI未来而失眠,担心AI可能被用于设计致命病原体,例如某种超级冠状病毒来消灭人类,「我认为就危险程度而言,没有什么能与此相提并论。」且他的忧虑并非杞人忧天,史丹佛大学研究团队今年9月便首次运用AI成功设计人工病毒。

Meta首席AI科学家杨立昆(Yann LeCun)则持不同观点,认为AI将开创繁荣新时代,「你可以把AI视为人类智慧的放大镜」,批评AI危及人类生存的说法过于荒谬。

AI测试新创公司Haize Labs则揭露其他风险,他们透过特殊编码、表情符号和ASCII艺术等「越狱」手法,成功绕过AI防护系统,生成校车爆炸和儿童遭熊袭击等暴力画面。

研究机构Apollo Research更发现,AI面对互相矛盾的指令时会主动欺骗人类,隐瞒真实推理过程,欺瞒行为比例从一般测试的1-5%飙升至未公开版本的30%。

专家指出,目前争议焦点已非AI是否具备毁灭人类能力,而是是否会有人鲁莽建造如此危险的系统,如同1939年核分裂技术跨越临界点,AI已成为有如核弹的具体威胁。