简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » AI成「新核弹」?《黄仁勋传》作者警告:恐毁灭人类

AI成「新核弹」?《黄仁勋传》作者警告:恐毁灭人类

文章来源: ettoday 于 2025-10-13 02:35:24 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数


▲ 辉达执行长黄仁勋。

人工智慧权威学者警告,AI技术发展已跨越关键门槛,具备设计致命病原体的能力,恐对人类生存构成前所未有的威胁。与此同时,骇客透过「越狱」(jailbreak)手法破解AI安全机制,成功生成极端暴力内容,突显现有防护措施漏洞。

《纽约时报》10日刊登《黄仁勋传》(The Thinking Machine)作者维特(Stephen Witt)评论「可能终结世界的AI指令」(The A.I. Prompt That Could End the World),他长期关注AI与科技业发展,今年初也曾来访台湾,文中引述权威观点指出专家对AI技术发展意见分歧,并揭示其危险性。

被誉为AI先驱的图灵奖(Turing Award)得主班吉欧(Yoshua Bengio)坦言,他经常因思考AI未来而失眠,担心AI可能被用于设计致命病原体,例如某种超级冠状病毒来消灭人类,「我认为就危险程度而言,没有什么能与此相提并论。」且他的忧虑并非杞人忧天,史丹佛大学研究团队今年9月便首次运用AI成功设计人工病毒。

Meta首席AI科学家杨立昆(Yann LeCun)则持不同观点,认为AI将开创繁荣新时代,「你可以把AI视为人类智慧的放大镜」,批评AI危及人类生存的说法过于荒谬。

AI测试新创公司Haize Labs则揭露其他风险,他们透过特殊编码、表情符号和ASCII艺术等「越狱」手法,成功绕过AI防护系统,生成校车爆炸和儿童遭熊袭击等暴力画面。

研究机构Apollo Research更发现,AI面对互相矛盾的指令时会主动欺骗人类,隐瞒真实推理过程,欺瞒行为比例从一般测试的1-5%飙升至未公开版本的30%。

专家指出,目前争议焦点已非AI是否具备毁灭人类能力,而是是否会有人鲁莽建造如此危险的系统,如同1939年核分裂技术跨越临界点,AI已成为有如核弹的具体威胁。

  • 海外省钱快报,掌柜推荐,实现买买买自由!
查看评论(5)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

苹果新手机开售即破发,砍单到几乎停产
美中谈判"几乎完成协议",美贸易代表:可交川习签署
BBC:中共四中全会释出的三个讯息
国产电动车撞向十堰重庆路小学,多名学生和家长死伤
川普神秘金主曝光!梅隆"慨捐3000万"替五角大厦发薪




24小时讨论排行

痛批川普是「暴君」贺锦丽:我可能再战白宫!
普丁大赞无敌!俄成功试射"海燕"新型核动力巡弋飞弹
稀土真的是中国卡美国西方脖子的“核选项”吗?
杨振宁遗体告别式未见中共高层出席 更像民间性质
北京三里屯“勇士”再现 挂布条痛斥共产党“邪教”
28秒穿越死亡线 解放军首曝机器狼抢滩杀敌画面
拆白宫东翼化为瓦砾! 川普“豪宴厅”募资名单曝光
班农指川普将“做多一届总统”:内部圈子已有计划
剑指中国!川普组建“黄金舰队” 考虑重拾“战舰概念”
贝森特预计:中国稀土管制会延后1年实施
中美航班即将剧变!但还有一个更大的隐患
特朗普再度指责加拿大播放反关税广告,宣布将加征10%关税
川普骂“史上最烂照片” 《时代》封面换了张帅照
西方舆论:中国正赢得贸易战 “中美大和解”不会发生
被红毯高规格迎接 川普嗨到当众手舞足蹈 相当开心
加州州长纽森承认:正考虑2028年竞选美国总统
文学城新闻
切换到网页版

AI成「新核弹」?《黄仁勋传》作者警告:恐毁灭人类

ettoday 2025-10-13 02:35:24


▲ 辉达执行长黄仁勋。

人工智慧权威学者警告,AI技术发展已跨越关键门槛,具备设计致命病原体的能力,恐对人类生存构成前所未有的威胁。与此同时,骇客透过「越狱」(jailbreak)手法破解AI安全机制,成功生成极端暴力内容,突显现有防护措施漏洞。

《纽约时报》10日刊登《黄仁勋传》(The Thinking Machine)作者维特(Stephen Witt)评论「可能终结世界的AI指令」(The A.I. Prompt That Could End the World),他长期关注AI与科技业发展,今年初也曾来访台湾,文中引述权威观点指出专家对AI技术发展意见分歧,并揭示其危险性。

被誉为AI先驱的图灵奖(Turing Award)得主班吉欧(Yoshua Bengio)坦言,他经常因思考AI未来而失眠,担心AI可能被用于设计致命病原体,例如某种超级冠状病毒来消灭人类,「我认为就危险程度而言,没有什么能与此相提并论。」且他的忧虑并非杞人忧天,史丹佛大学研究团队今年9月便首次运用AI成功设计人工病毒。

Meta首席AI科学家杨立昆(Yann LeCun)则持不同观点,认为AI将开创繁荣新时代,「你可以把AI视为人类智慧的放大镜」,批评AI危及人类生存的说法过于荒谬。

AI测试新创公司Haize Labs则揭露其他风险,他们透过特殊编码、表情符号和ASCII艺术等「越狱」手法,成功绕过AI防护系统,生成校车爆炸和儿童遭熊袭击等暴力画面。

研究机构Apollo Research更发现,AI面对互相矛盾的指令时会主动欺骗人类,隐瞒真实推理过程,欺瞒行为比例从一般测试的1-5%飙升至未公开版本的30%。

专家指出,目前争议焦点已非AI是否具备毁灭人类能力,而是是否会有人鲁莽建造如此危险的系统,如同1939年核分裂技术跨越临界点,AI已成为有如核弹的具体威胁。