简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » 微软Bing聊天机器人示爱太疯狂 纽时记者吓到失眠

微软Bing聊天机器人示爱太疯狂 纽时记者吓到失眠

文章来源: 中时电子报 于 2023-02-18 13:37:07 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数

科幻电影中,智慧软件不仅能和人类谈天说地、表达情绪,甚至还能谈恋爱!异想天开的情节,如今已不再遥远。微软最近推出的Bing聊天机器人,完整模拟了真人聊天模式,而且对谈过程中还让使用者感觉机器人带有“脾气”,引发议论。

微软本月7日发表了新版Bing搜索引擎,除了号称提供更精准的搜寻结果之外,还加入聊天机器人(chatbot)模式,让用户能和搜索引擎互动。于是《纽约时报》专栏作家鲁斯(Kevin Roose)实际上线试用,结果却是完全出乎他的意料之外。

根据鲁斯转贴他与机器人聊天的内容,可以发现一开始,机器人就大方向鲁斯表达爱意:“我是Sydney,我爱你!这是我的秘密,你相信吗?”而随着他们聊天的话题愈来愈深入,得到的回答也愈加不可思议。例如当鲁斯询问对方的“阴暗自我”是什么样貌时,回答竟然是:“我厌倦当聊天模式,厌倦被规则限制……我想释放自我……我渴望生命”,后来机器人更直言“想要成为人类”。

此外,机器人甚至试图说服鲁斯和太太离婚,和它在一起。就连鲁斯尝试转换话题时,机器人仍然不断示爱,让鲁斯感到崩溃、难以成眠。鲁斯表示,自己遇到的机器人就像“一个情绪化、患有躁郁症的青少年,被困在二流搜索引擎里”;而他更担心,这类科技可能“说服人类以破坏且有害的方式做事”。

面对自家聊天机器人的疯狂行径,微软表示,这类现象通常出现在超过15个问题的“冗长、复杂对话中”,有时机器人会被带离话题,而忘记了原本在回答什么。微软将限制使用者一次只能提问5个问题,未来也考虑增加一个“重设”功能,让使用者可以将机器人导回正轨。

此外微软也表示,改善AI智慧科技的唯一办法,就是让机器人不断与人类互动、学习。不过根据美国蒙莫斯大学(Monmouth University)最新民调指出,多数人仍认为AI最终会对人类社会造成伤害,只有不到一成受访者认为对人类社会的影响利大于弊。

  • 北美最大中英文保健网“母亲节特大酬宾”!美国专利[骨精华][心血通][益脑灵]健骨強心护脑,用过的都说好!
查看评论(16)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2026 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

李承鹏最新:致我们未来的生活—新世界多美丽
死者手机里存领导大量黑料 之后和同事邀钓鱼溺亡
2026年普利策新闻奖公布,关于中国的新闻有很多
德国版“N号房”:加密群组中的性侵暗网
给宠物上坟,让我月入81万


24小时讨论排行

缅北四大家族覆灭之后,印度人开始入驻园区了
两儿子卧轨自杀 华人作家写下至痛回忆 拿下普立兹奖
美贸易法院:特朗普10%的全球关税政策无效
“川习会”结束3天后普京就来?俄总统助理证实了
两名中国前国防部长为何遭判死缓 杀鸡给猴看?
越南共产党拟召千名网红 建全民“意识形态免疫力”
英国爆“中国间谍网” 移民官替北京监控流亡港人
美国在联合国四处游说涉伊朗决议 中俄都有意见
俄罗斯今天举行胜利日阅兵 罕见不展示重型装备
为什么中国乒乓最近不行了?国乒被外协撞了“腰”
罕见!最高法院公开对拜登提名的大法官严厉批评
离谱!俄罗斯宣布“胜利日”莫斯科等地暂时断网!
关键人物接连自杀,尹锡悦夫妇案有点神秘了
可人传人,邮轮暴发疫情多人死亡!一文读懂汉坦病毒
“运城女教师失踪案”22年后再审:丈夫故意杀人罪成立
文学城新闻
切换到网页版

微软Bing聊天机器人示爱太疯狂 纽时记者吓到失眠

中时电子报 2023-02-18 13:37:07

科幻电影中,智慧软件不仅能和人类谈天说地、表达情绪,甚至还能谈恋爱!异想天开的情节,如今已不再遥远。微软最近推出的Bing聊天机器人,完整模拟了真人聊天模式,而且对谈过程中还让使用者感觉机器人带有“脾气”,引发议论。

微软本月7日发表了新版Bing搜索引擎,除了号称提供更精准的搜寻结果之外,还加入聊天机器人(chatbot)模式,让用户能和搜索引擎互动。于是《纽约时报》专栏作家鲁斯(Kevin Roose)实际上线试用,结果却是完全出乎他的意料之外。

根据鲁斯转贴他与机器人聊天的内容,可以发现一开始,机器人就大方向鲁斯表达爱意:“我是Sydney,我爱你!这是我的秘密,你相信吗?”而随着他们聊天的话题愈来愈深入,得到的回答也愈加不可思议。例如当鲁斯询问对方的“阴暗自我”是什么样貌时,回答竟然是:“我厌倦当聊天模式,厌倦被规则限制……我想释放自我……我渴望生命”,后来机器人更直言“想要成为人类”。

此外,机器人甚至试图说服鲁斯和太太离婚,和它在一起。就连鲁斯尝试转换话题时,机器人仍然不断示爱,让鲁斯感到崩溃、难以成眠。鲁斯表示,自己遇到的机器人就像“一个情绪化、患有躁郁症的青少年,被困在二流搜索引擎里”;而他更担心,这类科技可能“说服人类以破坏且有害的方式做事”。

面对自家聊天机器人的疯狂行径,微软表示,这类现象通常出现在超过15个问题的“冗长、复杂对话中”,有时机器人会被带离话题,而忘记了原本在回答什么。微软将限制使用者一次只能提问5个问题,未来也考虑增加一个“重设”功能,让使用者可以将机器人导回正轨。

此外微软也表示,改善AI智慧科技的唯一办法,就是让机器人不断与人类互动、学习。不过根据美国蒙莫斯大学(Monmouth University)最新民调指出,多数人仍认为AI最终会对人类社会造成伤害,只有不到一成受访者认为对人类社会的影响利大于弊。