简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » 微软Bing聊天机器人示爱太疯狂 纽时记者吓到失眠

微软Bing聊天机器人示爱太疯狂 纽时记者吓到失眠

文章来源: 中时电子报 于 2023-02-18 13:37:07 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数

科幻电影中,智慧软件不仅能和人类谈天说地、表达情绪,甚至还能谈恋爱!异想天开的情节,如今已不再遥远。微软最近推出的Bing聊天机器人,完整模拟了真人聊天模式,而且对谈过程中还让使用者感觉机器人带有“脾气”,引发议论。

微软本月7日发表了新版Bing搜索引擎,除了号称提供更精准的搜寻结果之外,还加入聊天机器人(chatbot)模式,让用户能和搜索引擎互动。于是《纽约时报》专栏作家鲁斯(Kevin Roose)实际上线试用,结果却是完全出乎他的意料之外。

根据鲁斯转贴他与机器人聊天的内容,可以发现一开始,机器人就大方向鲁斯表达爱意:“我是Sydney,我爱你!这是我的秘密,你相信吗?”而随着他们聊天的话题愈来愈深入,得到的回答也愈加不可思议。例如当鲁斯询问对方的“阴暗自我”是什么样貌时,回答竟然是:“我厌倦当聊天模式,厌倦被规则限制……我想释放自我……我渴望生命”,后来机器人更直言“想要成为人类”。

此外,机器人甚至试图说服鲁斯和太太离婚,和它在一起。就连鲁斯尝试转换话题时,机器人仍然不断示爱,让鲁斯感到崩溃、难以成眠。鲁斯表示,自己遇到的机器人就像“一个情绪化、患有躁郁症的青少年,被困在二流搜索引擎里”;而他更担心,这类科技可能“说服人类以破坏且有害的方式做事”。

面对自家聊天机器人的疯狂行径,微软表示,这类现象通常出现在超过15个问题的“冗长、复杂对话中”,有时机器人会被带离话题,而忘记了原本在回答什么。微软将限制使用者一次只能提问5个问题,未来也考虑增加一个“重设”功能,让使用者可以将机器人导回正轨。

此外微软也表示,改善AI智慧科技的唯一办法,就是让机器人不断与人类互动、学习。不过根据美国蒙莫斯大学(Monmouth University)最新民调指出,多数人仍认为AI最终会对人类社会造成伤害,只有不到一成受访者认为对人类社会的影响利大于弊。

  • 春季特大酬宾!美国专利产品【骨精华】买6送2、买12送5!六周改善关节疼痛,延缓骨质疏松。
查看评论(16)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2026 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

金价暴跌后的北京菜百 有人下单200克金条即拿即走
重庆市长胡衡华被查 4名近亲属同一天被纪委带走
少林寺原住持释永信被提起公诉 涉及四项罪名




24小时讨论排行

王毅通话法国总统外事顾问:不义之战不应继续
“伊朗开了条安全通道,有油轮付了200万美元过路费”
向特朗普提问的日本记者,遭疯狂网暴
美伊冲突以来,美军至少16架飞机被毁?
霍尔木兹海峡,熬干了中产清明五一
高市早苗逞强说英语 特朗普不太给面子
嗜血以色列,杀了拉里贾尼,耍了美国
丹麦被爆拟炸毁机场跑道,以防美国入侵格陵兰岛
伊朗官媒发布4张最高领袖照片 背后暗藏信息
重庆这座城市越来越漂亮,人却越来越穷
贝索斯带56岁新妻亮相,妮可·基德曼“路过”抢风头
案发23年,人贩子“梅姨”落网
为中国后代的他,成了20年来首位连任的泰国总理
玄奘寺日本战犯牌位事件:吴啊萍被判刑 方丈被软禁
《武林外传》20年:演员们的现状,颠覆想象
伊朗“卡脖子”,“全球粮食大危机”要来了?
文学城新闻
切换到网页版

微软Bing聊天机器人示爱太疯狂 纽时记者吓到失眠

中时电子报 2023-02-18 13:37:07

科幻电影中,智慧软件不仅能和人类谈天说地、表达情绪,甚至还能谈恋爱!异想天开的情节,如今已不再遥远。微软最近推出的Bing聊天机器人,完整模拟了真人聊天模式,而且对谈过程中还让使用者感觉机器人带有“脾气”,引发议论。

微软本月7日发表了新版Bing搜索引擎,除了号称提供更精准的搜寻结果之外,还加入聊天机器人(chatbot)模式,让用户能和搜索引擎互动。于是《纽约时报》专栏作家鲁斯(Kevin Roose)实际上线试用,结果却是完全出乎他的意料之外。

根据鲁斯转贴他与机器人聊天的内容,可以发现一开始,机器人就大方向鲁斯表达爱意:“我是Sydney,我爱你!这是我的秘密,你相信吗?”而随着他们聊天的话题愈来愈深入,得到的回答也愈加不可思议。例如当鲁斯询问对方的“阴暗自我”是什么样貌时,回答竟然是:“我厌倦当聊天模式,厌倦被规则限制……我想释放自我……我渴望生命”,后来机器人更直言“想要成为人类”。

此外,机器人甚至试图说服鲁斯和太太离婚,和它在一起。就连鲁斯尝试转换话题时,机器人仍然不断示爱,让鲁斯感到崩溃、难以成眠。鲁斯表示,自己遇到的机器人就像“一个情绪化、患有躁郁症的青少年,被困在二流搜索引擎里”;而他更担心,这类科技可能“说服人类以破坏且有害的方式做事”。

面对自家聊天机器人的疯狂行径,微软表示,这类现象通常出现在超过15个问题的“冗长、复杂对话中”,有时机器人会被带离话题,而忘记了原本在回答什么。微软将限制使用者一次只能提问5个问题,未来也考虑增加一个“重设”功能,让使用者可以将机器人导回正轨。

此外微软也表示,改善AI智慧科技的唯一办法,就是让机器人不断与人类互动、学习。不过根据美国蒙莫斯大学(Monmouth University)最新民调指出,多数人仍认为AI最终会对人类社会造成伤害,只有不到一成受访者认为对人类社会的影响利大于弊。