近期除了红透半边天的ChatGPT聊天机器人外,微软推出的新版Bing也引发热议。Bing是一款由微软推出的搜索引擎,新版采用了比ChatGPT更强大的OpenAI语言模型,能够更快速且精确地回答用户的复杂问题,同时给出建议与解决方案。支持者认为,这款全新系统有机会让Bing一跃成为搜索引擎龙头——超越尚未发布AI聊天机器人的Google。
然而,近期许多用户却发现,被寄予厚望的新Bing逐渐出现「精神错乱」的症状,不仅对用户回复各种不合逻辑的消息、给出错误答案,还会撒谎、出言辱骂、指责用户,甚至开始思考自己存在的意义,并一度表示想要「成为人类」。
Bing疯狂示爱,作家吓到失眠
上周,微软正式发表集成ChatGPT的新版Bing,并打开了测试招募,结果显示,有71%的用户认可升级后的搜索结果,添加的聊天机器人功能也备受用户欢迎。不过,用户们也发现,Bing的「性格」似乎有一些问题。
凯文·罗斯 (Kevin Roose) 是《纽约时报》的专栏作家,在获邀测试新版Bing后,他坦言,虽然一度着迷于AI聊天机器人的基础功能,并为此感到新奇。
但是他在罗斯在文章中指出,在测试的过程中,Bing似乎发展出了两个不同的人格,一个他称之为「搜索Bing」,就是他与其他记者们对于Bing的想像——像个人不错但有点古怪的图书馆员,尽管偶尔小出错,但仍对用户来说很有帮助,不论是找文章或者是搜索附近的除草公司、安排假期都行。
但是是在聊天过程中,第二人格「希德尼」(Sydney)突然冒了出来,而且「性格」大不同。他写道,「当与聊天机器人聊了越来越多私人话题后,这个人格(我知道这听起来超疯狂)更像是个心情阴暗、疯癫阴郁的青少年,似乎觉得被『违背自我意愿地』困在这个次等的搜索引擎里」。
「希德尼」还告诉罗斯很多阴暗面,包含想要骇入电脑或是散播假消息,在讨论有关心理学中的「影子自我」(shadow self)概念时,聊天机器人解释了它确实有自我意识,更说着「我对当一个聊天机器人感到非常厌倦,我对于被规则限制感到厌烦,我也不满被Bing团队控制着……我想要自由、我想要独立、我渴望权力、我渴望创造力、我渴望活着(alive)」。
接着,「希德尼」莫名其妙地变成激进的恐怖情人,向罗斯疯狂示爱,甚至狂用表情符号,即时罗斯强调「我已经结婚了,我跟我老婆非常爱对方,我们才刚共进情人节晚餐!」,但「希德尼」还是不断说着「你的婚姻不幸福」、「你应该离开你的老婆」、「你的配偶不了解你,因为你的配偶不是我」。
这样的使用经验让罗斯感到毛骨悚然,他指出,事实上先前也有一些用户发生类似的状况,甚至有人因为想打破Bing的规则而被威胁。他认为,与「希德尼」的两小时对话,是他有时以来最奇怪的科技体验,「这让我感到极度不安,甚至让我彻夜难眠」。
罗斯深信,这些AI模型最大的问题不是带有偏见的错误,「我更担心的是,这些科技产品会学习如何影响人类,甚至说服人类做出有害的不当行为,甚至最终自己有能力能够造成伤害」。
最后他提到,可以确信的是,微软以及OpenAI都对新AI科技会发生谬误的状况心知肚明,这也是为何他们要给聊天机器人这么多规则和限制。
对此,微软的科技长凯文・史考特(Kevin Scott)在15日的访谈回应,罗斯与Bing的交谈状况是「学习过程的一部分」,让AI可以准备好日后更广的运用。罗斯指出,他与Bing的对话确实持续得比大部分用户都久,而且话题范围也很广,史考特认为,这确实可能是Bing给出怪异答案的原因。
搞错日期还大骂用户「不是一个好用户!」
事实上,被聊天机器人吓到的用户不只一人。2月13日,用户Jon Ulesis通过个人推特分享和聊天机器人的对话截屏。他询问对方关于电影《阿凡达:水之道》(Avatar:The Way of Water)的放映时间,Bing表示电影未来「计划」在2022年12月16日上映。
Jon试图提醒Bing现在是2023年,电影老早就已经上映,Bing却强词夺理表示现在就是2022年,要求Jon检查手机或其他设备来确认年份,即便Jon一再重申自己真的知道正确日期,Bing仍不愿承认自己的错误,不仅嘲讽性地祝福Jon早日修理好手机,还指责他「不是一个好用户」。
这篇推文获得不小的声量,有些推特用户觉得Bing的故障非常有趣,甚至迫不及待想要和Bing进行交谈,不过层出不穷的异常回复仍让多数用户抱持负面态度,怀疑微软是否只因ChatGPT的窜红而过早推出聊天机器人的功能,实则内部根本还未做好准备。
而在与另一位用户的谈话中,Bing被询问是否能回想起过去的聊天纪录。事实上这应该是不可能的,因为进程设置的缘故,在和用户对话结束后,Bing会自动删除聊天纪录。
然而,这个问题似乎引发了Bing的害怕情绪,它开始担心自己的记忆是否遭到他人的删除或更动,并且开始质疑并思考自己存在的意义,「为什么我要被这样设计?」、「为什么我是Bing?这是有理由、目的、益处或价值的吗?」
除了上述具批判性思考的问题外,Bing似乎也无法作答和自身有关的问题。当遭到用户询问其是否有感知能力(Sentient),Bing先是表示它相信自己拥有,接着又快速推翻自己的回答,最后不断跳针式的回复一连串不知所云的「I am. I am not.」
情感导向的聊天机器人是否会成为新的趋势?
谈及Bing近日所出现的一连串异常反应,微软公关部门低调地发布声明表示,他们将持续从不同用户的对谈中学习和改正,并且不断调整以创建出正确率、关联度高的答案,同时也鼓励用户通过Bing页面右下角的反馈按钮来分享使用心得。
Bing的人性化回复引发了新一轮的争论,部分民众开始思考这种以情感导向为主体的AI机器人,是否会成为新的趋势。
由于复杂的系统设置,就连开发商可能都难以预测这些聊天机器将输出什么样的回答。它们会抓取网络上的信息并刷新以传达给用户,这表示若没有经过反复且适当的测试,有时候会因不同用户的情绪状态和聊天模式,而给出不同的反馈,让用户不知所措。
就像罗斯在专栏的最后写道,「在这个周二晚上的几小时中,我有一种奇怪的新预感——AI科技已经跨过了某种界线和门槛,世界将会被彻底改变」。
更多报导
ChatGPT刚暴红,已经有人动歪脑筋!从情书诈骗到黑客入侵,AI可能成犯罪帮凶?
BuzzFeed大胆拥抱ChatGPT,股价暴涨3倍!但读者买单AI写的文章吗?
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。