大家好消息,我们正在转向聊天机器人! OpenAI 在去年 11 月发布 ChatGPT 时几乎没有意识到,旨在不可思议地模仿人类写作的高级 LLM(大型语言模型)将成为迄今为止增长最快的应用程序,超过过去三个月。它的成功——在微软的帮助下——在很大程度上让公司的竞争对手措手不及,反过来又激起了 , 和 .但随着这些增强的搜索引擎在未来几天上线,我们搜索的方式和原因肯定会随之发展。
“我对这项技术感到非常兴奋。你知道,我们构建 NLP 系统已经有一段时间了,而且我们每年都在关注增量增长,”加州大学尔湾分校 (UCI) 计算机科学副教授告诉。“对于公众来说,这似乎是突然之间,这就是我们所处的位置。这些年来,我看到情况在好转,所有这些东西随处可用并让人们使用它是件好事。”
至于最近大型语言模型的公开成功,“我认为部分原因是技术已经发展到这样的地步,将这些模型的输出呈现在人们面前并不完全令人尴尬——而且大多数时候看起来确实不错,”辛格继续说道。“我认为这已经足够了。”
“我认为这与技术关系不大,而与公众看法有关,”他继续说道。“如果 GPT 没有公开发布的话……一旦这样的东西出现并且它真的引起了很多人的共鸣,它的使用率就会超出图表。”
搜索提供商对人工智能增强的网络爬虫和搜索引擎如何工作有很大的想法,如果他们不破坏东西并快速移动到那里,该死的。微软将其 Bing AI 设想为用户浏览网页时的“ ”,跟随他们一页一页地回答问题,甚至代表他们撰写社交媒体帖子。
这是我们今天使用的流程的根本变化。根据问题的复杂性,用户可能需要访问多个网站,然后筛选收集到的信息并将其拼接成一个有凝聚力的想法,然后再进行评估。
纽约大学 Tandon 计算机科学与工程系助理教授告诉 :“这比拥有一个希望已经阅读这些页面并将其合成为网络上目前不存在的东西的模型需要更多的工作。” “信息仍然存在。它仍然是可验证的,并且希望是正确的。但还没有全部到位。”
就其本身而言,谷歌对人工智能驱动的未来的愿景是让用户在其搜索页面上徘徊,而不是点击进入目标网站。与用户查询相关的信息将从网络上收集,通过语言模型拼接在一起,然后根据以脚注显示的原始网站作为答案反省。
这一切听起来都很棒,而且一切都很顺利,直到出现问题的第一个机会。什么时候做的。在其首个 Twitter 广告中——首次亮相后不到 24 小时——Bard,谷歌对 ChatGPT 的回应,“JWST 拍摄了我们太阳系外行星的第一张照片。”您会惊讶地发现詹姆斯·韦伯太空望远镜实际上并没有发现历史上第一颗系外行星。ESO 的甚大望远镜自 2004 年以来一直享有这一荣誉。巴德只是在某种程度上弥补了这一点。从数字以太中幻觉出来。
Bard 是一项实验性对话式 AI 服务,由 LaMDA 提供支持。使用我们的大型语言模型构建并利用网络信息,它是好奇心的启动板,可以帮助简化复杂的主题 → https://t.co/fSp531xKy3 pic.twitter.com/JecHXVmt8l
– 谷歌 (@Google) 2023 年 2 月 6 日
当然,这不是我们第一次被机器骗了。从 Lycos 和 Altavista 的早期开始,搜索就一直有点冒险。“当搜索发布时,我们认为它’足够好’,尽管它并不完美,”Singh 回忆道。“它会给出各种各样的结果。随着时间的推移,这些已经有了很大的改善。我们试过它,我们意识到什么时候应该相信它,什么时候不应该相信它——什么时候应该进入结果的第二页,什么时候不应该。”
下一代语音 AI 助手的发展经历了与其基于文本的前辈相同的基本问题。“当 Siri 和 Google Assistant 以及所有这些产品和 Alexa 出现时,”Singh 说,“它们不再是我们卖给我们的那种助手。”
Bard 和 ChatGPT 等当今 LLM 的表现可能会通过公共使用以及通过进一步专业化到特定的技术和基于知识的角色(例如医学、商业分析和法律)而沿着类似的路径得到改善。“我认为一旦你开始专业化它就会变得更好,这肯定是有原因的。我不认为谷歌和微软特别会过度专业化——他们的市场尽可能普遍,”辛格指出。
在许多方面,Google 和 Bing 通过将他们的服务置于更广泛的互联网面前而提供的服务——就像 AOL 在 90 年代对美国在线服务所做的那样——是对当今互联网用户面临的挑战的合乎逻辑的结论。
“没有人将搜索作为最终目标。我们正在寻找一些信息,最终根据这些信息采取行动,”辛格争辩道。“如果我们将其视为搜索的作用,而不仅仅是字面上搜索某物的字面意义的搜索,你可以想象实际上在搜索结果之上起作用的东西会非常有用。”
辛格将这种权力集中描述为“一个非常合理的担忧。简而言之,如果你有这些聊天功能,你就不太愿意去实际访问这些信息所在的网站,”他说。
聊天机器人习惯于在摘要中进行广泛的智力飞跃,这已经够糟糕了,但这种做法也可能“激励用户不去网站,不阅读整个源代码,只获取聊天界面给你的版本并排序开始越来越依赖它,”辛格警告说。
在这一点上,Singh 和 Dolan-Gavitt 同意。“如果你从网站本应获得的访问量中蚕食,并且不再将人们引导到那里,而是使用相同的信息,那么有一种观点认为这些网站将没有太多动力继续发布新内容。”多兰-加维特告诉。“另一方面,对点击的需求也是我们收到大量垃圾邮件的原因之一,也是搜索最近变得不那么有用的原因之一。我认为 [搜索的缺点] 是人们对这些聊天机器人产品反应更积极的一个重要原因。”
这种需求与新兴市场相结合,导致该行业的主要参与者争先恐后地在昨天推出他们的产品,无论是否准备好,是否平淡无奇。抢占市场份额对消费者来说无疑是危险的。微软之前涉足 AI 聊天机器人,2014 年的 Taye,结局不佳(没有白头罩和正步走)。如今,Redditor 已经越狱 OpenAI 以生成种族主义内容。随着 LLM 的使用范围扩大,这是我们将面临的两个更无害的挑战,但事实证明,即使它们在一定程度上也难以消除,因为它们需要在粘性竞争者的行业之间进行协调。
“我倾向于担心的事情是,在软件方面,这是否会让更多人掌握恶意功能,让人们更容易编写恶意软件和病毒,”Dolan-Gavitt 说。“这不像错误信息那样极端,但可以肯定的是,我认为这会让人们更容易制造垃圾邮件。”
“到目前为止,很多关于安全的想法都是基于这样一种想法,即只有几种中央公司,如果你能让他们都同意,我们就可以有一些安全标准。”多兰-加维特继续说道。“我认为竞争越激烈,你就越能获得这个开放的环境,你可以在其中下载一个不受限制的模型,在你的服务器上设置它,让它生成你想要的任何东西。依赖这种更集中化模型的方法将开始分崩离析。”
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。