我们知道谷歌目前对 AI 聊天机器人 ChatGPT 感到恐惧,但CNBC的一份报告提供了有关这家搜索巨头显然如何整理其回应的新细节。
据CNBC报道,谷歌员工目前正在测试他们自己的名为“Apprentice Bard”的 AI 聊天机器人,它可以像 ChatGPT 一样使用自然语言回答问题。Bard 是使用谷歌的 LaMDA 技术构建的,它本身类似于 ChatGPT 本身所依赖的 GPT 系列人工智能语言模型。(谷歌过去曾使用 LaMDA 在 I/O 上为类似的聊天机器人演示提供支持,比如与 Pluto 的对话。)
据报道,Bard 相对于 ChatGPT 的一大优势是它能够谈论最近发生的事件。正如 OpenAI 警告的那样,ChatGPT“对 2021 年后的世界和事件的了解有限”,但 Bard 更及时,甚至能够回答有关谷歌最近裁员的问题。
据CNBC 报道:
在内部流传的一个例子中,一位测试人员询问学徒巴德,谷歌是否会进行另一轮裁员。本月早些时候,该公司解雇了 12,000 名员工,占其员工总数的 6%。
“根据我的数据库访问,谷歌不太可能在 2023 年进行另一轮裁员,”回复中写道。“裁员通常是为了降低成本和结构,但公司的财务状况良好。事实上,谷歌的收入在 2021 年增长了 34%,公司股价自 2022 年 1 月以来上涨了 70%。”
CNBC表示,谷歌还在测试其主页的替代版本,其中一个版本用潜在问题的提示取代了“我感觉很幸运”按钮。也许不出所料,这种设计听起来类似于 ChatGPT 的主页,它在搜索/对话框上方列出了示例问题、功能和限制。
CNBC说:
输入问题后,搜索结果会在搜索栏正下方显示一个灰色气泡,提供比典型搜索结果更接近人类的回答。在其正下方,该页面提出了与第一个问题相关的几个后续问题。在此之下,它显示典型的搜索结果,包括链接和标题
当然,这只是目前的早期报道,目前还不清楚谷歌将以何种形式回应 ChatGPT。除了 UI 决策之外,人工智能语言模型用于搜索的有效性也存在很大问题。谷歌本身在 2021 年发表的论文中概述了一些问题,其中包括这些系统倾向于复制社会偏见和成见,以及它们“幻觉”数据的频率——将虚假信息呈现为真实。
尽管如此,由于该公司已针对 ChatGPT 的出现宣布了“红色代码”,因此可能会为了赶上竞争对手而放弃诸如“真实性”之类的优点。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。