我。
四个月可以带来多大的不同。
如果你在 11 月问我如何看待人工智能系统的进步,我可能会耸耸肩。当然,那时 OpenAI 已经发布了 DALL-E,我发现自己被它所呈现的创造性可能性所吸引。不过,总的来说,经过多年观察大型平台大肆宣传人工智能,市场上似乎很少有产品能够实现多年来为我们描述的更宏伟的愿景。
然后 OpenAI 发布了 ChatGPT,这个聊天机器人以其生成的可能性吸引了世界。微软的 GPT 驱动的 Bing 浏览器、Anthropic 的 Claude 和谷歌的 Bard 紧随其后。AI 驱动的工具正在迅速融入其他 Microsoft 产品,更多的工具正在进入 Google 的 .
与此同时,随着我们越来越接近无处不在的合成媒体世界,一些危险迹象正在出现。上周末,一张教皇弗朗西斯穿着精美的白色羽绒服的照片在网上疯传——我也是那些被愚弄而相信这是真的的人之一。开源情报网站 Bellingcat 的创始人在使用 Midjourney 创建和传播唐纳德·特朗普被捕的一些怪诞可信的图像后被禁止使用它。(在大量新注册用户涌入后,该公司已禁用免费试用。)
一群著名的技术专家现在要求这些工具的制造商放慢速度
合成文本正迅速进入学生、撰稿人和其他从事知识工作的任何人的工作流程;本周BuzzFeed成为最新一家开始试验 AI 撰写帖子的出版商。
与此同时,科技平台正在裁减其 AI 道德团队的成员。由 Meta 创建的大型语言模型泄露并发布到 4chan,很快有人想出了如何让它在笔记本电脑上运行。
在其他地方,OpenAI 发布了 GPT-4 插件,允许语言模型访问 API 并更直接地与互联网交互,引发人们担心它会创造不可预测的新危害途径。(我直接向 OpenAI 询问了那个问题;该公司没有回复我。)
正是在这种漩涡的背景下,一群著名的技术专家现在要求这些工具的制造商放慢速度。这是纽约时报的 Cade Metz 和 Gregory Schmidt:
包括埃隆·马斯克在内的 1,000 多名技术领袖和研究人员敦促人工智能实验室暂停最先进系统的开发,并在一封公开信中警告称,人工智能工具“对社会和人类构成深远风险”。
非营利组织 Future of生命研究所周三发布。
签署这封信的其他人包括苹果联合创始人史蒂夫·沃兹尼亚克 (Steve Wozniak); Andrew Yang,企业家和 2020 年总统候选人;和设置世界末日时钟的原子科学家公报的主席雷切尔·布朗森 (Rachel Bronson)。
如果没有别的,这封信给我的印象是存在主义人工智能恐惧走向主流意识的里程碑。多年来,批评家和学者一直在警告这些技术带来的危险。但就在去年秋天,玩 DALL-E 或 Midjourney 的人很少担心“一场开发和部署更多数字思维的失控竞赛”。然而我们到了。
技术专家的信中有一些有价值的批评。华盛顿大学语言学教授兼 AI 评论家 Emily M. Bender 称其为“一团糟”,部分原因是认为像这样的末日论最终会使 AI 公司受益,因为它们看起来比实际上更强大. (另请参阅有关该主题的 Max Read。)
令名义上担心人工智能欺骗的群体感到尴尬的是,许多最初作为这封信的签署人出现的人结果并没有在信上签名。福布斯指出,组织信函活动的机构主要由马斯克资助,他有自己的人工智能野心。
人工智能的变化速度确实让人感觉它很快就会超过我们处理它的集体能力
还有人认为速度不应该是我们在这里的主要关注点。上个月 Ezra Klein 认为我们真正的重点应该放在这些系统的商业模式上。令人担忧的是,广告支持的人工智能系统被证明在操纵我们的行为方面比我们目前想象的更强大——无论我们选择多快或多慢,这都是危险的。克莱因写道:“在做出这些决定为时已晚之前,社会将不得不弄清楚让人工智能做什么是舒服的,以及不应该允许人工智能尝试什么。”
这些都是好的和必要的批评。然而,无论我们在公开信中发现什么缺陷——我对最近马斯克特别要说的任何事情都持相当低的折扣——最终我被他们的集体论点说服了。人工智能的变化速度确实让人感觉它很快就会超过我们处理它的集体能力。签署方所要求的改变——在比已经发布的语言模型更大的语言模型的开发中短暂暂停——感觉就像是宏伟计划中的一个小要求。
技术报道往往侧重于创新和由此产生的直接破坏。它通常不太善于思考新技术如何导致社会层面的变化。然而,人工智能对就业市场、信息环境、网络安全和地缘政治产生巨大影响的潜力——仅举四个问题——应该让我们有理由进行更长远的思考。
二。
Aviv Ovadya 研究信息环境,我之前在此处介绍过他的工作,在 GPT-4 发布之前曾在 OpenAI 的红队任职。红队本质上是一种角色扮演练习,参与者扮演系统的对手,以识别系统的弱点。GPT-4 红队发现,如果任其发展,语言模型会做各种我们不希望它做的事情,比如雇佣一个不知情的 TaskRabbit 来解决 CAPTCHA。然后,OpenAI 能够在发布模型之前解决该问题和其他问题。
不过,在Wired的一篇新文章中,Ovadya 认为仅靠红队合作是不够的。他写道,仅仅知道模型吐出什么材料是不够的。我们还需要知道模型的发布可能对整个社会产生什么影响。它将如何影响学校、新闻业或军事行动? Ovadya 建议在模型发布之前引入这些领域的专家,以帮助建立公共产品和机构的弹性,并查看是否可以修改工具本身以防止滥用。
Ovadya 将此过程称为“紫罗兰色组合”:
您可以将其视为一种柔道。通用人工智能系统是一种巨大的新形式的力量,正在向世界释放,这种力量会损害我们的公共利益。正如柔道改变攻击者的力量以压制他们一样,紫罗兰色团队旨在改变人工智能系统释放的力量以保护这些公共物品。
在实践中,执行紫罗兰色团队可能涉及一种“弹性孵化器”:将机构和公共产品方面的扎根专家与可以使用(预发布)人工智能模型快速开发新产品的人员和组织配对,以帮助减轻这些风险
如果像 OpenAI 和谷歌这样的公司自愿或在新的联邦机构的坚持下采用,紫罗兰色团队可以更好地让我们为更强大的模型将如何影响我们周围的世界做好准备。
不过,紫罗兰色团队充其量只是我们在这里需要的监管的一部分。我们必须解决许多基本问题。是否应该允许像 GPT-4 这样大的模型在笔记本电脑上运行?我们是否应该限制这些模型访问更广泛互联网的程度,就像 OpenAI 的插件现在所做的那样?当前的政府机构是否会监管这些技术,或者我们是否需要创建一个新的技术?如果是这样,我们能多快做到这一点?
互联网的速度经常对我们不利
我不认为你必须相信人工智能炒作才能相信我们需要这些问题的答案——如果不是现在,那么很快。我们僵化的政府需要时间来找出答案。如果技术继续以超过政府理解能力的速度发展,我们可能会后悔让它加速发展。
无论哪种方式,接下来的几个月都将让我们观察 GPT-4 及其竞争对手在现实世界中的影响,并帮助我们了解我们应该如何以及在何处采取行动。但我认为,知道在那段时间不会发布更大的模型,会让那些认为人工智能可能像某些人认为的那样有害的人感到安慰。
如果我从报道对社交媒体的强烈反对中吸取教训,那就是互联网的速度经常对我们不利。谎言的传播速度比任何人都能缓和它们的速度更快;仇恨言论比脾气平息更快地激发暴力。在社交媒体上疯传的帖子被阻止,或者用额外的上下文对其进行注释,使这些网络对不良行为者更有弹性,否则他们会利用它们进行伤害。
我不知道人工智能是否最终会造成一些危言耸听者现在预测的破坏。但我相信,如果该行业继续全速发展,这些危害更有可能发生。
放慢更大语言模型的发布并不能完全解决未来的问题。但它可以让我们有机会开发一个。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。