周三,包括埃隆·马斯克 (马斯克) 和苹果公司联合创始人史蒂夫·沃兹尼亚克 (Steve Wozniak) 在内的 1,100 多位知名公众人物签署了一封公开信,恳请研究人员在六个月内暂停开发比 GPT-4 更强大的人工智能系统。
“最近几个月,人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,没有人——甚至是它们的创造者——无法理解、预测或可靠地控制,”部分内容写道生命未来研究所周三发表的一封信,该组织试图“引导变革性技术造福于生活,远离极端大规模的风险。”在提议的六个月暂停期间,FLI 建议未具名的独立外部专家制定并实施一套“经过严格审计”的共享安全协议,以及可能的政府干预。
但自这封信发表以来,许多专家强调,该运动的一些支持者和策划者赞同一种越来越流行和有争议的技术乌托邦哲学,称为“长期主义”,批评者声称这种哲学在优生学运动中有历史根源。
在包括马斯克和彼得泰尔在内的硅谷最重量级人物的支持下,长期主义将功利主义道德与超人类主义和概率论等科幻概念相结合。批评者现在担心 FLI 信中提到的长期主义观点是对大型语言模型 (LLM) 实际问题的转移,并揭示了共同签名者对所谓的“人工智能”系统本身的误解。
从广义上讲,长期主义者认为,在道义上必须通过任何必要的方式来确保人类的生存,以最大限度地提高未来生活的福祉。虽然有些人可能觉得这很合理,但长期主义的支持者——以及类似的重叠观点,如有效利他主义和超人类主义——的主要动机是希望人类殖民太空并获得几乎无法想象的技术进步。为实现这一目标,长期主义者长期以来一直主张创建一种友好的联合通用人工智能 (AGI),以推动人类进步。
许多支持 FLI 信函的长期主义者认为,流氓人工智能系统对未来人类构成了这些最直接的“生存风险”之一。随着 OpenAI 的 ChatGPT 和谷歌 Bard 等生成语言程序主导新闻周期,观察家们表达了对劳动力、错误信息和整体社会政治稳定的明显后果的担忧。然而,一些支持 FLI 的信件的人认为,研究人员正处于无意中创造危险的、有感知力的人工智能系统的风口浪尖,类似于在《黑客帝国》和《终结者》等热门科幻电影系列中看到的系统。
“AGI 被广泛视为 [longtermist] 叙事中的救世主,是将我们从‘这里’带到‘那里’的工具,”专注于存在风险的哲学家和历史学家 Émile P. Torres 告诉PopSci。但对托雷斯来说,长期支持者制造了他们现在在 FLI 的公开信中担心的问题。“他们将 AGI 大肆宣传为拯救人类的救世主,亿万富翁对此深信不疑,公司开始开发他们认为是 AGI 的先驱,然后突然间他们惊慌失措,因为进展太快了,”他们说。
与此同时,华盛顿大学语言学教授、大型语言模型 (LLM) 长期研究员 Emily M. Bender 强调了类似的长期主义者对这些程序实际运作方式的误解。“是的,人工智能实验室陷入了一场失控的竞赛,但没有人开发出‘数字思维’,他们也没有在这样做,”Bender 在 推特 上说。
微软解雇了整个 AI 道德团队,同时全力开发 ChatGPT。]
2021 年,Bender 与他人共同发表了一篇被广泛阅读的研究论文(FLI 信中的第一次引用)强调了他们对 LLM 的担忧,其中没有一篇以“过于强大的 AI”为中心。这是因为 LLM 本质上不能拥有自我意识——它们是在大量文本库上训练的神经网络,可以识别模式并生成自己的概率文本。相反,Bender 担心法学硕士在“权力集中在人们手中、压迫的再生产系统、对信息生态系统的破坏以及对自然生态系统的破坏(通过滥用能源资源)”中的作用。
托雷斯秒本德的立场。“‘公开信’只字不提社会正义。它不承认像 OpenAI 这样的公司已经在世界上造成的伤害,”他们说,并引用了最近的报告,称肯尼亚承包商支付了贫困水平的工资,这些承包商审查图形内容以改善 ChatGPT 的用户体验。
与许多公开信的签署者一样,Bender 和他们的盟友同意当前的生成文本和图像技术需要监管、审查和仔细考虑,但它们的直接后果会影响活着的人类——而不是我们本应受空间限制的后代。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。