这封由非营利组织未来生命研究所发布的公开信有 1000 多个签名者,其中包括马斯克、苹果公司联合创始人史蒂夫沃兹尼亚克、Stability AI 首席执行官埃马德莫斯塔克和智人作者尤瓦尔诺亚哈拉里。它要求立即停止系统培训至少六个月,这必须是公开的、可验证的并包括所有公共行为者。
信中说:“广泛的研究表明,具有人类竞争智能的人工智能系统可能对社会和人类构成深远的风险,并得到顶级人工智能实验室的认可。” “我们应该让机器用宣传和谎言淹没我们的信息渠道吗?我们应该自动化所有工作,包括令人满意的工作吗?我们应该冒失去对我们文明控制的风险吗?”
这封公开信是在 OpenAI 的 GPT-4 公开亮相几周后发布的,该大型语言模型为广受欢迎的聊天机器人 ChatGPT 的高级版本提供支持。根据 OpenAI 的说法,新的 GPT-4 可以处理更复杂的任务并产生比早期版本更细微的结果,并且也更少受到早期版本缺陷的影响。
为了完成他们的工作,像 GPT-4 这样的系统需要接受大量数据的训练,然后它们可以利用这些数据来回答问题和执行其他任务。去年 11 月突然出现的 ChatGPT 具有类似人类的能力,可以编写工作电子邮件、计划旅行路线、生成计算机代码并在律师考试等考试中表现出色。
OpenAI 没有立即回应置评请求。
但在其网站上,OpenAI 承认有必要确保“通常比人类更聪明”的技术系统为人类造福。“在某些时候,在开始训练未来系统之前获得独立审查可能很重要,并且对于最先进的努力来说,同意限制用于创建新模型的计算增长率。”
自今年年初以来,越来越多的公司,包括谷歌、微软、Adobe、Snapchat、DuckDuckGo 和 Grammarly,都宣布了利用生成式 AI 技能的服务。
OpenAI 自己的研究表明,这些人工智能技能会带来风险。例如,生成式 AI 系统可以引用不可靠的来源,或者正如 OpenAI 指出的那样,“通过采取有害或无意的行动来增加安全挑战,增加欺诈、误导或虐待他人的不良行为者的能力。”
人工智能专家对这一切可能的发展方向以及公司在没有充分保障甚至不了解其影响的情况下匆忙推出产品感到震惊。
“先进的人工智能可能代表地球生命史上的深刻变化,应该以相应的关怀和资源来规划和管理,”信中说。“不幸的是,这种级别的规划和管理并没有发生,尽管最近几个月人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,没有人——甚至他们的创造者——可以理解、预测或可靠地控制。”
编者注:CNET 正在使用 AI 引擎创建一些个人理财解释器,这些解释器由我们的编辑进行编辑和事实检查。有关更多信息,请参阅这篇文章。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。