
世界上最重要的人工智能专家之一,也是神经网络概念的先驱,现在说他的一部分“对他毕生的工作感到遗憾”。Geoffrey Hinton 博士为当前的人工智能模型奠定了很多基础,他已经离开了他在谷歌的职位,这样他就可以自由地谈论人工智能带来的危险。欣顿博士在接受纽约时报采访时说:“很难看出如何才能防止坏人利用它来做坏事。”
这位 75 岁老人的许多恐惧似乎都集中在人工智能的发展如何加速以及大公司如何竞相推出更先进的模型上。他提到了自己在谷歌的经历,称该公司最初是人工智能发展的“合适的管家”。然而,他继续强调谷歌为了响应微软发布的 Bing Chat 而匆忙退出 Bard,这表明重点已经转移。
他关于人工智能危险的理论在很大程度上与同时代人的理论相呼应。他赞同人工智能可能颠覆就业市场并导致大规模失业的观点,而欣顿博士也认为恶意人工智能可能会造成直接伤害。他还警告人们和公司使用人工智能所带来的危险。最重要的是,他担心人工智能可能无法监管。伊隆马斯克此前曾声称人工智能可能比核武器更危险。Hinton 博士指出,核武器已得到有效监管,而个人、国家和企业可以轻松地秘密开发 AI 模型。
Hinton 不是唯一一个发声的技术专家

Hinton 不是唯一一个对未来危险发出严厉警告的技术专家由 AI 提出。今年早些时候,包括伊隆·马斯克和史蒂夫·沃兹尼亚克在内的众多专家签署了一封信,呼吁将 AI 实验冻结六个月。Hinton 博士也会在这封信上签名,但他声称他避免这样做是因为他不想在为谷歌这样的公司工作的同时批评他们。暂停将停止任何比 GPT4 更强大的模型的开发,目的是让 AI 开发人员和专家有时间提出 AI 安全协议。在此期间,政府还将制定和发布立法,对人工智能设置严格的界限。
根据写这封信的专家的说法,人工智能带来的危险很多。有关人士指出,公司和小型企业采用 ChatGPT 和类似程序的速度非常快。他们认为,GPT4 和类似项目有可能导致数百万人失业,并由此引发全球危机。还有一种观点认为,创造出比最聪明的人类更聪明、更快的东西可能是个坏主意。这封信的主要目标是确保未来的人工智能“准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚”。尽管有警告,但暂停并未实施,人工智能研究仍在继续。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。