周三,路透社报道称,由 OpenAI 前首席科学家 Ilya Sutskever 联合创立的新人工智能初创公司 Safe Superintelligence (SSI) 已筹集 10 亿美元资金。这家成立三个月的公司计划专注于开发超越人类能力的所谓“安全”人工智能系统。
此次筹款活动表明,尽管人们对人工智能技术的大规模投资持怀疑态度,而且迄今为止尚未实现盈利,但一些支持者仍然愿意在基础人工智能研究领域的知名人才上投入大量资金。 Andreessen Horowitz、红杉资本、DST Global 和 SV Angel 等风险投资公司参与了 SSI 融资轮。
SSI 旨在利用新资金增强计算能力并吸引人才。据路透社报道,该公司目前只有 10 名员工,打算在加州帕洛阿尔托和特拉维夫建立一支更大的研究团队。
虽然 SSI 没有正式披露其估值,但消息人士告诉路透社,其估值为 50 亿美元——这是一个惊人的数字,该公司成立仅三个月,而且尚未开发出任何众所周知的产品。
OpenAI之子
就像之前的 Anthropic 一样,SSI 是一家独立的公司,部分由前 OpenAI 员工创立。 37 岁的 Sutskever 与 Daniel Gross 和 Daniel Levy 共同创立了 SSI,Daniel Gross 曾领导过 Apple 的人工智能项目,Daniel Levy 曾是 OpenAI 研究员。
Sutskever 离开 OpenAI 之前,公司经历了一段艰难时期,据报道,其中包括对 OpenAI 管理层没有为他的“超级联盟”研究团队投入适当资源感到失望,以及去年 11 月 Sutskever 参与了 OpenAI 首席执行官 Sam Altman 的短暂罢免。 5 月份离开 OpenAI 后,Sutskever 表示,他的新公司将“以一个焦点、一个目标和一款产品,一刀切地追求安全的超级智能”。
正如我们之前指出的,超级智能是一个模糊的术语,指的是一种远远超越人类智能的假设技术。无法保证 Sutskever 一定能成功完成他的使命(怀疑论者比比皆是),但他从学术真诚中获得的明星影响力以及作为 OpenAI 的关键联合创始人的身份,使得他的新公司的快速融资变得相对容易。
该公司计划在将产品推向市场之前花费几年的时间进行研发,其自称对“人工智能安全”的关注源于这样的信念:可能对人类造成生存风险的强大人工智能系统即将出现。
“人工智能安全”话题引发了科技行业内的争论,企业和人工智能专家对拟议的安全法规持不同立场,其中包括加州备受争议的 SB-1047,该法规可能很快就会成为法律。由于人工智能带来的存在风险这一话题仍然是假设性的,并且经常受到个人观点而非科学的指导,因此这种特殊的争议不太可能很快平息。
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除