今年5月,Ilya Sutskever离开OpenAI,在人工智能领域引起了巨大的轰动,OpenAI首席执行官Sam Altman在一篇博客文章中表示,看到自己的联合创始人离开,他感到非常难过,并表示“Ilya无疑是我们这一代最伟大的人之一,是我们这个领域的指路明灯,也是一位亲爱的朋友。”
辞职几周后,Sutskever透露了他的下一份工作,一切都变得明朗起来。他的新公司与他之前执掌OpenAI安全团队的角色密切相关:安全超级智能(Safe Superintelligence, SSI)将创造出“一个焦点、一个目标和一个产品”的人工智能。Sutskever告诉新闻媒体彭博社,这一切都是为了制造有用的、不会构成危险的人工智能。据《金融时报》报道,这一使命显然引起了一些风险投资家的共鸣,仅仅三个月后,SSI就筹集了10亿美元的资金,估值约为50亿美元。人们似乎真的想要“安全”的人工智能技术。
令人好奇的是,正如《纽约时报》指出的那样,SSI目前还没有产品。由知名投资公司红杉资本(Sequoia)和安德森·霍洛维茨基金(Andreessen Horowitz)领投的这笔新资金,将用于购买一些通常非常昂贵的计算机资源,以开发SSI计划开发的人工智能产品,并聘用新员工,以扩大现有的10人团队。
Sutskever告诉《纽约时报》,他“确定了一座新的山峰,它与我之前的工作有点不同”,而不是简单地“沿着同一条路走得更快”。这与Sutskever在SSI成立时做出的承诺一致,即在准备好之前不会发布人工智能产品,在此之前不会发布任何其他产品,并且它生产的特定人工智能模型将是“安全的”。
这是问题的核心,也是SSI区别于其他成熟的人工智能项目的地方,比如Anthropic的Claude模型、谷歌的Gemini模型、meta的Llama模型,尤其是X的Grok模型,因为它故意缺乏保护屏障——这已经让它和它的所有者埃隆·马斯克陷入了麻烦。
由于人工智能的繁荣,以及人工智能已经引发了对选举干预、隐私滥用、错误信息甚至网络犯罪的担忧,以及对技术本身可能大规模扰乱社会的担忧,人工智能安全一直备受关注。麻省理工学院最近的一篇研究论文列出了数百种不同的潜在人工智能威胁,其中一些令人深感不安——比如微妙地影响人们的恋爱关系,影响“软”政治权力。
Sutskever离开OpenAI也与人工智能安全有关。他领导着该公司的“超级协调”团队,试图确保它创造的人工智能与人类的需求“保持一致”,而不是威胁我们。他还在OpenAI的内部动荡中发挥了关键作用,导致奥尔特曼在2023年底被短暂赶下台。奥尔特曼追求更智能的人工智能技术,追求利润,似乎忽视了让技术“安全”的概念,这是这次领导层改组的一个重要因素。尽管他后来强调,他的公司正在积极确保其产品不会对人类构成威胁,但这并没有阻止OpenAI成为许多诉讼的目标,指控它不安全,并且已经损害了一些创意产业。
据报道,OpenAI正在寻求更多资金来促进自身的增长,该公司最近的估值超过了1000亿美元。因此,Sutskever的小公司在很大程度上处于它的阴影之中。但如果他的创业公司能以每90天10亿美元的速度筹集资金,他就能很快赶上。