🤖 由 文心大模型 生成的文章摘要
OpenAI联合创始人兼前首席科学家Ilya Sutskever正在创办一家专注于安全的新AI公司Safe Superintelligence Inc.(SSI),这是一家“只有一个目标和一个产品”的初创公司:创建一个安全且强大的AI系统。
Ilya Sutskever将SSI描述为一家“具有高水平业务和兼顾安全性”的初创公司,该公司在优先考虑安全性的同时快速推进AI系统。如今,OpenAI、谷歌和微软等公司AI团队经常面临不稳定的外部压力,而使企业“单一专注”将能避免受到“管理费用或产品周期的干扰”。
“我们的商业模式意味着安全、保障和技术进步都不受短期商业压力的影响。这样,我们就可以安心扩大规模。”除了Sutskever,SSI的联合创始人还有苹果前AI主管Daniel Gross和曾在OpenAI担任技术人员的Daniel Levy。
Sutskever于5月离开OpenAI,并暗示将启动一个新项目。Sutskever离职后不久,人工智能研究员Jan Leike也离开OpenAI,理由是安全流程“让位于闪亮的产品”;OpenAI政策研究员Gretchen Krueger在宣布离职时也提到了安全问题。
在接受彭博社采访时,Sutskever表示,SSI的首款产品将是安全级超级智能,在此之前该公司“不会做任何其他事情”。
「93913原创内容,转载请注明出处」