(纽约5日讯)由前OpenAI联合创办人苏茨克维(Ilya Sutskever)创立的人工智能公司“Safe Superintelligence,SSI”,近期成功筹集10亿美元(约43亿令吉),目标是开发比人脑更强的安全人工智能系统。
综合外媒报导,SSI目前仅有10名员工,该公司在加州帕罗奥图(Palo Alto)和以色列的特拉维夫(Tel Aviv)都设有办公室,目前打算利用这笔资金扩大运算能力并招募顶尖人才,建立由研究人员和工程师组成的高度信任团队。
根据消息人士透露,SSI目前的估值约为50亿美元。虽然公司拒绝对外公开这一数字,但对于那些专注于基础AI研究的公司,投资者仍然愿意投入大量资金。
苏茨克维在AI领域有著深厚的背景,曾是OpenAI的联合创办人和首席科学家。他在去年11月OpenAI内部冲突中,曾投票支持罢免首席执行员阿尔特曼(Sam Altman),但几天后又改变决定,签署了一封公开信要求阿尔特曼回归。这一事件削弱了他在OpenAI中的角色,最终导致他在今年5月辞职。
苏茨克维今年6月与前苹果AI主管格罗斯(Daniel Gross)和前OpenAI研究员利维(Daniel Levy),共同创办了SSI,旨在开发安全的超智能AI系统。他们的目标是专注于研究与开发,而不受短期市场波动或商业性压力的干扰,力求在未来几年内推出安全的AI产品。
目前,有关AI安全性的议题引发各界广泛关注,特别是在确保这些技术不会对人类和社会造成危害的前提下。而苏茨克维的SSI正是在这样的时机下创立,致力于确保AI发展的安全性和可靠性,也是他们能吸引投资的主要原因。