人工智能

OpenAI前首席科学家创立AI安全公司,估值50亿美元

字号+作者:创站实验室来源:电脑教程2025-11-26 19:04:05我要评论(0)

据路透社报道,由前OpenAI首席科学家伊利亚·苏茨克弗Ilya Sutskever)联合创立的初创公司Safe SuperintelligenceSSI)成立仅三个月九吸引了大量关注和资本。据消息人

据路透社报道,前首由前OpenAI首席科学家伊利亚·苏茨克弗(Ilya Sutskever)联合创立的席科学初创公司Safe Superintelligence(SSI)成立仅三个月九吸引了大量关注和资本 。据消息人士透露 ,创立SSI已经在首轮融资中筹集了10亿美元 ,安全估值高达50亿美元 。公司估值SSI的亿美元目标是开发超越人类能力的安全人工智能系统 。

顶尖风投加持 ,前首押注“安全超级智能”

尽管市场对AI初创公司的席科学兴趣有所下降 ,投资者仍对SSI展现了极大的创立信心。知名风险投资公司Andreessen Horowitz、安全红杉资本  、建站模板公司估值DST Global和SV Angel都参与了此次融资。亿美元此外 ,前首由Nat Friedman和SSI的席科学首席执行官丹尼尔·格罗斯(Daniel Gross)共同管理的投资伙伴NFDG也加入其中。

格罗斯在采访中表示 ,创立公司非常重视与理解和支持其使命的投资者合作。他指出:“我们的使命是打造安全超级智能 ,并在未来几年专注于研发。”这不仅是对技术的信任,也是源码库对团队和未来愿景的信任 。

SSI计划利用这笔资金获取计算能力并招聘顶尖人才 ,团队目前仅有10名员工,分布于美国加州帕洛阿尔托和以色列特拉维夫。

伊利亚强调 ,SSI将采取与OpenAI不同的路径 ,特别是在AI规模化假设(Scaling Hypothesis)的执行上 。他表示 :“大家都在谈论规模化,却忽视了真正应该扩展的是什么 。”他希望通过不同的免费模板技术策略 ,创造出与众不同的成果 。

AI安全:行业焦点与监管挑战

AI安全是当前的热门话题,随着人工智能能力的不断提升 ,如何防止AI系统对人类社会造成潜在威胁变得尤为重要 。SSI的研发目标是确保(超级)人工智能系统的安全性,避免其在脱离人类控制后可能带来的负面影响。

与此同时,高防服务器美国加州的一项立法提案正引发AI行业的分裂。该法案旨在对AI公司实施安全监管,OpenAI和Google等科技巨头表示反对,而Anthropic和Elon Musk的xAI则表示支持。业界对AI安全问题产生巨大分歧,凸显出AI安全监管的复杂性和紧迫性 。

伊利亚在创立SSI之前 ,曾是OpenAI的联合创始人和首席科学家 ,主导了“超对齐”团队(Superalignment Team) ,该团队的服务器租用任务是确保AI在超过人类智能的情况下依然符合人类的价值观。然而,在OpenAI经历了管理层的“宫斗闹剧”后,伊利亚的角色逐渐被削弱,他最终于2024年5月离开公司 ,随后决定创立SSI。

与OpenAI的非营利组织结构不同 ,SSI采用了传统的盈利性架构。格罗斯表示,模板下载公司在招聘时非常注重团队文化的契合,倾向于选择那些对工作充满兴趣而非追逐热点的人才。公司未来还将与云服务提供商和芯片制造商合作 ,满足其计算需求,尽管目前尚未确定具体合作伙伴。

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章
  • 为何忘记密码要选择重置而非告知原密码:技术视角解析

    为何忘记密码要选择重置而非告知原密码:技术视角解析

    2025-11-26 18:36

  • G行应用监控标准化演进之路

    G行应用监控标准化演进之路

    2025-11-26 18:06

  • 警惕!新的ShellBot DDoS 恶意软件正针对 Linux SSH服务器

    警惕!新的ShellBot DDoS 恶意软件正针对 Linux SSH服务器

    2025-11-26 17:55

  • 谷歌同意支付 2950 万美元,以解决两起追踪用户位置信息的诉讼案

    谷歌同意支付 2950 万美元,以解决两起追踪用户位置信息的诉讼案

    2025-11-26 17:18

网友点评