关注公众号【真智AI】,无魔法使用真实ChatGPT4
每天分享前沿科技资讯和AI学习资料!
伊利亚·苏茨凯弗(Ilya Sutskever),OpenAI 的联合创始人,宣布推出一家新的 AI 公司——安全超智公司(Safe Superintelligence Inc.,简称SSI)。该公司旨在开发一个安全且强大的 AI 系统,优先考虑安全性,而不是像其他科技巨头那样受到商业压力和干扰。
要点:
安全超智的起源:
几个月来,AI 社区一直在猜测 Ilya Sutskever 在离开 OpenAI 后的下一步行动。作为 OpenAI 及其 AI 模型开发的关键人物,Sutskever 现在公布了他的最新项目——安全超智公司(Safe Superintelligence Inc.,简称SSI)。该公司旨在创建一个安全、强大的 AI 系统,并专注于纯研究组织,避免受到 OpenAI、Google 和微软等其他科技巨头所面临的商业压力的干扰。
专注于安全:
SSI 的使命是开发一个安全的超智,这是 Sutskever 认为是我们这个时代最重要的技术问题。公司不会从事任何其他活动,直到这一目标实现。这种单一的专注使得 SSI 能够避免管理负担和产品周期的干扰,确保安全性、保密性和进展不受短期商业压力的影响。
SSI 背后的团队:
Sutskever 由两位联合创始人加入:前苹果公司 AI 负责人和 AI 初创公司著名投资者 Daniel Gross,以及在 OpenAI 训练大型 AI 模型方面拥有良好声誉的 Daniel Levy。Gross 和 Levy 都为新公司带来了丰富的经验和专业知识。
办公地点:
SSI 将在两个主要办公地点运营:加利福尼亚州的帕洛阿尔托和以色列的特拉维夫。选择这两个地点是因为它们在技术行业的深厚根基以及吸引顶尖技术人才的能力。公司目前正在招聘工程师和研究人员,专注于安全超智的开发。
资金和财务支持:
虽然 Sutskever 没有披露 SSI 的金融支持者或筹集的资金金额,但联合创始人 Daniel Gross 表示,筹集资金不会是问题。鉴于 AI 的强烈兴趣及其创始团队的声誉,SSI 有望吸引大量投资。
AI 安全的挑战:
AI 安全的概念已经讨论了数十年,但深层次的工程解决方案一直很少。SSI 旨在通过从根本上开发安全措施,而不是依赖外部的保护措施来解决这一问题。Sutskever 设想了一个不仅避免对人类造成伤害,而且作为一种积极力量运作的超智 AI,遵循自由、民主和自由等关键价值观。
重回 OpenAI 的初衷:
在许多方面,SSI 是对 OpenAI 最初愿景的回归:一个专注于构建能够超越人类能力的通用人工智能(AGI)的研究组织。然而,与 OpenAI 不同,后者逐渐包括了创收产品和合作伙伴关系,SSI 仍然致力于单一目标——安全超智。
结论:
Ilya Sutskever 的新项目——安全超智公司(Safe Superintelligence Inc.),代表了在安全和强大 AI 追求中的大胆一步。凭借一支敬业的团队和明确的使命,SSI 旨在解决我们时代最重大的技术挑战之一,摆脱商业压力的阻碍。
关注公众号【真智AI】,无魔法使用真实ChatGPT4
每天分享前沿科技资讯和AI学习资料!