OpenAI联合创始人、前首席科学家伊尔亚·苏茨克维(Ilya Sutskever),之前就因为担心人工智能的安全问题而发起了对OpenAI的老大奥特曼的突袭罢免行动,曾经轰动一时,但在员工和投资者的多重压力下,他失败了,后来也离开了OpenAI。
这次成立“安全超级智能”公司,可以说是之前的延续。可以看出他是个有理想、有信仰的人。
但是这个事情能不能成,就难说了。
毕竟,人工智能安全这个东西,更多是站在人类文明宏观的视角下的东西。对于普通的用户、投资者,还是有点遥远。这个东西,政府可能会在意、国际组织可能会在意,但是市场不一定会买账。
至于技术上的问题,倒不用太担心,毕竟他可是OpenAI曾经的首席科学家,行业影响力也极大。所以技术上能够做出来的可能性还是挺大的。
只是,这玩意会不会很烧钱,谁来买单,则是很大的问题。创立安全的超级智能的出发点是好的,但是嘛,安全也意味着更大的成本和自缚手脚。而高成本、自缚手脚的产品,在充分自由的市场经济中是没有生存空间的,至少无法取得优势地位。
一个各种限制、功能少、价格又贵的人工智能产品,另一个是限制少、功能强大、价格便宜的人工智能产品,是你的话,你选择用哪个?答案应该是很明显的。而用户的选择,会直接影响各AI产品提供者的行为。所以,在没有政府强力干涉推动支持的情况下,他很难成。
至于网友的支持,大部分估计也只是口头上说说,真到使用AI产品的时候,还是哪个好用哪个便宜用哪个。
所以,除非所有的AI公司都主动跟进,否则,光是他的公司的产品很安全,其他公司的AI不安全、比他的更强大,并没有什么用。
这就好比,国外都在制造各种核武器、生化武器,全球面临末日的风险,然后某个国家突然站出来说,我们国家宣布要永久废弃核武器和生化武器,只开发安全的武器。这又有什么用呢?
但跟进的结果是自缚手脚,成本增加,失去竞争优势。可能极少数公司或者科研机构有可能跟进,但是大部分AI公司跟进的可能性是很低的。
最直接的,如果OpenAI和谷歌不跟进,那就没任何用处。
但各大公司会跟进吗?除非政府强制。
而这个政府,只能是美国政府。其他政府管不了,而且如果美国政府不管,不强制美国的AI公司(主要是OpenAI、谷歌等)跟进他的路线自缚手脚,那么,其他国家的政府也大概率不会主动学他自缚手脚的(毕竟,不自我限制尚且和美国有差距,要再自我限制,那差距就更大了)。
但是,美国政府真的会出于人类命运的角度,强制美国的各大AI公司学他的路线自缚手脚吗?这个得问问华尔街和各大财团了。
了解更多:bugzero.cn