#财经新势力#
在昨天OpenAI贴脸开大后,Google今日在自己一年一度的“春晚”I/O开发者大会上亮出了自己的杀手锏——AI新通用模型——Project Astra(高级视觉和语音响应智能体)。
基于 Google 最新 Gemini 大型语言模型的Astra,是一个多模态人工智能助手,可以实时理解和响应多种输入模式,如语音、文本、视觉和“触觉”。也就是说,同Chatgpt-4o一样,通过手机摄像头,Astra可以解读所有听到和看到的内容。
据介绍,Gemini最新模型的上下文token数已达到2000K(200万)!也就是说,你可以给最新的Gemini模型输入2小时视频、22小时音频、超过6万行代码或者140多万单词。相比之下,OpenAI简直弱爆了,其chatGPT-4 Turbo只有128K!Anthropic的Claude 3稍微好一点,但也也只有200K。
在大会现场演示环节,人们通过Project Astra,可以自动识别出现实场景中发出声音的对象,甚至可以直接定位到发出声音的具体部件!这牛13功能简直比《黑镜》中的杀手机器人还恐怖!
当然,Astra更多的是温情一面!它可以与谷歌AR眼镜一起配合使用,帮助盲人获取周围环境的精确信息,并作出清晰无比的实时反馈。也就是说,盲人带上它基本可以畅通无阻。因此,针对常人的翻译、导航之类的日常辅助功能,完全就是小菜一碟!
Astra推理能力也是不输Chatgpt-4O,现场展示部分,主持人用摄像头对着满屏代码问Gemini:“这部分代码是做什么的”?Gemini轻扫片刻,就立即给出了不俗的答案:“此段代码定义了加密和解密函数。它似乎使用AES CBC加密,根据密钥和初始化向量对数据进行编码和解码。”
同时,Astra也是非常贴心。它同样可以在线与你实时互动,帮你在家找个眼镜、在地库找个车什么的,甚至当你接到诈骗电话时,Astra也会及时提醒你!所以,Astra更像是一位随时为你操碎心的小管家,可以为你做很多事情。
据介绍,Astra 目前仍在开发中。未来,Astra将像我们昨天介绍过的Chatgpt-4o一样,落地于人类的各种生活和工作应用场景,如虚拟助手、教育、客户服务、自动驾驶、医疗保健等等。
最后值得一提的是,与OpenAI一样,谷歌的CEO劈柴(Sundar Pichai)也是情怀满满,他以一样动情的话对公众信誓旦旦,仿佛未来因AI而失业的人类迎来的将不是失业,而是从劳动的奴役中彻底解放或绽放!
“今天,我们希望每个人都能从 Gemini 的技术中受益。”
劈柴这里所说的技术自然不止我们上面介绍的Astra和新一代Gemini模型,毕竟发布会足足有110分钟,时间将近是OpenAI昨天发布会的4倍!
劈柴这里发布的技术还包括Gemma2、对标OpenAI Sora的视频生成模型 Veo 和 对标OpenAI DALl·E3以及Midjourney的Imagen 3。
令人惊艳的是,除了软件,十多年来,谷歌一直都在开发定制AI专用硬件——张量处理单元(TPU)。与 上一代TPU v5e 相比,最新发布的Trillium TPU 的每芯片峰值计算性能再次提高 4.7 倍!
关键的亮点还在于,Google早就通过Android创建了独属于自己的一整套移动端AI生态优势。显而易见,Google本次发布的所有AI新技术都将帮助自己的Android手机拿下更多的市场份额!不过问题是,届时人类工作都消失了,不知更新设备的货币从何而来?是靠积分呢,还是纯靠刷脸……
无论如何,正如锡安长老们所谋划, Google Astra 再次如期吹响了AI号角,晒出了人工智能的历史性飞跃!AI世界已来,各位碳基准备好进入数字世界的玻璃鱼缸了吗?
注:文中相关信息及素材源自网络,基于其上的观点可能完全错误或存在不当之处,故仅供交流参考。如不慎涉侵权等事宜,请联系删除,谢谢!