苹果掀起AI风暴:全新功能现身,ChatGPT助力变革

发表时间: 2024-06-12 09:06

电子发烧友网报道(文/莫婷婷)这两年,苹果经常被嫌弃创新缺乏、挤牙膏。该如何走出这种“困境”,或许库克也在思考。就在6月11 日凌晨,苹果召开 WWDC24 全球开发者大会,带来了包括卫星短信、全新主屏幕自定义、visionOS、iPadOS 18、macOS 15等,这场活动带来了诸多更新。其中,“王炸”要数Apple Intelligence个人化智能系统,这也被业内认为是苹果至关重要的一场“翻身仗”。

苹果AI功能面世:跨APP联动、支持第三方应用

2024年,AI的竞争进入新的阶段,所有的厂商都在寻找落地厂商。苹果AI姗姗来迟,成为WWDC24 的关注点。

Apple Intelligence是苹果AI的核心,它将强大的生成式模式置于iPhone、iPad和Mac中,能够根据用户的个人使用情况提供智能协助。基于Apple Intelligence,你手中的iPhone将成为“新”的iPhone。

从功能上看,苹果表示Apple Intelligence最大特点是能理解个人情境,内置的大模型能深刻理解自然语言,从而带来生成语言、图片,以及跨APP联动等功能。在现阶段这些功能已经被大众熟知,称不上是很大的创新,但是苹果让它在应用上有了不同的体验,例如优先通知功能,会自动为通知设定优先程序,减少不必要的干扰,又不会错过重要信息。

另一项功能是驱动全系统写作工具,书写工具能够进行校对、提取文字摘要等,适用于邮件、备忘录等应用,甚至第三方应用。这个功能或许已经成为当下AI工具的常用功能了。

在图片生成方面,Apple Intelligence能够生成素描、卡通和插画风格的图片,例如可以根据用户相册中出现过的人,为其生成特定风格的图片,除了相册还能用在备忘录等APP中。

Apple Intelligence可以在用户的指令下调用设备中的APP,例如只要对设备说出“调出上周Joz发给我的文件”,就能帮你完成这项操作,这也就是跨APP联动的功能。

看到这里,似乎没有感受到苹果AI的强大,但是接下来苹果介绍了一项令果粉惊呼的功能,那就是Siri也有了Apple Intelligence强大的自然语音理解能力的加持,13岁的Siri一下子“成长”了。

苹果AI布局选择合作,打造Siri +ChatGPT

作为智能语音助手,Siri用户每天发出的语音请求数量高达15亿次,在Apple Intelligence的超强本领加持后,Siri有了“语义索引功能”,交互过程更加智能。苹果介绍,Siri有了新的外观。在功能方面,有更强的语言理解能力,用户没有表达清楚,或者用户停顿了一下,依旧能够进行对话。还支持语音和文字的交互方式。

图:启动Siri时的界面

Apple Intelligence为Siri带来屏幕感知能力,能理解屏幕上的内容,并且执行相应的操作。例如与朋友的短信对话中提到新地址,可以直接让siri将地址添加到他的联系人名片里。也就是说,Siri不仅已经能够为你代劳APP中的各种操作,例如让Siri修图片。

当Siri进化到这,可以说它已经不仅仅是个“语音管家”了。而且,Siri还会继续进化。值得关注的是,除了使用自家大模型,苹果还宣布了Siri能够实时调用OpenAI的GPT-4o。并且还有计划会支持其他AI模型。

那么,Siri是如何与ChatGPT合作的呢?苹果举例,例如你向Siri问菜品、家装建议,还能附带上图片、文档等,Siri会向你询问是否愿意将你询问时发送的图片或者相关信息分享给ChatGPT,再获得同意后,再调用ChatGPT。ChatGPT融入了苹果全系统适用的书写工具中,可以定制睡前故事,生成插图。

用户可以免费使用ChatGPT,ChatGPT订阅用户可以关联账户,并在使用苹果设备时接入付费功能。ChatGPT将集成在iOS 18、iPadOS 18和macOS Sequoia中,会在今年推出。

此前,业内频传苹果将与OpenAI合作。OpenAI有着强大AI基因,而苹果有着全球近三分之一的智能手机用户,与OpenAI合作将是强强联手。如若苹果要入局AI,这也是最好的合作伙伴之一,苹果也称其为“市场的开拓者与领头羊”。

不过也正是这件事,马斯克首先投了一票反对票。他表示如果苹果要ChatGPT集成到系统级别,公司都将禁用苹果设备。他还表示,苹果没有足够的能力做自己的AI,却相信OpenAI能够保护用户的安全和隐私,这是荒谬的。

苹果当然注意到了AI不可避免带来的安全问题,在 WWDC24上花了一段时间向用户介绍了Apple Intelligence的安全性。

苹果高级副总裁Craig表示,Apple Intelligence能够理解用户情境,才能提供真正实用的智能技术,但是做法必须正确,这离不开安全性、注重隐私。

他提到,Apple Intelligence个性化智能系统的核心就是设备端处理,苹果将其深度整合到iPhone、iPad和Mac中,利用苹果的软硬件整合能力,让它能够识别个人数据,而不需要收集这些数据。在这里,苹果秀出了它在芯片领域强大的技术实力,可以让芯片支持端侧AI的处理。

苹果举例,此前大部分大模型已经大到无法放进终端设备中,传统做法是让服务器存储数据,并且没有经过用户同意就使用这些数据。由于服务器软件只有所有者才能访问,因此用户也无法验证数据是否被滥用。

为此,苹果打造了私密云计算技术创造了Private Cloud Compute,让Apple Intelligence能扩展计算能力,引入更大的基于服务器的模型,来处理更复杂的需求,同时保护数字隐私安全。首先,Apple Intelligence会分析用户发出的请求能否在设备端运行,如需更强的计算能力,就可以借助Private Cloud Compute,将与任务相关的数据发送给采用苹果芯片的服务器处理。

从这里可以看到,苹果在应对AI安全性上是有一定准备的。苹果强调,Apple Intelligence有着芯片级别的数据保护,就连苹果都无法访问这些数据。

不过,由于Apple Intelligence需要强大的算力,仅支持M系列芯片及A17 Pro芯片的硬件平台,也就是支持的iPhone只有iPhone 15 Pro、iPhone 15 Pro Max。毕竟只有M系列芯片及A17 Pro芯片才能提供运行Apple Intelligence的足够算力。且目前仅支持英语,未来会陆续更新,支持更多的设备和语言。

小结:

AI技术已经火爆了一两年,产品众多,落地应用也已逐渐成熟。如今,苹果AI姗姗来迟,在利用自身芯片的硬件实力,加上与ChatGPT等大模型企业的合作,能否追赶上AI浪潮,又能否打赢“翻身仗”。又或许苹果不再执着于“行业风向标”这个“人设”,可以用更多的时间研发更成熟、匹配市场需求的用户体验。

但不管怎么样,WWDC24之后,业内人士再一次看到了苹果依旧在不断超越自己。