看到数量上的优势,苹果在竞争激烈的人工智能市场中采取了战略举措,推出了八款小型人工智能模型。这些紧凑型工具统称为 OpenELM,设计用于在设备上和离线运行,非常适合智能手机。这些模型发布在开源 AI 社区 Hugging Face 上,提供 2.7 亿、4.5 亿、11 亿和 30 亿参数版本。用户还可以下载 Apple 的 OpenELM 预训练版本或指令调整版本。预训练模型提供了一个基础,用户可以在其上进行微调和开发。指令调优模型已经编程为响应指令,使其更适合与最终用户的对话和交互。虽然苹果没有为这些模型提出具体的用例,但它们可以应用于运行可以解析电子邮件和文本的助手,或者根据数据提供智能建议。这种方法类似于谷歌所采取的方法,谷歌在其 Pixel 智能手机系列中部署了其 Gemini AI 模型。
这些模型是在公开可用的数据集上训练的,苹果正在共享CoreNet(用于训练OpenELM的库)的代码和其模型的“配方”。换句话说,用户可以检查苹果是如何构建它们的。苹果发布之前不久,Microsoft宣布了Phi-3,这是一个能够在本地运行的小型语言模型系列。Phi-3 Mini 是一个在 3.3 万亿个代币上训练的 38 亿参数模型,仍然能够处理 128K 个上下文代币,使其可与 GPT-4 相媲美,并在代币容量方面击败 Llama-3 和 Mistral Large。作为开源和轻量级的软件,Phi-3 Mini可能会取代苹果的Siri或谷歌的Gemini等传统助手来完成某些任务,Microsoft已经在iPhone上测试了Phi-3,并报告了令人满意的结果和快速的令牌生成。虽然苹果尚未将这些新的 AI 语言模型功能集成到其消费类设备中,但有传言称即将推出的 iOS 18 更新将包括使用设备处理来确保用户隐私的新 AI 功能。
Apple 硬件在本地 AI 使用方面具有优势,因为它将设备 RAM 与 GPU 视频 RAM(或 VRAM)相结合。这意味着具有 32 GB RAM(PC 中的常见配置)的 Mac 可以像使用 GPU VRAM 来运行 AI 模型一样利用该 RAM。相比之下,Windows 设备受到单独的设备 RAM 和 GPU VRAM 的束缚。用户通常需要购买强大的 32GB GPU 来增强 RAM 以运行 AI 模型。然而,苹果在人工智能开发领域落后于 Windows/Linux。大多数人工智能应用程序都围绕着英伟达设计和制造的硬件,苹果逐步淘汰了这些硬件以支持自己的芯片。这意味着 Apple 原生 AI 开发相对较少,因此,在 Apple 产品上使用 AI 需要转换层或其他复杂的程序。