大数跨境
0
0

苹果发布 8 款小型 AI 语言模型,与Microsoft的 Phi-3 竞争

苹果发布 8 款小型 AI 语言模型,与Microsoft的 Phi-3 竞争 七元宇宙
2024-05-17
0
导读:人工智能领域的竞争已经开始从构建最大的模型转向最小、功能最强大的工具。

人工智能领域的竞争已经开始从构建最大的模型转向最小、功能最强大的工具

看到数量上的优势,苹果在竞争激烈的人工智能市场中采取了战略举措,推出了八款小型人工智能模型。这些紧凑型工具统称为 OpenELM,设计用于在设备上和离线运行,非常适合智能手机。
这些模型发布在开源 AI 社区 Hugging Face 上,提供 2.7 亿、4.5 亿、11 亿和 30 亿参数版本。用户还可以下载 Apple 的 OpenELM 预训练版本或指令调整版本。
预训练模型提供了一个基础,用户可以在其上进行微调和开发。指令调优模型已经编程为响应指令,使其更适合与最终用户的对话和交互。
虽然苹果没有为这些模型提出具体的用例,但它们可以应用于运行可以解析电子邮件和文本的助手,或者根据数据提供智能建议。这种方法类似于谷歌所采取的方法,谷歌在其 Pixel 智能手机系列中部署了其 Gemini AI 模型。

这些模型是在公开可用的数据集上训练的,苹果正在共享CoreNet(用于训练OpenELM的库)的代码和其模型的“配方”。换句话说,用户可以检查苹果是如何构建它们的。
苹果发布之前不久,Microsoft宣布了Phi-3,这是一个能够在本地运行的小型语言模型系列。Phi-3 Mini 是一个在 3.3 万亿个代币上训练的 38 亿参数模型,仍然能够处理 128K 个上下文代币,使其可与 GPT-4 相媲美,并在代币容量方面击败 Llama-3 和 Mistral Large。
作为开源和轻量级的软件,Phi-3 Mini可能会取代苹果的Siri或谷歌的Gemini等传统助手来完成某些任务,Microsoft已经在iPhone上测试了Phi-3,并报告了令人满意的结果和快速的令牌生成。
虽然苹果尚未将这些新的 AI 语言模型功能集成到其消费类设备中,但有传言称即将推出的 iOS 18 更新将包括使用设备处理来确保用户隐私的新 AI 功能。

Apple 硬件在本地 AI 使用方面具有优势,因为它将设备 RAM 与 GPU 视频 RAM(或 VRAM)相结合。这意味着具有 32 GB RAM(PC 中的常见配置)的 Mac 可以像使用 GPU VRAM 来运行 AI 模型一样利用该 RAM。相比之下,Windows 设备受到单独的设备 RAM 和 GPU VRAM 的束缚。用户通常需要购买强大的 32GB GPU 来增强 RAM 以运行 AI 模型。
然而,苹果在人工智能开发领域落后于 Windows/Linux。大多数人工智能应用程序都围绕着英伟达设计和制造的硬件,苹果逐步淘汰了这些硬件以支持自己的芯片。这意味着 Apple 原生 AI 开发相对较少,因此,在 Apple 产品上使用 AI 需要转换层或其他复杂的程序。


关注我,一起探索元宇宙!

免责声明:
以上发布内容和图片的目的在于传播更多行业信息,版权归原作者所有,不为商业用途,如有侵犯,敬请与我们联系。

推荐阅读:
苹果宣布推出新的辅助功能

2024-05-17

Open AI新模型GPT-4o

2024-05-15

星链预计在今年首次实现正向现金流,并且报告预测其收入将高达66亿美元

2024-05-14



【声明】内容源于网络
0
0
七元宇宙
AI、Web3、Meta聚合型精选内容分享。以前沿视角,探索科技未来;让每一个人,都走在时代的前沿
内容 3217
粉丝 0
七元宇宙 AI、Web3、Meta聚合型精选内容分享。以前沿视角,探索科技未来;让每一个人,都走在时代的前沿
总阅读729
粉丝0
内容3.2k