iPhone用户现可通过App Store下载Google AI Edge Gallery应用,本地运行Google最新开源大模型Gemma 4。该应用提供E2B与E4B两个版本,支持中文处理,无需服务器连接即可实现完全离线操作,适用于iPhone 15系列及更新机型。
以往部署开源大模型需配置Hugging Face账号、GPU服务器及Python环境,耗时数小时;当前仅需3分钟即可完成安装。
iPhone运行Gemma 4操作指南
Google AI Edge Gallery是Google官方在App Store上线的应用,支持直接在iPhone端运行Gemma 4开源模型。
- App Store搜索并下载Google AI Edge Gallery
- 打开应用,点击"Agent Skills"
- 选择E2B或E4B模型版本
- 下载完成后即可使用
全程无需服务器配置、环境搭建,提供免费离线的AI体验。
Gemma 4模型解析
Gemma 4是Google最新发布的轻量级开源大语言模型,作为Gemini系列的边缘优化版本,在保留核心能力的同时精简参数规模。
版本性能对比
选择建议基于设备配置与使用场景:
E2B(2B参数)- 模型大小:1.5GB,内存占用2GB
- 响应速度:0.5秒,问答准确率85%
- 适用场景:日常问答、翻译及摘要任务
- 设备推荐:iPhone 15/15 Plus(8GB内存)
- 模型大小:3GB,内存占用4GB
- 响应速度:1秒,问答准确率92%
- 适用场景:复杂推理、编程及长文本处理
- 设备推荐:iPhone 15 Pro系列及iPhone 16全系
本地运行核心优势
- 隐私安全
数据全程本地处理,聊天记录、文档及代码不上传云端。
- 完全离线
无网络环境(如飞机、地铁)仍可稳定使用。
- 永久免费
基于开源协议,下载后无订阅或付费要求。
- 无审查限制
本地执行模型输出不受服务器过滤。
- 前沿技术集成
直接应用Google最新开源成果,无需等待第三方适配。
边缘AI发展趋势
开源大模型正加速从云端向边缘设备迁移。除Google外,Meta的Llama 3已支持移动端,苹果在iOS 18集成Apple Intelligence,Mistral亦推进相关模型。技术演进路径为:早期依赖GPU服务器→当前手机成为移动计算终端→未来趋势是个人设备实时提供离线、隐私优先的AI服务。

