iOS 11 Core ML 解析:苹果如何让开发者用上机器学习
雷锋网消息:苹果在 WWDC 2017 上发布了 iOS 11 系统,同时展示了其在人工智能领域的最新成果——Core ML。通过这一新框架,苹果希望开发者能在自家应用中集成更多智能功能。

iOS 中的机器学习实践
苹果已在内部应用中广泛使用机器学习技术,例如照片应用中的面部识别、手写转文本、Siri 对话优化以及系统节能等方面。
Vision API 与 Natual Language API
为了帮助开发者快速实现智能功能,苹果开放了 Vision 和 Natual Language 两大 API:
Vision API 支持图像识别类功能,包括人脸追踪、地标识别、条码检测等
Natual Language API 负责语言处理,涵盖语言检测、符号识别、词形还原、对话分段等功能

什么是 Core ML?
Core ML 是一个机器学习推理引擎,作为 Vision 和 Natual Language API 的底层支持平台。开发者可将其训练好的模型部署到该环境中运行。

它支持多种机器学习模型结构,包括深度神经网络(DNN)、卷积神经网络(CNN)和树集成方法等,并兼容主流第三方训练工具。Core ML 运行于本地,保障了用户数据安全,避免依赖网络连接。

性能优势
基于 iOS 底层 Metal 和 Accelerate 构建的 Core ML,在执行效率方面表现优异。官方数据显示,其图像识别速度比同期安卓设备快达六倍。

苹果的人工智能战略风格
不同于 Google 或 Facebook 的全面开源模式,苹果选择了更加保守的技术开放路径。尽管没有构建完整的 AI 开发平台,但其明确聚焦产品体验改善而非前沿研究。
目前,苹果已在其官网提供数个预训练模型及转换工具下载,为开发者提供实际开发资源。


