WWDC24: 使用 Core ML 在设备上部署机器学习和 AI 模型 | Apple
探索通过 Core ML 转换和运行机器学习及 AI 模型时,如何优化速度和内存性能的最新方法。我们将介绍模型表示的新选项、性能分析、执行和模型拼接,这些技术可以结合起来,为设备上的应用带来出色且私密的用户体验。
相关文档、示例代码等资源:
- 在 Apple Silicon 上使用 Core ML 实现 Stable Diffusion: 网页链接
- Core ML 官方文档: 网页链接
- 介绍 Core ML 视频: 网页链接
- 通过异步预测提高 Core ML 集成: 网页链接
- 使用 Core ML 工具进行模型压缩: 网页链接
- 将 PyTorch 模型转换为 Core ML: 网页链接
视频章节:
00:00 - 介绍
01:07 - 集成
03:29 - MLTensor
08:30 - 带状态的模型
12:33 - 多功能模型
15:27 - 性能工具 宝玉xp的微博视频
探索通过 Core ML 转换和运行机器学习及 AI 模型时,如何优化速度和内存性能的最新方法。我们将介绍模型表示的新选项、性能分析、执行和模型拼接,这些技术可以结合起来,为设备上的应用带来出色且私密的用户体验。
相关文档、示例代码等资源:
- 在 Apple Silicon 上使用 Core ML 实现 Stable Diffusion: 网页链接
- Core ML 官方文档: 网页链接
- 介绍 Core ML 视频: 网页链接
- 通过异步预测提高 Core ML 集成: 网页链接
- 使用 Core ML 工具进行模型压缩: 网页链接
- 将 PyTorch 模型转换为 Core ML: 网页链接
视频章节:
00:00 - 介绍
01:07 - 集成
03:29 - MLTensor
08:30 - 带状态的模型
12:33 - 多功能模型
15:27 - 性能工具 宝玉xp的微博视频