字节大模型团队Depth Anything V2模型入选苹果最新CoreML模型

近日,苹果公司在HuggingFace上发布了20个新的Core ML模型和4个数据集,字节大模型团队的单目深度估计模型 Depth Anything V2入选其中。CoreML是苹果公司的机器学习框架,将机器学习模型集成到iOS,MacOS等设备上高效运行,可在无需互联网连接的情况下执行复杂的AI任务,从而增强用户隐私并减少延迟。苹果开发者可以利用这些模型更容易地构建智能、安全的AI应用。Depth Anything V2为字节大模型团队开发的单目深度估计模型。相比上一代版本,V2版在细节处理上更精细,鲁棒性更强

近日,苹果公司在HuggingFace上发布了20个新的Core ML模型和4个数据集,字节大模型团队的单目深度估计模型 Depth Anything V2入选其中。

字节大模型团队Depth Anything V2模型入选苹果最新CoreML模型

CoreML是苹果公司的机器学习框架,将机器学习模型集成到iOS,MacOS等设备上高效运行,可在无需互联网连接的情况下执行复杂的AI任务,从而增强用户隐私并减少延迟。苹果开发者可以利用这些模型更容易地构建智能、安全的AI应用。

Depth Anything V2为字节大模型团队开发的单目深度估计模型。相比上一代版本,V2版在细节处理上更精细,鲁棒性更强,并且和基于diffusion的SOTA模型相比,速度上有显著提升。此外,V2版包括从25M到1.3B参数的不同大小的模型,本次苹果收录的CoreML版本经过HuggingFace官方的工程优化,采用最小的25M模型,在iPhone 12 Pro Max上的推理速度达到了31.1毫秒。该模型可以应用在自动驾驶、3D建模、增强现实、安全监控以及空间计算等领域。值得一提的是,Depth Anything 两个版本,论文一作均为该团队一位实习同学。

本次苹果公司新发布的CoreML模型涵盖了从自然语言处理到图像识别的多个领域,开发者可使用coremltools 软件包将TensorFlow等框架训练的模型转换为Core ML格式。 通过利用 CPU、GPU 和神经引擎优化设备上的性能,Core ML可最大限度地减少内存占用和功耗。

字节大模型团队Depth Anything V2模型入选苹果最新CoreML模型

相关资讯

GitHub 8k Star,一作实习生,字节这个大模型成果被苹果选中了

字节跳动大模型团队成果 Depth Anything V2 现已被苹果官方收入 Core ML 模型库。本文介绍了 Depth Anything 系列成果的研发历程、技术挑战与解决方法,分享了团队对于 Scaling Laws 在单一视觉任务方面的思考。值得一提的是,Depth Anything V1 与 V2 两个版本论文一作是团队实习生。近日,字节跳动大模型团队开发的成果 Depth Anything V2 ,入选苹果公司 Core ML 模型库,目前已呈现在开发者相关页面中。Depth Anything 是一

Stable Diffusion的魅力:苹果亲自下场优化,iPad、Mac上快速出图

输入一句话就能生成图像的 Stable Diffusion 已经火爆数月。它是一个开源模型,而且在消费级 GPU 上就能运行,是一项普通人就能接触到的「黑科技」。

纪念碑谷式错觉图像都被「看穿」,港大、TikTok的Depth Anything火了

人类有两只眼睛来估计视觉环境的深度信息,但机器人和 VR 头社等设备却往往没有这样的「配置」,往往只能靠单个摄像头或单张图像来估计深度。这个任务也被称为单目深度估计(MDE)。近日,一种可有效利用大规模无标注图像的新 MDE 模型  Depth Anything 凭借强大的性能在社交网络上引起了广泛讨论,试用者无不称奇。甚至有试用者发现它还能正确处理埃舍尔(M.C.Escher)那充满错觉的绘画艺术(启发了《纪念碑谷》等游戏和艺术):从水上到水下,丝滑切换:更好的深度模型也得到了效果更好的以深度为条件的 Contr