联发科推出两款多模态轻量级 AI 模型:主打繁体中文处理能力、基于 Meta Llama 3.2 打造而成

联发科创新基地(MediaTek Research)现已发布两款支持繁体中文的轻量级多模态模型,分别是号称可在手机上运行的 Llama-Breeze2-3B 模型和适用于轻薄笔记本电脑的 Llama-Breeze2-8B 模型。

联发科创新基地(MediaTek Research)现已发布两款支持繁体中文的轻量级多模态模型,分别是号称可在手机上运行的 Llama-Breeze2-3B 模型和适用于轻薄笔记本电脑的 Llama-Breeze2-8B 模型。

联发科推出两款多模态轻量级 AI 模型:主打繁体中文处理能力、基于 Meta Llama 3.2 打造而成

AI在线获悉,系列模型基于 Meta Llama 3.2 语言模型打造而成,主打繁体中文处理能力,同时支持多模态输入和函数调用,能够识别图像并调用外部工具。

在繁体中文处理能力方面,联发科提供的对比显示,相较于参数量相同的 Llama 3.2 3B Instruct 模型,Llama-Breeze2-3B 在撰写关于台北夜市的小短文时,能够准确列举出士林夜市、饶河街夜市和罗东夜市等当地知名夜市,而 Llama 3.2 3B Instruct 模型仅正确提及士林夜市,还生成了两个不存在的夜市。

此外,联发科还基于 Llama-Breeze2-3B 开发了一款安卓 AI 助理 App,并同时推出一款 AI 文字转语音模型 BreezyVoice,号称仅需输入 5 秒的示例音频,就能实时生成逼真的语音。

相关资讯

联发科发布 Genio 720/520 物联网平台:6nm 制程,AI 算力 10 TOPS

这两款产品支持先进的生成式 AI 模型、人机界面、多媒体和连接功能,适用于广泛 IoT 设备。

阿里云 x 联发科,天玑 9300 等手机芯片适配端侧通义千问大模型

感谢联发科宣布已成功在天玑 9300 等旗舰芯片上部署通义千问大模型,首次实现大模型在手机芯片端深度适配。通义千问在离线情况下运行多轮 AI 对话。阿里云方面表示,将和联发科深度合作,向全球手机厂商提供端侧大模型解决方案。IT之家注意到,通义千问目前已开源 18 亿、70 亿、140 亿、720 亿参数等大语言模型,以及视觉理解、音频理解多模态大模型。阿里云在去年 10 月还发布了通义千问 2.0,模型参数达到千亿级别。联发科自己也在研发大语言模型,曾推出开源的 MR Breeze-7B 模型,擅长处理繁体中文和英

天玑开发者大会召开:联发科端侧 AI 生态革新领导者,生成式 AI 手机就用天玑

5 月 7 日,联发科在深圳正式召开了 2024 年 MediaTek 天玑开发者大会(MDDC 2024),这是联发科主办的一场面向全球开发者的行业盛会,旨在与生态合作伙伴和开发者共同探讨行业发展趋势,分享知识、经验和先进技术成果。本届 MDDC 大会的主题为“AI 予万物”,众多资深行业先驱、技术专家齐聚一堂,深入探讨了 Al 技术在各个领域的应用和发展,以及 AI 赋予终端侧的更多可能性。本次大会的一大看点,就是联发科联动阿里云、百川智能、传音、零一万物、OPPO、荣耀、vivo、小米等天玑平台合作伙伴,共同