盘古大模型

全球科技巨头集体「卷」AI,华为又在憋什么大招?

生成式 AI 的竞争,今年更加激烈了。今年 5 月以来,全球科技巨头们不约而同地开始展示在 AI 领域的最新成果和战略部署,一系列引人瞩目的发布和合作活动相继展开,预示着 AI 技术的快速发展和广泛应用。5 月 15 日,谷歌推出了 Gemini 1.5 Pro 和 Gemini 1.5 Flash 两款新的大型语言模型,并发布了声称效果超过 GPT-3 的生成视频模型 Veo。微软在 Build 2024 开发者大会上发布了 50 多项与 AI 相关的更新,包括 Team Copilot、Microsoft Fa

华为盘古大模型变「小」,1.5B也很能打

ChatGPT 等系列模型横空出世,以其强大的性能引起了全球的关注,有望改变人与计算机之间的交互方式,应用到千行百业。然而这些大型模型的实际需要极高的内存和计算资源,限制了它们在各种场景中的应用。例如,具有 175B 参数的 GPT-3 在使用 FP32 数据类型存储时需要大约 700GB 内存。尽管 7B 参数模型相对更高效,但其资源需求仍然难以直接部署在手机等边缘设备上。此外,尽管许多研究已经成功地打造出多个效果很好的大语言模型,但他们往往采用相似的训练策略。一方面,大量工作集中在收集和清理数据上,较少强调研究
  • 1