大模型

微软:两个AI相互纠错,数学再涨5分

提升LLM数学能力的新方法来了——一个大模型不行,那就两个。 让他们彼此合作,纠正对方的错误。 这就是来自加州大学和微软研究院的最新研究成果:Flow-DPO。

微软发明全新「LLM语言」,AI智能体交互效率翻倍!

在《星球大战》中,机器人R2-D2和其他机器人使用特殊的语言进行交流。 这种语言主要由蜂鸣声和口哨声组成,被称为「二进制语」(Binary)或「机器人语」(Droidspeak)。 Droidspeak是专门为机器人之间的交流设计的,只有机器人能够完全理解其精确含义。

揭秘:为何大模型总是赚不到钱?行业内幕大曝光!

编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)一个扎心的问题:大模型盈利了吗? 随着技术的发展,AI 逐渐走下了「神坛」,整个业界都变得更加客观和务实。 从OpenAI 今年高达 50 亿的天价亏损,到月暗沸沸扬扬的前投资人仲裁风波,大模型厂商的生意之路不是铺满大额融资的花路,而是充满了坎坷和荆棘。

将大语言模型集成到现有软件系统的完整指南

译者 | 布加迪审校 | 重楼随着最近应用迅速普及开来、人工智能(AI)得到广泛采用,大语言模型(LLM)已变得备受广大公司企业、开发人员和非开发人员的欢迎,因为它们为用户提供了诸多好处。 它们帮助开发人员调试代码并生成代码片段,还帮助澄清看似复杂的编程概念和任务,从而提高生产力。 只要用于训练的数据集涵盖主题,使用LLM的非开发人员就可以受益于对问题做出快速且定制的响应和答复。

清华新VLA框架加速破解具身智能止步实验室“魔咒”,LLM开销节省4-6倍 | NeurIPS'24

计算、存储消耗高,机器人使用多模态模型的障碍被解决了! 来自清华大学的研究者们设计了DeeR-VLA框架,一种适用于VLA的“动态推理”框架,能将LLM部分的相关计算、内存开销平均降低4-6倍。 (VLA:视觉-语言-动作模型,代表一类用于处理多模态输入的模型)简单来说,DeeR-VLA就像人的决策系统:简单任务快速思考,复杂任务仔细思考。

apk 文件显示,谷歌 Gemini 未来将支持代码文件夹 AI 分析功能

如果这一功能上线,用户将能够直接向 Gemini 上传代码文件夹。虽然 Gemini 已具备阅读单个代码文件并提供反馈的能力,但实际开发项目往往由多个代码文件组成。

国家管网“管网”大模型正式上线应用,基于华为算力底座和技术栈

据华为官方消息,11 月 29 日,国家管网集团“管网”大模型正式上线应用。“管网”大模型基于华为算力底座和技术栈,打造“管网制度流程 + 数据 + IT + 大模型”体系,构建具有管网特色的大模型方案。

关于 Meta Llama 3,你知道多少?

2024年,对于人工智能领域来说可谓意义非凡。 继 OpenAI 推出备受赞誉的 GPT-4o mini后,Meta 的 Llama 3.1 模型亦在 . 7月23日 惊艳亮相,再一次掀起了新一轮人工智能热潮。

重磅开源!Kimi把自家底层推理架构都开源了,开源贡献阵容相当豪华:清华、阿里、华为、AISoft、面壁智能

就在昨天,Kimi宣布要把自家底层的大模型推理架构Mooncake开源出来! 有媒体称该架构正是承载了月之暗面Kimi线上80%以上流量的正在用的底层架构。 小编立马求证了一番,的确Github上有提到:Mooncake 正在服务Kimi平台。

Kimi开源底层推理框架,1小时GitHub揽星1.2k

什么? Kimi底层推理架构刚刚宣布:开! 源!

OpenAI API:LLM编程的事实标准

当下,大模型领域已然步入 “百模大战” 时期,形形色色的大模型如雨后春笋般不断涌现。 那么,若我们打算学习大模型的 API,是否真的需要逐一去钻研呢? 答案无疑是否定的。

官宣开源 阿里云与清华大学共建AI大模型推理项目Mooncake

2024年6月,国内优质大模型应用月之暗面Kimi与清华大学MADSys实验室(Machine Learning, AI, Big Data Systems Lab)联合发布了以 KVCache 为中心的大模型推理架构 Mooncake。 通过使用以 KVCache 为中心的 PD 分离和以存换算架构,大幅提升大模型应用Kimi智能助手推理吞吐的同时有效降低了推理成本,自发布以来受到业界广泛关注。 近日,清华大学和研究组织9#AISoft,联合以阿里云为代表的多家企业和研究机构,正式开源大模型资源池化项目 Mooncake。

上海AI实验室版o1已上线!数学竞赛题、Leetcode赛题全拿下,还会玩24点

国产o1新选手登场! 它能快速解决更复杂的数学解题、代码编程、数字游戏等任务。 这就是上海AI实验室版o1——强推理模型书生InternThinker,刚刚正式开放试用!

月之暗面 Kimi 联合清华大学等开源大模型推理架构 Mooncake

本次开源将采用分阶段的方式,逐步开源高性能 KVCache 多级缓存 Mooncake Store 的实现,同时针对各类推理引擎和底层存储 / 传输资源进行兼容。

标记化在LLM中有怎样的重要作用?

译者 | 李睿审校 | 重楼如今,GPT-3、GPT-4或谷歌的BERT等大型语言模型(LLM)已经成为人工智能理解和处理人类语言的重要组成部分。 但在这些模型展现出令人印象深刻的能力背后,却隐藏着一个很容易被忽视的过程:标记化。 本文将解释标记化的定义,标记化如此重要的原因,以及在实际应用中是否能够规避这一步骤。

1行代码改进大模型训练,Llama训练速度提升至1.47倍,全华人团队出品

只要改一行代码,就能让大模型训练效率提升至1.47倍。 拥有得州大学奥斯汀分校背景四名华人学者,提出了大模型训练优化器Cautious Optimizers。 在提速的同时,Cautious能够保证训练效果不出现损失,而且语言和视觉模型都适用。

遗憾不?原来百度2017年就研究过Scaling Law,连Anthropic CEO灵感都来自百度

在追求 AGI 的道路上,Scaling Law 是绕不开的一环。 如果 Scaling Law 撞到了天花板,扩大模型规模,增加算力不能大幅提升模型的能力,那么就需要探索新的架构创新、算法优化或跨领域的技术突破。 作为一个学术概念,Scaling Law 为人所熟知,通常归功于 OpenAI 在 2020 年发的这篇论文:论文标题:Scaling Laws for Neural Language Models论文链接:、数据量、计算资源增加而指数提升。

提示工程:更好地释放LLM的能力

提示工程,正如其名,主要聚焦于探究如何创作提示词。 存在提示工程的一个关键缘由在于,大模型在不同人群的视角下所发挥的作用差异显著。 普通使用者往往仅将大模型视作聊天机器人,他们着重关注的是大模型能否迅速且精准地予以反馈。