大模型

最真实大模型编程评估!字节开源FullStack Bench,首次全覆盖超11类现实编程场景

代码大模型越来越卷,评估AI编程水平的“考卷”也被迫升级。 12月5日,字节豆包大模型团队开源最新代码大模型评估基准FullStack Bench,在业界首次囊括编程全栈技术中超11类真实场景,覆盖16种编程语言,包含3374个问题,相比此前基准,可以更有效地评估大模型在现实世界中的代码开发能力。 代码评估基准是衡量大模型编程能力的标准工具,也是推动模型优化的关键驱动力。

企业智能体:为AI投资带来丰厚回报

基于AI的智能体当下可谓风头正劲。 最近几个月来,这个话题也已渗透到不少技术供应商的宣传和营销当中,包括Salesforce、Microsoft、ServiceNow、SAP、亚马逊云科技以及谷歌。 从多方面来讲,人们对AI智能体的关注有其道理:智能体代表着生成式AI的下一个发展阶段,有望进一步提高AI的自主性水平。

英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

当下的手机及AIPC中都会安装本地大模型,然而上下文长度增加,推理时的计算成本也会显著增长。 最明显的一个后果就是,用户输入问题后需要等待很久才能看到结果。 为此,已有多种优化方案提出,例如Flash Attention,而11月26日英伟达提出的Star Attention机制,可用于提升Transformer模型在处理长序列时的效率和准确性。

英伟达提出全新 Star Attention:10 倍加速大语言模型推理,登顶 Hugging Face 论文榜

大模型如今已具有越来越长的上下文,而与之相伴的是推理成本的上升。英伟达最新提出的 Star Attention,能够在不损失精度的同时,显著减少推理计算量,从而助力边缘计算。

DeepMind大模型再登Nature:8分钟预测15日天气,准确度超顶尖物理模型,已开源

DeepMind大模型再登上Nature——气象预测大模型GenCast,8分钟内完成15天的预测,而且不管常规还是极端天气都能分析。 在97.2%的场景中,GenCast的表现都超过了全球顶尖的中期天气预报系统ENS。 不同于DeepMind之前推出的GraphCast的确定性预测,GenCast关注的是各种天气情况的概率。

AWS宣布新应用市场Amazon Bedrock上线100多个AI模型

AWS正在通过Amazon Bedrock服务向AI应用开发人员提供更多的大型语言模型,同时增强该平台的优化推理工作负载和为他们提供所需数据的能力。 AWS在年度盛会AWS re:Invent上发布的最新公告中包括了推出新的Amazon Bedrock Marketplace,这个主要门户将让开发人员可以访问100多个最强大的大型语言模型,其中包括一些只能在那里找到的大型语言模型。 Amazon .

新瓜不断!2024NeurIPS最佳论文,花落字节起诉的实习生

时隔两个月,字节模型遭攻击事件又有新后续。 今年10月份,字节商业化内部模型商业化内部模型训练遭实习生攻击一事闹得满城风雨,后这位名为田柯宇的实习生便被开除并被要求赔偿字节的侵权损失800万元及合理支出2万元。 本以为这个瓜会以字节的“雷霆手段”告一段落,没想到就在刚刚,事件迎来了大扭转。

“云计算一哥”一口气发布六个大模型、3nm芯片!多模态还要搞Any-to-Any

就在刚刚,云计算一哥亚马逊云科技,在大模型这件事儿上搞了波大的——亚马逊CEO Andy Jassy亲自站台re:Invent24,发布自家新款AI多模态系列大模型,名曰Amazon Nova。 而且是一口气涵盖文本对话、图片生成、视频生成,甚至直接吐露一个小目标:将来我们不仅要Speech to Speech,更要Any-to-Any! 整体而言,Amazon Nova系列中的所有模型,均以功能和尺寸来划分。

惊掉下巴!被字节起诉800万实习生,拿下NeurIPS 2024最佳论文

刚刚,恶意攻击字节训练集群的实习生田柯宇,获得了NeurIPS 2024的最佳论文奖。 更巧的是,这篇获奖论文,恰恰就是他在字节商业化技术部门实习期间与团队合作发表的。 甚至,这篇论文还是NeurIPS 2024第六高分的论文(7,8,8,8)。

平安人寿ChatBI:大模型智能化报表的深度实践

一、项目背景和目标1.  项目背景:大模型赋能智能 BI我们先来看一份报告,2023 年,国家发布了《数字中国发展报告》,报告显示我国的数字经济规模已经达到了 50 多亿,位居世界第二。 这一成就的取得,离不开像 ChatBI 这样的创新性产品的贡献。

大模型加持下的 Linux 操作系统开发和自动化维护实践

作为国产开源操作系统社区,OpenCloudOS从L1到L3全链路覆盖,从上游社区独立选型软件包,编译、运行不依赖任何其他发行版,做到自主维护、演进,独立修复bug、cve及backport等维护工作。 今年3月,OpenCloudOS已率先构建了一套全流程自动化的基础设施和工具平台,实现对3000 大规模软件包的全链路自主研发与自主维护:《如何实现对 3000 软件包的全链路自主研发与维护?》与此同时,OpenCloudOS进一步结合LLM/AI辅助功能,持续提升开发、维护效率和质量,让社区的开发者、软件包的维护者有更多的精力投入到对重要包的掌握和能力建设、新技术新特性的探索和研发中。 (本文基于2024.10.16 CID演讲整理)一、解决方案综述这套从上游跟踪到代码同步的全流程自动化维护工具平台,主要包括5个部分及对应的工具,其中红色标识的部分通过LLM/AI辅助进一步提升效率和质量。

打破GNN与语言模型间壁垒,图辅助多模态预训练框架用于催化剂筛选,登Nature子刊

编辑 | KX吸附能是一种反应性描述符,必须准确预测,才能有效地将机器学习应用于催化剂筛选。 该过程涉及在催化表面上的不同吸附构型中找到最低能量。 尽管图神经网络在计算催化剂系统的能量方面表现出色,但它们严重依赖原子空间坐标。

3DGS自监督预训练全新范式!VisionPAD:三大感知任务全部暴力涨点(港中文&华为)

写在前面 && 笔者理解虽然近一年端到端的自动驾驶发展火热,但是以多视角图像推导BEV视角和占用空间的感知技术引领的自动驾驶框架,仍然在很多企业中占据主体。 比如今天要分享的这篇,就是华为诺亚方舟实验室对BEV OCC的继续研究。 但是不得不说,这些模型在很大程度上依赖于精确的3D标注,而数据标注的高成本使得越来越多的研究人员和工程师开始关注预训练策略。

轻松掌握 AI 大模型!Windows 新突破:Ollama 赋能本地部署

Ollama—— 这是一个专为本地部署优化的 AI 模型。 Ollama 在模型大小、性能和部署灵活性等方面都有非凡的表现,与传统云端部署相比,它可以轻松运行在普通的台式电脑或笔记本电脑上。 这无疑是 AI 大模型的一次重大突破!

清华UCSD提出全新微调方法,8B小模型媲美GPT-4o!科学问题正确率提高28%

我们都知道,在科研界,LLM在解决简单科学问题时表现得游刃有余,但在应对复杂问题时往往会出现幻觉。 于是,为了让模型更靠谱,研究人员尝试给模型装上科学工具,帮助它们解决高难度任务。 然而,一旦用上工具,模型就「上瘾」了!

NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性

此项研究成果已被 NeurIPS 2024 录用。 该论文的第一作者是杜克大学电子计算机工程系的博士生张健一,其主要研究领域为生成式 AI 的概率建模与可信机器学习,导师为陈怡然教授。 大语言模型(LLM)在各种任务上展示了卓越的性能。

美欧亚三洲开发者联手,全球首个组团训练的大模型来了,全流程开源

11 月 22 日,Prime Intellect 宣布通过去中心化方式训练完成了一个 10B 模型。 30 号,他们开源了一切,包括基础模型、检查点、后训练模型、数据、PRIME 训练框架和技术报告。 据了解,这应该是有史以来首个以去中心化形式训练得到的 10B 大模型。

图结构转文本序列,大模型直接读懂!图推理性能大涨

大语言模型直接理解复杂图结构的新方法来了:将图(Graph)转换为适合Transformer架构的线性token序列。 belike:这种最新图线性化方法,反映了自然语言中局部依赖性和全局对齐性两个关键属性,即:不仅需要保留基于前文上下文预测下一个token的能力(局部依赖性),而且不同图的token序列应该从具有相似特征的token开始或结束(全局对齐性),就像自然语言文本经常以特定词语开头或结尾。 如此一来,在海量文本数据上训练的LLM也能更好地理解图结构中的关系和属性,如节点计数、最大度数计算和图式形状分类等图推理任务都能完成。