模型
SuperCLUE 中文大模型基准测评2024上半年报告
SuperCLUE 发布了《中文大模型基准测评2024上半年报告》,在AI大模型发展的巨大浪潮中,通过多维度综合性测评,对国内外大模型发展现状进行观察与思考。
北大千问团队推出数学专用版 CriticGPT,“找茬”让大模型进步更快
批评不仅能让人进步,也能让大模型的能力提升。OpenAI 就用这个思路造了个“找茬模型”CriticGPT。非常巧合的是,就在 CriticGPT 放出的前几天,北大联合千问等团队以类似的思路设计出了“数学专用版”CriticGPT。在无需训练的设置下,验证器能够在推理时辅助模型在 GSM8K 上的准确率从 86.6% 提升到 88.2%。在 GSM8K 数据集上,它可以让模型的准确率从 86.6% 提升到 88.2%。CriticGPT 的核心思路是在代码中故意设置 bug 并进行详细标注,然后用得到的数据训练出
Anthropic 首席执行官:未来三年内,AI 大模型训练成本将上升至百亿甚至千亿美元
据 Tom's Hardware 今日报道,AI 初创公司 Anthropic 的首席执行官 Dario Amodei 近期接受播客节目采访时表示,目前像 GPT-4o 这样的模型训练成本约为 1 亿美元,而目前正在开发的 AI 大模型训练成本可能高达 10 亿美元(AI在线备注:当前约 72.94 亿元人民币)。当然,10 亿美元还不是“终点”。Dario Amodei 作出预测,未来三年内,AI 大模型的训练成本将上升至 100 亿美元甚至 1000 亿美元(当前约 7294.28 亿元人民币)。Dario A
13瓦功耗处理10亿参数,接近大脑效率,消除LLM中的矩阵乘法来颠覆AI现状
编辑 | 萝卜皮通常,矩阵乘法 (MatMul) 在大型语言模型(LLM)总体计算成本中占据主导地位。随着 LLM 扩展到更大的嵌入维度和上下文长度,这方面的成本只会增加。加州大学、LuxiTech 和苏州大学的研究人员声称开发出一种新方法,通过消除过程中的矩阵乘法来更有效地运行人工智能语言模型。这从根本上重新设计了目前由 GPU 芯片加速的神经网络操作方式。研究人员描述了如何在不使用 MatMul 的情况下创建一个自定义的 27 亿参数模型,性能与当前最先进的 Transformer 模型相当。该研究以「Scal
OpenAI CEO 阿尔特曼:GPT-5 将带来“巨大飞跃”
OpenAI 公司的 GPT-5 模型一直备受关注,许多用户期待该公司会在春季更新活动中发布这款人工智能模型。然而,OpenAI 推出了新款旗舰产品 GPT-4o,该公司首席执行官山姆・阿尔特曼(Sam Altman)将其描述为“神奇”。根据 Aspen Ideas Festival 上的一次访谈,阿尔特曼提到,开发“GPT-5”还需要一些时间。“我们目前持乐观态度,但还有很多工作要做。”阿尔特曼表示。目前尚不清楚 GPT-5 的发布日期,但阿尔特曼表示它将是“巨大飞跃(significant leap forwa
Meta 推出 LLM Compiler 代码优化模型,可搭配其他 AI 改善代码生成 / 编译能力
Meta 前天推出了一款名为“LLM Compiler”的模型,该模型基于 Meta 现有的 Code Llama 打造,主打代码优化,目前相关模型已登陆 Hugging Face,提供 70 亿参数及 130 亿参数两个版本,允许学术及商业使用,IT之家附项目地址如下:点此访问。Meta 认为,尽管业界各大语言模型已在各种编程代码任务中展现了出色的能力,但此类模型在代码优化还有进步空间,目前推出的 LLM Compiler 模型便是一款专为优化代码任务设计的预训练模型,能够模拟编译器对代码进行优化,或将“已经过优
菲尔兹奖得主亲测 GPT-4o,经典过河难题破解失败
编辑:桃子乔杨【新智元导读】LLM 能否解决「狼-山羊-卷心菜」经典过河难题?最近,菲尔兹奖得主 Timothy Gowers 分享了实测 GPT-4o 的过程,模型在最简单的题目上竟然做错了,甚至网友们发现,就连 Claude 3.5 也无法幸免。在经典的「狼-山羊-卷心菜」过河问题上,如今所有的 LLM 都失败了!几天前,菲尔兹奖得主、剑桥大学研究主任 Timothy Gowers 直接拿 GPT-4o 开刀,去解决动物过河难题。在此,他给出了一个新的基准 —— 废话比率(crapness ratio),即 L
Meta 发布基于 Code Llama 的 LLM 编译器:优化代码大小、反汇编
感谢Meta 官方在 X 平台宣布推出 LLM 编译器,这是一个基于 Meta Code Llama 构建的模型家族,具有额外的代码优化和编译器功能。这些模型可以模拟编译器,预测代码大小的最佳传递,并可反汇编代码,可以针对新的优化和编译器任务进行微调。Meta 在 HuggingFace 上公开了 LLM 编译器的 7B 和 13B 模型,采用宽松的许可协议,允许用于研究和商业用途。IT之家附链接:,LLM 在各种软件工程和编码任务中展示其能力,然而在代码和编译器优化领域的应用仍然未被充分探索。为了解决这一问题,M
大模型 2024 高考发榜,豆包等三款国产 AI 考上文科一本线
眼下,全国各地的高考成绩陆续出炉,各种关于考生考了多少分的新闻也在不断登上头条。而最近,有一批特殊考生的成绩也出炉了,他们就是由各家 AI 大模型组成的“考试天团”。大模型考上文科本科,豆包拿下国产 AI 最高分6 月 24 日,在极客公园最新发布的高考新课标 Ⅰ 卷大模型评测报告中,GPT-4o 以 562 分排名文科总分第一。国内产品中,字节跳动旗下的豆包拔得头筹,成绩是 542.5 分。再往后,依次是百度文心一言 4.0 的 537.5 分、百川智能“百小应”的 521 分。本次大模型高考评测与河南省考卷完全
OpenAI 突然断供中国!商汤推出0成本“搬家服务”,还送大礼包
6月25日,商汤科技宣布推出大模型0元购计划,即日起成为商汤“日日新SenseNova”新注册企业用户,将获得涉及调用、迁徙、训练等多项免费服务大礼包,0元GO!“日日新SenseNova”平台覆盖商量大语言模型、商量图文多模态大模型、秒画文生图大模型、语音大模型、向量模型等多类模型API接口,满足企业用户不同需求。商汤始终坚持AI原创,技术安全且自主可控,并自有商汤大装置SenseCore这类高效率、低成本、规模化的新一代AI基础设施,算力有保障。商汤将为“日日新SenseNova”新注册企业用户赠送5000万T
阿里云、智谱多家国产大模型公司宣布提供 OpenAI API 服务替代方案
感谢昨天陆续有 API 开发者在社交媒体上表示,他们收到了来自 OpenAI 的“警告信”,信中表示将采取额外措施停止其不支持的地区的 API 使用,IT之家此前已进行详细报道。此后,多家国产大模型公司宣布为开发者提供 OpenAI API 服务的替代方案,包括智谱、阿里云、百度智能云等。智谱:推出 OpenAI API 用户“特别搬家计划”,帮助用户切换至国产大模型。其 GLM 大模型号称全面对标 OpenAI 产品体系,且全链路技术自研、安全可控。为开发者提供:1.5 亿 Token(5000 万 GLM-4
大模型2024高考发榜,豆包等三款国产AI考上文科一本线
大模型参加高考,能考多少分,上什么大学?6月24日,在机构最新发布的高考新课标Ⅰ卷大模型评测报告中,GPT-4o 以562分排名文科总分第一。国内产品中,字节跳动旗下的豆包拔得头筹,成绩是542.5分,其后依次是百度文心一言4.0的537.5分、百川智能“百小应”的521分。本次大模型高考评测与河南省考卷完全相同,河南高考录取分数线显示,文科本科一批录取分数线为521分,豆包等三款国产AI成功冲上一本线。与文科相比,大模型的理科成绩要差很多,最高分还不到480分,多数大模型的理科总分在400分以下。相比河南理科51
斯坦福大模型评测榜 Claude 3 排名第一,阿里 Qwen2、零一万物 Yi Large 国产模型进入前十
斯坦福大学基础模型研究中心(CRFM)6 月 11 日发布了大规模多任务语言理解能力评估(Massive Multitask Language Understanding on HELM)排行榜,其中综合排名前十的大语言模型中有两款来自中国厂商,分别是阿里巴巴的 Qwen2 Instruct(72B)和零一万物的 Yi Large(Preview)。据悉大规模多任务语言理解能力评估(MMLU on HELM)采用了 Dan Hendrycks 等人提出的一种测试方法,用于衡量文本模型在多任务学习中的准确性。这个测试
上海人工智能实验室发布首个 AI 高考评测结果:语数英总分最高 303 分,数学全部不及格
感谢上海人工智能实验室 19 日公布了首个 AI 高考全卷评测结果。据介绍,2024 年全国高考甫一结束,该实验室旗下司南评测体系 OpenCompass 选取 6 个开源模型及 GPT-4o 进行高考“语数外”全卷能力测试。评测采用全国新课标 I 卷,参与评测的所有开源模型开源时间均早于高考,确保评测“闭卷”性。同时,成绩由具有高考评卷经验的教师人工评判,更加接近真实阅卷标准。该机构表示,Qwen2-72B、GPT-4o 及书生・浦语 2.0 文曲星(InternLM2-20B-WQX)成为本次大模型高考的前三甲
智源更新大模型排行榜:豆包大模型“客观评测”排名国产第一
6月中旬,智源研究院旗下的 FlagEval 大模型评测平台发布最新榜单:在有标准答案的“客观评测”中,GPT-4 以76.11分在闭源大模型中排名第一;Doubao-Pro(豆包大模型)以75.96分排名第二,同时也是得分最高的国产大模型;其后依次是 ERNIE 4.0、Baichuan3、Moonshot-v1。在开放问答等“主观评测”中,Doubao-Pro 同样排名第二,得分超过 GPT-4o 和 GPT-4。图:豆包大模型在 FlagEval 客观评测中获综合评分第二(2024年6月)FlagEval 大
被《AIGC体验派》硬控25分钟,大模型落地还能这么玩?
2024年的大模型厂商在做什么?拿着「锤子」,满世界找「钉子」。回想2022年,文生图的爆发让「AIGC」走进大众的视线。2023年,大模型热潮来袭,人们津津乐道的是AI对话机器人如何有趣,以及背后的大模型技术有什么进展。2024年,大部分人的关注焦点转移到了应用层,希望AIGC从「有趣」变为「有用」。实际上,在金融、教育、医疗、能源、汽车等各行各业,我们都已看到AIGC初步显现的影响力和未来巨大的想象空间。我们也知道,大模型在各行各业落地是一个渐进的过程,新技术带来的深远影响将在很长的一段周期内逐渐显现。本质上,
俄罗斯科技巨头 Yandex 宣布开源“YaFSDP”大语言模型训练工具:大幅提升 GPU 利用率,对 Llama 3 可实现 26% 加速
俄罗斯科技巨头 Yandex 推出了一款开源的大语言模型训练工具 ——YaFSDP,号称与现有工具相比速度最高可提升 26%。据介绍,YaFSDP 在训练速度方面优于传统的 FSDP 方法,尤其适用于大型模型。在预训练 LLM 方面,YaFSDP 速度提高了 20%,并且在高内存压力条件下表现更佳。例如,YaFSDP 对具有 700 亿参数的 Llama 2 可以实现 21% 的效率提升,对具有同级参数的 Llama 3 也实现 了 26% 的效率提升。IT之家附官方数据一览:模型gpu-countseq-lenn
视觉语言模型导论:这篇论文能成为你进军VLM的第一步
近些年,语言建模领域进展非凡。Llama 或 ChatGPT 等许多大型语言模型(LLM)有能力解决多种不同的任务,它们也正在成为越来越常用的工具。这些模型之前基本都局限于文本输入,但现在也正在具备处理视觉输入的能力。如果能将视觉与语言打通,那么势必能造就多种多样的应用 —— 这实际上也正是当前 AI 技术革命的关键方向。即便现在已有不少研究将大型语言模型扩展到了视觉领域,但视觉与语言之间的连接尚未被彻底打通。举些例子,大多数模型都难以理解空间位置关系或计数 —— 这还需要复杂的工程设计并依赖额外的数据标注。许多视