理论

世界知识产权组织:过去十年中国生成式 AI 专利申请量居全球第一,远超美韩日

世界知识产权组织(WIPO)今日发布了最新的《生成式人工智能专利态势报告》。数据显示,2014 年至 2023 年,中国发明人申请的生成式人工智能专利数量最多,远超美国、韩国、日本和印度等国。2014 年至 2023 年,全球生成式人工智能相关的发明申请量达 54000 件,仅仅 2023 年一年就出现了超总数 1/4 的申请量。在此期间,中国的生成式人工智能发明超过 3.8 万件,是排名第二的美国的 6 倍。▲ 图源 WIPO中国公司和机构在生成式 AI 领域占据主导地位,在专利注册量前十名的单位中占据了 6 席

OpenAI CEO 阿尔特曼:GPT-5 将带来“巨大飞跃”

OpenAI 公司的 GPT-5 模型一直备受关注,许多用户期待该公司会在春季更新活动中发布这款人工智能模型。然而,OpenAI 推出了新款旗舰产品 GPT-4o,该公司首席执行官山姆・阿尔特曼(Sam Altman)将其描述为“神奇”。根据 Aspen Ideas Festival 上的一次访谈,阿尔特曼提到,开发“GPT-5”还需要一些时间。“我们目前持乐观态度,但还有很多工作要做。”阿尔特曼表示。目前尚不清楚 GPT-5 的发布日期,但阿尔特曼表示它将是“巨大飞跃(significant leap forwa

从零开始,用英伟达T4、A10训练小型文生视频模型,几小时搞定

很翔实的一篇教程。OpenAI 的 Sora、Stability AI 的 Stable Video Diffusion 以及许多其他已经发布或未来将出现的文本生成视频模型,是继大语言模型 (LLM) 之后 2024 年最流行的 AI 趋势之一。在这篇博客中,作者将展示如何将从头开始构建一个小规模的文本生成视频模型,涵盖了从理解理论概念、到编写整个架构再到生成最终结果的所有内容。由于作者没有大算力的 GPU,所以仅编写了小规模架构。以下是在不同处理器上训练模型所需时间的比较。作者表示,在 CPU 上运行显然需要更长

击败25个分子设计算法,佐治亚理工、多伦多大学、康奈尔提出大语言模型MOLLEO

作者 | 佐治亚理工学院王浩瑞编辑 | ScienceAI分子发现作为优化问题,因其优化目标可能不可微分而带来显著的计算挑战。进化算法(EAs)常用于优化分子发现中的黑箱目标,通过随机突变和交叉来遍历化学空间,但这会导致大量昂贵的目标评估。在这项工作中,佐治亚理工学院、多伦多大学和康奈尔大学研究者合作提出了分子语言增强进化优化(MOLLEO),通过将拥有化学知识的预训练大语言模型(LLMs)整合到进化算法中,显著改善了进化算法的分子优化能力。该研究以《Efficient Evolutionary Search Ov

Meta 推出 LLM Compiler 代码优化模型,可搭配其他 AI 改善代码生成 / 编译能力

Meta 前天推出了一款名为“LLM Compiler”的模型,该模型基于 Meta 现有的 Code Llama 打造,主打代码优化,目前相关模型已登陆 Hugging Face,提供 70 亿参数及 130 亿参数两个版本,允许学术及商业使用,IT之家附项目地址如下:点此访问。Meta 认为,尽管业界各大语言模型已在各种编程代码任务中展现了出色的能力,但此类模型在代码优化还有进步空间,目前推出的 LLM Compiler 模型便是一款专为优化代码任务设计的预训练模型,能够模拟编译器对代码进行优化,或将“已经过优

菲尔兹奖得主亲测 GPT-4o,经典过河难题破解失败

编辑:桃子乔杨【新智元导读】LLM 能否解决「狼-山羊-卷心菜」经典过河难题?最近,菲尔兹奖得主 Timothy Gowers 分享了实测 GPT-4o 的过程,模型在最简单的题目上竟然做错了,甚至网友们发现,就连 Claude 3.5 也无法幸免。在经典的「狼-山羊-卷心菜」过河问题上,如今所有的 LLM 都失败了!几天前,菲尔兹奖得主、剑桥大学研究主任 Timothy Gowers 直接拿 GPT-4o 开刀,去解决动物过河难题。在此,他给出了一个新的基准 —— 废话比率(crapness ratio),即 L

微软 AI 部门 CEO:网上几乎所有内容都可免费用于 AI 训练,但也有灰色地带

随着生成式 AI 逐渐受到各界关注,部分争议问题也开始浮出水面。这其中最大的争议之一就是 AI 公司训练模型是否使用了受版权保护的内容,而也有部分作家、出版商或媒体公司等针对包括微软在内的生成式 AI 公司提起了一系列诉讼。微软 AI 部门新任命的首席执行官穆斯塔法・苏莱曼(Mustafa Suleyman)当地时间周四接受 CNBC 采访时,谈到了生成式 AI 从网络获取数据的问题。他的回复是:对于已经在网上公开的内容,自 90 年代以来,这些内容的社会契约就是“合理使用”,任何人都可以复制、重新创作、再现这些内

Meta 发布基于 Code Llama 的 LLM 编译器:优化代码大小、反汇编

感谢Meta 官方在 X 平台宣布推出 LLM 编译器,这是一个基于 Meta Code Llama 构建的模型家族,具有额外的代码优化和编译器功能。这些模型可以模拟编译器,预测代码大小的最佳传递,并可反汇编代码,可以针对新的优化和编译器任务进行微调。Meta 在 HuggingFace 上公开了 LLM 编译器的 7B 和 13B 模型,采用宽松的许可协议,允许用于研究和商业用途。IT之家附链接:,LLM 在各种软件工程和编码任务中展示其能力,然而在代码和编译器优化领域的应用仍然未被充分探索。为了解决这一问题,M

专给 ChatGPT“找茬”,OpenAI 训练 CriticGPT 模型以检索输出内容错误

感谢当地时间 27 日,OpenAI 宣布基于 GPT-4 训练了一个名为 CriticGPT 的模型,用于查找 ChatGPT 聊天机器人输出内容中的错误。它可以撰写评论,强调 ChatGPT 生成答案中不准确的地方。据介绍,CriticGPT 旨在协助人类 AI 训练员完成工作 —— 使用一种名为“从人类反馈中强化学习(IT之家注:Reinforcement Learning from Human Feedback,RLHF)”的技术来训练、改进 GPT-4 的回答。然而随着 ChatGPT 的准确性日益提升,

大模型 2024 高考发榜,豆包等三款国产 AI 考上文科一本线

眼下,全国各地的高考成绩陆续出炉,各种关于考生考了多少分的新闻也在不断登上头条。而最近,有一批特殊考生的成绩也出炉了,他们就是由各家 AI 大模型组成的“考试天团”。大模型考上文科本科,豆包拿下国产 AI 最高分6 月 24 日,在极客公园最新发布的高考新课标 Ⅰ 卷大模型评测报告中,GPT-4o 以 562 分排名文科总分第一。国内产品中,字节跳动旗下的豆包拔得头筹,成绩是 542.5 分。再往后,依次是百度文心一言 4.0 的 537.5 分、百川智能“百小应”的 521 分。本次大模型高考评测与河南省考卷完全

阿里云、智谱多家国产大模型公司宣布提供 OpenAI API 服务替代方案

感谢昨天陆续有 API 开发者在社交媒体上表示,他们收到了来自 OpenAI 的“警告信”,信中表示将采取额外措施停止其不支持的地区的 API 使用,IT之家此前已进行详细报道。此后,多家国产大模型公司宣布为开发者提供 OpenAI API 服务的替代方案,包括智谱、阿里云、百度智能云等。智谱:推出 OpenAI API 用户“特别搬家计划”,帮助用户切换至国产大模型。其 GLM 大模型号称全面对标 OpenAI 产品体系,且全链路技术自研、安全可控。为开发者提供:1.5 亿 Token(5000 万 GLM-4

斯坦福大模型评测榜 Claude 3 排名第一,阿里 Qwen2、零一万物 Yi Large 国产模型进入前十

斯坦福大学基础模型研究中心(CRFM)6 月 11 日发布了大规模多任务语言理解能力评估(Massive Multitask Language Understanding on HELM)排行榜,其中综合排名前十的大语言模型中有两款来自中国厂商,分别是阿里巴巴的 Qwen2 Instruct(72B)和零一万物的 Yi Large(Preview)。据悉大规模多任务语言理解能力评估(MMLU on HELM)采用了 Dan Hendrycks 等人提出的一种测试方法,用于衡量文本模型在多任务学习中的准确性。这个测试

上海人工智能实验室发布首个 AI 高考评测结果:语数英总分最高 303 分,数学全部不及格

感谢上海人工智能实验室 19 日公布了首个 AI 高考全卷评测结果。据介绍,2024 年全国高考甫一结束,该实验室旗下司南评测体系 OpenCompass 选取 6 个开源模型及 GPT-4o 进行高考“语数外”全卷能力测试。评测采用全国新课标 I 卷,参与评测的所有开源模型开源时间均早于高考,确保评测“闭卷”性。同时,成绩由具有高考评卷经验的教师人工评判,更加接近真实阅卷标准。该机构表示,Qwen2-72B、GPT-4o 及书生・浦语 2.0 文曲星(InternLM2-20B-WQX)成为本次大模型高考的前三甲

计算效率提升100倍以上,上交李金金团队开发基于Transformer的大模型用于从头算分子动力学

作者 | 陶科豪编辑 | 白菜叶精确模拟原子与分子的动态行为对于开发新一代高效能材料至关重要。然而,传统的从头算分子动力学(AIMD)模拟虽然提供了高精度的预测能力,但由于其高昂的计算成本和漫长的模拟时间,大大限制了研究的进度。例如,完成一个含 100 个原子的材料系统的 30 皮秒模拟,常常需要数月时间,这对于需要快速迭代和优化的新材料研发构成了巨大挑战。在这种背景下,一个能够显著加快这一过程的人工智能模型具有重要价值。面对这些挑战,上海交通大学人工智能与微结构实验室(AIMS-lab)开发了名为 T-AIMD

被《AIGC体验派》硬控25分钟,大模型落地还能这么玩?

2024年的大模型厂商在做什么?拿着「锤子」,满世界找「钉子」。回想2022年,文生图的爆发让「AIGC」走进大众的视线。2023年,大模型热潮来袭,人们津津乐道的是AI对话机器人如何有趣,以及背后的大模型技术有什么进展。2024年,大部分人的关注焦点转移到了应用层,希望AIGC从「有趣」变为「有用」。实际上,在金融、教育、医疗、能源、汽车等各行各业,我们都已看到AIGC初步显现的影响力和未来巨大的想象空间。我们也知道,大模型在各行各业落地是一个渐进的过程,新技术带来的深远影响将在很长的一段周期内逐渐显现。本质上,

22个任务超越SOTA,43个任务媲美SOTA,Google推出医学治疗通用大模型

编辑 | 萝卜皮医生和科学家如果想开发一种新的疗法,这将是一个漫长且昂贵的任务,需要满足许多不同的标准,而能够加快这一过程的人工智能模型将是无价之宝。然而,目前大多数人工智能方法只能解决一组定义狭窄的任务,通常局限于特定领域。为了弥补这一差距,Google 团队提出了 Tx-LLM,这是一种通用大型语言模型(LLM),由 PaLM-2 微调而成,可编码有关各种治疗方式的知识。仅使用一组权重,Tx-LLM 可同时处理与自由文本交织的各种化学或生物实体(小分子、蛋白质、核酸、细胞系、疾病)信息,使其能够预测广泛的相关属

俄罗斯科技巨头 Yandex 宣布开源“YaFSDP”大语言模型训练工具:大幅提升 GPU 利用率,对 Llama 3 可实现 26% 加速

俄罗斯科技巨头 Yandex 推出了一款开源的大语言模型训练工具 ——YaFSDP,号称与现有工具相比速度最高可提升 26%。据介绍,YaFSDP 在训练速度方面优于传统的 FSDP 方法,尤其适用于大型模型。在预训练 LLM 方面,YaFSDP 速度提高了 20%,并且在高内存压力条件下表现更佳。例如,YaFSDP 对具有 700 亿参数的 Llama 2 可以实现 21% 的效率提升,对具有同级参数的 Llama 3 也实现 了 26% 的效率提升。IT之家附官方数据一览:模型gpu-countseq-lenn

预测准确率达95.7%,ChatMOF利用LLM预测和生成金属有机框架

编辑 | X金属有机框架(MOF)因其孔隙率大、表面积大和出色的可调性而用于许多化学应用。然而,在利用 AI 深入探索 MOF 设计与性能优化的研究征途中,科学家们正面临着前所未有的挑战。去年 3 月,韩国科学技术院(Korea Advanced Institute of Science and Technology,KAIST)的研究人员提出的 MOFTransformer 模型经过一百万个假设的 MOF 的预训练,在预测各种属性方面表现出色。近日,KAIST 团队提出了一种 AI 系统——ChatMOF,用于预