理论

上交大揭露大模型审稿风险:一句话就能让论文评分飞升

大语言模型(LLMs)正以前所未有的方式,深刻影响着学术同行评审的格局。 同行评审作为科学研究的基石,其重要性毋庸置疑。 然而,随着大语言模型逐渐渗透到这一核心过程,我们是否已经准备好面对它可能带来的深远影响?

黄仁勋自掏腰包50亿,开源英伟达GPU管理工具

离2025年只剩十几个小时,黄仁勋拿出50亿真金白银给大家发红包了! 他刚花7亿美金(51亿RMB)收购了一家初创公司,专门做GPU管理工具的。 并且立刻就宣布:开源所有平台和技术,买了英伟达GPU就能免费用。

OpenAI将营利性部门独立成司,平衡股东权益与公共利益

ChatGPT开发者OpenAI近日阐述了将其AI开发工作的营利性部门转型为一家独立实体的计划:注册为一家独立的公益公司(PBC)。 据报道,此次架构重组是OpenAI近期完成66亿美元融资的一个主要条件:如果该公司在两年内没有完成重组,投资者将有权索回投资。 OpenAI的这一决策并不出人意料。

ViT作者飞机上也要读的改进版Transformer论文,花2个小时详细批注解读分享出来

ViT核心作者Lucas Beyer,长文分析了一篇改进Transformer架构的论文,引起推荐围观。 他前不久从谷歌跳槽到OpenAI,这次是在飞机上阅读论文并写下了分析。 这篇论文被他简写为DiffTranformer,不过不是Sora底层架构的那个Diffusion Transformer,而是不久前来自微软的Differencial Transformer。

扎推曝光!大厂2025计划流出:字节辟谣疯狂买卡,奥特曼要搞AGI、智能体和ChatGPT成人模式;谷歌硬刚OpenAI整活C端

编辑 | 伊风奥特曼明年的工作计划来了! 此前,他在X上向网友征集,希望OpenAI在2025年做点什么新东西。 ——一万条评论在线许愿。

AI教父、诺奖得主Hinton支持起诉OpenAI,阻止「转营利」

上周五,OpenAI 发布了计划拆分为营利机构 非营利机构的公告,此举立即引发了 AI 社区的巨大争议。 正在与 OpenAI 打官司的首富马斯克此前已在 11 月提起了联邦诉讼,寻求初步禁令以阻止 OpenAI 转型。 这一行动目前获得了更多人的支持。

G行人工智能与大模型技术的应用与发展

一、人工智能与大模型技术在银行业的普遍应用1. 客户服务和智能客服客户服务是人工智能应用的核心领域之一。 传统银行客户服务依赖专业的人工客服,虽然能提供较高的情感交互,但因响应时间较长、服务覆盖面有限以及成本较高,难以满足现代客户对高效、便捷服务的需求。

减少LLM幻觉的五大技巧和方法

译者 | 布加迪审校 | 重楼本文介绍了使用LangGraph减少LLM幻觉的简单技巧。 如果你使用过LLM,就知道它们有时会产生幻觉。 这意味着它们生成的文本要么毫无意义,要么与输入数据相矛盾。

DeepSeek的V3,爆火了

编辑 | 言征出品 | 51CTO技术栈(微信号:blog51cto)上周四,12月26日那个晚上非常不平凡,一件大事注定要被AI界写进里程碑。 一夜之间,全球开源界最强模型不再是Llama了,而是中国开源界的新星DeepSeek最新研发的前言模型V3,甚至可以比肩世界顶尖的闭源模型。 根据DeeSeek披露的基准测试分数,简单来讲,八个字:开源最强,闭源比肩。

非营利组织 Encode 加入马斯克阵营,反对 OpenAI 转型为营利性公司

12 月 29 日消息,致力于推动人工智能(AI)安全立法的非营利组织 Encode 已向加利福尼亚州北区地方法院提交了一份法院之友意见书,以支持埃隆・马斯克阻止 OpenAI 转型为营利性公司的禁令请求。 Encode 在周五下午提交的拟议简报中表示,OpenAI 转型为营利性公司将“破坏”其“以安全且有益于公众的方式开发和部署…… 变革性技术”的使命。 简报中写道:“OpenAI及其首席执行官萨姆・阿尔特曼声称正在开发改变社会的技术,这些说法应该认真对待。

AAAI 2025 | 用于韦伯区位问题的去奇异性次梯度方法

暨南大学通用机器学习课题组由网络空间安全学院和信息科学技术学院的多名青年教师、博士生、硕士生和本科生共同组成,研究方向包括通用逼近理论、分布外泛化、非凸优化、稀疏学习、深度学习框架的基础模块开发、优化器开发、隐私保护与增强等。 自 2024 年 4 月至 12 月,课题组作为第一单位已获得所有 CCF A 机器学习国际顶级会议 ICML(2 篇)、NeurIPS 和人工智能国际顶级会议 IJCAI、AAAI 录用论文共 5 篇。 本文第一作者为课题组负责人赖兆荣,通讯作者为博士生李程,其他合作作者为课题组教师吴小天、方良达、陈子良。

港科大开源VideoVAE+,视频重建质量全面超越最新模型

港科大团队重磅开源 VideoVAE ,提出了一种强大的跨模态的视频变分自编码器(Video VAE),通过提出新的时空分离的压缩机制和创新性引入文本指导,实现了对大幅运动视频的高效压缩与精准重建,同时保持很好的时间一致性和运动恢复。 论文地址:: 模型大幅超过最新模型包括英伟达在 2024.11 发布的 Cosmos Tokenizer,同时也超越一众方法包括腾讯在 2024.12 发布的 Hunyuan Video,CogvideoX VAE,WF-VAE,CV-VAE,Open Sora,Open Sora Plan, Easy Animate-VAE。 什么是 VideoVAE 模型VideoVAE 模型(Video Variational Autoencoder)是一种基于深度学习的生成模型,用于对视频数据进行压缩、重建和生成,讲视频从 RGB 像素空间投影到低维度的 latent 空间。

26年前老年机跑Llama2,每秒39个token:你的AI PC,也可以是Windows 98

让 Llama 2 在 Windows 98 奔腾 2(Pentium II)机器上运行,不但成功了,输出达到 39.31 tok / 秒。 这台 PC 可能比你的年龄还大,要知道它已经是 26 年前的硬件了,配备英特尔奔腾 2 CPU 和 128MB 的内存。 该项目是一个名为 EXO Labs 组织的一次大胆尝试,其证明了如果 Llama 模型能在 26 年前的硬件上跑通,那么它可以在任何地方运行。

南大周志华:百万模型进入学件基座系统,很多我们没预期过的事也有可能实现 | MEET 2025

大模型时代,全世界AI从业者追赶OpenAI GPT系列的脚步仍未停歇,但也有人,坚持深耕在国产原创的另一条大模型之路上。 南京大学副校长、国际人工智能联合会理事会主席周志华教授,就是其中代表。 他提出的“学件范式”,旨在从数据隐私角度着手,通过模型 规约的方式构建基座系统,让用户的需求能被自动匹配到合适的模型、模型组合上,安全、可靠地复用他人开发的模型工具。

央视《对话》直击百度吴甜谈大模型产业落地​

2024年,关于大模型的讨论从未停歇,国内大模型市场进入到新阶段,大模型落地情况到底如何? AI 应用有哪些新场景、新变化? 近日,百度集团副总裁、深度学习技术及应用国家工程研究中心副主任吴甜做客CCTV-2《对话》节目,从技术发展及产业实践角度分享了当前以大模型为代表的人工智能技术发展及产业应用的最新进展。

o1 pro深评博士医学论文,震惊顶尖免疫学家!2分破解神秘作家身份

圣诞马拉松的第一天,OpenAI对外发布了o1 pro。 近乎全网都震惊于o1 pro高达博士水平的数学、科学、编程能力。 最近,OpenAI总裁Greg Brockman在X上转发了世界顶尖免疫学专家Derya Unutmaz的帖子。

低精度只适用于未充分训练的LLM?腾讯提出LLM量化的scaling laws

论文标题:Low-Bit Quantization Favors Undertrained LLMs: Scaling Laws for Quantized LLMs with 100T Training Tokens论文链接:(low-bit quantization)和低比特大语言模型(low-bit LLM)近期受到了广泛的关注,因为有一些研究发现,它们能够以更小的模型规模、更低的内存占用和更少的计算资源,取得与 fp16 或 bf16 精度相当的性能表现。 这一发现让低比特语言模型一度被认为是实现模型高效化的一个非常有前景的方向。 然而,这一观点受到了腾讯 AI Lab 的挑战。

机器人空间泛化也有Scaling Law!清华新国大新算法框架让机器人操作更加鲁棒

在机器人空间泛化领域,原来也有一套Scaling Law! 来自清华和新加坡国立大学的团队,发现了空间智能的泛化性规律。 在此基础上,他们提出了一套新颖的算法框架——ManiBox,让机器人能够在真实世界中应对多样化的物体位置和复杂的场景布置。