模型
阿里云与零一万物达成战略合作,成立“产业大模型联合实验室” ,加速落地应用
近期,阿里云和大模型头部企业零一万物达成模型平台业务的战略合作,双方将成立“产业大模型联合实验室”,联手加速大模型从技术到应用的落地,进一步扩大产业大模型的生态整合。 据悉,双方深度战略合作的产业大模型联合实验室包含技术、业务、人才等板块,阿里和零一万物将结合两个团队全球顶尖的大模型研发实力,形成从下一代基座模型技术探索到产业落地大模型服务的组合拳,全面通过阿里云百炼大模型平台的模型服务层面向市场,针对 ToB 行业打造更强更全面的大模型解决方案,加速大模型穿透千行百业。 在开展的合作中,阿里云拥有从技术到算力到服务层的平台级完整链条, 通义系列大模型将作为具有强大通用能力的“教师模型”,零一万物拥有国际前沿的高性价比模型能力,能够敏捷批量训练垂直定向的产业智能模型,双方联手将加速大模型的产业落地,拓宽大模型生态前景。
智象未来多模态大模型3.0全球首发,创始人兼CEO梅涛演讲实录来了
2024年12月28日,智象未来科技有限公司在安徽省人工智能产业先导区启动仪式中,宣布智象多模态生成大模型3.0与智象多模态理解大模型1.0同时发布。 上海电影集团、中国移动咪咕音乐、科大讯飞等企业参加。 加拿大工程院外籍院士、智象未来创始人兼CEO梅涛进行现场演讲。
全新模型RoboVLMs解锁VLA无限可能,真实机器人实验交出满分答卷
本文作者来自清华大学、字节跳动、中科院自动化所、上海交通大学和新加坡国立大学。 作者列表:李兴航、李沛言、刘明桓、王栋、刘济榕、康炳易、马骁、孔涛、张翰博和刘华平。 第一作者李兴航是清华大学计算机系博士生。
微软论文意外「走光」,OpenAI参数全泄密!GPT-4o仅200B,o1 300B
谁能想到,微软在一篇医学领域的论文里,竟然把OpenAI模型的参数全「曝光」了! GPT-4参数约1.76万亿GPT-4o参数约2000亿GPT-4o mini参数约80亿o1-preview参数约3000亿o1-mini参数约1000亿Claude 3.5 Sonnet参数约1750亿研究人员:参数均为估算值让所有人难以置信的是,GPT-4o系列的参数如此少,mini版甚至只有8B。 有网友猜测,4o mini是一个大约有40B参数的MoE模型,其中激活参数为8B。
黄仁勋自掏腰包50亿,开源英伟达GPU管理工具
离2025年只剩十几个小时,黄仁勋拿出50亿真金白银给大家发红包了! 他刚花7亿美金(51亿RMB)收购了一家初创公司,专门做GPU管理工具的。 并且立刻就宣布:开源所有平台和技术,买了英伟达GPU就能免费用。
ViT作者飞机上也要读的改进版Transformer论文,花2个小时详细批注解读分享出来
ViT核心作者Lucas Beyer,长文分析了一篇改进Transformer架构的论文,引起推荐围观。 他前不久从谷歌跳槽到OpenAI,这次是在飞机上阅读论文并写下了分析。 这篇论文被他简写为DiffTranformer,不过不是Sora底层架构的那个Diffusion Transformer,而是不久前来自微软的Differencial Transformer。
沙利文发布权威报告:商汤科技GenAI技术栈市场综合能力位居国内第一
创新实力强、应用落地广,GenAI(生成式AI)技术栈领域,商汤科技位居国内榜首! 近日,权威研究机构弗若斯特沙利文(Frost & Sullivan, 简称“沙利文”)联合头豹研究院发布《2024年中国GenAI技术栈市场报告》,商汤科技在11个GenAI厂商中超越阿里云、百度智能云和华为云,增长指数和创新指数均排名国内第一,在全球排名中仅次于亚马逊云科技。 报告认为,商汤积极投入技术创新,致力于为用户提供行业领先的自研模型与高性能国产化的推理引擎,同时建立了包含机器与人工审核、安全评测与内容安全策略迭代升级等在内的完整性安全管理方案,是GenAI技术栈领域的领导者。
AAAI 2025 | 用于韦伯区位问题的去奇异性次梯度方法
暨南大学通用机器学习课题组由网络空间安全学院和信息科学技术学院的多名青年教师、博士生、硕士生和本科生共同组成,研究方向包括通用逼近理论、分布外泛化、非凸优化、稀疏学习、深度学习框架的基础模块开发、优化器开发、隐私保护与增强等。 自 2024 年 4 月至 12 月,课题组作为第一单位已获得所有 CCF A 机器学习国际顶级会议 ICML(2 篇)、NeurIPS 和人工智能国际顶级会议 IJCAI、AAAI 录用论文共 5 篇。 本文第一作者为课题组负责人赖兆荣,通讯作者为博士生李程,其他合作作者为课题组教师吴小天、方良达、陈子良。
港科大开源VideoVAE+,视频重建质量全面超越最新模型
港科大团队重磅开源 VideoVAE ,提出了一种强大的跨模态的视频变分自编码器(Video VAE),通过提出新的时空分离的压缩机制和创新性引入文本指导,实现了对大幅运动视频的高效压缩与精准重建,同时保持很好的时间一致性和运动恢复。 论文地址:: 模型大幅超过最新模型包括英伟达在 2024.11 发布的 Cosmos Tokenizer,同时也超越一众方法包括腾讯在 2024.12 发布的 Hunyuan Video,CogvideoX VAE,WF-VAE,CV-VAE,Open Sora,Open Sora Plan, Easy Animate-VAE。 什么是 VideoVAE 模型VideoVAE 模型(Video Variational Autoencoder)是一种基于深度学习的生成模型,用于对视频数据进行压缩、重建和生成,讲视频从 RGB 像素空间投影到低维度的 latent 空间。
26年前老年机跑Llama2,每秒39个token:你的AI PC,也可以是Windows 98
让 Llama 2 在 Windows 98 奔腾 2(Pentium II)机器上运行,不但成功了,输出达到 39.31 tok / 秒。 这台 PC 可能比你的年龄还大,要知道它已经是 26 年前的硬件了,配备英特尔奔腾 2 CPU 和 128MB 的内存。 该项目是一个名为 EXO Labs 组织的一次大胆尝试,其证明了如果 Llama 模型能在 26 年前的硬件上跑通,那么它可以在任何地方运行。
o1 pro深评博士医学论文,震惊顶尖免疫学家!2分破解神秘作家身份
圣诞马拉松的第一天,OpenAI对外发布了o1 pro。 近乎全网都震惊于o1 pro高达博士水平的数学、科学、编程能力。 最近,OpenAI总裁Greg Brockman在X上转发了世界顶尖免疫学专家Derya Unutmaz的帖子。
低精度只适用于未充分训练的LLM?腾讯提出LLM量化的scaling laws
论文标题:Low-Bit Quantization Favors Undertrained LLMs: Scaling Laws for Quantized LLMs with 100T Training Tokens论文链接:(low-bit quantization)和低比特大语言模型(low-bit LLM)近期受到了广泛的关注,因为有一些研究发现,它们能够以更小的模型规模、更低的内存占用和更少的计算资源,取得与 fp16 或 bf16 精度相当的性能表现。 这一发现让低比特语言模型一度被认为是实现模型高效化的一个非常有前景的方向。 然而,这一观点受到了腾讯 AI Lab 的挑战。
机器人空间泛化也有Scaling Law!清华新国大新算法框架让机器人操作更加鲁棒
在机器人空间泛化领域,原来也有一套Scaling Law! 来自清华和新加坡国立大学的团队,发现了空间智能的泛化性规律。 在此基础上,他们提出了一套新颖的算法框架——ManiBox,让机器人能够在真实世界中应对多样化的物体位置和复杂的场景布置。
吹哨人之死:26岁OpenAI举报人离奇自杀,母亲心碎曝出惊人内幕!
举报人去世整整一个月后,沉默许久的OpenAI终于给出了官方回应。 他们发布了一篇公告,解答了公众对于「前队友」的种种疑问。 我们得知这一悲痛的消息后深感震惊,并已与Suchir的家人取得联系,在这个困难时期向他们提供全力支持。
国产之光DeepSeek把AI大佬全炸出来了!671B大模型训练只需此前算力1/10,细节全公开
DeepSeek新版模型正式发布,技术大佬们都转疯了! 延续便宜大碗特点的基础之上,DeepSeek V3发布即完全开源,直接用了53页论文把训练细节和盘托出的那种。 怎么说呢,QLoRA一作的一个词评价就是:优雅。
OpenAI被曝数据崩溃GPT-5难产,团队抢算力冲突激烈!Ilya预言成真?
OpenAI轰轰烈烈搞出一场12天圣诞特别活动,结果期间发布最轰动成果的,居然是谷歌。 谷歌一发发密集的核弹,让OpenAI分成12天的挤牙膏黯然失色,毫无还手之力。 原生多模态Gemini 2.0 Flash,demo惊艳的Project Astra,组团出道的AI智能体,效果吊打Sora掀起全网狂潮的Veo 2……显得OpenAI的圣诞活动仿佛是个笑话。
o3曝智商高达157,比肩爱因斯坦碾压99%人类!陶哲轩水平AI或出现
o3智商竟有157,堪比爱因斯坦? 今天,一张OpenAI模型智商图,在全网传遍了。 基于编程竞赛Codeforces排名评分图中清晰可见,能够达到o3智商水平的人类大约占比仅有0.0075%。