文章列表
OpenAI总裁回归!将更专注重大技术挑战,“结束人生最长假期”
OpenAI联创&总裁Greg Brockman,回来了! 刚刚,他在推特上宣布,自己人生中最长的假期结束了,现在要回来继续建设OpenAI。 据爆料,Brockman周二在内部发布了回归的公告。
OpenAI 联合创始人回来了,还是总裁,将更专注重大技术挑战
哥,咱回来了 ! 今天,OpenAI 联合创始人 Greg Brockman 宣布结束悠长假期,以总裁身份重返 OpenAI 。 「人生中最长的假期,结束了。
如何使用Hugging Face Transformers微调F5以回答问题?
译者 | 布加迪审校 | 重楼使用Hugging Face Transformers对T5模型进行微调以处理问题回答任务很简单:只需为模型提供问题和上下文,它就能学会生成正确的答案。 T5是一个功能强大的模型,旨在帮助计算机理解和生成人类语言。 T5的全称是“文本到文本转换器”。
Ilya认错,Scaling Law崩了?自曝SSI秘密技术路线取代OpenAI
昨天,The Information爆料,传统的大模型Scaling Law已经撞墙,OpenAI下一代旗舰Orion遭遇瓶颈。 就在刚刚,路透社也发文表示,由于当前方法受到限制,OpenAI和其他公司正在寻求通向更智能AI的新途径。 有趣的是,昨天拱火的The Information,今天又急忙发出一篇文章来灭火。
在家中完成LLM微调高效指南(上)
编辑 | 言征出品 | 51CTO技术栈(微信号:blog51cto)LLM在生成文本和理解信息方面非常有效,但它们最终受限于训练数据的语料库。 例如,如果你让一个通用的预训练模型回答与你的业务特定流程或操作有关的问题,最好的结果是它拒绝,最坏的情况是它会信誓旦旦地给出一个看似合理但错误的答案。 当然,你可以通过自己训练一个模型来解决这个问题,但所需的资源往往超出实际可行的范围。
陶哲轩联手60多位数学家出题,世界顶尖模型通过率仅2%!专家级数学基准,让AI再苦战数年
数学为评估复杂推理提供了一个独特而合适的测试平台。 它需要一定的创造力和精确的逻辑链条——通常涉及复杂的证明,这些证明必须缜密地筹划和执行。 同时,数学还允许对结果进行客观验证。
OpenAI大改下代大模型方向,scaling law撞墙?AI社区炸锅了
大模型的 scaling law 到头了? 行业龙头 OpenAI 在转换策略。 有研究预计,如果 LLM 保持现在的发展势头,预计在 2028 年左右,已有的数据储量将被全部利用完。
哈佛推出全新类ChatGPT癌症诊断AI,登上Nature!准确率高达96%
近日,来自哈佛医学院等机构的科学家们开发了一种名为CHIEF(Clinical Histopathology Imaging Evaluation Foundation,临床组织病理学成像评估基础)的多功能AI癌症诊断模型。 并于9月4日登上「Nature」。 论文地址:,尽管最近出现了其他用于医学诊断的病理图像基础AI模型,但CHIEF是第一个能够预测患者预后并在多个国际患者群体中验证的模型。
OpenAI奥特曼最新对话:将很快进入智能体阶段;OpenAI最初三个目标一个已失效;智慧和能源可解锁AGI;马斯克比我做更多
编辑 | 言征出品 | 51CTO技术栈(微信号:blog51cto)2025,OpenAI会有哪些动作? Sam Altman定下了哪些目标? 如何看待自“宫斗”后相创始员工离职潮,以及大模型创业公司的壁垒和未来在哪里?
多模态模型免微调接入互联网,即插即用新框架,效果超闭源商用方案
一个5月份完成训练的大模型,无法对《黑神话·悟空》游戏内容相关问题给出准确回答。 这是大模型的老毛病了。 因为《黑神话》8月才上市,训练数据里没有它的相关知识。
我为什么离开OpenAI?六年元老发离职长文:AGI将至,我们远没准备好
OpenAI的「员工叛逃」还没有结束。 近日,OpenAI又有一位6年元老、研究主管Miles Brundage发表长文官宣离职,并详细解释了自己为何「出走」。 作为一家年轻的AI独角兽,成立于2015年的OpenAI如今刚刚9岁,因此在公司待了6年之久的Brundage足以被称为「元老」,见证了OpenAI如何一路起伏、筚路蓝缕地走到今天。
AI 内容博弈:OpenAI 在和新闻机构版权纠纷案中赢得首轮胜利
科技媒体 engadget 昨日(11 月 8 日)发布博文,报道称 OpenAI 在与 Raw Story 和 AlterNet 的版权纠纷案件中,赢得首轮胜利。
刚刚,OpenAI安全副总裁、北大校友Lilian Weng宣布离职,有时间写博客了
翁荔的技术博客深入、细致,具有前瞻性,被很多 AI 研究者视为重要的参考资料。 如今,她离开了 OpenAI,开启新的征程。 而且她表示,之后可能有更多时间频繁更新博客。
谷歌、MIT等开发多智能体医疗决策框架MDAgents,医学LLM新用法
编辑 | 白菜叶基础模型正在成为医学领域的宝贵工具。 然而,尽管它们前景广阔,但在复杂的医学任务中如何最好地利用大型语言模型 (LLM) 仍是一个悬而未决的问题。 麻省理工学院、谷歌研究院和首尔国立大学医院的研究人员提出了一种新颖的多智能体框架,称为医疗决策智能体 (MDAgents),它通过自动为 LLM 团队分配协作结构来帮助解决这一差距。
Seed校招博士自述:我为什么选择来字节做大模型
原文来自知乎博主张逸霄对“大家能分享一下当前博士就业的情况吗”的回答。 人在英国,刚过答辩。 今年拿了腾讯 AI Lab(青云计划)、字节跳动(Seed) ,国外有之前实习的 Sony Research 和 Yamaha 的 return offer,国外也有正在面试的 Adobe 和 Meta。
免训练加速DiT!Meta提出自适应缓存新方法,视频生成快2.6倍
现在,视频生成模型无需训练即可加速了? ! Meta提出了一种新方法AdaCache,能够加速DiT模型,而且是无需额外训练的那种(即插即用)。
类Sora模型到底懂不懂物理?字节完成系统性实验,图灵奖得主杨立昆赞转!
Sora爆火以来,“视频生成模型到底懂不懂物理规律”受到热议,但业界一直未有研究证实。 近日,字节跳动豆包大模型团队公布最新论文,研究历时8个月,围绕“视频生成模型距离世界模型有多远”首次在业界完成系统性实验并给出明确结论:视频生成模型可以记忆训练案例,但暂时还无法真正理解物理规律,做到“举一反三”。 图灵奖得主、Meta首席AI科学家杨立昆点赞并转发了该研究,表示“结论不令人意外,但很高兴终于有人做了这个尝试!
OpenAI o1太贵?那就自己做一个!纯提示方法让普通LLM进化出复杂推理能力
九月份,OpenAI o1正式登场。 作为新一代的老大哥,o1系列专注于复杂的推理任务,一经推出也是直接屠榜了大模型竞技场。 图片在下面这些难度较大的数学、编码、科学等任务中,o1不仅比GPT-4o强上一大截,甚至比人类专家还要凶猛。