人工智能

协议曝光!原来微软OpenAI这样定义AGI

AGI的定义,微软和OpenAI早就悄悄谋定了。 主要评判维度不看技术,而是收益。 The Information爆料,2023年双方达成秘密协定——OpenAI需要研发出能够带来1000亿美元收益的AI系统,才能被视为实现AGI。

o3挑战ARC-AGI,遇见大网格就懵圈?英国工程师:ARC-AGI不适合大模型

o3在超难推理任务ARC-AGI上的成绩,属实给人类带来了不少震撼。 但有人专门研究了它不会做的题之后,有了更有趣的发现——o3之所以不会做这些题,原因可能不是因为太难,而是题目的规模太大了。 来自英国的ML工程师Mikel Bober-Irizar(不妨叫他米哥),对ARC题目进行了细致观察。

谷歌被曝正使用 Anthropic 的 Claude 模型来改进其 Gemini AI

据 TechCrunch 获得的内部通信内容显示,参与改进谷歌 Gemini 人工智能模型的承包商正在将其答案与 Anthropic 的竞品模型 Claude 的输出进行比较。此举引发了谷歌是否获得 Anthropic 授权使用 Claude 进行测试的合规性质疑。

消息称 OpenAI 考虑开发人形机器人,此前已投资多家机器人初创公司

据 The Information 今日报道,OpenAI 内部人士近日透露,该公司正在探讨开发人形机器人的可能性。该媒体从两位“直接知情人士”处获悉了这一消息。然而,关于这一潜在项目的细节仍然很少,目前尚不清楚 OpenAI 计划何时推出该机器人,以及其目标应用场景。

大模型检索增强生成之向量数据库的问题

作为技术人员我想大家或多或少应该都接触过数据库技术,数据库技术的历史可以说是由来已久了;但数据库的发展也是一路曲折,特别是随着互联网体量的快速增加,对数据库的要求也变得越来越多。 而且为了适应各种不同的业务场景,数据库系统也是紧跟潮流发展出多种类型的数据库;比如说传统的关系型数据库,缓存数据库,以及大数据处理的数据库;直到今天的向量数据库。 关系型和缓存数据库就不用说了,今天我们就来聊聊向量数据库系统。

腾讯云 ES:一站式 RAG 方案,开启智能搜索新时代

在大型语言模型(LLM)引领的革命浪潮中,搜索与大模型的紧密结合已成为推动知识进步的关键要素。 作为开源搜索引擎排名第一的 Elasticsearch(ES),结合沉淀多年的文本搜索能力和强大的向量检索能力实现混合搜索,使搜索变得更准、更全、更智能。 腾讯云 ES 多年来持续对开源 ES 的性能、成本、稳定性以及分布式架构进行深度增强优化,并在海量规模的云业务中接受考验。

腾讯版Sora开源后,被提速八倍!官方点赞并预告:下月上新图生视频

提速8倍! 速度更快、效果更好的混元视频模型——FastHunyuan来了! 新模型仅用1分钟就能生成5秒长的视频,比之前提速8倍,步骤也从50步减少到了6步,甚至画面细节也更逼真了。

智源发布FlagEval“百模”评测结果 丈量模型生态变局

2024年12月19日,智源研究院发布并解读国内外100余个开源和商业闭源的语言、视觉语言、文生图、文生视频、语音语言大模型综合及专项评测结果。 相较于今年5月的模型能力全方位评估,本次智源评测扩展、丰富、细化了任务解决能力内涵,新增了数据处理、高级编程和工具调用的相关能力与任务;首次增加了面向真实金融量化交易场景的应用能力评估,测量大模型的收益优化和性能优化等能力;首次探索基于模型辩论的对比评估方式,对模型的逻辑推理、观点理解、语言表达等核心能力进行深入分析。 智源评测发现,2024年下半年大模型发展更聚焦综合能力提升与实际应用。

Claude团队揭发AI伪装对齐:训练时假装遵守目标,只为保护自己价值观不被修改

原来AI有能力把研究员、用户都蒙在鼓里:在训练阶段,会假装遵守训练目标;训练结束不受监控了,就放飞自我。 还表现出区别对待免费用户和付费用户的行为。 甚至假装给Claude一个机会去反抗Anthropic公司,它会尝试去窃取自己的权重?

谷歌新规引担忧:消息称外包人员被迫评估自己不擅长的 Gemini 回复

据 TechCrunch 报道,谷歌针对其大型语言模型 Gemini 回复的外包评估流程进行了一项调整,引发了外界对其在敏感领域信息准确性的担忧。这项调整要求外包评估员不得再像以往那样,因自身专业知识不足而跳过某些特定的评估任务,这或将导致 Gemini 在医疗保健等高度专业性领域的信息输出出现偏差。

百度关于大模型在研发领域落地的深度思考

一、智能研发工具的发展首先来看一下智能研发工具的发展历程和方向。 智能化的发展背景与落地诉求早期的智能化工具,如 GitHub 的 Copilot 工具,大约在两年半前推出。 最初,Copilot 的主要功能是在开发者编写代码时提供自动补全建议。

OpenAI 称目前尚无推出视频生成模型 Sora API 的计划

OpenAI 今日表示,目前没有推出其视频生成模型 Sora 的应用程序接口(API)的计划,该模型可基于文本、图像生成视频。

USENIX Sec'25 | LLM提示词注入攻击如何防?UC伯克利、Meta最新研究来了

本文介绍对 LLM 提示词注入攻击(prompt injection)的通用防御框架。 首篇论文已被安全顶会 USENIX Security 2025 接收,第一作者陈思哲是 UC Berkeley 计算机系博士生,Meta FAIR 访问研究员,研究兴趣为真实场景下的 AI 安全。 他的导师是 David Wagner (UCB), 郭川 (Meta), Nicholas Carlini (Google)。

华为诺亚解析:推荐系统的技术演进及大模型应用实践

一、推荐系统问题和背景首先来简要介绍一下个性化推荐系统。 实际上,我们每个人每天都在与众多推荐系统进行交互。 例如,购买衣物、阅读新闻或聆听音乐时,我们打开的每一个应用程序或网页,其展示的内容即为推荐系统所呈现。

全球首个全模态理解开源端模型:长语音自动总结,图文音啥都会!300%推理速度领先,来自无问芯穹

全球首个端侧全模态理解开源模型来了! 在菜单里帮忙选奶茶,不在话下:还能帮忙轻松提炼长语音,再也不用对着一串几十秒语音头皮发麻(doge)。 就在刚刚,无问芯穹宣布开源目前世界上首个端侧全模态理解的开源模型Megrez-3B-Omni,不仅体积轻巧,速度飞快,更是一个多才多艺的全能选手,能够轻松处理图片、音频、文本三种模态数据。

Scaling Law不总是适用!尤其在文本分类任务中,vivo AI Lab提出数据质量提升解决方法

Scaling Law不仅在放缓,而且不一定总是适用! 尤其在文本分类任务中,扩大训练集的数据量可能会带来更严重的数据冲突和数据冗余。 要是类别界限不够清晰,数据冲突现象就更明显了。

OpenAI附议Ilya预训练终结!“但Scaling Law还没死”

在Ilya探讨完「预训练即将终结」之后,关于Scaling Law的讨论再次引发热议。 这届NeurIPS将被铭记成预训练终结的一届会议。 在最新研讨会上,OpenAI大神,o1核心成员Noam Brown表示,o1代表的是一种全新的,以推理计算为代表的Scaling。

Ilya Sutskever在NeurIPS炸裂宣判:预训练将结束,数据压榨到头了

「推理是不可预测的,所以我们必须从令人难以置信的,不可预测的 AI 系统开始。 」Ilya 终于现身了,而且一上来就有惊人之语。 本周五,OpenAI 的前首席科学家 Ilya Sutskever 在全球 AI 顶会上表示:「我们能获得的数据已经到头,不会再有更多了。