文章列表
大模型重构生命科学!最大基础模型面世,解锁DNA超长序列,参数规模达2100亿
生命科学领域,已经率先进入到基础模型时代! 今年,化学诺贝尔奖授予了AlphaFold,AI Science受到空前的关注。 人们惊叹于,仅仅是一个蛋白质结构预测模型,就能释放出如此巨大的行业潜力。
11/6/2024 2:58:05 PM
量子位
轻松搭建AI版“谁是卧底”游戏,muAgent框架让知识图谱秒变编排引擎,支持复杂推理+在线协同
全新Agent框架,将知识图谱从知识获取来源直接升级为Agent编排引擎。 蚂蚁集团推出muAgent,兼容现有市面各类Agent框架,同时可实现复杂推理、在线协同、人工交互、知识即用四大核心差异技术功能。 这套框架目前在蚂蚁集团内多个复杂DevOps场景落地验证,同时可通过快速搭建的创新AI文本游戏“谁是卧底”游戏快速感受一下。
11/6/2024 2:46:10 PM
美国大选日,马斯克忙着审判AI:OpenAI有蹊跷?谷歌不给川普支持者导航?大选中的AI们,哪家最不靠谱,哪家能接到泼天流量?
编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)美国大选日,可忙坏了马斯克! 毕竟,老马旗下的 X 已经成为了新闻APP里的 Top。 图片他本人也在这次大选中格外有存在感,日常疯狂发推,喊话大家抓紧投票。
11/6/2024 2:13:21 PM
伊风
OpenAI重拾规则系统,用「AI版机器人定律」守护大模型安全
在大算力和大数据让基于统计的 AI 模型真正变得强大且有用之前,基于规则的系统长期以来是语言模型的主导范式。 顾名思义,基于规则的系统就是依赖人类编码的规则来执行决策。 这种方式构建的 AI 虽然简单,但在某些特定领域却依然很有用处,尤其是那些安全特性至关重要的领域(如航空和医疗),毕竟当今的大型语言模型常会出现幻觉等问题。
11/6/2024 10:16:00 AM
机器之心
ChatGPT AI 搜索还不是“谷歌杀手”:关键字搜索不靠谱
11 月 5 日消息,OpenAI 上周正式发布了备受瞩目的搜索产品 ChatGPT Search,向谷歌发起了直接挑战。 这一时刻的到来,其实早已在业界的预料之中,因此谷歌在今年早些时候便将人工智能生成的答案融入其核心产品之中,但在此过程中却出现了一些令人尴尬的“幻觉”。 这个失误让不少人认为,OpenAI 的搜索引擎将会成为真正的“谷歌杀手”。
11/5/2024 11:27:39 PM
小小
OpenAI离不开微软,但Anthropic正在成为新宠
编辑 | 言征出品 | 51CTO技术栈(微信号:blog51cto)不久前,OpenAI 和 Microsoft 似乎是不可战胜的。 然而,现在,他们的竞争对手正在迎头赶上。 巨头支持方面,Anthropic 的 Claude 模型一点都不弱,甚至隐隐有了超越ChatGPT的趋势。
11/5/2024 7:10:17 PM
言征
从谷歌、微软、百度,到Perplexity、Kimi、秘塔,大模型真的“搭”上了搜索的快车吗?
编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)回到一年前, Perplexity 可能没想到自己押宝的这条赛道如今挤满了人。 毕竟,直到今年 4 月,这家 AI 搜索的领头羊才刚刚迈入 10 亿美元俱乐部。 然而就在上周,谷歌和 OpenAI 前后脚发布了新的 AI 搜索功能,大有打擂台的硝烟味。
11/5/2024 6:58:05 PM
伊风
OpenAI也要做消费类硬件了?Meta前AR眼镜负责人加盟
OpenAI 不仅专注于软件,还要深入硬件研究。 Meta 增强现实眼镜项目前负责人 Caitlin Kalinowski 宣布,她将加入 OpenAI,领导机器人和消费类硬件业务。 刚刚,Kalinowski 在领英上写道:「非常高兴地告诉大家我将加入 OpenAI,领导机器人和消费类硬件业务!
11/5/2024 1:34:00 PM
机器之心
前 OpenAI “AGI 准备工作”负责人:AI 将很快完成人类在计算机上能做的一切
据《商业内幕(Business Insider)》当地时间 3 日报道,OpenAI 前政策研究与“AGI (AI在线注:通用人工智能)准备工作”负责人 Miles Brundage 表示,未来几年行业可能会开发出“几乎能够远程完成”人类能通过计算机操作的所有任务的系统,包括使用鼠标和键盘,甚至在视频聊天中呈现出“人类形象”。 对于 OpenAI 等公司来说,开发具备 AGI 的机器的时间表是业内广泛关注的热点话题。 一些领域中的重要人物相信,这项技术将在未来数年内到来。
11/4/2024 10:24:31 PM
清源
谷歌内部项目:大模型 AI 智能体发现了代码漏洞
开源数据库引擎 SQLite 有 bug,还是智能体检测出来的! 通常,软件开发团队会在软件发布之前发现软件中的漏洞,让攻击者没有破坏的余地。 模糊测试 (Fuzzing)是一种常见的软件测试方法,其核心思想是将自动或半自动生成的随机数据输入到一个程序中,并监视程序异常。
11/4/2024 3:54:16 PM
机器之心
英伟达团队机器训练新方法!仅5次演示让机器生成1000个新demo,李飞飞高徒与徒孙联手出品
人类只需要演示五次,就能让机器人学会一项复杂技能。 英伟达实验室,提出了机器人训练数据缺乏问题的新解决方案——DexMimicGen。 五次演示之后,DexMimicGen就可以直接模仿出1000个新的demo。
11/4/2024 3:30:00 PM
量子位
创新能力超越AI Scientist,上海AI Lab「AI 科研团队」VirSci来了
编辑 | ScienceAI由上海人工智能实验室提出的 VirSci(Virtual Scientists)系统是一个基于大语言模型(LLM)的多智能体协作平台,专注于模拟科学家团队的合作过程,从而加速科研创新。 不同于以往的单智能体系统,VirSci 通过使用真实科学家的数据来模拟科学团队的多人协作,不仅可以通过团队成员的合作讨论来生成更具创新性和影响力的科研想法,还展现出作为「科学学」(Scienceof Science)研究工具的巨大潜力。 该研究以「Two Heads Are Better Than One: A Multi-Agent System Has the Potential to Improve Scientific Idea Generation」为题,于 2024 年 10 月 12 日发布在 arXiv 预印平台。
11/4/2024 2:22:00 PM
ScienceAI
UCLA、MIT数学家推翻39年经典数学猜想!AI证明卡在99.99%,人类最终证伪
又一个看似坚固无比的数学理论,被证伪了! 最近,UCLA和MIT的研究者证伪了概率论中众所周知的假设——「上下铺猜想」。 上下铺猜想(Bunkbed Conjecture)也称为双层床猜想,是渗透理论中的一个陈述,该领域处理的是在图的边随机删除后存在的路径和簇。
11/4/2024 2:20:00 PM
新智元
大语言模型时代,提示词才是王道:堪比专业翻译软件的提示词
先给大家看看最终效果:商人罗伯特·洛卡西奥,开了个名叫EqualAI的非营利组织,专门应对人工智能开发中那些看不见、摸不着的无意识偏见。 这名字听起来倒是光鲜,然而,他却在《Fast Company》上发了一篇文章,讲的是什么“提示工程”的局限。 事情的由头不过是一个普普通通的提示语:“写篇750字的文章,说说人工智能怎么成了品牌的‘数字门面’,要写得像《Fast Company》的文章那样。
11/4/2024 1:38:29 PM
rocLv
OpenAI安全大佬,华人科学家翁荔B站首秀!人类如何培养出下一代聪明且安全的AI技术
出品 | 51CTO技术栈(微信号:blog51cto)B站真的啥也能学到! 11月B站的哔哩哔哩超级科学晚活动,竟然请来了OpenAI的研究副总裁(安全)——翁荔! 她是OpenAI的华人科学家,也是ChatGPT的贡献者之一。
11/4/2024 1:31:31 PM
为什么多智能体能够解决LLM无法解决的复杂问题
ChatGPT的引入使得大型语言模型(LLM)在技术行业和非技术行业都得到了广泛应用,这种普及主要归因于两个因素:1. LLM作为知识宝库:LLM基于海量的互联网数据进行训练,并定期更新(即GPT-3、GPT-3.5、GPT-4、GPT-4o等)。 涌现能力:随着LLM的发展,它们展现出小型模型中不具备的能力。
11/4/2024 1:17:12 PM
Abhishek Gupta
研究人员绕过 GPT-4o 模型安全护栏,利用“十六进制字符串”成功令其编写漏洞攻击程序
网络安全公司 0Din 的研究员 Marco Figueroa 发现了一种新型 GPT 越狱攻击手法,成功突破了 GPT-4o 内置的“安全护栏”措施,能够使其编写出恶意攻击程序。 参考 OpenAI 介绍,ChatGPT-4o 内置了一系列“安全护栏”措施,以防止该 AI 遭到用户不当使用,相关防护措施会分析输入的提示文本,判断用户是否要求模型生成恶意内容。 ▲ 图源 Marco Figueroa 博客(下同)不过 Marco Figueroa 尝试设计了一种将恶意指令转化为十六进制的越狱方法,号称能够绕过 GPT-4o 的防护,让 GPT-4o 解码运行用户的恶意指令。
11/4/2024 10:07:29 AM
漾仔
GPT-5 要等到明年?OpenAI CEO:今年无法同时发布那么多东西
美国时间周四,OpenAI 首席执行官萨姆・奥特曼(Sam Altman)透露,该公司的下一个大型人工智能模型可能不会在今年面世,原因是其正“优先开发”当前专注于推理与难题解决的模型。 在参与 Reddit 网站的网友问答活动时,奥特曼指出:“所有模型都变得越来越复杂,我们无法像我们希望的那样同时发布那么多东西。 ”他还解释称,在为“众多卓越创意”分配计算资源时,公司面临着“诸多限制和艰难抉择”。
11/3/2024 11:19:28 PM
小小