人工智能

谷歌回应 Gemini 聊天机器人回复“人类去死吧”:已采取措施防止类似事件再次发生

人工智能聊天机器人再次引发争议。一名用户在使用谷歌的 AI 聊天机器人 Gemini 时,收到了极其可怕的回复:“人类请去死吧。”谷歌方面承认了这一事件,将其归咎于一次“无意义”的回应,并表示这违反了他们的安全指南。该公司已采取措施,以防止类似事件再次发生。

AlphaFold3级性能、开源、可商用,MIT团队推出生物分子预测模型Boltz-1

图示:来自测试集的靶标上的 Boltz-1 的示例预测。 (来源:论文)编辑 | 萝卜皮2024 年 11 月 18 日,麻省理工学院(MIT)的研究人员宣布推出 Boltz-1,这是一个开源模型,旨在准确模拟复杂的生物分子相互作用。 Boltz-1 是第一个完全商业化的开源模型,在预测生物分子复合物的 3D 结构方面达到 AlphaFold3 级精度。

提升人工智能性能的三种关键的LLM压缩策略

译者 | 布加迪审校 | 重楼在当今快节奏的数字环境中,依赖人工智能的企业面临着新的挑战:运行人工智能模型的延迟、内存使用和计算能力成本。 随着人工智能快速发展,幕后推动这些创新的模型变得越来越复杂、资源密集。 虽然这些大模型在处理各种任务中取得了出色的性能,但它们通常伴随着很高的计算和内存需求。

谷歌 Gemini AI 被曝给出离谱回应:让用户“去死”

一位 Reddit 用户上周在 r / artificial 版块中发帖称,谷歌的人工智能模型 Gemini 在一次互动中,竟直接对用户(或者是整个人类)发出了“去死”的威胁。

前谷歌 AI 研究员:ChatGPT 原本可以更早出现的

在今年 10 月的 TED AI 大会上,被称为“谷歌八子”之一的雅各布・乌斯克尔特(Jakob Uszkoreit)接受了媒体的采访。在访谈中,他分享了 Transformer 的发展历程、谷歌在大语言模型领域的早期探索,以及他目前在生物计算领域的新冒险。

在AI和LLM架构中实现零信任:安全且负责任的AI系统实践指南

在AI和大型语言模型快速发展的背景下,安全不能再被视为事后的考虑。 随着这些技术成为企业运营不可或缺的一部分,实施强有力的安全措施至关重要,然而,AI的安全超越了传统的网络安全实践——它还必须涵盖伦理考量和负责任的AI原则。 本指南为IT从业人员和决策者提供了一种在AI和LLM架构中应用零信任原则的综合方法,强调从基础层面融入伦理考量。

大模型容易忽视的安全,火山方舟早就「刻」进了基因

大模型时代,企业使用云上模型的痛点有哪些? 你可能会说模型不够精准,又或者成本太高,但这些随着AI技术的快速发展,在不远的将来或许都不再是问题。 比如成本,自豆包大模型首次将价格带进“厘”时代以来,行业纷纷跟进,企业客户从此不再为使用模型的成本过度高昂而烦扰。

OpenAI 呼吁建立“北美人工智能联盟”,好与中国竞争

美国人工智能初创企业 OpenAI 近日呼吁,美国及其盟国应合作建立“北美人工智能联盟”,共同支持开发人工智能系统所需的基础设施,应对来自中国的竞争。

关于战略人工智能的深度综述

译者 | 朱先忠审校 | 重楼本文将全面探索战略性人工智能的概念、发展及相关博弈论理论,并对战略人工智能的未来发展方向提出建议。 开场白1997年5月11日,纽约市。 这是纽约市一个美丽的春日,天空晴朗,气温攀升至20摄氏度。

今日最热论文:Scaling Law后继乏力,量化也不管用,AI大佬齐刷刷附议

几十万人关注,一发表即被行业大佬评为“这是很长时间以来最重要的论文”。 哈佛、斯坦福、MIT等团队的一项研究表明:训练的token越多,需要的精度就越高。 例如,Llama-3在不同数据量下(圆形8B、三角形70B、星星405B),随着数据集大小的增加,计算最优的精度也会增加。

创新能力超越AI Scientist,上海AI Lab「AI 科研团队」VirSci来了

编辑 | ScienceAI由上海人工智能实验室提出的 VirSci(Virtual Scientists)系统是一个基于大语言模型(LLM)的多智能体协作平台,专注于模拟科学家团队的合作过程,从而加速科研创新。 不同于以往的单智能体系统,VirSci 通过使用真实科学家的数据来模拟科学团队的多人协作,不仅可以通过团队成员的合作讨论来生成更具创新性和影响力的科研想法,还展现出作为「科学学」(Scienceof Science)研究工具的巨大潜力。 该研究以「Two Heads Are Better Than One: A Multi-Agent System Has the Potential to Improve Scientific Idea Generation」为题,于 2024 年 10 月 12 日发布在 arXiv  预印平台。

OpenAI 未来 AI 战略新变数,高级顾问 Miles Brundage 本周将离职

科技媒体 maginative 昨日(10 月 23 日)发布博文,报道称迈尔斯・布伦达奇(Miles Brundage)宣布将于本周从 OpenAI 公司离职,去追求独立的 AI 政策研究。 布伦达奇是 OpenAI 公司的 AGI Readiness 高级顾问,已在 OpenAI 公司工作 6 年时间,期间他塑造了许多 OpenAI 关键的部署和安全实践。 布伦达奇在声明中表示,他希望能跳出行业内,从行业外影响和推动人工智能的发展。

霍尼韦尔与谷歌云合作,将生成式 AI Gemini 引入工业领域

霍尼韦尔(Honeywell)今日宣布与谷歌云(Google Cloud)进行合作,将生成式人工智能 Gemini 引入工业领域。霍尼韦尔是一家多元化高科技和制造企业,其业务涉及:航空产品和服务、楼宇、家庭和工业控制技术、汽车产品、涡轮增压器以及特殊材料等。霍尼韦尔首席执行官表示,人工智能可以帮助该公司解决劳动力短缺问题。

继日本东京后,OpenAI 宣布在新加坡组建第二个亚洲办事处

感谢美国人工智能公司 OpenAI 周三宣布,计划今年晚些时候在新加坡开设办事处,并已开始在该国组建团队。该公司表示,新加坡将成为公司为亚太地区客户和合作伙伴提供支持的枢纽,其团队将帮助加强与当地和区域政府、企业和机构的关系。OpenAI 公司在声明中表示,新加坡人是 ChatGPT 人均用户最多的国家之一。据AI在线此前报道,OpenAI 今年 4 月宣布在亚洲的首个办事处落户日本东京,将业务扩展到亚洲。OpenAI 表示将致力于与当地政府、企业和研究机构合作,开发安全的人工智能工具,满足当地的独特需求。

OpenAI 重点转向产品开发,研究人才外流给了对手机会

10 月 8 日消息,OpenAI 凭借其在人工智能研究领域的大胆投资而声名鹊起。然而,随着近期的人才流失,该公司亟需吸引新一代研究人员以保持这种发展势头。图源 Pexels上周,尽管首席技术官米拉・穆拉蒂(Mira Murati)、首席研究官鲍勃・麦克格鲁(Bob McCrew)以及研究副总裁巴雷特・佐夫(Barret Zoph)突然离职,但投资者似乎对此并不在意,仍向 OpenAI 注入了 66 亿美元的资金。然而,这三位高管的离职仅是 OpenAI 关键技术人才持续流失的最新例证。过去几年间,OpenAI 已

中国科学院团队发布GeneCompass:解析基因调控密码,打造干湿融合新范式

作者 | 中国科学院多学科交叉研究团队编辑 | ScienceAI近年来,大语言模型(LLMs)已在自然语言、计算机视觉等通用领域引发了新一轮技术革命,通过大规模语料和模型参数进行预训练,LLMs能够掌握语言的共性规律,能够对多种下游任务产生质的提升,已经形成了新的人工智能范式。在生命科学领域,单细胞组学技术的突破产生了大量不同物种细胞的基因表达谱数据,形成了海量的生命「语料」。如果把基因表达值看作单词,组合在一起构成细胞「句子」,进而形成组织「段落」和器官「文章」,并将不同物种作为生命「语种」,利用LLMs相关技

消息称 OpenAI CEO 阿尔特曼遭台积电高管嘲讽:7 万亿美元造芯计划太荒谬了

《纽约时报》上周的一篇报道揭露了 OpenAI 首席执行官萨姆・阿尔特曼在去年访问亚洲期间与多家芯片制造商高层会谈的内幕,报道称,阿尔特曼提出的巨额投资计划遭到了台积电高管的强烈质疑,他们认为这个想法太荒谬了,以至于他们将阿尔特曼戏称为“播客兄弟(podcasting bro)”。图源 Pexels阿尔特曼计划投资 7 万亿美元(AI在线备注:当前约 48.94 万亿元人民币)建设 36 个新的芯片制造工厂和数据中心,以推动人工智能的发展。然而,台积电高管认为这一计划过于激进,且风险极高。再增加几座芯片制造厂都已经

OpenAI 阿尔特曼预测“智能时代”即将到来:能独立完成科学发现,影响就业但有助于解决气候变化等重大挑战

OpenAI 首席执行官山姆・阿尔特曼(Sam Altman)昨日(9 月 23 日)在其个人博客上发表博文,预测“智能时代”(Intelligence Age)即将到来,人工智能将在“未来几十年”带来巨大的经济收益。展望 AI 未来阿尔特曼在博文中写道,人类正在进入一个由人工智能驱动的新时代。他预测 AI 系统将很快成为个人助理,提供定制教育,甚至帮助医疗保健,最终 AI 系统甚至可能独立完成科学发现。阿尔特曼在博文中认为“超级智能 AI”(superintelligent AI)可能需要更长的发展周期,但预估会