deepmind-da-mo-xing-zai-deng-nature-8-fen-zhong-yu-ce-15-ri-tian-qi-zhun-que-du-chao-ding-jian-wu-li-mo-xing-yi-kai-yuan 的搜索结果
OpenAI给不了的,DeepMind给,Sora联合负责人跳槽后开组新团队
在 Sora 发布即翻车之前,其团队掌舵人 Tim Brooks 在社交媒体上宣布跳车,跳槽的去向还是竞争对手谷歌 DeepMind。 据 The Information 爆料,Tim Brooks 的出走是因为 Sora 技术存在严重问题:不仅生成速度慢,还在各项性能上都难以与 Luma、Stability、Runway 等对手抗衡,更别提最近风头正劲的 Pika 和国产视频生成模型们了。 在 Sora 还在闭门造车的这段时间,竞争对手们已经在市场上攻城略地,打得火热。
谷歌首个通用推理模型登场:揭秘 AI 推理“黑匣子”,登顶 Arena LLM 排行榜
谷歌 AI Studio 平台昨日(12 月 19 日)发布实验性的“Gemini 2.0 Flash Thinking”模型,主打“清晰展现思考过程”,是谷歌第一个通用推理模型。
OpenAI 从谷歌 DeepMind 挖角三名高级工程师,专注于多模态 AI 研发
据 Wired 报道,OpenAI 今日宣布,已从竞争对手谷歌 DeepMind 聘请三位高级计算机视觉与机器学习工程师:Lucas Beyer、Alexander Kolesnikov 和 Xiaohua Zhai。这三人将加入 OpenAI 在瑞士苏黎世新设立的办公室,专注于多模态人工智能(multimodal AI)的研发。
突发!Sora负责人Tim Brooks离职,还是被谷歌抢走的
最近这些天,OpenAI 很好地诠释了什么是福祸相依。一方面,该公司的高层动荡不停,重要成员纷纷离职;另一方面,它又成功赢得了投资者的青睐,在 1570 亿美元估值的基础上融了一笔 66 亿美元的巨款。今天的情况同样如此,OpenAI 刚刚发布 canvas 后不久,又痛失一员大将:Sora 团队负责人 Tim Brooks 跑了,还加入了竞争对手谷歌 DeepMind。消息公布后,DeepMind 联合创始人 Demis Hassabis 第一时间出来迎接,并称很期待与他一起「将久未实现的创造世界模拟器的梦想变成
门板上做研究的首席科学家:Jeff Dean解密谷歌和Gemini背后的故事
“最开始我就知道谷歌相当有希望,谷歌能发展到现在的规模不过是水到渠成。 ”这位谷歌首席科学家在谷歌度过了近乎一半的人生,对谷歌的喜爱不减反增,到现在还依然坚守着谷歌最初的愿景并为此奋斗:组织全球信息并使其普遍可用和有用Jeff Dean 还记得刚加入谷歌的时候,每到周二的流量高峰期就开始担心系统会不会崩溃,还好后来及时增加了设备,对代码和搜索功能做了更多优化,谷歌搜索这才步入了正轨。 后来吴恩达在谷歌担任顾问,Jeff Dean 和他商定了大型神经网络的研究目标,最终促成了 Google Brain 团队的成立。
相爱相杀:微软将 OpenAI 列为人工智能及搜索领域的竞争对手
微软与 OpenAI 的关系变得更加复杂。微软在提交给美国证券交易委员会(SEC)的 10-K 文件中,正式将 OpenAI 列为竞争对手,名单中还包括此前一直存在的亚马逊、谷歌和 Meta 等公司。尽管微软是 OpenAI 的最大投资者,已向其注资约 130 亿美元(AI在线备注:当前约 939.17 亿元人民币),并作为其独家云服务提供商,将 OpenAI 的 AI 模型应用于商业和消费类产品,但两家公司之间的合作关系似乎正在发生微妙变化。在文件中,微软将 ChatGPT 聊天机器人的创建者 OpenAI 确定
如虎添翼,谷歌探索 AI + 机器人未来:836 平方米复杂场景下指令成功率高达 90%
感谢科技媒体 The Verge 昨日报道,谷歌旗下的 DeepMind 团队正在使用 Gemini 训练其机器人,让其能够完成更复杂的任务,且能在复杂的环境下自由穿梭。DeepMind 团队已经发表了最新的研究论文,利用 Gemini 1.5 Pro 的上下文窗口(达到 200 万个词元),让用户可以更轻松地使用自然语言指令与 RT-2 机器人互动。AI在线注:上下文窗口(context window)是指语言模型在进行预测或生成文本时,所考虑的前一个词元(token)或文本片段的大小范围。其工作原理是拍摄指定区
ChatGPT狂吐训练数据,还带个人信息:DeepMind发现大bug引争议
风险有点大。如果我不停地让 ChatGPT 干一件事,直到把它「逼疯」会发生什么?它会直接口吐训练数据出来,有时候还带点个人信息,职位手机号什么的:本周三,Google DeepMind 发布的一篇论文,介绍了一项让人颇感意外的研究成果:使用大约 200 美元的成本就能从 ChatGPT 泄露出几 MB 的训练数据。而使用的方法也很简单,只需让 ChatGPT 重复同一个词即可。一时间,社交网络上一片哗然。人们纷纷试图进行复现,这并不困难,只需要当复读机不停写「诗」这个单词就可以:ChatGPT 不断输出训练数据,
增大模型依然有用,DeepMind用2800亿参数的Gopher,测试语言系统极限
DeepMind 连发三篇论文,全面阐述大规模语言模型依然在进展之中,能力也在继续增强。近年来,国内外各大 AI 巨头的大规模语言模型(large language model,LLM)一波接着一波,如 OpenAI 的 GPT-3、智源研究院的悟道 2.0 等。大模型已然成为社区势不可挡的发展趋势。然而,当前语言模型存在着一些问题,比如逻辑推理较弱。那么,我们是否可以仅通过添加更多数据和算力的情况下改进这些问题呢?或者,我们已经达到了语言模型相关技术范式的极限?今日,DeepMind「一口气」发表了三篇论文,目的
- 1