llm-agent-pptagent-ppt-zi-dong-sheng-cheng-agent-kuang-jia 的搜索结果
Yandex 开源 LLM 训练工具节省高达 20% 的 GPU 资源
跨国科技公司 Yandex 最近推出了 YaFSDP,这是一种用于训练大型语言模型 (LLM) 的开源方法。YaFSDP 是目前最有效的公开可用工具,用于增强 GPU 通信并减少 LLM 训练中的内存使用量,与 FSDP 相比,其训练速度提升最高可达 26%,具体取决于架构和参数数量。通过使用 YaFSDP 减少 LLM 的训练时间可以节省高达 20% 的 GPU 资源。Yandex 承诺为全球人工智能社区的发展做出贡献,将YaFSDP开源提供给全球的 LLM 开发人员和人工智能爱好者即是履行此承诺的其中一步。“目
预测准确率达95.7%,ChatMOF利用LLM预测和生成金属有机框架
编辑 | X金属有机框架(MOF)因其孔隙率大、表面积大和出色的可调性而用于许多化学应用。然而,在利用 AI 深入探索 MOF 设计与性能优化的研究征途中,科学家们正面临着前所未有的挑战。去年 3 月,韩国科学技术院(Korea Advanced Institute of Science and Technology,KAIST)的研究人员提出的 MOFTransformer 模型经过一百万个假设的 MOF 的预训练,在预测各种属性方面表现出色。近日,KAIST 团队提出了一种 AI 系统——ChatMOF,用于预
从LLM中完全消除矩阵乘法,效果出奇得好,10亿参数跑在FPGA上接近大脑功耗
让语言模型「轻装上阵」。一直以来,矩阵乘法(MatMul)稳居神经网络操作的主导地位,其中很大原因归结为 GPU 专门针对 MatMul 操作进行了优化。这种优化使得 AlexNet 在 ILSVRC2012 挑战赛中一举胜出,成为深度学习崛起的历史性标志。在这当中,有个值得注意的点是,AlexNet 利用 GPU 来提高训练速度,超越了 CPU 的能力,至此,GPU 的加入使得深度学习仿佛赢得了「硬件彩票」。尽管 MatMul 在深度学习中很流行,但不得不承认的是它占据了计算开销的主要部分,主要表现为 MatMu
两句话,让 LLM 逻辑推理瞬间崩溃!最新「爱丽丝梦游仙境」曝出 GPT、Claude 等重大缺陷
感谢IT之家网友 刺客 的线索投递!在基准测试上频频屠榜的大模型们,竟然被一道简单的逻辑推理题打得全军覆没?最近,研究机构 LAION 的几位作者共同发表了一篇文章,以「爱丽丝梦游仙境」为启发涉及了一系列简单的推理问题,揭示了 LLM 基准测试的盲区。一道简单的逻辑问题,竟让几乎所有的 LLM 全军覆没?对于人类来说,这个名为「爱丽丝梦游仙境」(AIW)的测试并不算很难 ——「爱丽丝有 N 个兄弟,她还有 M 个姐妹。爱丽丝的兄弟有多少个姐妹?」只需稍加思考,答案显而易见:M 1。(爱丽丝拥有的姐妹数量,再加上爱丽
成功率达 53%,研究显示 GPT-4 可自主利用“零日”漏洞攻破网站
据 NewAtlas 报道,研究人员利用自主协作的 GPT-4 机器人小组成功入侵了一半以上的测试网站,这些机器人可以自主协调行动并根据需要生成新的“帮手”。更令人吃惊的是,他们利用的是以前未知的、现实世界中从未公开的“零日”漏洞(zero-day vulnerabilities)。图源 Pexels早在几个月前,同一批研究人员就发表了一篇论文,声称他们能够使用 GPT-4 自动利用“N day”漏洞,即业界已知但尚未修复的漏洞。实验中,GPT-4 仅凭已知的常见漏洞和披露列表 (CVE),就能自主利用其中 87%
ChatGPT 真能记住你的话吗?DeepMind 与开源大佬揭示 LLM 记忆之谜
【新智元导读】LLM 有记忆能力吗?有,也没有。虽然 ChatGPT 聊天时好像可以记住你之前说的话,但实际上,模型在推理时记不住任何内容,而且它们在训练时的记忆方式也不像我们想象的那么简单。Django 框架的创始人之一、著名开发者 Simon Willison 最近发表了一篇博客文章,核心观点是 —— 虽然很多 LLM 看起来有记忆,但本质上是无状态函数。文章地址: 和 FireFox 的联合创始人、JavaScript 发明者 Brendan Eich 也在推特上称赞这篇博客。似乎有记忆的 LLM从计算机科学
芝大论文证明 GPT-4 选股准确率高达 60%,人类股票分析师要下岗?AI 大牛质疑数据污染
【新智元导读】GPT-4 在为人类选股时,表现竟然超越了大部分人类分析师,和针对金融训练的专业模型?在没有任何上下文的情况下,它们直接就成功分析了财务报表,这一发现让许多业内大咖震惊了。然而好景不长,有 AI 大牛指出研究中的 bug:之所以会这样,很可能是训练数据被污染了。最近,各位业内大咖都被芝大的一篇论文震惊了。研究者发现,由 GPT-4 帮忙选择的股票,直接击败了人类!同时也 pk 掉了许多其他针对金融训练的机器学习模型。最让他们震惊的是,LLM 可以在没有任何叙述上下文的情况下,就成功分析财务报表中的数字
美国教授用 2 岁女儿训 AI 模型登 Science,人类幼崽头戴相机训练全新 AI
【新智元导读】为训练 AI 模型,纽约州立大学的一名教授 Brenden Lake,竟让自己不到 2 岁女儿头戴相机收集数据!要知道,Meta 训 Llama 3 直接用了 15 万亿个 token,如果 Lake 真能让 AI 模型学习人类幼崽,从有限的输入中学习,那 LLM 的全球数据荒岂不是解决了?为了训练 AI 模型,一位纽约州立大学的教授,竟然把类似 GoPro 的相机绑在了自己女儿头上!虽然听起来不可思议,但这位教授的行为,其实是有据可循的。要训练出 LLM 背后的复杂神经网络,需要海量数据。目前我们训
【论文解读】System 2 Attention提高大语言模型客观性和事实性
一、简要介绍 本文简要介绍了论文“System 2 Attention (is something you might need too) ”的相关工作。基于transformer的大语言模型(LLM)中的软注意很容易将上下文中的不相关信息合并到其潜在的表征中,这将对下一token的生成产生不利影响。为了帮助纠正这些问题,论文引入了System 2 Attention(S2A),它利用LLM的能力,用自然语言进行推理,并遵循指示,以决定要处理什么。S2A重新生成输入上下文以使输入上下文只包含相关部分,然后再处理重新
在富岳超算上训练大模型,日本联合研究团队发布 Fugaku-LLM
由多方企业和机构组成的日本联合研究团队昨日发布了 Fugaku-LLM 大模型。该模型的最大特色就是其是在 Arm 架构超算“富岳”上训练的。Fugaku-LLM 模型的开发于 2023 年 5 月启动,初期参与方包括富岳超算所有者富士通、东京工业大学、日本东北大学和日本理化学研究所(理研)。而在 2023 年 8 月,另外三家合作方 —— 名古屋大学、CyberAgent(也是游戏企业 Cygames 的母公司)和 HPC-AI 领域创企 Kotoba Technologies 也加入了该模型研发计划。▲ 富岳超
为什么要纯C语言手搓GPT-2,Karpathy回应网友质疑
Karpathy:for fun.几天前,前特斯拉 Autopilot 负责人、OpenAI 科学家 Andrej Karpathy 发布了一个仅用 1000 行代码即可在 CPU/fp32 上实现 GPT-2 训练的项目「llm.c」。llm.c 旨在让大模型(LM)训练变得简单 —— 使用纯 C 语言 / CUDA,不需要 245MB 的 PyTorch 或 107MB 的 cPython。例如,训练 GPT-2(CPU、fp32)仅需要单个文件中的大约 1000 行干净代码(clean code),可以立即编
Anthropic 用 256 轮对话「灌醉」大模型,Claude 被骗造出炸弹
【新智元导读】Anthropic 发现了大模型的惊人漏洞。经过 256 轮对话后,Claude 2 逐渐被「灌醉」,开始疯狂越狱,帮人类造出炸弹!谁能想到,它的超长上下文,反而成了软肋。大模型又被曝出安全问题?这次是长上下文窗口的锅!今天,Anthropic 发表了自己的最新研究:如何绕过 LLM 的安全限制?一次越狱不够,那就多来几次!论文地址: Claude3 一家叫板 OpenAI 之余,Anthropic 仍然不忘初心,时刻关注着他的安全问题。一般情况下,如果我们直接向 LLM 提出一个有害的问题,LLM
AI4Science与LLM的碰撞:生物分子+文本的联合建模,人大高瓴、微软、华科、中科大团队最新综述
作者 | 裴启智随着大模型和 AI4Science 的蓬勃发展,越来越多的工作开始关注生物分子(Biomolecule)与自然语言(Language)的联合建模。这种方法利用文本数据中所包含的生物分子的丰富、多方面的描述,增强模型对其的理解,提高生物分子属性预测等下游任务的效果,为全面表示和分析生物分子开辟了新的途径。近日,人大高瓴联合微软、华科、中科大等机构发布了综述文章:《Leveraging Biomolecule and Natural Language through Multi-Modal Learni
拿下微软合作、旗舰模型对标GPT-4,认识一下「欧洲版 OpenAI」
机器之能报道编辑:SiaMistral 目前法国科技界的骄傲和喜悦,也是开源力量的代表。它的初期成功要归功于能巧妙地将AI技术与政治结合起来。问题是Mistral能否将这种诱人的技术与政治混合优势转化为实实在在的利润。这家法国 AI 初创的崛起就像西北风一样轻快,这也是它名字 Mistral 的由来。Mistral 翻译过来是密史脱拉风,法国南部罗纳河谷一带特有的强风,干寒强烈,持续时间长。据说,梵高和高更的决裂也与普罗旺斯刮起的密史脱拉风有关。Mistral位于巴黎的办公室,它们也是法国目前最有前途的大模型初创公
浙大团队发布 75 页科学 LLM 调查,重点关注生物和化学领域,指出七个未来发展方向
编辑 | X大型语言模型 (LLM) 已成为增强自然语言理解的变革力量,代表着通用人工智能的重大进步。LLM 的应用超越了传统的语言界限,涵盖了科学领域各学科中开发的专业语言系统。这也导致了科学 LLM 的出现。作为科学人工智能(AI for Science)领域的一个新兴领域,科学 LLM 值得全面探索。然而,目前缺乏系统的、最新的调查来介绍它们。近日,来自浙江大学的研究团队,系统地描述了「科学语言」的概念,同时对科学 LLM 的最新进展进行了全面回顾。鉴于科学学科领域广阔,该分析重点关注生物和化学领域。这包括对
Meta官方的Prompt工程指南:Llama 2这样用更高效
随着大型语言模型(LLM)技术日渐成熟,提示工程(Prompt Engineering)变得越来越重要。一些研究机构发布了 LLM 提示工程指南,包括微软、OpenAI 等等。最近,Llama 系列开源模型的提出者 Meta 也针对 Llama 2 发布了一份交互式提示工程指南,涵盖了 Llama 2 的快速工程和最佳实践。以下是这份指南的核心内容。Llama 模型2023 年,Meta 推出了 Llama 、Llama 2 模型。较小的模型部署和运行成本较低,而更大的模型能力更强。Llama 2 系列模型参数规模
未来五年AI如何改变各学科?从LLM到AI蛋白设计、医疗保健......
2019—2023 年《Nature Machine Intelligence》封面编辑 | X五年前(2019 年 1 月),《Nature Machine Intelligence》创刊。当然,就人工智能(AI)而言,五年前似乎是一个不同的时代。1 月 24 日,Nature Machine Intelligence 杂志在《Anniversary AI reflections》(周年人工智能反思)专题中,再次联系并采访了近期在期刊发表评论和观点文章的作者,请他们从各自所在领域中举例说明人工智能如何改变科学过程
在24项场景中优于人类医生,Google团队开发基于自博弈的诊断对话大模型
编辑 | 白菜叶医学的核心在于医患对话,熟练的病史采集为准确的诊断、有效的管理和持久的信任铺平了道路。能够进行诊断对话的人工智能(AI)系统可以提高护理的可及性、一致性和质量。然而,学习临床医生的专业知识是一个巨大的挑战。Google Research 和 Google DeepMind 的 AI 团队开发了 AMIE(Articulate Medical Intelligence Explorer),这是一种基于大型语言模型(LLM)的人工智能系统,针对诊断对话进行了优化。AMIE 使用一种新颖的基于自博弈(se