大模型

扎克伯格:联想基于 Meta Llama 大模型构建个人 AI 智能体 AI Now

感谢联想集团今日在美国西雅图召开年度 Tech World 大会。联想 CEO 杨元庆在主题演讲中,与 Meta 创始人兼 CEO 马克・扎克伯格一道宣布,联想与 Meta 合作基于 Llama 大模型推出面向 PC 的个人 AI 智能体 ——AI Now。扎克伯格通过视频在主题演讲上表示,联想与 Meta 已经合作多年,推出了许多卓越的创新成果,将突破性的 AI 和混合现实技术带给更多人,共同构建一个更加智能的未来。

苹果研究人员质疑 AI 的推理能力:简单数学问题稍作改动就会答错

近年来,人工智能(AI)在各个领域取得了显著的进展,其中大型语言模型(LLM)能够生成人类水平的文本,甚至在某些任务上超越人类的表现。然而,研究人员对 LLM 的推理能力提出了质疑,他们发现这些模型在解决简单的数学问题时,只要稍加改动,就会犯错误,这表明它们可能并不具备真正的逻辑推理能力。图源 Pexels周四,苹果公司的一组研究人员发布了一篇名为《理解大型语言模型中数学推理的局限性》的论文,揭示 LLM 在解决数学问题时容易受到干扰。

中国科学院团队发布GeneCompass:解析基因调控密码,打造干湿融合新范式

作者 | 中国科学院多学科交叉研究团队编辑 | ScienceAI近年来,大语言模型(LLMs)已在自然语言、计算机视觉等通用领域引发了新一轮技术革命,通过大规模语料和模型参数进行预训练,LLMs能够掌握语言的共性规律,能够对多种下游任务产生质的提升,已经形成了新的人工智能范式。在生命科学领域,单细胞组学技术的突破产生了大量不同物种细胞的基因表达谱数据,形成了海量的生命「语料」。如果把基因表达值看作单词,组合在一起构成细胞「句子」,进而形成组织「段落」和器官「文章」,并将不同物种作为生命「语种」,利用LLMs相关技

Sebastian Raschka最新博客:从头开始,用Llama 2构建Llama 3.2

十天前的 Meta Connect 2024 大会上,开源领域迎来了可在边缘和移动设备上的运行的轻量级模型 Llama 3.2 1B 和 3B。两个版本都是纯文本模型,但也具备多语言文本生成和工具调用能力。Meta 表示,这些模型可让开发者构建个性化的、在设备本地上运行的通用应用 —— 这类应用将具备很强的隐私性,因为数据无需离开设备。近日,机器学习研究员 Sebastian Raschka 光速发布长篇教程《Converting Llama 2 to Llama 3.2 From Scratch》。博文链接:《

安卓版谷歌 Gemini Live 将支持 40 多种语言,提供 AI 语音聊天功能

谷歌公司于 10 月 1 日在 X 平台发布推文,宣布 Gemini 应用现面向所有安卓用户开放 Gemini Live 功能。谷歌官方称,Gemini Live 将支持 40 多种语言,首先推出法语、德语、葡萄牙语、印地语和西班牙语,之后还会推出更多语言。谷歌 Gemini Live 将支持在同一设备上使用最多两种语言进行对话,用户如要使用 Gemini Live,设置中的第一语言必须是以下受支持的语言之一:德语(比利时)德语(德国)德语(瑞士)德语(奥地利)英语(澳大利亚)英语(印度)英语(英国)英语(美国)西

谷歌最便宜 AI 模型 Gemini 1.5 Flash 8B 将商用:腰斩击穿价 0.15 美元买百万 tokens 输出

科技媒体 NeoWin 昨日(10 月 4 日)发布博文,报道称谷歌公司即将商用 Gemini 1.5 Flash 8B 模型,成为谷歌公司最便宜的 AI 模型。AI在线曾于今年 8 月报道,谷歌公司推出 3 款 Gemini 实验性模型,其中 Gemini 1.5 Flash 8B 是 Gemini 1.5 Flash 的更小尺寸模型,拥有 80 亿参数,专为多模态任务而设计,包括大容量任务和长文本摘要任务。相比较原版 Gemini 1.5 Flash,Gemini 1.5 Flash 8B 延迟更低,特别适合聊

安卓平台吃上 AI,谷歌 Gemini Nano 轻量模型面向开发者开启测试

随着 AI 技术不断发展,移动设备上的人工智能功能正愈发重要,谷歌公司现已向安卓开发者开放 Gemini Nano 轻量 AI 模型试用,该模型主要适用于性能较低的手机 / 平板电脑,开发者现在可以使用谷歌提供的 AI Edge SDK 轻松为自家应用整合该模型。Gemini Nano 隶属 Google Gemini 模型家族,号称专为设备端轻量级任务设计,提供灵活且高效的 AI 功能,其推理任务完全在设备端完成,无需连接云端服务器,因此拥有“保障隐私”、“无需联网”、“无需订阅”三大优势。Gemini Nano

整合海量公共数据,谷歌开源 AI 统计学专家 DataGemma

准确的统计数据、时效性强的信息,一直是大语言模型产生幻觉的重灾区。知识是现成的,但学是不可能学的。并非此身惰怠,只因现实太多阻碍。对于这个问题,谷歌在近日推出了自己筹划已久的大型数据库 Data Commons,以及在此基础上诞生的大模型 DataGemma。论文地址: Commons 是一个庞大的开源公共统计数据存储库,包含来自联合国(UN)、疾病控制与预防中心(CDC)、人口普查局、卫生部、环境机构、经济部门、非政府组织和学术机构等可信来源的大量统计数据。目前,整个语料库包含超过 2500 亿个数据点和超过 2

安卓版谷歌 Gemini Live 上线,助力 AI 开启全民语音聊天时代

谷歌公司昨日(10 月 1 日)在 X 平台发布推文,宣布通过 Gemini 应用,现面向所有安卓用户开放 Gemini Live 功能。AI在线曾于 8 月报道,谷歌在 Pixel 9 系列手机发布会上,发布了 Gemini Live,该服务提供了一种移动对话体验,让用户和 Gemini 展开自由流畅的对话。Gemini Live 可以说是对标 OpenAI ChatGPT 最新上线的 Advanced Voice 模式,采用了增强型语音引擎,可以展开更连贯、更有情感表达力、更逼真的多轮对话。需要注意的是,目前仅

给机器人装上「虫脑」?非Transformer液态神经网络终于来了!MIT CSAIL负责人创业成果

在大模型时代,谷歌 2017 年开创性论文《Attention Is All You Need》中提出的 Transformer 已经成为主流架构。然而,刚刚一家由 MIT 计算机科学与人工智能实验室 (CSAIL) 前研究人员共同创立的初创公司 Liquid AI 却走出了不一样的路线。Liquid AI 表示他们的目标是「探索构建超越生成式预训练 Transformer (GPT) 基础模型的方法」。为了实现这一目标,Liquid AI 推出了其首批多模态 AI 模型:Liquid Foundation Mod

谷歌安卓版 Gemini AI 现支持浮动 / 分屏操作,三星 Galaxy Z Fold6 折叠手机限时独享

科技记者 Mishaal Rahman 昨日(9 月 30 日)发布博文,报道称在三星 Galaxy Z Fold6 折叠屏手机上,通过升级最新 Gemini AI 助手应用,可以实现分屏或者浮动窗口操作。用户升级新版 Gemini 应用之后,浮动叠加层顶部有一条小白条,显示用户当前可以像常规安卓应用一样操作 Gemini,不仅支持变为浮动窗口,还支持上下、左右分屏。三星首次在其最新的 Unpacked 活动中展示了这一功能。这表明该功能可能暂时仅限于某些三星设备,Gemini 目前已知仅支持三星 Galaxy Z

端到端优化所有能力,字节跳动提出强化学习LLM Agent框架AGILE

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]

AMD 推出自家首款小语言 AI 模型“Llama-135m ”,主打“推测解码”能力可减少 RAM 占用

AMD 在 Huggingface 平台公布了自家首款“小语言模型”AMD-Llama-135m,该模型具有推测解码功能,拥有 6700 亿个 token,采用 Apache 2.0 开源许可,AI在线附模型地址如下(点此访问)。据介绍,这款模型主打“推测解码”能力,其基本原理是使用小型草稿模型生成一组候选 token,然后由更大的目标模型进行验证。这种方法允许每次前向传递生成多个 token,而不会影响性能,从而显著减少 RAM 占用,实现效率提升。AMD 表示,这款模型在四个 AMD Instinct MI25

重磅!TeleAI 完成首个全国产化万卡万参大模型训练

近日,中国电信人工智能研究院(TeleAI)成功完成国内首个基于全国产化万卡集群训练的万亿参数大模型(万卡万参),并正式对外开源首个基于全国产化万卡集群和国产深度学习框架训练的千亿参数大模型——星辰语义大模型 TeleChat2-115B。这是由中国电信集团 CTO、首席科学家、中国电信人工智能研究院(TeleAI)院长李学龙教授带领团队完成的又一项里程碑式的重要科研成果,标志着国产大模型训练真正实现全国产化替代,正式进入全国产自主创新、安全可控的新阶段。TeleChat2-115B 基于中国电信自研的天翼云“息壤

研究发现:AI 越聪明就越有可能“胡编乱造”

一项新研究发现,随着大型语言模型(LLM)变得越来越强大,它们似乎也越来越容易编造事实,而不是避免或拒绝回答它们无法回答的问题。这表明,这些更聪明的 AI 聊天机器人实际上变得不太可靠。图源 PexelsAI在线注意到,该研究发表在《自然》杂志上,研究人员研究了一些业界领先的商业 LLM:OpenAI 的 GPT 和 Meta 的 LLaMA,以及由研究小组 BigScience 创建的开源模型 BLOOM。研究发现,虽然这些 LLM 的回答在许多情况下变得更加准确,但总体上可靠性更差,给出错误答案的比例比旧模型更

最受欢迎开源大模型,为什么是通义?

开源与闭源之争早已非新奇的话题,但毋庸置疑的是,开源极大地促进了大模型技术发展和生态繁荣。 大模型被认为是最烧钱的技术,训练一个大模型往往需要大量的数据、计算资源,导致训练成本巨大,众所周知GPT-3的训练费用据说超过 4600万美元,在大模型开源之前,大模型一直是那些有大量资金加持的大厂和明星创业公司才有资格碰的事情。 随着如 llama、Mistral、Falcon 这些开源先锋搅动了整个大模型竞争浪潮,那些没有AI积累的企业、大量中小公司团队,今天个人开发者,都能基于开源底座模型,用很低的成本训练、部署自己的专属模型,llama 这样的开源先锋也因此拥有一众拥趸。

中国电信 AI 研究院完成首个全国产化万卡万参大模型训练,TeleChat2-115B 对外开源

“中国电信人工智能研究院”官方公众号今天宣布,中国电信人工智能研究院(AI在线注:下文称 TeleAI)成功完成国内首个基于全国产化万卡集群训练的万亿参数大模型,并正式对外开源首个基于全国产化万卡集群和国产深度学习框架训练的千亿参数大模型 —— 星辰语义大模型 TeleChat2-115B。官方表示,这项科研成果标志着国产大模型训练真正实现全国产化替代,正式进入全国产自主创新、安全可控的新阶段。TeleChat2-115B 基于中国电信自研的天翼云“息壤一体化智算服务平台”和人工智能公司“星海 AI 平台”训练完成

新「AI科学家」?MIT整合多智能体,实现材料科学研究自动化

编辑 | 萝卜皮人工智能(AI)的一个关键挑战是:如何创建能够通过「探索新领域」、「识别复杂模式」和「揭示海量科学数据中隐藏的联系」来自主推进科学理解的系统。在最近的工作中,麻省理工学院(Massachusetts Institute of Technology)原子与分子力学实验室(LAMM)的研究人员提出了 SciAgents,一种可以整合利用三个核心概念的方法:(1)使用大规模本体知识图谱来组织和互连不同的科学概念;(2)一套大型语言模型(LLM)和数据检索工具;(3)具有现场学习能力的多智能体(agent)