AIGC宇宙 AIGC宇宙

大模型

Sebastian Raschka最新博客:从头开始,用Llama 2构建Llama 3.2

十天前的 Meta Connect 2024 大会上,开源领域迎来了可在边缘和移动设备上的运行的轻量级模型 Llama 3.2 1B 和 3B。两个版本都是纯文本模型,但也具备多语言文本生成和工具调用能力。Meta 表示,这些模型可让开发者构建个性化的、在设备本地上运行的通用应用 —— 这类应用将具备很强的隐私性,因为数据无需离开设备。近日,机器学习研究员 Sebastian Raschka 光速发布长篇教程《Converting Llama 2 to Llama 3.2 From Scratch》。博文链接:《
10/6/2024 7:00:00 PM
机器之心

安卓版谷歌 Gemini Live 将支持 40 多种语言,提供 AI 语音聊天功能

谷歌公司于 10 月 1 日在 X 平台发布推文,宣布 Gemini 应用现面向所有安卓用户开放 Gemini Live 功能。谷歌官方称,Gemini Live 将支持 40 多种语言,首先推出法语、德语、葡萄牙语、印地语和西班牙语,之后还会推出更多语言。谷歌 Gemini Live 将支持在同一设备上使用最多两种语言进行对话,用户如要使用 Gemini Live,设置中的第一语言必须是以下受支持的语言之一:德语(比利时)德语(德国)德语(瑞士)德语(奥地利)英语(澳大利亚)英语(印度)英语(英国)英语(美国)西
10/6/2024 6:18:28 PM
归泷(实习)

谷歌最便宜 AI 模型 Gemini 1.5 Flash 8B 将商用:腰斩击穿价 0.15 美元买百万 tokens 输出

科技媒体 NeoWin 昨日(10 月 4 日)发布博文,报道称谷歌公司即将商用 Gemini 1.5 Flash 8B 模型,成为谷歌公司最便宜的 AI 模型。AI在线曾于今年 8 月报道,谷歌公司推出 3 款 Gemini 实验性模型,其中 Gemini 1.5 Flash 8B 是 Gemini 1.5 Flash 的更小尺寸模型,拥有 80 亿参数,专为多模态任务而设计,包括大容量任务和长文本摘要任务。相比较原版 Gemini 1.5 Flash,Gemini 1.5 Flash 8B 延迟更低,特别适合聊
10/5/2024 12:40:26 PM
故渊

安卓平台吃上 AI,谷歌 Gemini Nano 轻量模型面向开发者开启测试

随着 AI 技术不断发展,移动设备上的人工智能功能正愈发重要,谷歌公司现已向安卓开发者开放 Gemini Nano 轻量 AI 模型试用,该模型主要适用于性能较低的手机 / 平板电脑,开发者现在可以使用谷歌提供的 AI Edge SDK 轻松为自家应用整合该模型。Gemini Nano 隶属 Google Gemini 模型家族,号称专为设备端轻量级任务设计,提供灵活且高效的 AI 功能,其推理任务完全在设备端完成,无需连接云端服务器,因此拥有“保障隐私”、“无需联网”、“无需订阅”三大优势。Gemini Nano
10/3/2024 9:15:31 AM
漾仔

整合海量公共数据,谷歌开源 AI 统计学专家 DataGemma

准确的统计数据、时效性强的信息,一直是大语言模型产生幻觉的重灾区。知识是现成的,但学是不可能学的。并非此身惰怠,只因现实太多阻碍。对于这个问题,谷歌在近日推出了自己筹划已久的大型数据库 Data Commons,以及在此基础上诞生的大模型 DataGemma。论文地址: Commons 是一个庞大的开源公共统计数据存储库,包含来自联合国(UN)、疾病控制与预防中心(CDC)、人口普查局、卫生部、环境机构、经济部门、非政府组织和学术机构等可信来源的大量统计数据。目前,整个语料库包含超过 2500 亿个数据点和超过 2
10/2/2024 11:06:38 PM
汪淼

安卓版谷歌 Gemini Live 上线,助力 AI 开启全民语音聊天时代

谷歌公司昨日(10 月 1 日)在 X 平台发布推文,宣布通过 Gemini 应用,现面向所有安卓用户开放 Gemini Live 功能。AI在线曾于 8 月报道,谷歌在 Pixel 9 系列手机发布会上,发布了 Gemini Live,该服务提供了一种移动对话体验,让用户和 Gemini 展开自由流畅的对话。Gemini Live 可以说是对标 OpenAI ChatGPT 最新上线的 Advanced Voice 模式,采用了增强型语音引擎,可以展开更连贯、更有情感表达力、更逼真的多轮对话。需要注意的是,目前仅
10/2/2024 9:14:09 AM
故渊

给机器人装上「虫脑」?非Transformer液态神经网络终于来了!MIT CSAIL负责人创业成果

在大模型时代,谷歌 2017 年开创性论文《Attention Is All You Need》中提出的 Transformer 已经成为主流架构。然而,刚刚一家由 MIT 计算机科学与人工智能实验室 (CSAIL) 前研究人员共同创立的初创公司 Liquid AI 却走出了不一样的路线。Liquid AI 表示他们的目标是「探索构建超越生成式预训练 Transformer (GPT) 基础模型的方法」。为了实现这一目标,Liquid AI 推出了其首批多模态 AI 模型:Liquid Foundation Mod
10/1/2024 2:20:00 PM
机器之心

谷歌安卓版 Gemini AI 现支持浮动 / 分屏操作,三星 Galaxy Z Fold6 折叠手机限时独享

科技记者 Mishaal Rahman 昨日(9 月 30 日)发布博文,报道称在三星 Galaxy Z Fold6 折叠屏手机上,通过升级最新 Gemini AI 助手应用,可以实现分屏或者浮动窗口操作。用户升级新版 Gemini 应用之后,浮动叠加层顶部有一条小白条,显示用户当前可以像常规安卓应用一样操作 Gemini,不仅支持变为浮动窗口,还支持上下、左右分屏。三星首次在其最新的 Unpacked 活动中展示了这一功能。这表明该功能可能暂时仅限于某些三星设备,Gemini 目前已知仅支持三星 Galaxy Z
10/1/2024 8:04:49 AM
故渊

端到端优化所有能力,字节跳动提出强化学习LLM Agent框架AGILE

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]
9/30/2024 2:14:00 PM
机器之心

AMD 推出自家首款小语言 AI 模型“Llama-135m ”,主打“推测解码”能力可减少 RAM 占用

AMD 在 Huggingface 平台公布了自家首款“小语言模型”AMD-Llama-135m,该模型具有推测解码功能,拥有 6700 亿个 token,采用 Apache 2.0 开源许可,AI在线附模型地址如下(点此访问)。据介绍,这款模型主打“推测解码”能力,其基本原理是使用小型草稿模型生成一组候选 token,然后由更大的目标模型进行验证。这种方法允许每次前向传递生成多个 token,而不会影响性能,从而显著减少 RAM 占用,实现效率提升。AMD 表示,这款模型在四个 AMD Instinct MI25
9/29/2024 5:08:32 PM
漾仔

重磅!TeleAI 完成首个全国产化万卡万参大模型训练

近日,中国电信人工智能研究院(TeleAI)成功完成国内首个基于全国产化万卡集群训练的万亿参数大模型(万卡万参),并正式对外开源首个基于全国产化万卡集群和国产深度学习框架训练的千亿参数大模型——星辰语义大模型 TeleChat2-115B。这是由中国电信集团 CTO、首席科学家、中国电信人工智能研究院(TeleAI)院长李学龙教授带领团队完成的又一项里程碑式的重要科研成果,标志着国产大模型训练真正实现全国产化替代,正式进入全国产自主创新、安全可控的新阶段。TeleChat2-115B 基于中国电信自研的天翼云“息壤
9/29/2024 4:42:00 PM
机器之心

研究发现:AI 越聪明就越有可能“胡编乱造”

一项新研究发现,随着大型语言模型(LLM)变得越来越强大,它们似乎也越来越容易编造事实,而不是避免或拒绝回答它们无法回答的问题。这表明,这些更聪明的 AI 聊天机器人实际上变得不太可靠。图源 PexelsAI在线注意到,该研究发表在《自然》杂志上,研究人员研究了一些业界领先的商业 LLM:OpenAI 的 GPT 和 Meta 的 LLaMA,以及由研究小组 BigScience 创建的开源模型 BLOOM。研究发现,虽然这些 LLM 的回答在许多情况下变得更加准确,但总体上可靠性更差,给出错误答案的比例比旧模型更
9/29/2024 1:20:36 PM
远洋

最受欢迎开源大模型,为什么是通义?

开源与闭源之争早已非新奇的话题,但毋庸置疑的是,开源极大地促进了大模型技术发展和生态繁荣。 大模型被认为是最烧钱的技术,训练一个大模型往往需要大量的数据、计算资源,导致训练成本巨大,众所周知GPT-3的训练费用据说超过 4600万美元,在大模型开源之前,大模型一直是那些有大量资金加持的大厂和明星创业公司才有资格碰的事情。 随着如 llama、Mistral、Falcon 这些开源先锋搅动了整个大模型竞争浪潮,那些没有AI积累的企业、大量中小公司团队,今天个人开发者,都能基于开源底座模型,用很低的成本训练、部署自己的专属模型,llama 这样的开源先锋也因此拥有一众拥趸。
9/29/2024 11:15:00 AM
张进

中国电信 AI 研究院完成首个全国产化万卡万参大模型训练,TeleChat2-115B 对外开源

“中国电信人工智能研究院”官方公众号今天宣布,中国电信人工智能研究院(AI在线注:下文称 TeleAI)成功完成国内首个基于全国产化万卡集群训练的万亿参数大模型,并正式对外开源首个基于全国产化万卡集群和国产深度学习框架训练的千亿参数大模型 —— 星辰语义大模型 TeleChat2-115B。官方表示,这项科研成果标志着国产大模型训练真正实现全国产化替代,正式进入全国产自主创新、安全可控的新阶段。TeleChat2-115B 基于中国电信自研的天翼云“息壤一体化智算服务平台”和人工智能公司“星海 AI 平台”训练完成
9/28/2024 6:38:22 PM
清源

新「AI科学家」?MIT整合多智能体,实现材料科学研究自动化

编辑 | 萝卜皮人工智能(AI)的一个关键挑战是:如何创建能够通过「探索新领域」、「识别复杂模式」和「揭示海量科学数据中隐藏的联系」来自主推进科学理解的系统。在最近的工作中,麻省理工学院(Massachusetts Institute of Technology)原子与分子力学实验室(LAMM)的研究人员提出了 SciAgents,一种可以整合利用三个核心概念的方法:(1)使用大规模本体知识图谱来组织和互连不同的科学概念;(2)一套大型语言模型(LLM)和数据检索工具;(3)具有现场学习能力的多智能体(agent)
9/27/2024 5:41:00 PM
ScienceAI

刚刚,Llama 3.2 来了!支持图像推理,还有可在手机上运行的版本

今天凌晨,大新闻不断。一边是 OpenAI 的高层又又又动荡了,另一边被誉为「真・Open AI」的 Meta 对 Llama 模型来了一波大更新:不仅推出了支持图像推理任务的新一代 Llama 11B 和 90B 模型,还发布了可在边缘和移动设备上的运行的轻量级模型 Llama 3.2 1B 和 3B。不仅如此,Meta 还正式发布了 Llama Stack Distribution,其可将多个 API 提供商打包在一起以便模型方便地调用各种工具或外部模型。此外,他们还发布了最新的安全保障措施。真・Open AI
9/26/2024 2:33:00 PM
机器之心

Snapchat 聊天机器人 My AI 将整合谷歌 Gemini 模型

谷歌 Google Cloud 公司本周二宣布和 Snap 公司合作,在 Snapchat 的 AI 聊天机器人 My AI 中整合 Gemini,为用户带来更强的 AI 聊天体验。AI在线援引新闻稿内容,Snapchat 将使用谷歌 Gemini 聊天机器人的强大多模态功能,理解文本、音频、图像、视频和代码在内的多种输入类型,并理解回答用户的提问。谷歌表示本次合作,为 Snapchat 用户带来了更多创新功能。Snap 首席执行官埃文・斯皮格尔(Evan Spiegel)评论表示:与 Google Cloud 的
9/26/2024 9:42:43 AM
故渊

端侧最强开源 AI 模型 Llama 3.2 登场:可在手机运行,从 1B 纯文本到 90B 多模态,挑战 OpenAI 4o mini

Meta 公司昨日(9 月 25 日)发布博文,正式推出了 Llama 3.2 AI 模型,其特点是开放和可定制,开发者可以根据其需求定制实现边缘人工智能和视觉革命。Llama 3.2 提供了多模态视觉和轻量级模型,代表了 Meta 在大型语言模型(LLMs)方面的最新进展,在各种使用案例中提供了更强大的功能和更广泛的适用性。其中包括适合边缘和移动设备的中小型视觉 LLMs (11B 和 90B),以及轻量级纯文本模型(1B 和 3B),此外提供预训练和指令微调(instruction-tuned)版本。AI在线附
9/26/2024 7:01:35 AM
故渊