大模型

刚刚,Llama 3.2 来了!支持图像推理,还有可在手机上运行的版本

今天凌晨,大新闻不断。一边是 OpenAI 的高层又又又动荡了,另一边被誉为「真・Open AI」的 Meta 对 Llama 模型来了一波大更新:不仅推出了支持图像推理任务的新一代 Llama 11B 和 90B 模型,还发布了可在边缘和移动设备上的运行的轻量级模型 Llama 3.2 1B 和 3B。不仅如此,Meta 还正式发布了 Llama Stack Distribution,其可将多个 API 提供商打包在一起以便模型方便地调用各种工具或外部模型。此外,他们还发布了最新的安全保障措施。真・Open AI

Snapchat 聊天机器人 My AI 将整合谷歌 Gemini 模型

谷歌 Google Cloud 公司本周二宣布和 Snap 公司合作,在 Snapchat 的 AI 聊天机器人 My AI 中整合 Gemini,为用户带来更强的 AI 聊天体验。AI在线援引新闻稿内容,Snapchat 将使用谷歌 Gemini 聊天机器人的强大多模态功能,理解文本、音频、图像、视频和代码在内的多种输入类型,并理解回答用户的提问。谷歌表示本次合作,为 Snapchat 用户带来了更多创新功能。Snap 首席执行官埃文・斯皮格尔(Evan Spiegel)评论表示:与 Google Cloud 的

端侧最强开源 AI 模型 Llama 3.2 登场:可在手机运行,从 1B 纯文本到 90B 多模态,挑战 OpenAI 4o mini

Meta 公司昨日(9 月 25 日)发布博文,正式推出了 Llama 3.2 AI 模型,其特点是开放和可定制,开发者可以根据其需求定制实现边缘人工智能和视觉革命。Llama 3.2 提供了多模态视觉和轻量级模型,代表了 Meta 在大型语言模型(LLMs)方面的最新进展,在各种使用案例中提供了更强大的功能和更广泛的适用性。其中包括适合边缘和移动设备的中小型视觉 LLMs (11B 和 90B),以及轻量级纯文本模型(1B 和 3B),此外提供预训练和指令微调(instruction-tuned)版本。AI在线附

英伟达发布 Llama-3.1-Nemotron-51B AI 模型:创新神经架构搜索等技术让单 H100 GPU 运行 4 倍以上负载

英伟达 9 月 23 日发布博文,宣布推出 Llama-3.1-Nemotron-51B AI 模型,源自 Meta 公司的 Llama-3.1-70B,不过创新使用神经架构搜索(NAS)方法,建立了一个高度准确和高效的模型。Llama-3.1-Nemotron-51B 简介Llama-3.1-Nemotron-51B AI 模型基于 Meta 公司 2024 年 7 月发布的 Llama-3.1-70B 模型,共有 510 亿参数。该 AI 模型主要采用了神经架构搜索(NAS)技术微调,平衡性能和效率,在高工作负

谷歌 Gemini 1.5 AI 模型再进化:成本更低、性能更强、响应更快

科技媒体 The Decoder 昨日(9 月 24 日)发布博文,报道谷歌升级旗下 Gemini 1.5 AI 模型,推出了 Gemini-1.5-Pro-002 和 Gemini-1.5-Flash-002,相比较此前版本成本更低、性能更强、响应更快。成本更低谷歌下调了 token 输入和输出费用,Gemini-1.5-Pro-002 和 Gemini-1.5-Flash-002 最高降幅 50%,提高了两种模型的速率限制,并减少了延迟。新定价于 2024 年 10 月 1 日生效。性能更强AI在线援引新闻稿内

大众携手谷歌,率先邀请约 12 万名车主免费使用 Gemini AI

大众汽车昨日(9 月 24 日)发布新闻稿,宣布携手谷歌公司,率先邀请约 12 万名大众 Atlas 和 Atlas Cross Sport 车型车主,免费体验和使用 Gemini AI 助手。Gemini AI 助手功能大众汽车在新闻稿中表示,通过与谷歌云(Google Cloud)的战略合作,在 myVW 移动应用中部署生成式人工智能。大众汽车车主可以通过聊天的方式和 Gemini AI 对话,掌控车辆状态或者请求其提供帮助。例如车主可以询问“如何更换备胎”,Gemini 就会自动调用 YouTube 视频,提

上交大、复旦中山团队开发糖尿病专用大语言模型,助力个性化糖尿病管理

编辑 | ScienceAI随着全球糖尿病患病率的逐年攀升,糖尿病已成为全球范围内极具挑战的公共健康问题。据统计,全球约有 10% 的人口受到糖尿病的影响。到 2045 年,全球糖尿病患者人数预计将攀升至惊人的 7.83 亿。然而,由于糖尿病医生短缺、医疗资源分布不均以及患者自我管理能力的不足,糖尿病的管理和治疗仍面临重重困难。如何高效、智能化地管理糖尿病,已成为当前医学界和科技界共同关注的重要课题。为应对这一挑战,上海交通大学清源研究院 MIFA 实验室与复旦大学附属中山医院内分泌科组成的研究团队,联手开发出一款

23亿参数,Transformer架构,NASA、IBM发布「天气+气候」通用AI模型Prithvi WxC

编辑 | KX9 月 23 日,IBM 与 NASA 合作发布了一个用于天气和气候的新型通用 AI 模型 Prithvi WxC,该模型可以在台式计算机上运行,且开源。Prithvi WxC 具有 23 亿参数,使用 MERRA-2 数据集的 160 个变量开发而成。Prithvi WxC 采用创新的 Transformer 架构。研究人员在一系列具有挑战性的下游任务上测试了该模型,即:自回归滚动预测、降尺度、重力波通量参数化和极端事件估计。由于其独特的设计和训练机制,Prithvi WxC 可以解决比现有天气 A

微软亚洲研究院与上海市精神卫生中心展开联合研究,借助多模态大模型为认知障碍患者带来全新训练方法

据微软亚洲研究院官方披露,该研究院与上海市精神卫生中心携手展开联合研究,基于微软 Azure OpenAI 服务中的多模态大模型,开发了利用多种模态数据(如语音、文字、图片、音乐等信息)的个性化认知训练框架,为认知障碍患者的认知训练带来了新的可能。▲ 图源微软亚洲研究院公众号AI在线从微软亚洲研究院获悉,综合上海市精神卫生中心专家的建议与患者的需求,微软亚洲研究院的研究员们从易用性、界面友好性、功能专业性和入门难易度等多个维度出发,开发了个性化认知训练框架“忆我”(ReMe)。该工具以微软 Azure OpenAI

原子、分子、复合物级性质预测均最佳,清华分子预训练框架登Nature子刊

编辑 | KXAI 已广泛用于药物发现和材料设计中的分子筛选。当前的自监督分子预训练方法往往忽略了分子的基本化学特性和物理原理。为了解决这个问题,来自清华大学的研究人员提出了一种称为分数去噪(Fractional denoising,Frad)的分子预训练框架,以学习有效的分子表示。通过这种方式,噪声变得可自定义,允许纳入化学先验,从而大大改善分子分布建模。实验表明,Frad 始终优于现有方法,在力预测、量子化学特性和结合亲和力任务中,取得最先进的结果。改进的噪声设计提高了力准确性和采样覆盖范围,这有助于创建物理一

门板上做研究的首席科学家:Jeff Dean解密谷歌和Gemini背后的故事

“最开始我就知道谷歌相当有希望,谷歌能发展到现在的规模不过是水到渠成。 ”这位谷歌首席科学家在谷歌度过了近乎一半的人生,对谷歌的喜爱不减反增,到现在还依然坚守着谷歌最初的愿景并为此奋斗:组织全球信息并使其普遍可用和有用Jeff Dean 还记得刚加入谷歌的时候,每到周二的流量高峰期就开始担心系统会不会崩溃,还好后来及时增加了设备,对代码和搜索功能做了更多优化,谷歌搜索这才步入了正轨。 后来吴恩达在谷歌担任顾问,Jeff Dean 和他商定了大型神经网络的研究目标,最终促成了 Google Brain 团队的成立。

新型蛋白质大语言模型即将登陆Google Cloud

编辑 | KX9 月 17 日,领先的细胞编程和生物安全平台 Ginkgo Bioworks 公司宣布了两项新产品,将助力制药和生物技术公司更容易开发新药,这是在去年与 Google Cloud 宣布的合作伙伴关系的基础上推出的。与 Google Cloud 合作构建的蛋白质大型语言模型 (LLM),是业内首创之一,它将使个人研究人员和企业公司能够利用 Ginkgo 私人数据的见解开发药物。其次,Ginkgo 正在推出其模型 API,这是一种强大的工具,旨在将生物 AI 模型直接带给机器学习科学家。该 API 现已

大语言模型如何助力药物开发? 哈佛团队最新综述

作者 | 莫纳什大学郑伊圳编辑 | ScienceAI大语言模型因其展现出类人般的推理、工具使用和问题解决能力而备受瞩目,此外,它在化学、生物学等专业领域也展现出深厚的理解能力,进一步提升了其应用价值。近日,哈佛大学、莫纳什大学和格里菲斯大学(Griffith University)组成的研究团队,发表最新综述《Large Language Models in Drug Discovery and Development: From Disease Mechanisms to Clinical Trials》。论文

易用性对齐 vLLM,推理效率提升超200%,这款国产加速框架什么来头?

一、行业背景2022 年 10 月,ChatGPT 的问世引爆了以大语言模型为代表的的 AI 浪潮,全球科技企业纷纷加入大语言模型的军备竞赛,大语言模型的数量、参数规模及计算需求呈指数级提升。大语言模型(Large Language Model,简称 LLM 大模型)指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大模型通常包含百亿至万亿个参数,训练时需要处理数万亿个 Token,这对显卡等算力提出了极高的要求,也带来了能源消耗的激增。据斯坦福人工智能研究所发布的《2023 年 AI

昂贵LLM的救星?Nature新研究提出新型忆阻器,比Haswell CPU高效460倍

前些天,OpenAI 发布了 ο1 系列模型,它那「超越博士水平的」强大推理性能预示着其必将在人们的生产生活中大有作为。但它的使用成本也很高,以至于 OpenAI 不得不限制每位用户的使用量:每位用户每周仅能给 o1-preview 发送 30 条消息,给 o1-mini 发送 50 条消息。实在是少!为了降低 LLM 的使用成本,研究者们已经想出了各式各样的方法。有些方法的目标是提升模型的效率,比如对模型进行量化或蒸馏,但这种方法往往也伴随着模型性能的下降。另一种思路则是提升运行这些模型的硬件——英伟达正是这一路

「LLM」这个名字不好,Karpathy认为不准确、马斯克怒批太愚蠢

在 AI 领域,几乎每个人都在谈论大型语言模型,其英文全称为 Large Language Models,简写为 LLM。因为 LLM 中有「Language」一词,因此,大家默认这种技术和语言密切相关。然而,知名 AI 大牛 Andrej Karpathy 却对此有着独特的见解:「大型语言模型(LLM)名字虽然带有语言二字,但它们其实与语言关系不大,这只是历史问题,更确切的名字应该是自回归 Transformer 或者其他。LLM 更多是一种统计建模的通用技术,它们主要通过自回归 Transformer 来模拟

训大模型为啥这么贵?专家:一半以上算力被浪费了

人工智能时代,大模型的发展带来了智能算力需求的大爆发。据估算,自 2012 年以来,AI 模型训练算力需求每 3~4 个月就翻一番,每年训练 AI 模型所需算力增长幅度高达 10 倍。同时,OpenAI 曾在 2020 年提出 Scaling law 定律。该定律指出,大模型的最终性能与计算量、模型参数量及训练数据量的大小密切相关。换言之,若要提升大模型的能力,就需要不断增加模型参数和训练数据量,这就需要部署大规模的训练集群,随着集群规模的不断扩大,训练成本也呈指数级增长。9月13日,在百度智能云举办的媒体技术沙龙

GPT未竟的革命,由o1接棒:或是LLM研究最重要的发现

天下武功唯快不破,但 OpenAI 不走寻常路,新出的 o1 系列宣告天下:我们更慢,但更强了。 o1 要花更多的时间思考问题,再做出反应,但在复杂推理层面直接窜了几个档位。 在国际数学奥林匹克 (IMO) 资格考试中,GPT-4o 仅正确解决了 13% 的问题,而 o1 得分为 83%。