meta-bei-pu-dun-cu-mei-jia-zhou-fa-yuan-zu-zhi-openai-zhuan-bian-wei-ying-li-xing-qi-ye-li-ting-ma-si-ke 的搜索结果

Tokenization,再见!Meta提出大概念模型LCM,1B模型干翻70B?

最近,受人类构思交流的高层级思路启发,Meta AI研究员提出全新语言建模新范式「大概念模型」,解耦语言表示与推理。 网友Chuby兴奋地表示:「如果Meta的大概念模型真的有用,那么同等或更高效率的模型,其规模将更小。 比如说1B模型将堪比70B的Llama 4。

Meta 被曝敦促美加州法院阻止 OpenAI 转变为营利性企业,力挺马斯克

据《华尔街日报》今日报道,Meta正要求美加州总检察长阻止 OpenAI 转型为营利性企业的计划,标志其在硅谷两大AI巨头之间的争斗之间站在马斯克一边。

Meta 今年压轴开源 AI 模型 Llama 3.3 登场:700 亿参数,性能比肩 4050 亿

Meta 今年的压轴 AI 大模型来了。Meta 昨日(12 月 6 日)发布 Llama 3.3,共有 700 亿参数,不过性能方面媲美拥有 4050 亿参数的 Llama 3.1。

OpenAI、Meta 将用非洲语言训练大模型,让 AI 惠及更多人口

OpenAI 和 Meta 将开始用非洲语言训练人工智能大模型,以解决非洲大陆数千种方言模型短缺的问题。

首个可保留情感的音频 LLM:Meta 重磅开源 7B-Spirit LM,一网打尽“音频 + 文本”多模态任务

Meta 开源了一个基础多模态语言模型 Spirit LM,基于一个 70 亿参数的预训练文本语言模型,交错使用文本和语音数据进行训练,使模型能够自由地混合文本和语音,在任一模态中生成语言内容。

OpenAI也要做消费类硬件了?Meta前AR眼镜负责人加盟

OpenAI 不仅专注于软件,还要深入硬件研究。 Meta 增强现实眼镜项目前负责人 Caitlin Kalinowski 宣布,她将加入 OpenAI,领导机器人和消费类硬件业务。 刚刚,Kalinowski 在领英上写道:「非常高兴地告诉大家我将加入 OpenAI,领导机器人和消费类硬件业务!

扎克伯格:联想基于 Meta Llama 大模型构建个人 AI 智能体 AI Now

感谢联想集团今日在美国西雅图召开年度 Tech World 大会。联想 CEO 杨元庆在主题演讲中,与 Meta 创始人兼 CEO 马克・扎克伯格一道宣布,联想与 Meta 合作基于 Llama 大模型推出面向 PC 的个人 AI 智能体 ——AI Now。扎克伯格通过视频在主题演讲上表示,联想与 Meta 已经合作多年,推出了许多卓越的创新成果,将突破性的 AI 和混合现实技术带给更多人,共同构建一个更加智能的未来。

OpenAI 推出 meta-prompt 工具,AI 时代让你掌握提示词艺术

AI 时代,你和他人的差异可能直接体现在如何提出合适的提示词(Prompt)上。科技媒体 The Decoder 昨日(10 月 11 日)发布博文,报道称 OpenAI 更新提示词优化功能 Playgound,新增引入“元提示”(meta-prompt)工具。“元提示”(meta-prompt)工具主要帮助用户更高效地创建、改进针对大型语言模型(LLMs)的提示,节省开发高质量 AI 提示的时间。

Sebastian Raschka最新博客:从头开始,用Llama 2构建Llama 3.2

十天前的 Meta Connect 2024 大会上,开源领域迎来了可在边缘和移动设备上的运行的轻量级模型 Llama 3.2 1B 和 3B。两个版本都是纯文本模型,但也具备多语言文本生成和工具调用能力。Meta 表示,这些模型可让开发者构建个性化的、在设备本地上运行的通用应用 —— 这类应用将具备很强的隐私性,因为数据无需离开设备。近日,机器学习研究员 Sebastian Raschka 光速发布长篇教程《Converting Llama 2 to Llama 3.2 From Scratch》。博文链接:《

刚刚,Llama 3.2 来了!支持图像推理,还有可在手机上运行的版本

今天凌晨,大新闻不断。一边是 OpenAI 的高层又又又动荡了,另一边被誉为「真・Open AI」的 Meta 对 Llama 模型来了一波大更新:不仅推出了支持图像推理任务的新一代 Llama 11B 和 90B 模型,还发布了可在边缘和移动设备上的运行的轻量级模型 Llama 3.2 1B 和 3B。不仅如此,Meta 还正式发布了 Llama Stack Distribution,其可将多个 API 提供商打包在一起以便模型方便地调用各种工具或外部模型。此外,他们还发布了最新的安全保障措施。真・Open AI

研究称生成式 AI 耗水量巨大:使用 GPT-4 生成 100 字文本需消耗 3 瓶水

据《华盛顿邮报》报道,美国加州大学河滨分校的一项新研究揭示了生成式 AI 的惊人环境成本,尤其是其对水资源的消耗。研究发现,即使只是生成文本,AI 也需要大量的水来冷却服务器。再加上其对电网的巨大压力,进一步凸显了 AI 发展的环境挑战。图源 Pexels研究指出,AI 的用水量因州和数据中心位置的不同而有所差异,但总体而言,水耗与电费成反比。AI在线注意到,得州的水耗最低,生成一封 100 字的电子邮件仅需 235 毫升水,而华盛顿则高达 1,408 毫升,相当于三瓶 16.9 盎司的矿泉水。此外,数据中心本身就

Meta 公布 Llama AI 模型家族下载量数据:全球超 3.5 亿、3.1-405B 模型最受欢迎

Meta 公司昨日发布新闻稿披露了旗下 Llama 开源 AI 模型家族在 Hugging Face 的下载量情况,仅在上个月(8 月 1 日- 8 月 31 日),相关模型的下载次数就超过了 2000 万次,截至 9 月 1 日,Llama 模型家族全球下载量已突破 3.5 亿次。参考AI在线报道,Meta 公司在今年 4 月发布了 LLM Llama 3,于今年 7 月推出了 Llama 3.1,将上下文长度扩展至 128K,新增支持 8 种语言,并首次提供了 405B 参数版本,Meta 提到,目前“Llam

一年翻番,OpenAI 称 ChatGPT AI 聊天机器人全球周活跃用户数量破 2 亿

科技媒体 Axios 今天(8 月 30 日)发布博文,报道称 OpenAI 的 AI 聊天机器人目前周活跃用户数量已经超过 2 亿,短短 1 年时间实现翻倍。OpenAI 还表示在全球财富 500 强企业中,92% 正在使用其产品;自 7 月份发布 GPT-4o mini 以来,其自动 API 的使用量已翻了一番。首席执行官山姆・阿尔特曼(Sam Altman)在给该媒体的一份声明中表示:人们正在使用我们的工具,将其融入到日常生活中,在医疗保健和教育等领域发挥着真正的作用,可以帮助完成日常任务、解决棘手问题,还是

Meta 部署新网络爬虫机器人,为其 AI 模型收集大量数据

北京时间 8 月 21 日,近日,Meta 悄悄地发布了一款新的网络爬虫,用于搜索互联网并收集大量数据,为其人工智能模型提供支持。据三家追踪网络抓取器的公司称,Meta 新网络爬虫机器人 Meta External Agent 于上月推出,类似于 OpenAI 的 GPTBot,可以抓取网络上的人工智能训练数据,例如新闻文章中的文本或在线讨论组中的对话。根据使用档案历史记录显示,Meta 确实在 7 月底更新了一个面向开发者的公司网站,其中一个标签显示了新爬虫的存在,但 Meta 至今还没有公开宣布其新爬虫机器人。

Meta 构建分布式 RoCEv2 网络:探索串联数万片 GPU,训练千亿参数级 AI 模型

Meta 公司于 8 月 5 日发布博文,表示为了满足大规模分布式 AI 训练对网络的需求,构建了基于 RoCEv2 协议的大规模 AI 网络。RoCEv2 的全称是 RDMA Over Converged Ethernet version 2,是一种节点间通信传输方式,用于大部分人工智能容量。Meta 公司已成功扩展了 RoCE 网络,从原型发展到部署了众多集群,每个集群可容纳数千个 GPU。这些 RoCE 集群支持广泛的生产型分布式 GPU 训练工作,包括排名、内容推荐、内容理解、自然语言处理和 GenAI 模

小扎自曝砸重金训 Meta Llama 4 模型:24 万块 GPU 齐发力,预计 2025 年发布

Llama 3.1 刚发布不久,Llama 4 已完全投入训练中。这几天,小扎在二季度财报会上称,Meta 将用 Llama 3 的十倍计算量,训练下一代多模态 Llama 4,预计在 2025 年发布。这笔账单,老黄又成为最大赢家十倍计算量,是什么概念?要知道,Llama 3 是在两个拥有 24,000 块 GPU 集群完成训练。也就是说,Llama 4 训练要用 24 万块 GPU。那么,Meta 存货还够不够?还记得小扎曾在年初宣布,计划到年底要部署 35 万块英伟达 H100。他还透露了更多的细节,Meta

Meta 发布 Llama 3.1 开源大语言模型:128K 上下文长度,405B 版可与 GPT-4o 和 Claude 3.5 Sonnet 媲美

感谢Meta 今晚正式发布 Llama 3.1 开源大语言模型,提供 8B、70B 及 405B 参数版本。据介绍,Llama 3.1 系列改进了推理能力及多语言支持,上下文长度提升至 128K,首次推出 405B 参数的旗舰模型。Meta 称 4050 亿参数的 Llama 3.1-405B 在常识、可引导性、数学、工具使用和多语言翻译等一系列任务中,可与 GPT-4、GPT-4o、Claude 3.5 Sonnet 等领先的闭源模型相媲美。此外,8B 与 70B 参数的 Llama 3.1 模型与其他参数量相似

开源 AI 模型挑战闭源里程碑?Meta Llama 3.1-405B 多项跑分超越 OpenAI GPT-4o

网友在 LocalLLaMA 子 Reddit 板块中发帖,分享了 4050 亿参数的 Meta Llama 3.1 信息,从该 AI 模型在几个关键 AI 基准测试的结果来看,其性能超越目前的领先者(OpenAI 的 GPT-4o)。这是开源人工智能社区的一个重要里程碑,标志着开源模型可能首次击败目前最先进的闭源 LLM 模型。如基准测试所示,Meta Llama 3.1 在 GSM8K、Hellaswag、boolq、MMLU-humanities、MMLU-other、MMLU-stem 和 winograd