meta-ai-quan-qiu-shi-chang-kuo-zhang-bing-shang-xian-wang-ye-ban-meta-ai 的搜索结果

Tokenization,再见!Meta提出大概念模型LCM,1B模型干翻70B?

最近,受人类构思交流的高层级思路启发,Meta AI研究员提出全新语言建模新范式「大概念模型」,解耦语言表示与推理。 网友Chuby兴奋地表示:「如果Meta的大概念模型真的有用,那么同等或更高效率的模型,其规模将更小。 比如说1B模型将堪比70B的Llama 4。

Meta 被曝敦促美加州法院阻止 OpenAI 转变为营利性企业,力挺马斯克

据《华尔街日报》今日报道,Meta正要求美加州总检察长阻止 OpenAI 转型为营利性企业的计划,标志其在硅谷两大AI巨头之间的争斗之间站在马斯克一边。

首个可保留情感的音频 LLM:Meta 重磅开源 7B-Spirit LM,一网打尽“音频 + 文本”多模态任务

Meta 开源了一个基础多模态语言模型 Spirit LM,基于一个 70 亿参数的预训练文本语言模型,交错使用文本和语音数据进行训练,使模型能够自由地混合文本和语音,在任一模态中生成语言内容。

OpenAI也要做消费类硬件了?Meta前AR眼镜负责人加盟

OpenAI 不仅专注于软件,还要深入硬件研究。 Meta 增强现实眼镜项目前负责人 Caitlin Kalinowski 宣布,她将加入 OpenAI,领导机器人和消费类硬件业务。 刚刚,Kalinowski 在领英上写道:「非常高兴地告诉大家我将加入 OpenAI,领导机器人和消费类硬件业务!

Sebastian Raschka最新博客:从头开始,用Llama 2构建Llama 3.2

十天前的 Meta Connect 2024 大会上,开源领域迎来了可在边缘和移动设备上的运行的轻量级模型 Llama 3.2 1B 和 3B。两个版本都是纯文本模型,但也具备多语言文本生成和工具调用能力。Meta 表示,这些模型可让开发者构建个性化的、在设备本地上运行的通用应用 —— 这类应用将具备很强的隐私性,因为数据无需离开设备。近日,机器学习研究员 Sebastian Raschka 光速发布长篇教程《Converting Llama 2 to Llama 3.2 From Scratch》。博文链接:《

刚刚,Llama 3.2 来了!支持图像推理,还有可在手机上运行的版本

今天凌晨,大新闻不断。一边是 OpenAI 的高层又又又动荡了,另一边被誉为「真・Open AI」的 Meta 对 Llama 模型来了一波大更新:不仅推出了支持图像推理任务的新一代 Llama 11B 和 90B 模型,还发布了可在边缘和移动设备上的运行的轻量级模型 Llama 3.2 1B 和 3B。不仅如此,Meta 还正式发布了 Llama Stack Distribution,其可将多个 API 提供商打包在一起以便模型方便地调用各种工具或外部模型。此外,他们还发布了最新的安全保障措施。真・Open AI

Meta 部署新网络爬虫机器人,为其 AI 模型收集大量数据

北京时间 8 月 21 日,近日,Meta 悄悄地发布了一款新的网络爬虫,用于搜索互联网并收集大量数据,为其人工智能模型提供支持。据三家追踪网络抓取器的公司称,Meta 新网络爬虫机器人 Meta External Agent 于上月推出,类似于 OpenAI 的 GPTBot,可以抓取网络上的人工智能训练数据,例如新闻文章中的文本或在线讨论组中的对话。根据使用档案历史记录显示,Meta 确实在 7 月底更新了一个面向开发者的公司网站,其中一个标签显示了新爬虫的存在,但 Meta 至今还没有公开宣布其新爬虫机器人。

Meta 发布 Llama 3.1 开源大语言模型:128K 上下文长度,405B 版可与 GPT-4o 和 Claude 3.5 Sonnet 媲美

感谢Meta 今晚正式发布 Llama 3.1 开源大语言模型,提供 8B、70B 及 405B 参数版本。据介绍,Llama 3.1 系列改进了推理能力及多语言支持,上下文长度提升至 128K,首次推出 405B 参数的旗舰模型。Meta 称 4050 亿参数的 Llama 3.1-405B 在常识、可引导性、数学、工具使用和多语言翻译等一系列任务中,可与 GPT-4、GPT-4o、Claude 3.5 Sonnet 等领先的闭源模型相媲美。此外,8B 与 70B 参数的 Llama 3.1 模型与其他参数量相似

因监管问题,Meta 将不会在欧盟发布新的多模态 AI 模型

据 Axios 报道,Meta 在一份声明中表示,他们即将发布一个多模态的 Llama 模型,但由于监管环境的不确定性,该模型不会在欧盟发布。Meta 表示,这一决定也意味着即使在开放许可下发布,欧盟的客户和公司也无法使用多模态模型,Meta 将向欧盟的客户和公司提供仅支持文本(text only)的 Llama 3 模型。报道称,Meta 的问题不在于《人工智能法案》,而在于如何在遵守《通用数据保护条例》(GDPR)的同时,使用欧盟客户的数据来训练模型。Meta 表示使用当地数据进行训练,对于确保其产品正确反映该

Meta 推出 LLM Compiler 代码优化模型,可搭配其他 AI 改善代码生成 / 编译能力

Meta 前天推出了一款名为“LLM Compiler”的模型,该模型基于 Meta 现有的 Code Llama 打造,主打代码优化,目前相关模型已登陆 Hugging Face,提供 70 亿参数及 130 亿参数两个版本,允许学术及商业使用,IT之家附项目地址如下:点此访问。Meta 认为,尽管业界各大语言模型已在各种编程代码任务中展现了出色的能力,但此类模型在代码优化还有进步空间,目前推出的 LLM Compiler 模型便是一款专为优化代码任务设计的预训练模型,能够模拟编译器对代码进行优化,或将“已经过优

Meta 发布基于 Code Llama 的 LLM 编译器:优化代码大小、反汇编

感谢Meta 官方在 X 平台宣布推出 LLM 编译器,这是一个基于 Meta Code Llama 构建的模型家族,具有额外的代码优化和编译器功能。这些模型可以模拟编译器,预测代码大小的最佳传递,并可反汇编代码,可以针对新的优化和编译器任务进行微调。Meta 在 HuggingFace 上公开了 LLM 编译器的 7B 和 13B 模型,采用宽松的许可协议,允许用于研究和商业用途。IT之家附链接:,LLM 在各种软件工程和编码任务中展示其能力,然而在代码和编译器优化领域的应用仍然未被充分探索。为了解决这一问题,M

Meta 发布 Llama 3,号称是最强大的开源大语言模型

感谢Meta 公司今天发布新闻稿,宣布推出下一代大语言模型 Llama 3,共有 80 亿和 700 亿参数两种版本,号称是最强大的开源大语言模型。Meta 声称,Llama 3 的性能优于 Claude Sonnet、Mistral Medium 和 GPT-3.5,IT之家附上 Llama 3 的主要特点如下:向所有人开放:Meta 开源 Llama 3 的 80 亿参数版本,让所有人都能接触最前沿的人工智能技术。全球各地的开发人员、研究人员和好奇心强的人都可以进行游戏、构建和实验。更聪明、更安全:Llama

全面超越ViT,美团、浙大等提出视觉任务统一架构VisionLLAMA

半年多来,Meta 开源的 LLaMA 架构在 LLM 中经受了考验并大获成功(训练稳定、容易做 scaling)。沿袭 ViT 的研究思路,我们能否借助创新性的 LLaMA 架构,真正实现语言和图像的架构统一?在这一命题上,最近的一项研究 VisionLLaMA 取得了进展。VisionLLaMA 在图像生成(包含 Sora 依赖的底层的 DIT)和理解(分类、分割、检测、自监督)等多个主流任务上相较于原 ViT 类方法提升显著。论文标题:VisionLLaMA: A Unified LLaMA Interfac

斯坦福和OpenAI提出meta-prompting,最强零样本prompting技术诞生了

在我们的工作群里,经常会有一位管理者来协调每个人的工作并汇总工作成果。近日,斯坦福大学的 Mirac Suzgun 和 OpenAI 的 Adam Tauman Kalai 提出了一种新的 prompting 方法:meta-prompting。类似于工作群,这种方法也是使用一个居中协调的指挥员(元模型)来协调使用不同用途的 AI 和其它工具。最新一代语言模型(尤其是 GPT-4、PaLM 和 LLaMa)已经成功拓展了自然语言处理和生成的边界。这些大规模模型可以解决许多不同任务,从写莎士比亚风格的十四行诗到总结复

吉他摇滚、电子音乐都能搞定,Meta开源音频生成新模型MAGNeT,非自回归7倍提速

MAGNeT 有望改变我们体验音乐的方式。在文本生成音频(或音乐)这个 AIGC 赛道,Meta 最近又有了新研究成果,而且开源了。前几日,在论文《Masked Audio Generation using a Single Non-Autoregressive Transformer》中,Meta FAIR 团队、Kyutai 和希伯来大学推出了 MAGNeT,一种在掩码生成序列建模方法,可以直接在多个音频 tokens 流上直接运行。与以往工作最大的不同是,MAGNeT 是由单阶段、非自回归 transform

为了保持 AI 未来的开放性,Meta 和 IBM 发起联盟

编辑 | 白菜叶Meta、IBM 以及数十家初创公司和研究人员成立了一个联盟,捍卫更加开放和协作的人工智能开发方法,并与 OpenAI 和谷歌就该技术的未来展开了辩论与对抗。哲学辩论已成为人工智能未来的中心战场,人们越来越担心微软支持的 OpenAI 和谷歌将独自支撑这项对我们日常生活变得越来越重要的技术。IBM 首席执行官 Arvind Krishna 在周二宣布成立人工智能联盟的声明中表示:「这是定义人工智能未来的关键时刻。」ChatGPT 的创建者 OpenAI 和 Google 捍卫了大型语言模型的闭源系统

Meta教你5步学会用Llama2:我见过最简单的大模型教学

本文是 Meta 官网推出的 Llama2 使用教学博客,简单 5 步教会你如何使用 Llama2。在这篇博客中,Meta 探讨了使用 Llama 2 的五个步骤,以便使用者在自己的项目中充分利用 Llama 2 的优势。同时详细介绍 Llama 2 的关键概念、设置方法、可用资源,并提供一步步设置和运行 Llama 2 的流程。Meta 开源的 Llama 2 包括模型权重和初始代码,参数范围从 7B 到 70B。Llama 2 的训练数据比 Llama 多了 40%,上下文长度也多一倍,并且 Llama 2 在

爆火Llama 2一周请求下载超15万,有人开源了Rust实现版本

前些天,Meta 发布的免费可商用版本 Llama 2,可谓在 AI 界引起了巨大的轰动。