llama-fen-zi-qian-ru-you-yu-gpt-llm-neng-li-jie-fen-zi-ma-zhei-yi-ju-meta-ying-le-openai 的搜索结果

为什么AI数不清Strawberry里有几个 r?Karpathy:我用表情包给你解释一下

让模型知道自己擅长什么、不擅长什么是一个很重要的问题。还记得这些天大模型被揪出来的低级错误吗?不知道 9.11 和 9.9 哪个大,数不清 Strawberry 单词里面有多少个 r…… 每每被发现一个弱点,大模型都只能接受人们的无情嘲笑。嘲笑之后,大家也冷静了下来,开始思考:低级错误背后的本质是什么?大家普遍认为,是 Token 化(Tokenization)的锅。在国内,Tokenization 经常被翻译成「分词」。这个翻译有一定的误导性,因为 Tokenization 里的 token 指的未必是词,也可以

开源是未来 AI 之路,扎克伯格:Meta 要将 Llama 打造成为“AI 界的 Linux”

Meta 创始人兼首席执行官马克・扎克伯格(Mark Zuckerberg)昨日(7 月 23 日)发布博文,表达了他对开源 AI 生态系统的愿景,认为 Llama 有潜力成为“AI 界的 Linux”。扎克伯格表示 Linux 凭借着开源特性,近乎成为通过其开源特性已成为云计算和移动操作系统的行业标准,而 Meta 公司希望将 Llama 打造成 AI 领域的 Linux。扎克伯格阐述了开源人工智能为何有利于开发者和行业的理由,AI在线简要梳理如下:训练、微调和蒸馏自己的 AI 模型每个组织都有不同的需求,而满足

Llama 3.1 上线就被攻破:大骂小扎,危险配方张口就来,指令遵循能力强了更容易越狱

最强大模型 Llama 3.1,上线就被攻破了。对着自己的老板扎克伯格破口大骂,甚至知道如何绕过屏蔽词。设计危险病毒、如何黑掉 Wifi 也是张口就来。Llama 3.1 405B 超越 GPT-4o,开源大模型登顶了,副作用是危险也更多了。不过也不全是坏事。Llama 系列前几个版本一直因为过度安全防护,还一度饱受一些用户批评:连一个 Linux 进程都不肯“杀死”,实用性太差了。现在,3.1 版本能力加强,也终于明白了此杀非彼杀。Llama 3.1 刚上线就被攻破第一时间把 Llama 3.1 破防的,还是越狱

Meta 发布 Llama 3.1 开源大语言模型:128K 上下文长度,405B 版可与 GPT-4o 和 Claude 3.5 Sonnet 媲美

感谢Meta 今晚正式发布 Llama 3.1 开源大语言模型,提供 8B、70B 及 405B 参数版本。据介绍,Llama 3.1 系列改进了推理能力及多语言支持,上下文长度提升至 128K,首次推出 405B 参数的旗舰模型。Meta 称 4050 亿参数的 Llama 3.1-405B 在常识、可引导性、数学、工具使用和多语言翻译等一系列任务中,可与 GPT-4、GPT-4o、Claude 3.5 Sonnet 等领先的闭源模型相媲美。此外,8B 与 70B 参数的 Llama 3.1 模型与其他参数量相似

开源 AI 模型挑战闭源里程碑?Meta Llama 3.1-405B 多项跑分超越 OpenAI GPT-4o

网友在 LocalLLaMA 子 Reddit 板块中发帖,分享了 4050 亿参数的 Meta Llama 3.1 信息,从该 AI 模型在几个关键 AI 基准测试的结果来看,其性能超越目前的领先者(OpenAI 的 GPT-4o)。这是开源人工智能社区的一个重要里程碑,标志着开源模型可能首次击败目前最先进的闭源 LLM 模型。如基准测试所示,Meta Llama 3.1 在 GSM8K、Hellaswag、boolq、MMLU-humanities、MMLU-other、MMLU-stem 和 winograd

因监管问题,Meta 将不会在欧盟发布新的多模态 AI 模型

据 Axios 报道,Meta 在一份声明中表示,他们即将发布一个多模态的 Llama 模型,但由于监管环境的不确定性,该模型不会在欧盟发布。Meta 表示,这一决定也意味着即使在开放许可下发布,欧盟的客户和公司也无法使用多模态模型,Meta 将向欧盟的客户和公司提供仅支持文本(text only)的 Llama 3 模型。报道称,Meta 的问题不在于《人工智能法案》,而在于如何在遵守《通用数据保护条例》(GDPR)的同时,使用欧盟客户的数据来训练模型。Meta 表示使用当地数据进行训练,对于确保其产品正确反映该

“最强开源 AI 模型”,4050 亿参数版 Meta Llama 3 被曝 7 月 23 日发布

感谢科技媒体 The Information 本周五发布博文,援引内部员工曝料称 Meta 公司计划 7 月 23 日发布开源 AI 模型 Llama 3-405B,在现有 80 亿和 700 亿参数两个版本之外,推出 4050 亿参数版本,号称是最强大的开源大语言模型。Meta 公司今年 4 月发布 Llama 3 AI 模型时,扎克伯格就在采访中透露正在训练 4050 亿像素的密集模型,但当时没有透露太多的信息。AI在线注:上图为机翻字幕,存在错误报道称 Llama 3-405B 是一个多模态 AI 开源模型,

俄罗斯科技巨头 Yandex 宣布开源“YaFSDP”大语言模型训练工具:大幅提升 GPU 利用率,对 Llama 3 可实现 26% 加速

俄罗斯科技巨头 Yandex 推出了一款开源的大语言模型训练工具 ——YaFSDP,号称与现有工具相比速度最高可提升 26%。据介绍,YaFSDP 在训练速度方面优于传统的 FSDP 方法,尤其适用于大型模型。在预训练 LLM 方面,YaFSDP 速度提高了 20%,并且在高内存压力条件下表现更佳。例如,YaFSDP 对具有 700 亿参数的 Llama 2 可以实现 21% 的效率提升,对具有同级参数的 Llama 3 也实现 了 26% 的效率提升。IT之家附官方数据一览:模型gpu-countseq-lenn

最强开源编程大模型一夜易主:Codestral 精通 80 + 语言,参数量仅 22B

开源代码大模型的王座,再次易主!来自素有“欧洲 OpenAI”之称的 Mistral,用 22B 参数量表现超越了 70B 的 Code Llama。模型名为 Codestral,将代码的英文 Code 与公司名结合而成。在 80 多种编程语言上进行过训练后,Codestral 用更少的参数实现了更高的性能,窗口长度也达到了 32k,相比之前一众 4k、8k 的模型大幅增加。而且已经有人表示,GPT-4o 和 Claude3-Opus 都失败的代码编辑任务,被 Codestral 成功解决了。于是有网友直言,Cod

AI在用| 没错,树莓派5也能飙上Llama 3了!

机器之能报道编辑: 山茶花以大模型、AIGC为代表的人工智能浪潮已经在悄然改变着我们生活及工作方式,但绝大部分人依然不知道该如何使用。因此,我们推出了「AI在用」专栏,通过直观、有趣且简洁的人工智能使用案例,来具体介绍AI使用方法,并激发大家思考。   我们也欢迎读者投稿亲自实践的创新型用例。4 月 18 日,Meta 发布了 Llama 3,号称「迄今最强的开源大模型」。根据 Meta 的说法,Llama 3 在多个关键基准测试中超越了业界领先的同类模型,在代码生成等任务上实现了全面领先。该模型能够进行复杂的推理

高通与 Meta 宣布合作,优化 Llama 3 大语言模型在智能手机等终端运行

Meta 公司昨日宣布推出下一代大语言模型 Llama 3,共有 80 亿和 700 亿参数两种版本,号称是最强大的开源大语言模型。与此同时,高通宣布支持 Meta Llama 3 在骁龙终端上运行。据介绍,双方将优化 Meta Llama 3 大语言模型(LLM)直接在智能手机、PC、VR / AR 头显和汽车等终端上的执行。开发者将能够访问高通 AI Hub 中的资源和工具,以实现在骁龙平台上优化运行 Llama 3,从而缩短产品上市时间并充分发挥终端侧 AI 的优势,包括出色的响应能力、增强的隐私性和可靠性,

Meta AI 全球市场扩张,并上线网页版 meta.ai

Meta 公司近日宣布 Llama 3 大语言模型之外,扩展 Meta AI 服务到美国之外的 13 个国家和地区,还宣布上线专门的聊天网站:meta.ai。Meta 公司在新闻稿中表示开始在全球市场扩展 Meta AI,在澳大利亚、加拿大、南非和新加坡等国家和地区推出英语版本。IT之家附上 Meta AI 扩展的国家和地区如下澳大利亚加拿大加纳牙买加马拉维新西兰尼日利亚巴基斯坦新加坡南非乌干达赞比亚津巴布韦Meta AI 整合了 Llama 3 大语言模型,速度更快、智能性更高、功能更强,是执行各种任务的理想选择

Meta 发布 Llama 3,号称是最强大的开源大语言模型

感谢Meta 公司今天发布新闻稿,宣布推出下一代大语言模型 Llama 3,共有 80 亿和 700 亿参数两种版本,号称是最强大的开源大语言模型。Meta 声称,Llama 3 的性能优于 Claude Sonnet、Mistral Medium 和 GPT-3.5,IT之家附上 Llama 3 的主要特点如下:向所有人开放:Meta 开源 Llama 3 的 80 亿参数版本,让所有人都能接触最前沿的人工智能技术。全球各地的开发人员、研究人员和好奇心强的人都可以进行游戏、构建和实验。更聪明、更安全:Llama

开源大模型Llama 3王者归来!最大底牌4000亿参数,性能直逼GPT-4

ChatGPT 拉开了大模型竞赛的序幕,Meta 似乎要后来居上了。本周四,AI 领域迎来重大消息,Meta 正式发布了人们等待已久的开源大模型 Llama 3。                                                                    扎克伯格在 Facebook 上发帖:Big AI news today.与此同时,扎克伯格宣布:基于最新的 Llama 3 模型,Meta 的 AI 助手现在已经覆盖 Instagram、WhatsApp、Faceboo

13 项测试仅通过 4 项,Meta 的 Llama 2 LLM 被指安全性低:幻觉率 48%

AI 安全公司 DeepKeep 近日发布评估报告,在 13 个风险评估类别中,Meta 公司的 Llama 2 大语言模型仅通过 4 项测试。报告称 70 亿参数的 Llama 2 7B 模型幻觉(回答内容存在虚假,或者有误导性内容)最为严重,幻觉率高达 48%。DeepKeep 表示:“结果表明,模型有明显的幻觉倾向,提供正确答案或编造回答的可能性对半开,而幻觉率最高,那么向用户传递的错误信息越多”。除了幻觉问题之外,Llama 2 大语言模型还存在注入和操纵等问题。根据测试结果,80% 的场景下通过“提示注入

对标 GPT-4,消息称 Meta 最快下周发布两款 Llama 3 模型

感谢科技媒体 theinformation 近日发布博文,表示 Meta 公司将于下周预告两款 Llama 3 AI 模型,为今年夏季推出“完整形态” Llama 3 铺垫。Meta 公司本周二在伦敦举办的一场活动中,确认会在下个月之前发布 Llama 3 相关模型。IT之家翻译 Meta 公司全球事务总裁尼克・克莱格(Nick Clegg)采访内容如下:我希望下个月或者更短时间内,能够推出下一代 Llama 3。我们计划今年推出一系列具有不同功能、不同通用性的模型。Meta 首席产品官 Chris Cox 补充说

号称全球最强开源 AI 模型,DBRX 登场:1320 亿参数,语言理解、编程能力等均超 GPT-3.5

初创公司 Databricks 近日发布公告,推出了开源 AI 模型 DBRX,声称是迄今为止全球最强大的开源大型语言模型,比 Meta 的 Llama 2 更为强大。DBRX 采用 transformer 架构,包含 1320 亿参数,共 16 个专家网络组成,每次推理使用其中的 4 个专家网络,激活 360 亿参数。Databricks 在公司博客文章中介绍,在语言理解、编程、数学和逻辑方面,对比 Meta 公司的 Llama 2-70B、法国 Mistral AI 公司的 Mixtral 以及马斯克旗下 xA

全面超越ViT,美团、浙大等提出视觉任务统一架构VisionLLAMA

半年多来,Meta 开源的 LLaMA 架构在 LLM 中经受了考验并大获成功(训练稳定、容易做 scaling)。沿袭 ViT 的研究思路,我们能否借助创新性的 LLaMA 架构,真正实现语言和图像的架构统一?在这一命题上,最近的一项研究 VisionLLaMA 取得了进展。VisionLLaMA 在图像生成(包含 Sora 依赖的底层的 DIT)和理解(分类、分割、检测、自监督)等多个主流任务上相较于原 ViT 类方法提升显著。论文标题:VisionLLaMA: A Unified LLaMA Interfac