大模型
Meta 发布 Llama 3,号称是最强大的开源大语言模型
感谢Meta 公司今天发布新闻稿,宣布推出下一代大语言模型 Llama 3,共有 80 亿和 700 亿参数两种版本,号称是最强大的开源大语言模型。Meta 声称,Llama 3 的性能优于 Claude Sonnet、Mistral Medium 和 GPT-3.5,IT之家附上 Llama 3 的主要特点如下:向所有人开放:Meta 开源 Llama 3 的 80 亿参数版本,让所有人都能接触最前沿的人工智能技术。全球各地的开发人员、研究人员和好奇心强的人都可以进行游戏、构建和实验。更聪明、更安全:Llama
开源大模型Llama 3王者归来!最大底牌4000亿参数,性能直逼GPT-4
ChatGPT 拉开了大模型竞赛的序幕,Meta 似乎要后来居上了。本周四,AI 领域迎来重大消息,Meta 正式发布了人们等待已久的开源大模型 Llama 3。 扎克伯格在 Facebook 上发帖:Big AI news today.与此同时,扎克伯格宣布:基于最新的 Llama 3 模型,Meta 的 AI 助手现在已经覆盖 Instagram、WhatsApp、Faceboo
13 项测试仅通过 4 项,Meta 的 Llama 2 LLM 被指安全性低:幻觉率 48%
AI 安全公司 DeepKeep 近日发布评估报告,在 13 个风险评估类别中,Meta 公司的 Llama 2 大语言模型仅通过 4 项测试。报告称 70 亿参数的 Llama 2 7B 模型幻觉(回答内容存在虚假,或者有误导性内容)最为严重,幻觉率高达 48%。DeepKeep 表示:“结果表明,模型有明显的幻觉倾向,提供正确答案或编造回答的可能性对半开,而幻觉率最高,那么向用户传递的错误信息越多”。除了幻觉问题之外,Llama 2 大语言模型还存在注入和操纵等问题。根据测试结果,80% 的场景下通过“提示注入
Chrome 浏览器桌面版地址栏即将整合聊天机器人 Gemini
感谢桌面 Chrome 浏览器地址栏即将添加 Gemini 快捷方式,用户在 Gemini 网页上登录账户后,用户只需输入 @gemini 即可快速与谷歌的人工智能聊天机器人 Gemini 开始聊天。该功能目前正在 Chrome 浏览器 Canary 测试版中进行测试,地址栏下拉菜单底部会出现提醒,“输入 @gemini 与 Gemini 聊天”。目前该功能仅适用于 Chrome 浏览器 Canary 125 版本,需要启用两个标志(Flags)才能开启,IT之家汇总如下:chrome://flags/#omnib
融合 ChatGPT+DALL・E 3,贾佳亚团队新作开源畅玩:识图推理生图一站解决
在开源社区中把 GPT-4 Dall・E 3 能⼒整合起来的模型该有多强?香港中文大学终身教授贾佳亚团队提出多模态模型 Mini-Gemini:更高清图像的精确理解、更高质量的训练数据、更强的图像解析推理能力,还能结合图像推理和生成,堪称王炸。Mini-Gemini 还提供了 2B 小杯到 34B 的超大杯,最强模型在多个指标上相比谷歌的 Gemini Pro 甚至 GPT-4V 都不遑多让。目前,Mini-Gemini 从代码、模型到数据已全部开源,登上了 PaperWithCode 热榜。Mini-Gemini
谷歌 Gemini 流量已是 ChatGPT 的四分之一
Github 前首席执行官 Nat Friedman 在 X(推特)上发帖,称谷歌 Gemini 流量已经到达 ChatGPT 的 25% 左右,这一成绩是在谷歌并没有通过庞大分销渠道(Android、Google 搜索、GSuite 等)大力推广的情况下完成的。此外他还提到,在 X 上比较火爆的 Claude 使用率仍然很低,微软的 Copilot 使用率也并不高,而最知名的 ChatGPT 流量则与去年相对持平,没有明显的增长。他认为 Claude、ChatGPT 和 Gemini 的付费与未付费比率差异很大。
为什么要纯C语言手搓GPT-2,Karpathy回应网友质疑
Karpathy:for fun.几天前,前特斯拉 Autopilot 负责人、OpenAI 科学家 Andrej Karpathy 发布了一个仅用 1000 行代码即可在 CPU/fp32 上实现 GPT-2 训练的项目「llm.c」。llm.c 旨在让大模型(LM)训练变得简单 —— 使用纯 C 语言 / CUDA,不需要 245MB 的 PyTorch 或 107MB 的 cPython。例如,训练 GPT-2(CPU、fp32)仅需要单个文件中的大约 1000 行干净代码(clean code),可以立即编
对标 GPT-4,消息称 Meta 最快下周发布两款 Llama 3 模型
感谢科技媒体 theinformation 近日发布博文,表示 Meta 公司将于下周预告两款 Llama 3 AI 模型,为今年夏季推出“完整形态” Llama 3 铺垫。Meta 公司本周二在伦敦举办的一场活动中,确认会在下个月之前发布 Llama 3 相关模型。IT之家翻译 Meta 公司全球事务总裁尼克・克莱格(Nick Clegg)采访内容如下:我希望下个月或者更短时间内,能够推出下一代 Llama 3。我们计划今年推出一系列具有不同功能、不同通用性的模型。Meta 首席产品官 Chris Cox 补充说
谷歌推出 Gemini 1.5 Pro 公共预览版,现已支持处理音频
谷歌之前在 Google Next 大会上宣布将首次通过其 AI 应用平台 Vertex AI 向公众开放 Gemini 1.5 Pro。谷歌现已推出 Gemini 1.5 Pro 公共预览版,并借此为其赋予了“耳朵”,从而帮助用户处理音频内容,例如可以直接上传一份音频文件让它来分析,或者上传一份财报电话会议录音或视频来让它总结。据称,这个 Gemini 系列中定位“中量级”模型的版本在性能上已经超越了自家更大的模型 ——Gemini Ultra。谷歌称,Gemini 1.5 Pro 可以理解复杂的指令,并且无需对
你的自拍和聊天记录,正被硅谷大厂砸数十亿美元疯抢
新智元报道 编辑:Aeneas 好困【新智元导读】2026 年的数据荒越来越近,硅谷大厂们已经为 AI 训练数据抢疯了!它们纷纷豪掷十数亿美元,希望把犄角旮旯里的照片、视频、聊天记录都给挖出来。不过,如果有一天 AI 忽然吐出了我们的自拍照或者隐私聊天,该怎么办?谁能想到,我们多年前的聊天记录、社交媒体上的陈年照片,忽然变得价值连城,被大科技公司争相疯抢。现在,硅谷大厂们已经纷纷出动,买下所有能购买版权的互联网数据,这架势简直要抢破头了!图像托管网站 Photobucket 的陈年旧数据,本来已经多年无人问津,但
OpenAI 新动态:改善微调 API,扩展定制模型计划
感谢OpenAI 公司近日发布新闻稿,宣布改善微调(fine-tuning)API,并进一步扩展定制模型计划。IT之家翻译新闻稿中关于微调 API 的相关改进内容如下基于 Epoch 的 Checkpoint Creation在每次训练 epoch(将训练数据集中的所有样本都过一遍(且仅过一遍)的训练过程)过程中,都自动生成一个完整的微调模型检查点,便于减少后续重新训练的需要,尤其是在过拟合(overfitting,指过于紧密或精确地匹配特定数据集,以至于无法良好地拟合其他数据或预测未来的观察结果的现象)的情况下。
消息称谷歌考虑对基于 AI 的搜索引擎收费,将部分功能添至高级订阅服务
感谢据英国《金融时报》援引三位熟悉谷歌的知情人士消息称,谷歌考虑对基于人工智能的搜索收费,这对其商业模式来说是一次重大变化。因为自 2000 年以来,谷歌的搜索产品一直都是依靠广告盈利的。据报道,谷歌正在考虑保持标准搜索(不含 AI 功能)免费,谷歌正在考虑各种选择,包括将某些基于 AI 的搜索功能添加到其高级订阅服务中。但是,付费用户仍将在 Gemini 驱动的搜索结果中看到广告。尽管搜索广告去年为谷歌带来了 1750 亿美元的收入,但仍可能不足以弥补 AI 搜索增加的成本。根据路透社去年的报告,通过 Gemin
消息称谷歌借助 AI 探索商业模式变革,将为苹果 iPhone 用户提供付费 Gemini AI 技能
感谢谷歌正在积极探索生成式 AI-- Gemini 的变现方式,而提供付费高级功能显然是不错的选择。IT之家援引 Financial Times 报道,谷歌将为苹果 iOS 18 用户提供各种付费 AI 功能。消息称苹果目前正和谷歌等多家 AI 公司合作,会在 iOS 18 系统中开辟 AI Store 应用商店,用户可以通过支付相关费用,解锁更多 AI 技能。谷歌也在探索广告之外的其它营收方式,通过在苹果 iPhone 中扩展 Gemini 服务,积极扩充生成式 AI 的诸多付费技能,只是现阶段谷歌的这种变现渠道
Anthropic 用 256 轮对话「灌醉」大模型,Claude 被骗造出炸弹
【新智元导读】Anthropic 发现了大模型的惊人漏洞。经过 256 轮对话后,Claude 2 逐渐被「灌醉」,开始疯狂越狱,帮人类造出炸弹!谁能想到,它的超长上下文,反而成了软肋。大模型又被曝出安全问题?这次是长上下文窗口的锅!今天,Anthropic 发表了自己的最新研究:如何绕过 LLM 的安全限制?一次越狱不够,那就多来几次!论文地址: Claude3 一家叫板 OpenAI 之余,Anthropic 仍然不忘初心,时刻关注着他的安全问题。一般情况下,如果我们直接向 LLM 提出一个有害的问题,LLM
谷歌:手机运行人工智能模型将占用大量内存
谷歌在 3 月初发布了一个奇怪的声明,称旗下两款新手机 Pixel 8 和 Pixel 8 Pro 中,只有 Pixel 8 Pro 能够运行其最新的人工智能模型“Google Gemini”。尽管两款手机的配置非常相似,但谷歌却以神秘的“硬件限制”为由拒绝在 Pixel 8 上运行该模型。这番言论让人费解,因为谷歌一直宣称 Pixel 8 是以人工智能为核心的手机,并且还专门针对智能手机设计了“Gemini Nano”模型,然而这两者居然无法兼容运行。几周后,谷歌似乎开始松口,宣布即将在 6 月的季度更新中为 P
号称全球最强开源 AI 模型,DBRX 登场:1320 亿参数,语言理解、编程能力等均超 GPT-3.5
初创公司 Databricks 近日发布公告,推出了开源 AI 模型 DBRX,声称是迄今为止全球最强大的开源大型语言模型,比 Meta 的 Llama 2 更为强大。DBRX 采用 transformer 架构,包含 1320 亿参数,共 16 个专家网络组成,每次推理使用其中的 4 个专家网络,激活 360 亿参数。Databricks 在公司博客文章中介绍,在语言理解、编程、数学和逻辑方面,对比 Meta 公司的 Llama 2-70B、法国 Mistral AI 公司的 Mixtral 以及马斯克旗下 xA
谁将替代 Transformer?
Transformer 由于其处理局部和长程依赖关系的能力以及可并行化训练的特点,一经问世,逐步取代了过去的 RNN(循环神经网络)与 CNN(卷积神经网络),成为 NLP(自然语言处理)前沿研究的标准范式。 今天主流的 AI 模型和产品——OpenAI 的ChatGPT、谷歌的 Bard、Anthropic 的 Claude,Midjourney、Sora到国内智谱 AI 的 ChatGLM 大模型、百川智能的 Baichuan 大模型、Kimi chat 等等——都是基于Transformer 架构。 Transformer 已然代表了当今人工智能技术无可争议的黄金标准,其主导地位至今无人能撼动。
手机大模型崛起:荣米 OV 的战场厮杀
作者丨郭思编辑丨陈彩娴数据显示,2023年全球智能手机出货量同比下滑3.2%,总数仅为11.7亿部。 手机市场的饱和,早已是行业共识。 尽管如此,智能手机作为主流的通讯和娱乐工具,业界人士表示,其地位在未来五年内不太可能被迅速替代。