大模型
网友反馈微软 Copilot 引用谷歌 Gemini 内容,点击链接无法跳转指定内容页面
Reddit 网友近日发布帖子,表示微软旗下的 Copilot 在其参考信息中,引用了来自谷歌 Gemini 的数据。用户反馈这就导致了混乱,点击 Copilot 中的链接,并不会跳转到 Copilot 引用的指定信息内容,而是会跳转到 Gemini 的主页。IT之家附上截图如下:用户对此的反应不一,有些人的观点认为:Copilot 应该只能引用来自 Bing 搜索的内容,不应该和 Gemini 等其它聊天机器人有所交互;而另外一些人认为 Copilot 可以和其它聊天机器人交互,为用户提供更丰富、全面的信息。
零一万物 API 上线,用户反馈多模态中文能力超过 GPT-4V
零一万物由创新工场董事长兼首席执行官李开复创办于 2023 年 6 月,六个月后,零一万物便成功发布了 Yi 系列模型,包含 6B 和 34B 两个版本,并开源,打破了当时国产开源模型一直难以超过 14B 的现状。 34B也是黄金尺寸的模型,既达到了大模型“涌现”能力的门槛,同时也能在消费级显卡上训练,对开发者相对友好。 此后较长一段时间 Yi-34B 在 Hugging Face 英文开源社区平台跻身前列,一举打响了零一万物的模型名声。
“创新落地,生态共赢”,澜舟科技提出大模型落地应用“九字诀”
历经持续一年多的百模大战后,市场竞争逐渐深化,如何更快、更好地推进大模型的落地应用,开始成为各大大模型公司思考的焦点所在。 3月18日,澜舟科技在中关村国家自主创新示范区展示中心隆重举行了“创新落地,生态共赢”大模型技术和产品发布会。 会上,澜舟科技展示了澜舟科技的大模型的最新进展和大模型技术的实际应用落地、生态构建的成果,更体现了其对未来发展的深度思考和战略布局。
「创新落地,生态共赢」,2024澜舟科技大模型技术和产品发布会圆满举办
2024 年将是大模型落地元年。
OpenAI 首席技术官:不确定 Sora 的训练数据来自哪里
感谢OpenAI 近期推出了炙手可热的文本转视频生成模型 Sora,然而该公司首席技术官 (CTO) Mira Murati 在接受华尔街日报采访时却语焉不详,无法明确说明 Sora 的训练数据来源。在采访中,记者直接询问 Murati 关于 Sora 训练数据来源时,她仅以含糊的官方话术搪塞:“我们使用的是公开可用数据和许可数据。”当记者追问具体来源是否包含 YouTube 视频时,Murati 竟然表示“我实际上并不确定(I'm actually not sure about that)”,并拒绝回答有关 In
全球首个类 Sora 开源复现方案来了!全面公开所有训练细节和模型权重
全球首个开源的类 Sora 架构视频生成模型,来了!整个训练流程,包括数据处理、所有训练细节和模型权重,全部开放。这就是刚刚发布的 Open-Sora 1.0。它带来的实际效果如下,能生成繁华都市夜景中的车水马龙。还能用航拍视角,展现悬崖海岸边,海水拍打着岩石的画面。亦或是延时摄影下的浩瀚星空。自 Sora 发布以来,由于效果惊艳但技术细节寥寥,揭秘、复现 Sora 成为了开发社区最热议话题之一。比如 Colossal-AI 团队推出成本直降 46% 的 Sora 训练推理复现流程。短短两周时间后,该团队再次发布最
对话南佛罗里达大学孙宇教授:当大语言模型用于机器人任务规划丨IJAIRR
现代化社会,哪些工作场景最需要机器人的帮助? 在工业领域,有著名的机器人“四大家族”——发那科、ABB、安川、库卡,经过百余年的发展技术越发成熟,在工业场景已经得到深入而广泛的应用。 相比之下,生活场景中的服务型机器人历史则短得多。
智谱AI狂飙:与商业化博弈的一年
2023 年 12 月 AI 科技评论在搜狐网络大厦见到智谱AI COO 张帆时,张帆如是说。 张帆在 2023 年 3 月加入中国大模型领域“当红炸子鸡”智谱负责商业化,他感慨:“大模型不仅把知识给压缩了,还把时间给压缩了。 ”最直接的体现是,在过去的 9 个月,张帆以每个月见大约 100 家客户的速度在推进智谱的大模型商业化,2023 年结束时,张帆团队已拜访了上千家客户。
AI4Science与LLM的碰撞:生物分子+文本的联合建模,人大高瓴、微软、华科、中科大团队最新综述
作者 | 裴启智随着大模型和 AI4Science 的蓬勃发展,越来越多的工作开始关注生物分子(Biomolecule)与自然语言(Language)的联合建模。这种方法利用文本数据中所包含的生物分子的丰富、多方面的描述,增强模型对其的理解,提高生物分子属性预测等下游任务的效果,为全面表示和分析生物分子开辟了新的途径。近日,人大高瓴联合微软、华科、中科大等机构发布了综述文章:《Leveraging Biomolecule and Natural Language through Multi-Modal Learni
因使用受版权保护书籍训练 AI 平台,英伟达被三名作者起诉
感谢据美国福克斯电视台北京时间今日报道,科技巨头英伟达已被三名作者起诉,因为英伟达在训练其 AI 平台 NeMo 时,未经许可使用了他们受到版权保护的书籍。三名作者 Brian Keene、Abdi Nazemian 和 Stewart O'Nan 声称,自己的作品被收录在一个包含约 196640 本书籍的数据集内,这些书籍帮助训练 NeMo 模拟普通书面语言,但这个数据集因“被举报侵犯版权”在去年 10 月被撤下。(IT之家注:该数据集原本被托管在 Hugging Face 网站上)作者们在 3 月 8 日晚提交
Gemini 修 bug 神了!录网页视频把代码库甩给它就行,网友想要访问权限
谷歌 Gemini 修改 bug 让网友大开眼界!X 一小伙分享,为测试 Gemini 1.5 Pro,自己在编写一个网页的代码时故意留了 3 个 bug,并分别录制了网页 bug 视频。接着把代码库打包成文件连同视频一起输给了 Gemini 1.5 Pro,提示它找到并修复代码中的所有 bug,且要提供一个简要指南以及所做更改的说明。没想到,Gemini 1.5 Pro 还真就分分钟正确识别并修复了每一个 bug。小伙将这种玩法 po 出来后热度不断攀升,网友们纷纷一键三连,转赞收藏量过万。其本人还在评论区强调,
谷歌确认 Gemini Nano 本地大模型不会上线 Pixel 8 手机
谷歌官方表示,由于硬件限制,AI 语言大模型 Gemini Nano 不会上线谷歌 Pixel 8 手机,但未来会出现在其他高端设备上。IT之家获悉,Gemini 的前身是谷歌在 2023 年 2 月发布的聊天机器人 Bard,后者在 2024 年 2 月 8 日更名为 Gemini。谷歌计划将 Gemini 整合进旗下所有产品,并加入 Google One 订阅中。Gemini Nano 作为谷歌为移动设备推出的 Gemini 大模型版本,能够处理不需要连接外部服务器的本地任务,仅支持谷歌 Pixel 8 Pro
谷歌优化 Gemini:可重新生成、缩短、扩充指定聊天内容
谷歌近日升级了 Gemini 聊天机器人,用户和其聊天过程中,可以指定部分聊天内容,进行修改、缩短、扩充等操作。谷歌近日更新了 Gemini,让用户只需点击几下,就能修改回复的特定部分。过去,用户必须重新生成整个回复,但现在不再需要这样做了。只需选择要修改的回复部分,然后单击铅笔图标即可进行编辑。IT之家附上截图如下:用户点击该图标之后,可以要求 Gemini 基于指定内容执行重新生成、缩短、扩充、移除操作。用户还可以对所选文本应用提示并进行相应更改。当然,恢复更改也同样简单,只需单击一下即可。
「还是谷歌好」,离职创业一年,我才发现训练大模型有这么多坑
Karpathy:中肯的,一针见血的。如何在不到一年的时间里创办一家公司、筹集资金、购买芯片,并搭建出追赶 Gemini pro/GPT 3.5 的 LLM?很多人都对构建基础架构和训练大语言模型和多模态模型感到好奇,但真正走完「从零开始」这一流程的人很少。我们普遍认为,储备技术人才是前提,掌握核心算法是关键,但实际上,工程实践中冒出来的挑战,也实在令人头疼。一年前,乘着大模型的热潮,Yi Tay 离开了工作 3 年多的谷歌,参与创办了一家名为 Reka 的公司并担任首席科学家,主攻大型语言模型。在谷歌时,Yi T
Pieter Abbeel 新工作“大世界模型”:轻松玩转1小时长视频,一对一QA视频内容细节
作者:赖文昕编辑:陈彩娴自3天前Sora发布以来,由图灵奖得主、Meta首席科学家Yann LeCun提出的“世界模型”又一次引起了广泛关注。 “世界模型”作为Sora的一大核心亮点,被OpenAI写在技术报告中。 但Sora是否真的如Open AI所说,是一个世界模型,却引起了行业内的争论。
谷歌被曝翻车内幕:内部群龙无首,生图机制过分“多元化”
感谢IT之家网友 rolan6 的线索投递!谷歌 Gemini 文生图风波还未平,更劲爆的内幕消息又被曝出来了。Pirate Wires 爆料,Gemini 这次的翻车,谷歌内部此前并不是毫不知情,翻车甚至是“故意”导致的。具体来说,谷歌设置了一个“安全”架构,Gemini 要生成一张图实际上要经过三个模型。大概来说,流程是这样的:用户在聊天界面请求 Gemini 生成一张图片,Gemini 收到请求后,会把请求发送给一个较小的模型。这个较小的模型的作用是根据公司的“多元化”政策重写用户的提示。为做到这一点,这个较
全面超越ViT,美团、浙大等提出视觉任务统一架构VisionLLAMA
半年多来,Meta 开源的 LLaMA 架构在 LLM 中经受了考验并大获成功(训练稳定、容易做 scaling)。沿袭 ViT 的研究思路,我们能否借助创新性的 LLaMA 架构,真正实现语言和图像的架构统一?在这一命题上,最近的一项研究 VisionLLaMA 取得了进展。VisionLLaMA 在图像生成(包含 Sora 依赖的底层的 DIT)和理解(分类、分割、检测、自监督)等多个主流任务上相较于原 ViT 类方法提升显著。论文标题:VisionLLaMA: A Unified LLaMA Interfac
“国家队”评测30个大模型数学能力,九章、文心、星火位列前三
去年ChatGPT横空出世后,我国也迎来“百模大战”,大模型能力测评成为业界前沿课题。近日,大模型数学能力权威测评基准MathEval围绕数学能力,对国内外30个大模型(含同一模型的不同版本)开展测评。根据测评结果,学而思九章、百度文心一言4.0、讯飞星火V3.5摘得前三名。其中,学而思旗下九章大模型在整体表现和中文、英文、各学段子榜单中,都具备领先优势。 数据显示,截至去年10月,国内累计发布大模型超200个。大模型越来越多地被运用到数学应用领域,包括数学问题解决、数据分析、学术研究、学习辅导等。目前,通用或垂类