理论
揭秘:为何大模型总是赚不到钱?行业内幕大曝光!
编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)一个扎心的问题:大模型盈利了吗? 随着技术的发展,AI 逐渐走下了「神坛」,整个业界都变得更加客观和务实。 从OpenAI 今年高达 50 亿的天价亏损,到月暗沸沸扬扬的前投资人仲裁风波,大模型厂商的生意之路不是铺满大额融资的花路,而是充满了坎坷和荆棘。
将大语言模型集成到现有软件系统的完整指南
译者 | 布加迪审校 | 重楼随着最近应用迅速普及开来、人工智能(AI)得到广泛采用,大语言模型(LLM)已变得备受广大公司企业、开发人员和非开发人员的欢迎,因为它们为用户提供了诸多好处。 它们帮助开发人员调试代码并生成代码片段,还帮助澄清看似复杂的编程概念和任务,从而提高生产力。 只要用于训练的数据集涵盖主题,使用LLM的非开发人员就可以受益于对问题做出快速且定制的响应和答复。
清华新VLA框架加速破解具身智能止步实验室“魔咒”,LLM开销节省4-6倍 | NeurIPS'24
计算、存储消耗高,机器人使用多模态模型的障碍被解决了! 来自清华大学的研究者们设计了DeeR-VLA框架,一种适用于VLA的“动态推理”框架,能将LLM部分的相关计算、内存开销平均降低4-6倍。 (VLA:视觉-语言-动作模型,代表一类用于处理多模态输入的模型)简单来说,DeeR-VLA就像人的决策系统:简单任务快速思考,复杂任务仔细思考。
关于 Meta Llama 3,你知道多少?
2024年,对于人工智能领域来说可谓意义非凡。 继 OpenAI 推出备受赞誉的 GPT-4o mini后,Meta 的 Llama 3.1 模型亦在 . 7月23日 惊艳亮相,再一次掀起了新一轮人工智能热潮。
重磅开源!Kimi把自家底层推理架构都开源了,开源贡献阵容相当豪华:清华、阿里、华为、AISoft、面壁智能
就在昨天,Kimi宣布要把自家底层的大模型推理架构Mooncake开源出来! 有媒体称该架构正是承载了月之暗面Kimi线上80%以上流量的正在用的底层架构。 小编立马求证了一番,的确Github上有提到:Mooncake 正在服务Kimi平台。
如何搭建自己的ChatGpt?你学会了吗?
LobeChat与Oallam整合随着人工智能技术的不断发展,聊天机器人已经成为许多企业和个人用户的得力助手。 LobeChat作为一款开源、高性能的AI会话应用框架,提供了丰富的功能和灵活的扩展性。 而Oallam作为一个开源的大模型托管和服务平台,为开发者提供了便捷的模型下载和推理服务。
探秘 OpenAI Swarm:重塑 AI 代理协作新模式
作者 | 崔皓 审校 | 重楼本文主要介绍了 OpenAI 推出的实验性框架 Swarm,它是一个多代理编排框架,致力于探索管理复杂 AI 代理交互的方式。 文中阐述了 AI 代理的概念、组成及发展方向,强调 Swarm 的作用是协调多代理工作,通过任务分解、动态调度等机制,通过多个代码示例,体现其在复杂任务处理上的优势,还介绍了 Swarm 的核心概念如代理和任务移交,以及通过示例代码展示其关键概念和功能实现,最后深入原理,从 Routine 到 Agent 的转变及 Handoff 功能的运作方式。 引言:揭开 Swarm 的神秘面纱AI Agent 的出现为人类带来了前所未有的可能性,从简单的任务执行到复杂问题的智能解决,Agent 正在改变我们与技术交互的方式。
Kimi开源底层推理框架,1小时GitHub揽星1.2k
什么? Kimi底层推理架构刚刚宣布:开! 源!
当AI创造AI,就是库兹韦尔「奇点」临近时?人类正处于自我改进AI爆炸边缘
让AI自我改进这件事,究竟靠谱不靠谱? 伴随着深度学习技术的深入,特别是OpenAI正式发布生成式对话大模型ChatGPT之后,其强大的AI发展潜力让研究学者们也开始进一步猜想AI的现实潜力。 于是,在自我改进AI这件事上,研究学者们也是费了不少心思。
OpenAI API:LLM编程的事实标准
当下,大模型领域已然步入 “百模大战” 时期,形形色色的大模型如雨后春笋般不断涌现。 那么,若我们打算学习大模型的 API,是否真的需要逐一去钻研呢? 答案无疑是否定的。
马斯克旗下xAI蓄势待发,拟推独立App正面挑战ChatGPT
人工智能领域波澜再起,特斯拉及SpaceX创始人埃隆·马斯克旗下的AI初创公司xAI宣布即将推出一款与当前市场热门产品ChatGPT相抗衡的聊天机器人应用,预计最早将于今年12月面世。 这一动作不仅标志着xAI正式踏入消费级市场,也直接对老东家、曾由马斯克联合创立的OpenAI发出了挑战信号。 据国外媒体报道,xAI的这一新应用将是其首个面向消费者的产品,此前,xAI的技术主要应用于X平台(前身为Twitter)等内部项目中的Grok应用。
上海AI实验室版o1已上线!数学竞赛题、Leetcode赛题全拿下,还会玩24点
国产o1新选手登场! 它能快速解决更复杂的数学解题、代码编程、数字游戏等任务。 这就是上海AI实验室版o1——强推理模型书生InternThinker,刚刚正式开放试用!
标记化在LLM中有怎样的重要作用?
译者 | 李睿审校 | 重楼如今,GPT-3、GPT-4或谷歌的BERT等大型语言模型(LLM)已经成为人工智能理解和处理人类语言的重要组成部分。 但在这些模型展现出令人印象深刻的能力背后,却隐藏着一个很容易被忽视的过程:标记化。 本文将解释标记化的定义,标记化如此重要的原因,以及在实际应用中是否能够规避这一步骤。
LLM应用开发者新利好:再也不用写集成代码了!
编辑 | 言征进入今年以来,如何磕破头也要挤进大LLM应用的赛道成为了每一位开发者的心事。 但上车LLM应用的人都知道,基于大模型做开发,远没有外界所说的“调接口”那么简单,开发人的痛,没人懂。 比如,光定制代码就能把你搞到没脾气。
1行代码改进大模型训练,Llama训练速度提升至1.47倍,全华人团队出品
只要改一行代码,就能让大模型训练效率提升至1.47倍。 拥有得州大学奥斯汀分校背景四名华人学者,提出了大模型训练优化器Cautious Optimizers。 在提速的同时,Cautious能够保证训练效果不出现损失,而且语言和视觉模型都适用。
遗憾不?原来百度2017年就研究过Scaling Law,连Anthropic CEO灵感都来自百度
在追求 AGI 的道路上,Scaling Law 是绕不开的一环。 如果 Scaling Law 撞到了天花板,扩大模型规模,增加算力不能大幅提升模型的能力,那么就需要探索新的架构创新、算法优化或跨领域的技术突破。 作为一个学术概念,Scaling Law 为人所熟知,通常归功于 OpenAI 在 2020 年发的这篇论文:论文标题:Scaling Laws for Neural Language Models论文链接:、数据量、计算资源增加而指数提升。
提示工程:更好地释放LLM的能力
提示工程,正如其名,主要聚焦于探究如何创作提示词。 存在提示工程的一个关键缘由在于,大模型在不同人群的视角下所发挥的作用差异显著。 普通使用者往往仅将大模型视作聊天机器人,他们着重关注的是大模型能否迅速且精准地予以反馈。
如何借助Cortex运行本地LLM
译者 | 布加迪审校 | 重楼AI行业正在经历一场转变,转向更小巧更高效的大语言模型(LLM),从而使用户能够在本地机器上运行模型,无需功能强大的服务器。 本教程将指导你借助Cortex运行本地LLM,着重介绍其独特的功能和易用性,使任何拥有标准硬件的人都可以享用AI。 注意:Cortex目前正在积极开发中,这可能会导致bug或某些功能无法正常运行。