模型

如何应对生成式大模型「双刃剑」?之江实验室发布《生成式大模型安全与隐私白皮书》

研究者们也开始意识到 ChatGPT 等生成式大模型面临着数据和模型方面的安全隐患。

无需标注海量数据,目标检测新范式OVD让多模态AGI又前进一步

当下 OVD 领域的相关研究蓬勃发展,OVD 技术对未来通用 AI 大模型能够带来的改变值得期待。

陈天奇官宣新APP,让手机原生跑大模型,应用商店直接下载使用

IPhone、iPad 均可体验。

OpenAI、谷歌双标玩得溜:训练大模型用他人数据,却决不允许自身数据外流

你的就是我的,我的还是我的。

5 个章节、25 条规范,全方位 Get 数据集选择与创建的「百科全书」

内容一览:如果你正在学习如何创建或选择一个合适的数据集,那么这篇文章会给你一些实用的建议,帮助你在选择和创建数据集时做出明智的决策。 关键词:机器学习 数据集

率先开放语音、视频等多模态对话能力,这家中国公司又比OpenAI走快了一步

2023 年的 AI 领域,难以回避「大模型」这个关键词。

有证据了,MIT表明:大型语言模型≠随机鹦鹉,确实能学到语义

大型语言模型能否捕捉到它们所处理和生成的文本中的语义信息?这一问题在计算机科学和自然语言处理领域一直存在争议。然而,MIT的一项新研究表明,仅基于文本形式训练、用于预测下一个token的语言模型确实能学习和表示文本的意义。

大模型迎来「开源季」,盘点过去一个月那些开源的LLM和数据集

前段时间,谷歌泄露的内部文件表达了这样一个观点,虽然表面看起来 OpenAI 和谷歌在 AI 大模型上你追我赶,但真正的赢家未必会从这两家中产生,因为有一个第三方力量正在悄然崛起。这个力量就是「开源」。

​GPT充当大脑,指挥多个模型协作完成各类任务,通用系统AutoML-GPT来了

使用 ChatGPT 实现通用人工智能,思路打开了。

羊驼系列大模型和ChatGPT差多少?详细测评后,我沉默了

总的来说,该测试得出的结论是:MPT 还没有准备好在现实世界中使用,而 Vicuna 对于许多任务来说是 ChatGPT (3.5) 的可行替代品。

首个单细胞生物学基础大型语言模型,在超1000万个细胞进行预训练

编辑 | 紫罗生成式预训练模型在自然语言处理(NLP)和计算机视觉等领域取得了显著的成功。文本是由文字组成的,细胞可以用基因来表征。NLP 和单细胞生物学之间的另一个核心相似之处是,用于训练的公开可用的单细胞 RNA 测序(scRNA-seq)数据的规模庞大且不断增长。NLP 模型是否也能理解单细胞生物学的内在逻辑并发展「涌现思维」?近日,来自加拿大多伦多大学和彼得·蒙克心脏中心(Peter Munk Cardiac Centre)的研究人员,通过利用呈指数增长的单细胞测序数据,首次尝试对超过 1000 万个细胞进

谷歌内部文件泄漏:谷歌、OpenAI都没有护城河,大模型门槛正被开源踏破

「我们没有护城河,OpenAI 也没有。」在最近泄露的一份文件中,一位谷歌内部的研究人员表达了这样的观点。

专家圆桌:“国产类 ChatGPT ”所存在的差距与挑战

内容来源:ChatGPT 及大模型专题研讨会 转载自CSDN稿件在经历寒冬、雾霾,甚至大家纷纷看不到希望之际,ChatGPT 犹如一场春雨,给做 AI 甚至 NLP 等研究的人带来了新的希望。3 月 11 日,由中国人工智能学会主办,中国人工智能学会 NLP 专委会、真格基金、达观数据共同承办,中国信通院云大所支持的「ChatGPT 及大模型专题研讨会」正式举行。在圆桌对话环节,来自学术界、产业界及投资界的知名专家学者,就 ChatGPT 引发的新 AI 浪潮、大模型“基础模型”论、“国产类 ChatGPT ”所存

官宣|「天工」大模型4月17日启动邀测

我们今天骄傲的宣布一件事:由昆仑万维和奇点智源合作自研、中国第一个真正实现智能涌现的国产大语言模型——「天工」3.5发布在即,并将于4月17日启动邀请测试。为什么说是第一个真正实现智能涌现的GPT类大模型呢,之前友商不是已经发布一个了吗?大家都知道,涌现现象是指一个相对简单的系统中产生出了复杂的行为或特性。在AI领域,涌现能力也标志着人工智能是否已具备高度的自主学习能力,以及是否有可能完成逻辑推理等复杂的任务。最近有不少网友吐槽友商模型在回答一个经典问题“小王的爸爸有两个儿子,老大叫大毛,老二叫什么?”时,根据问题

平息画师怒火:Stable Diffusion学会在绘画中直接「擦除」侵权概念

Stable Diffusion 学会了「偷天换日」的本领。

用ChatGPT训练羊驼:「白泽」开源,轻松构建专属模型,可在线试玩

ChatGPT 出现之后,科技公司正在争相追赶,学界也在不断寻找开源且轻量的解决方案。

复旦邱锡鹏:深度剖析 ChatGPT 类大语言模型的关键技术

内容来源:ChatGPT 及大模型专题研讨会分享嘉宾:复旦大教授 邱锡鹏分享主题:《对话式大型语言模型》转载自CSDN稿件ChapGPT 自问世以来,便展现出了令世人惊艳的对话能力。仅用两个月时间,ChatGPT 月活跃用户就达一亿,是史上用户增速最快的消费应用。对于学术界、工业界、或是其他相关应用来说都是一个非常大的机会和挑战。事实上,ChatGPT 的成功并不是偶然结果,其背后多有创新之处。本文整理于达观数据参与承办的「ChatGPT 及大模型专题研讨会」上,复旦大学邱锡鹏教授带来的《对话式大型语言模型》主题分

探索大语言模型垂直化训练技术和应用-陈运文

内容来源:ChatGPT 及大模型专题研讨会 分享嘉宾:达观数据董事长兼CEO 陈运文博士分享主题:《探索大语言模型垂直化训练技术和应用》 转载自CSDN稿件本文整理自 3月11日 《ChatGPT 及大规模专题研讨会》上,达观数据董事长兼CEO 陈运文博士关于《探索大语言模型垂直化训练技术和应用》的分享,将介绍达观数据在大语言模型应用中的探索与思考。此次分享的主要内容分为 6 块,分别是:参数规模和数据规模的探索垂直领域适应预训练微调技术探索提示工程和垂直优化模型训练加速思路模型功能的垂直效能增强在探索大语言模型