文章列表

ChatGPT付费功能免费用!Mistral把Canvas、Artifact全复制了

欧洲的OpenAI,把ChatGPT功能都复制了。 Mistral AI大模型平台Le Chat新增Canvas、联网搜索、上传PDF等ChatGPT同款功能,而且全都免费! 三大主流大模型产品的功能,现在可以一站式访问。

德国音乐版权代理机构 GEMA、印度 ANI 通讯社起诉 OpenAI 侵犯版权

ANI 通讯社认为 OpenAI 聊天机器人捏造的“幻觉”采访内容对其声誉构成了真正的威胁,假新闻的传播也会导致公共混乱。

OpenAI 早有“造芯梦”:曾考虑收购晶圆级芯片企业 Cerebras

对于 OpenAI 而言,自研 AI 芯片可降低对英伟达等外部供应商的依赖,获得更强的对英伟达议价能力,在 AI GPU 紧缺时保障业务推进不受影响。

谷歌回应 Gemini 聊天机器人回复“人类去死吧”:已采取措施防止类似事件再次发生

人工智能聊天机器人再次引发争议。一名用户在使用谷歌的 AI 聊天机器人 Gemini 时,收到了极其可怕的回复:“人类请去死吧。”谷歌方面承认了这一事件,将其归咎于一次“无意义”的回应,并表示这违反了他们的安全指南。该公司已采取措施,以防止类似事件再次发生。

LLM为何频频翻车算术题?研究追踪单个神经元,「大脑短路」才是根源

由于缺少对运行逻辑的解释,大模型一向被人称为「黑箱」,但近来的不少研究已能够在单个神经元层面上解释大模型的运行机制。 例如Claude在2023年发表的一项研究,将大模型中大约500个神经元分解成约4000个可解释特征。 而10月28日的一项研究,以算术推理作为典型任务,借鉴类似的研究方法,确定了大模型中的一个模型子集,能解释模型大部分的基本算术逻辑行为。

研究发现ChatGPT在疾病诊断方面优于医生

随着AI技术的飞速发展,其在医疗保健领域的应用也日益广泛。 近期,一项由波士顿贝斯以色列女执事医疗中心(BethIsrael Deaconess Medical Center)的研究团队发表在《美国医学会网络开放》(JAMA Network . Open)上的研究,引发了广泛关注。

AlphaFold3级性能、开源、可商用,MIT团队推出生物分子预测模型Boltz-1

图示:来自测试集的靶标上的 Boltz-1 的示例预测。 (来源:论文)编辑 | 萝卜皮2024 年 11 月 18 日,麻省理工学院(MIT)的研究人员宣布推出 Boltz-1,这是一个开源模型,旨在准确模拟复杂的生物分子相互作用。 Boltz-1 是第一个完全商业化的开源模型,在预测生物分子复合物的 3D 结构方面达到 AlphaFold3 级精度。

提升人工智能性能的三种关键的LLM压缩策略

译者 | 布加迪审校 | 重楼在当今快节奏的数字环境中,依赖人工智能的企业面临着新的挑战:运行人工智能模型的延迟、内存使用和计算能力成本。 随着人工智能快速发展,幕后推动这些创新的模型变得越来越复杂、资源密集。 虽然这些大模型在处理各种任务中取得了出色的性能,但它们通常伴随着很高的计算和内存需求。

谷歌又捣鼓出好东西!有了这款AI学习神器,考试起码多考50分

AI好好用报道编辑:杨文谷歌AI版「十万个为什么」,让学习不再是「苦差事」。 谷歌真的藏了不少好东西! 继火遍全网的 NotebookLM 后,谷歌又「献」出了另一款实用型工具 ——Learn About!

谷歌 Gemini AI 被曝给出离谱回应:让用户“去死”

一位 Reddit 用户上周在 r / artificial 版块中发帖称,谷歌的人工智能模型 Gemini 在一次互动中,竟直接对用户(或者是整个人类)发出了“去死”的威胁。

12个ChatGPT写作秘诀让你事半功倍!OpenAI官方发布

最近,OpenAI在官网上发布了一篇学生写作指南。 指南的开头写道:如果使用得当,ChatGPT可以成为一个强大的工具,帮助学生培养严谨思维和清晰写作的技能,协助他们思考创意、掌握复杂概念并得到写作草稿的反馈。 然而,也有一些使用ChatGPT的方式会适得其反——比如生成一篇文章而不是自己写。

Grok 3证明黎曼猜想,训练遭灾难性事件?数学家称不夸张,两年内AI将解出千禧年难题

黎曼猜想,竟被Grok 3「证明」了? 为此,xAI暂停了Grok 3的训练来验证它的证明,如果结果是正确的,将会完全终止模型的训练。 xAI工程师Hieu Pham在社交媒体的最新「爆料」,成为AI圈最火爆的话题。

OpenAI「23个黑手党」出走创业,融资近百亿!华人科学家约占1/3

曾经参与缔造了改变世界的ChatGPT大牛们,如今却纷纷自立门户。 此前,早有BI的报道汇总了,出走OpenAI的19位研究人员。 经过半年多的「大换血」,这个数字最近增加到了23人。

Karpathy后悔了:2015年就看到了语言模型的潜力,却搞了多年强化学习

耽误业界好多年? 「这是有史以来最大、最令人困惑的研究生涯错误,」Andrej Karpathy 感叹道。 上个周末,OpenAI 创始成员、研究科学家、原特斯拉前 AI 高级总监、AI 领域的大神 Andrej Karpathy 一直在后悔。

视频大模型无损提速:删除多余token,训练时间减少30%,帧率越高效果越好 | NeurIPS

把连续相同的图像块合并成一个token,就能让Transformer的视频处理速度大幅提升。 卡内基梅隆大学提出了视频大模型加速方法Run-Length Tokenization(RLT),被NeurIPS 2024选为Spotlight论文。 在精度几乎没有损失的前提下,RLT可以让模型训练和推理速度双双提升。

Nature:「人类亲吻难题」彻底难倒LLM,所有大模型全部失败!LLM根本不会推理,只是工具

LLM究竟是否拥有类似人类的符合理解和推理能力呢? 许多认知科学家和机器学习研究人员,都会认为,LLM表现出类人(或「接近类人」)的语言能力。 然而,来自帕维亚大学、柏林洪堡大学、得克萨斯大学休斯顿健康科学中心、纽约大学、巴塞罗那自治大学的研究者却提供了一些最全面的证据,表明目前它们基本没有!

大模型时代下的私有数据安全与利用

一、大模型时代下的数据安全与利用问题众所周知,大模型是当前研究的热点之一,且已成为当前发展的主流趋势。 我们团队最近的研究方向从传统的联邦学习转变为探索这一范式在大模型时代的新拓展,即基于知识迁移的联邦学习。 我们认为在大模型时代,这种新的联邦学习模式非常适用。

前谷歌 AI 研究员:ChatGPT 原本可以更早出现的

在今年 10 月的 TED AI 大会上,被称为“谷歌八子”之一的雅各布・乌斯克尔特(Jakob Uszkoreit)接受了媒体的采访。在访谈中,他分享了 Transformer 的发展历程、谷歌在大语言模型领域的早期探索,以及他目前在生物计算领域的新冒险。