问题
OpenAI 的 GPT-4 变身考证能手:无额外训练通过日本理疗师考试,正确率 73.4%
一项新的同行评审研究表明,OpenAI 的 GPT-4 大语言模型无需任何额外训练,即可通过日本国家理疗考试。最新发表在《Cureus》杂志上的新研究,测试了 GPT-4 的文字和视觉技能。AI在线注:日本国家物理理疗师考试包括 160 道综合题和 40 道实践题,测试记忆、理解、应用、分析和评估能力。研究人员在 GPT-4 中输入了 1000 个问题,并将答案对比了官方解决方案。GPT-4 通过了所有五个测试部分,正确回答了 73.4% 的问题。不过,人工智能在处理技术性问题和包含图片或表格的问题时显得有些吃力。
消息称 OpenAI 正开发“草莓”项目:前身为神秘 Q * 算法,最快今年秋季推出
当地时间 8 月 7 日,阿尔特曼放出了一张关于草莓的照片,暗示神秘“草莓(Strawberry)”项目,引起全网热议。The Information 报道称,随着 OpenAI 寻求筹集更多资金,其研究人员正试图推出一种新的 AI 产品,能够比现有产品更好地解决棘手的问题。据称,OpenAI 今年夏天已经向美国国家安全官员展示了这项技术,一位直接了解这些会议的人士表示,这些会议此前没有被报道过(AI在线注:最早是路透社上个月发布的爆料)。两名内部人士透露,团队目标是最早在今年秋天之前将代号为草莓(以前称为 Q*)
英伟达最新技术分享:手把手教你用 Llama 3.1 合成数据改进模型!附代码
适逢 Llama 3.1 模型刚刚发布,英伟达就发表了一篇技术博客,手把手教你如何好好利用这个强大的开源模型,为领域模型或 RAG 系统的微调生成合成数据。Epoch AI 上个月刚刚发文预言「数据墙」迫近,结果英伟达转头就甩出了 340B 开源巨兽 Nemotron。真实数据稀缺可能不再是问题了,Nemotron 9T token 的预训练预料中,98% 都是合成数据。也许你还对合成数据存在顾虑,或者不知道如何应用 LLM 驱动数据生成。或许,英伟达的这篇博客可以提供答案。原文地址:,用 LLM 合成数据的本质究
为什么AI数不清Strawberry里有几个 r?Karpathy:我用表情包给你解释一下
让模型知道自己擅长什么、不擅长什么是一个很重要的问题。还记得这些天大模型被揪出来的低级错误吗?不知道 9.11 和 9.9 哪个大,数不清 Strawberry 单词里面有多少个 r…… 每每被发现一个弱点,大模型都只能接受人们的无情嘲笑。嘲笑之后,大家也冷静了下来,开始思考:低级错误背后的本质是什么?大家普遍认为,是 Token 化(Tokenization)的锅。在国内,Tokenization 经常被翻译成「分词」。这个翻译有一定的误导性,因为 Tokenization 里的 token 指的未必是词,也可以
ChatGPT 无法取代人类程序员: IEEE 35 页论文测出困难编码正确率仅为 0.66%
【新智元导读】6 月,IEEE 刊登了一篇对 ChatGPT 代码生成任务进行系统评估的论文,数据集就是程序员们最爱的 LeetCode 题库。研究揭示了 LLM 在代码任务中出现的潜在问题和能力局限,让我们能够对模型做出进一步改进,并逐渐了解使用 ChatGPT 写代码的最佳姿势。有了 ChatGPT,还需要人类程序猿编码吗?上个月,一项发表在 IEEE TSE 期刊(Transactions on Software Engineering)上的研究评估了 ChatGPT 所生成的代码在功能性、复杂性和安全性方面
5 个章节、25 条规范,全方位 Get 数据集选择与创建的「百科全书」
内容一览:如果你正在学习如何创建或选择一个合适的数据集,那么这篇文章会给你一些实用的建议,帮助你在选择和创建数据集时做出明智的决策。
关键词:机器学习 数据集
- 1