任务
轻松搭建AI版“谁是卧底”游戏,muAgent框架让知识图谱秒变编排引擎,支持复杂推理+在线协同
全新Agent框架,将知识图谱从知识获取来源直接升级为Agent编排引擎。 蚂蚁集团推出muAgent,兼容现有市面各类Agent框架,同时可实现复杂推理、在线协同、人工交互、知识即用四大核心差异技术功能。 这套框架目前在蚂蚁集团内多个复杂DevOps场景落地验证,同时可通过快速搭建的创新AI文本游戏“谁是卧底”游戏快速感受一下。
OpenAI o1 在医学领域的初步研究,我们离 AI 医生更近了吗?
编辑 | 紫罗大语言模型 (LLM) 在各个领域和任务中都表现出了卓越的能力,突破了我们在学习和认知方面的知识界限。最新模型 OpenAI 的 o1 脱颖而出,成为第一个使用思维链 (CoT) 技术和强化学习的 LLM。虽然 o1 在一般任务中表现良好,但它在医学等专业领域的表现仍然未知。目前医学 LLM 的基准通常集中在一定范围内,例如知识、推理或安全,这使得在复杂的医学任务中对这些模型进行全面评估变得复杂。来自加州大学圣克鲁斯分校、爱丁堡大学和美国国立卫生研究院的研究人员评估了 OpenAI 的 o1 模型在医
迈向「多面手」医疗大模型,上交大团队发布大规模指令微调数据、开源模型与全面基准测试
编辑 | ScienceAI近日,上海交通大学、上海 AI Lab、中国移动等机构的联合研究团队,在 arXiv 预印平台发布文章《Towards Evaluating and Building Versatile Large Language Models for Medicine》,从数据、测评、模型多个角度全面分析讨论了临床医学大语言模型应用。文中所涉及的所有数据和代码、模型均已开源。GitHub: Link: : ,大型语言模型(LLM)取得了显著的进展,并在医疗领域取得了一定成果。这些模型在医学多
击败25个分子设计算法,佐治亚理工、多伦多大学、康奈尔提出大语言模型MOLLEO
作者 | 佐治亚理工学院王浩瑞编辑 | ScienceAI分子发现作为优化问题,因其优化目标可能不可微分而带来显著的计算挑战。进化算法(EAs)常用于优化分子发现中的黑箱目标,通过随机突变和交叉来遍历化学空间,但这会导致大量昂贵的目标评估。在这项工作中,佐治亚理工学院、多伦多大学和康奈尔大学研究者合作提出了分子语言增强进化优化(MOLLEO),通过将拥有化学知识的预训练大语言模型(LLMs)整合到进化算法中,显著改善了进化算法的分子优化能力。该研究以《Efficient Evolutionary Search Ov
OpenAI 首席技术官:GPT-5 将在一年半后发布,部分领域智能达到“博士”级别
美国达特茅斯工程学院本周四公布了对 OpenAI 首席技术官米拉・穆拉蒂的采访。穆拉蒂把 GPT-4 到 GPT-5 的飞跃描述为从高中生到博士生的成长。图源 Pexels“如果你看一下(GPT)进化的轨迹,像 GPT-3 这样的系统可能只有幼儿智力水平,而像 GPT-4 这样的系统则更像是聪明的高中生智力水平,在接下来的几年里,我们期待在特定任务上达到博士的智力水平。事情正在飞速变化、改善。”穆拉蒂强调“博士级”的智能仅适用于某些任务。“这些系统在特定任务中已经达到了人类水平(Human-level),当然,在许
22个任务超越SOTA,43个任务媲美SOTA,Google推出医学治疗通用大模型
编辑 | 萝卜皮医生和科学家如果想开发一种新的疗法,这将是一个漫长且昂贵的任务,需要满足许多不同的标准,而能够加快这一过程的人工智能模型将是无价之宝。然而,目前大多数人工智能方法只能解决一组定义狭窄的任务,通常局限于特定领域。为了弥补这一差距,Google 团队提出了 Tx-LLM,这是一种通用大型语言模型(LLM),由 PaLM-2 微调而成,可编码有关各种治疗方式的知识。仅使用一组权重,Tx-LLM 可同时处理与自由文本交织的各种化学或生物实体(小分子、蛋白质、核酸、细胞系、疾病)信息,使其能够预测广泛的相关属
MIT研究人员将Transformer与图神经网络结合,用于设计全新蛋白质
编辑 | 萝卜皮凭借其复杂的排列和动态功能,蛋白质通过采用简单构建块的独特排列(其中几何形状是关键)来执行大量的生物任务。将这个几乎无限的排列库转化为各自的功能,可以方便研究人员设计用于特定用途的定制蛋白质。麻省理工学院(MIT)的 Markus Buehler 提出了一种灵活的基于语言模型的深度学习策略,将 Transformer 与图神经网络结合起来,以更好地理解和设计蛋白质。「通过这种新方法,我们可以通过对基本原理进行建模,利用大自然发明的一切作为知识基础。」Buehler 说,「该模型重新组合了这些自然构建
陶哲轩:初学者不宜用AI工具做专家级任务,GPT对专家帮助不大
对于不同技能水平的人,使用 GPT 等 AI 工具收获的成效也大不一样。
复旦邱锡鹏:深度剖析 ChatGPT 类大语言模型的关键技术
内容来源:ChatGPT 及大模型专题研讨会分享嘉宾:复旦大教授 邱锡鹏分享主题:《对话式大型语言模型》转载自CSDN稿件ChapGPT 自问世以来,便展现出了令世人惊艳的对话能力。仅用两个月时间,ChatGPT 月活跃用户就达一亿,是史上用户增速最快的消费应用。对于学术界、工业界、或是其他相关应用来说都是一个非常大的机会和挑战。事实上,ChatGPT 的成功并不是偶然结果,其背后多有创新之处。本文整理于达观数据参与承办的「ChatGPT 及大模型专题研讨会」上,复旦大学邱锡鹏教授带来的《对话式大型语言模型》主题分
ChatGPT真的是「通才」吗?杨笛一等人给它来了个摸底考试
ChatGPT 真的是「通才」吗?单拎出哪项能力都能完胜其他模型吗?哪些任务是 ChatGPT 擅长的,哪些不是?为了系统地探索这些问题,南洋理工大学博士生 Chengwei Qin、斯坦福大学计算机科学助理教授杨笛一等人进行了大量实验。
- 1