研究表明:AI工具能悄无声息地改变我们的观点

大型语言模型,那些能对我们的提示给出人类回答的智能聊天机器人,会影响我们的观点吗? 《IEEE智能系统》杂志中描述的一项实验表明,答案是肯定的。 这项研究的影响对教师批改论文、员工评估以及许多其他可能影响我们生活的情况都有深远意义。

研究表明:AI工具能悄无声息地改变我们的观点

大型语言模型,那些能对我们的提示给出人类回答的智能聊天机器人,会影响我们的观点吗?

《IEEE智能系统》杂志中描述的一项实验表明,答案是肯定的。这项研究的影响对教师批改论文、员工评估以及许多其他可能影响我们生活的情况都有深远意义。

该研究的设计重点关注两个著名的大型语言模型(LLM)提出的不同观点。每个大型语言模型都被要求对两篇不同的专利摘要按照1到10分的标准进行评估,重点关注可行性和颠覆性等特性。

研究作者将专利摘要以及大型语言模型给出的分数提供给不同组的研究生。每组学生只看到一个评分——要么是较高的评分,要么是较低的评分。在不知道其他组所看到内容的情况下,这些学生随后被要求自己对专利摘要进行评分。

看到大型语言模型给出较高评分(如“9”分)的组给出的评估分数比看到较低评分(如“4”分)的组要高。然而,他们并非只是照搬分数。相反,看到“9”分的组给出的平均评分约为7.5分,而看到“4”分的组给出的平均评分略高于5分。这表明,尽管大型语言模型的评分对他们产生了影响,但参与者仍然做出了自己的判断。

IEEE高级会员Ayesha Iqbal表示:“实验结果表明,人工智能工具能够影响决策任务,比如教师给学生的研究论文评分,或者企业评估员工、产品、软件以及其他知识成果时。如果不同的人工智能工具给出不同的评级,而人们又依赖这些评级,那么人们对同一个事物就可能给出不同的评价。这就引出了一个重要问题:我们是否想要偏向于人工智能的推荐呢?

专业人士使用大型语言模型(LLM)来协助完成诸如给论文评分或评估项目等任务的初稿是相当常见的做法。专业人士可能不会将大型语言模型的输出作为最终成果,但它们提供了一个有用且省时的起点。鉴于该研究中所描述的锚定效应,这是个好主意吗?

研究表明,与人类一样,大型语言模型会给出支持或反对某些观点的理由。依赖大型语言模型可能类似于与同伴合作。同时,大型语言模型往往具有一些特性,这些特性可能会使它们或多或少地有用。一些大型语言模型往往更乐观,给出的答案更长;其他的可能更悲观,给出的答案更短。

该研究的作者指出,教育工作者在做诸如批改论文之类的事情时可能仅使用一个大型语言模型以保持一致性,但在处理更复杂的任务(如评估商业项目)时可能会使用多个大型语言模型。

“在我们的个人和职业生活中,为人工智能的使用设定界限和限制是很重要的,”Iqbal说,“我们需要确定人工智能技术在何时何地是合适且有益的,并识别出需要人类判断和干预的情况。通过对技术使用和决策过程保持控制,可以避免对人工智能的过度依赖。”

相关资讯

DeepSeek系列:什么是DeepSeek,它又能做些什么呢?

在这个人工智能飞速发展的时代,大家可能已经听说过ChatGPT、文心一言、豆包AI、通义千问这些AI工具,但今天我们要聊的是一个同样厉害的中国AI——DeepSeek(深度求索)。 它就像一个超级聪明的“大脑”,不仅能和你聊天,还能帮你写代码、分析数据,甚至解决专业问题。 那么,DeepSeek到底是什么?

AI重塑硅谷创业法则:“融资-扩员-烧钱”成为过去式

过去,硅谷创业公司的发展路径遵循着一套固定的模式:先融资,然后大规模招募员工,通过快速扩张实现增长。 然而,随着AI浪潮的汹涌来袭,这一传统模式正在被彻底颠覆。 AI工具的广泛应用大幅提升了员工生产力,即使是规模极小的团队,也有可能凭借技术优势实现巨大成功。

纽约时报开始为产品和编辑人员提供 AI 工具

据报道,纽约时报近日宣布,允许其产品和编辑团队使用人工智能(AI)工具,这标志着该媒体在技术创新方面迈出了重要一步。 这一消息通过一封内部邮件传达给员工,邮件中介绍了新推出的内部 AI 摘要工具 ——Echo。 在这封邮件中,纽约时报还分享了一系列 AI 产品,供员工用于构建网络产品或开发编辑创意。