推文
阿尔特曼:OpenAI 公司为 AI 安全工作分配至少 20% 计算资源
感谢OpenAI 首席执行官山姆・阿尔特曼(Sam Altman)昨日(8 月 1 日)在 X 平台发布推文,宣布为 AI 安全相关研究和开发工作,保障提供至少 20% 计算资源。AI在线翻译该推文内容如下:OpenAI 在 AI 安全方面的简要更新正如我们在 7 月下旬所说的,我们保障调配至少 20% 的计算资源,用于 AI 安全方面的工作。我们已经和美国人工智能安全研究所达成协议,让其提前访问我们的下一代基础模型,以便我们能够共同推动人工智能评估的科学发展。对此我们感到很兴奋!对于现任和前任员工能提出关于 AI
GPT-4 整治学术不端:人大 / 浙大团队实测 7000 篇论文,撤稿预测与人类 95% 一致
【新智元导读】人大与浙大学者发现,GPT-4 对于论文给出的撤稿预测结果,竟然和人类审稿人有将近 95% 的相似性。看来大模型虽然有可能引发学术不端,但也有办法维护科研诚信啊。学术论文的撤稿事件时有发生,这不仅损害了科研诚信,也可能对公众信任和科学进展产生负面影响。传统上,学术界依赖同行评审和出版后的读者反馈来识别和纠正问题论文,但这些方法可能无法及时发现所有问题,尤其是在当前科研论文出版数量急剧增加的背景下。在这种情况下,如何快速识别存在问题的论文,并促进它们的撤稿,成了学术界亟待解决的一个难题。最近,来自中国人
- 1