学习

《Python 机器学习》作者新作:从头开始构建大型语言模型,代码已开源

自 ChatGPT 发布以来,大型语言模型(LLM)已经成为推动人工智能发展的关键技术。近期,机器学习和 AI 研究员、畅销书《Python 机器学习》作者 Sebastian Raschka 又写了一本新书 ——《Build a Large Language Model (From Scratch)》,旨在讲解从头开始构建大型语言模型的整个过程,包括如何创建、训练和调整大型语言模型。最近,Sebastian Raschka 在 GitHub 上开源了这本新书对应的代码库。项目地址: LLM 来说,指令微调能够有效

MIT 开发​深度化学模型的神经尺度策略,发现「神经尺度」定律

编辑 | 绿萝在数据可用性和计算方面,大规模使得自然语言处理和计算机视觉等深度学习关键应用领域取得了重要突破。越来越多的证据表明,规模可能是科学深度学习的关键因素,但物理先验在科学领域的重要性使得规模化的策略和收益变得不确定。近日,来自 MIT 的研究团队通过将模型和数据集大小改变多个数量级来研究大型化学模型中的神经尺度(neural-scaling)行为,研究具有超过 10 亿个参数的模型,并在多达 1000 万个数据点的数据集上进行预训练。研究考虑用于生成化学的大型语言模型和用于机器学习原子间势的图神经网络。研

深入学习生成式AI,吴恩达推荐了一门新课程

跟上步伐,别掉队,速来学习LLM。

5 个章节、25 条规范,全方位 Get 数据集选择与创建的「百科全书」

内容一览:如果你正在学习如何创建或选择一个合适的数据集,那么这篇文章会给你一些实用的建议,帮助你在选择和创建数据集时做出明智的决策。 关键词:机器学习 数据集

在模型中植入不可检测后门,「外包」AI更易中招

机器学习(ML)正在迎来一个新的时代。

终于,乔姆斯基出手了:追捧ChatGPT是浪费资源

​Colorless green ideas sleep furiously. 人类语言语法的基础不可能是基于统计意义的。

每月1万美元,OpenAI提供资助和导师,这些年轻学者在研究什么?

半年来,9 位「毕业生」完成了从转行、入门到精通的研究旅程。
  • 1