模型
一次通过率73%,开源代码大模型WizardCoder超越最新GPT-4以外所有闭/开源模型
这几天,代码大模型领域又热闹了起来!
Transformer速查宝典:模型、架构、训练方法的论文都在这里了
论文大合集,一篇文章就搞定。
ChatGPT写的论文有多少发表了?搜完谷歌学术以后我慌了
连「作为一个大模型……」这样的 AI 语都忘了删就提交,结果还过审发表了。
GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会
大语言模型(Large Language Models)的发展势头愈发猛烈,各大公司国际角逐的背后,也需要一同应对公平、安全以及隐私等方面的问题。
分析过688篇大模型论文,这篇论文综述了LLM的当前挑战和应用
LLM 面临哪些挑战又有哪些应用?系统性的综述论文来了。
Llama 2 的入门与实战,机器之心邀请了 4 位技术大牛手把手教你
机器之能报道编辑:Sia「Llama 2 大模型算法与应用实践」-机器之心 AI 技术论坛将于 8 月 26 日在北京举办。如果要问「2023 年最火的动物是什么?」AI 圈外的人可能会回答「熊猫」,并给你列出一长串熊猫的名字。而 AI 圈内的人八成会回答「羊驼」。而且,他们也能给你列出一长串「羊驼」的名字:llama、vicuna、alpaca…… 得益于 Meta Llama 模型的开源,AI 社区的研究者对生物学羊驼属的英文单词已经如数家珍,每个单词都对应着一个(或一组)基于 Llama 的微调模型。这些模
iPhone、Mac上都能跑,刷屏的Llama 2究竟性能如何?
昨天凌晨,相信很多人都被 Meta 发布的 Llama 2 刷了屏。OpenAI 研究科学家 Andrej Karpathy 在推特上表示,「对于人工智能和 LLM 来说,这确实是重要的一天。这是目前能够把权重提供给所有人使用的最为强大的 LLM。」
一个开源方案,极速预训练650亿参数LLaMA
Colossal-AI开箱即用,更加高效。
思考一下,联邦学习可以训练大语言模型吗?
满足在垂直领域中的应用需求,能用联邦学习训练LLM吗?
将上下文长度扩展到 256k,无限上下文版本的OpenLLaMA来了?
大语言模型处理上下文 token 的能力,是越来越长了。
上交大&上海AI lab研发胸部X-ray疾病诊断基础模型,成果入选Nature子刊
上海交通大学与上海人工智能实验室联合团队聚焦医学人工智能,提出了首个基于医学领域知识增强的 Chest X-ray 的基础模型。
单细胞生物学基础大型语言模型scGPT更新版来了,在超3300万个细胞上进行预训练
编辑 | 紫罗就在前不久,多伦多大学研究团队发布首个单细胞生物学基础大型语言模型:scGPT,其在超 1000 万个细胞上进行预训练。现在,该研究团队首次尝试对超过 3300 万个细胞进行生成预训练来更新 scGPT。论文的通讯作者、多伦多大学助理教授 Bo Wang 在推特激动发文:「令人兴奋的 scGPT 更新:自 4 月份发布以来,受到社区的极大关注,我们很高兴地宣布单细胞多组学数据的基础模型 scGPT 的首次重大更新。」更新后的研究以「scGPT: Towards Building a Foundatio
第一个超越ChatGPT的开源模型来了?网友并不买账
开源模型真的超过 ChatGPT了吗?
坚持做行业大模型,竹间智能给大模型造了一座「模型工厂」
企业被放在了开往大模型时代列车的驾驶座上。
DeepSpeed ZeRO++:降低4倍网络通信,显著提高大模型及类ChatGPT模型训练效率
。ZeRO++ 相比 ZeRO 将总通信量减少了 4 倍,而不会影响模型质量。
超越所有开源模型,击败 Claude、Bard,专门用于编程任务的大模型来了
开源 LLM 的性能越来越好了。
大模型进入「落地战」,腾讯云下手「行业」大模型
将行业需求转化为大模型课题。
百川智能发布开源中英文大模型,多个榜单评测成绩最佳
王小川创立的百川智能发布中英文大模型,采用开源模式,可免费商用。报道 | 机器之能2023年6月15日,被称为「中国ChatGPT梦之队」的百川智能公司,推出了70 亿参数量的中英文预训练大模型——baichuan-7B。baichuan-7B不仅在C-Eval、AGIEval和Gaokao中文权威评测榜单上,以显著优势全面超过了ChatGLM-6B等其他大模型,并且在MMLU英文权威评测榜单上,大幅领先LLaMA-7B。目前baichuan-7B大模型已在Hugging Face、Github以及Model Sc