文章列表

人工智能快速出图!盘点 4 款人气超高的 AI 绘画神器

大家好,我是和你们聊设计的花生~

10秒出图,以假乱真!设计师「用嘴修图」的愿望要成真了?

大家好,我是和你们聊设计的花生~ 之前给大家推荐了 AI 图画生成器 Disco Difussion,它可以根据文本提示自动生成恢弘奇幻的艺术,非常适合作为艺术创作的灵感来源。那如果现在有一款新的 AI 图像工具,它可以根据你给出的「文本提示」,自动合成犹如照片般的真实场景,或者可以根据你给出的文字提示自动修改照片中的某个部分,而且毫无 PS 痕迹,你会怎么看呢?有关注阿文(微博 @Simon_阿文)的小伙伴可能已经知道,已经有人工智能可以实现上述功能了,而且生成速度极快,图片质量非常高。今天我要和大家介绍的,就是

无需训练,自动扩展的视觉Transformer来了

来自德克萨斯大学奥斯汀分校、悉尼科技大学和谷歌的研究者提出了一个无需训练就能自动扩展框架 As-ViT,其能以高效和有原则的方式自动发现和扩展 ViT。

关键点检测项目代码开源了!

作者:闫永强,算法工程师,Datawhale成员 本文通过自建手势数据集,利用YOLOv5s检测,然后通过开源数据集训练squeezenet进行手部关键点预测,最后通过指间的夹角算法来判断具体的手势,并显示出来。文章第四部分为用C 实现整体的ncnn推理(代码较长,可先马后看)一、YOLOV5训练手部检测训练及部署思路类似表情识别,需要将handpose数据集标签改成一类,只检测手部,简化流程,更易上手。此部分数据集来源格物钛  ,具体的效果如图:本教程所用训练环境:系统环境:Ubuntu16.04cuda版本:

阿里开源 支持10万亿模型的自研分布式训练框架EPL(Easy Parallel Library)

最近阿里云机器学习PAI平台和达摩院智能计算实验室一起发布“低碳版”巨模型M6-10T,模型参数已经从万亿跃迁到10万亿,规模远超业界此前发布的万亿级模型,成为当前全球最大的AI预训练模型。

站在2022前展望大模型的未来,周志华、唐杰、杨红霞这些大咖怎么看?

岁末年初之际,让我们回顾大模型的过去,展望大模型的未来。

图神经网络准确预测无机化合物性质,加速固态电池的设计

编辑/绿萝大规模从头计算与结构预测的进步相结合,在无机功能材料的发现中发挥了重要作用。目前,在无机材料的广阔化学空间中,只发现了一小部分。实验和计算研究人员都需要加速探索未知的化学空间。来自美国国家可再生能源实验室(NREL)、科罗拉多矿业学院和伊利诺伊大学的研究人员展示了一种可以准确预测无机化合物性质的机器学习方法。展示了基态(GS)和更高能量结构的平衡训练数据集,对使用通用图神经网络(GNN)架构准确预测总能量的重要性。该研究可加速固态电池的设计。该研究以「Predicting energy and stabi

增大模型依然有用,DeepMind用2800亿参数的Gopher,测试语言系统极限

DeepMind 连发三篇论文,全面阐述大规模语言模型依然在进展之中,能力也在继续增强。近年来,国内外各大 AI 巨头的大规模语言模型(large language model,LLM)一波接着一波,如 OpenAI 的 GPT-3、智源研究院的悟道 2.0 等。大模型已然成为社区势不可挡的发展趋势。然而,当前语言模型存在着一些问题,比如逻辑推理较弱。那么,我们是否可以仅通过添加更多数据和算力的情况下改进这些问题呢?或者,我们已经达到了语言模型相关技术范式的极限?今日,DeepMind「一口气」发表了三篇论文,目的

归一化提高预训练、缓解梯度不匹配,Facebook的模型超越GPT-3

来自 Facebook AI 的研究者提出了 NormFormer,该模型能够更快地达到目标预训练的困惑度,更好地实现预训练困惑度和下游任务性能。

5300亿参数的「威震天-图灵」,微软、英伟达合力造出超大语 言模型

在微软和英伟达的共同努力下, Turing NLG 17B 和 Megatron-LM 模型的继承者诞生了:5300 亿参数,天生强大,它的名字叫做「Megatron-Turing」。

微软官方出品!18 条应该记住的AI人机交互指南

AI 时代,交互设计师应该了解的 AI 人机交互指南。此篇文章搬运自微软的 AI 设计团队,内附原文链接和资源链接,一共 18 条指南,希望可以启发到你~ 原文链接: AI 人机交互指南 AI 系统可能会表现出不可预测的行为,这些行为可能具有破坏性、混淆性、冒犯性甚至危险性。由于这些原因,AI 系统经常违反传统的人机交互设计原则。当传统应用程序或产品的行为不一致时,将被判断为存在设计缺陷或错误。然而,不一致性和不确定性是 AI 系统天生就有的,因为它们具有概率性质,并随着时间的推移,它们会随着新数据的学习而发生变

如何提高人工智能交互体验?先来了解这个三元理论

摘要:毫无疑问,人工智能产品会慢慢渗入人们的工作、生活、娱乐当中,为各行各业带来革命性的变化。未来,产品与产品之间、产品与环境之间、产品与用户之间的边界会非常模糊,人们会在多设备中无缝跳转和紧密连接,形成一个“你中有我,我中有你”的整体。在人工智能时代里,「原生硬件」,「AI 引擎」和「智能 App」是构成完整智能体验和服务闭环的三要素。图 1 人工智能三元理论 关键词:人工智能,人机交互,交互体验,原生硬件,AI 引擎 引言 从 1956 年在达特茅斯正式提出 Artificial Intelligence,如今

神经网络debug太难了,这里有六个实用技巧

神经网络的 debug 过程着实不容易,这里是一些有所帮助的 tips。

每月1万美元,OpenAI提供资助和导师,这些年轻学者在研究什么?

半年来,9 位「毕业生」完成了从转行、入门到精通的研究旅程。

专访唐杰 | 我国首个超大智能模型「悟道」发布,迎接基于模型的AI云时代

唐杰认为,超大规模预训练模型的出现,很可能改变信息产业格局,继基于数据的互联网时代、基于算力的云计算时代之后,接下来可能将进入基于模型的 AI 时代。智源研究院致力于成为这样一个时代的引领者,集聚各方资源力量,构建一个超大规模智能模型技术生态和开放平台,供北京乃至全国的研究人员、开发者和企业使用。

27亿参数的「野生版」GPT-3开源,GitHub项目2.9K Star量

OpenAI 著名的语言模型 GPT-3 可以懂数学、翻译文字,还能写论文拿到及格成绩,这样的 AI 什么时候才能开源呢?现在已有了一个差不多的项目。

百分点认知智能实验室:基于不完全标注样本集的信息抽取实践

编者按信息抽取是从文本数据中抽取特定信息的一种技术,命名实体识别(Named Entity Recognition, NER)是信息抽取的基础任务之一,其目标是抽取文本中具有基本语义的实体单元,在知识图谱构建、信息抽取、信息检索、机器翻译、智能问答等系统中都有广泛应用。基于监督学习的NER系统通常需要大规模的细粒度、高精度标注数据集,一旦数据标注质量下降,模型的表现也会急剧下降。利用不完全标注的数据进行NER系统的建立,越来越受到专家学者们的关注。第九届国际自然语言处理与中文计算会议(NLPCC 2020)针对此业

除了缺少点创意,GPT-3写出了及格的大学毕业论文,只需20分钟

GPT-3 写的论文及格了吗?教育资源网站 EduRef 对此进行了一项测试,效果还行,及格水平。