你所在的位置: 首页 > 正文

硅谷可怕的AI算力就是这么来的

2019-08-20 点击:1605
?

周日,人工智能的先驱Facebook人工智能研究的首席科学家Jan Lecun宣布了他们最新的图像识别模型和整个计算机视觉领域的开源。“Instagram上的图像标签预训练,微调ImageNet上的ResNext101模型。

该模型再次刷新了ImageNet数据集图像分类竞赛的准确性,为计算机视觉技术(如图像分类和目标检测)设立了新的基准。计算机视觉基本任务,如目标检测,图像分割等,可以用这种新模型取代其骨干网络,并且凭借其强大的特征提取功能,有望取得更好的效果。换句话说,整个计算机视觉行业都有机会受益。

如果你对这个领域有所了解,然后专注于上面引用中的描述,你可能会不由自主地说:“有钱[敏感词]好!”。

%5C

ImageNet由李飞飞教授于2009年出版,共有超过20,000件物品,总计1400多万张图像,为整个人工智能领域奠定了基础。从那时起,许多新的模型和计算机视觉任务的新想法都已在ImageNet数据集上进行了预先训练,并对相应的目标任务进行了微调,以达到最佳效果。

为了处理35亿张图片,他们拿出了42台服务器,使用了336张显卡,并培训了22天。

有很多“钱让鬼推”的风格。

数据和计算能力,加上两个强大的人工智能几乎成了一个巨大的游戏,这是一个奇迹。

事实上,从一开始,游戏规则就是这样。

近年来,人工智能革命主要基于人工神经网络模型。

事实上,在20世纪70年代,人工神经网络模型的理论框架基本上已经成熟,但在接下来的几十年中尚未得到认可和应用,直到最近它才能再次看到天空。

上面提到的Yann Lecun,因为它一直坚持神经网络并被学术界拒绝,一直不稳定,直到现在才被重新认可,并被授予诺贝尔计算机奖的图灵奖领域。

其根本原因是计算能力的限制。上个世纪的计算机能力与您手中的新手机相当。舆论吸收大量数据并训练神经网络模型。

在35亿张图片的暴力训练下,效果显着,因此我们在开始时提到的新模型是开源的。

从那时起,手动标签不再是计算机视觉领域的最大瓶颈。弱的监管标签和巨人的强大力量可以比在ImageNet上训练的“小数据”模型获得更好的性能。

在计算机视觉领域,在另一个主要的AI自然语言处理领域,权力也是王者。

与新的Facebook视觉模型的弱监督培训不同,在自然语言处理领域,进一步的自我监控培训已成为主流。

去年Google的开源BERT模型涵盖了训练期间输入句子的随机单词,然后让模型根据上下文预测所涵盖单词的含义。通过这种方式,模型可以学习自然语言的隐含意义。语法也可以掌握单词含义的含义。

更重要的是,这种方法不需要任何手动标记。它可以被描述为“多么大胆,一个人有多大。”在数字时代,无数的自然语言资源可以训练电子书,网站,论坛帖子等。数据来源。句子使用自己的信息作为主管来训练模型,因此称为自我监督学习。

在数据无限的前提下,计算能力变得越来越重要。

日期归档
新皇冠国际娱乐 版权所有© www.16west40th.com 技术支持:新皇冠国际娱乐 | 网站地图