一站式电子元器件采购平台

华强商城公众号

一站式电子元器件采购平台

元器件移动商城,随时随地采购

华强商城M站

元器件移动商城,随时随地采购

半导体行业观察第一站!

芯八哥公众号

半导体行业观察第一站!

专注电子产业链,坚持深度原创

华强微电子公众号

专注电子产业链,
坚持深度原创

电子元器件原材料采购信息平台

华强电子网公众号

电子元器件原材料采购
信息平台

AI 的力量会被大公司独占还是会被平均分配?

来源:电子发烧友 发布时间:2018-07-05

摘要: 上周,Facebook 宣布其打造了世界上最准确的目标识别系统,该系统使用了 35 亿张图像(全来自于 Instagram )。在 AI 界有这么一句老话:越大越好。要训练最快的算法,必须使用最大的数据集和性能最强的处理器。

       上周,Facebook 宣布其打造了世界上最准确的目标识别系统,该系统使用了 35 亿张图像(全来自于 Instagram )。在 AI 界有这么一句老话:越大越好。要训练最快的算法,必须使用最大的数据集和性能最强的处理器。

       这种传统观念帮助科技巨头吸引了不少人才和投资,但是斯坦福大学最近组织的一项 AI 竞赛表明这种观念并不一定正确。在人工智能领域,原来才智仍旧可以打败性能。

证据来自于 DAWNBench 挑战赛,去年 11 月斯坦福大学的研究员宣布正式启动这项比赛,上周他们宣布了比赛的获胜者。我们可以将 DAWNBench 看作是 AI 工程师的田径运动会,不过比赛项目不是跨栏和跳远,而是诸如目标识别和阅读理解这样的任务。

 来自于大学、政府部门和业内的团队和个人相互角逐,比赛项目为谁设计的算法最优秀,斯坦福大学的研究员作为裁判。每个参赛的算法都必须满足基本的准确性标准(例如:在给定数据集中识别出 93% 的狗),评判标准包括训练算法的时间和训练成本。

斯坦福大学研究员 Matei Zaharia 和 Cody Coleman 解释称,这些评判标准可以反映 AI 领域的实际需求。Zaharia 告诉科技媒体《 The Verge 》,“如果你的团队较小,通过衡量成本,你就可以知道是否需要用 Google 级别的基础设施来与别人竞争。通过测定训练速度,你就可以知道部署某一 AI 解决方案需要多长时间。也就是说,这些衡量标准可以帮助我们判断小团队是否能与科技巨头一较高下”。

比赛的结果并不能给出直接的答案,但是却告诉我们:要在 AI 领域取得成功,计算能力并不是唯一要义,巧妙的算法设计至少一样重要。虽然 Google 和 Intel 这样的大型科技公司在很多任务中成绩突出,但是小型团队(甚至个人)通过使用鲜为人知的独特方法也可以名列前茅。

拿 DAWNBench 的目标识别挑战赛来说,这项比赛要求参赛团队训练出可以识别图片数据集 CIFAR-10 中的目标的算法。CIFAR-10 是一个相对较旧的数据集,但是它反映了企业在现实中可能要处理的各种数据。CIFAR-10 包含 6 万张尺寸为 32×32 的小图像,每张图像都归类在一个类别下,例如“狗”、“青蛙”、“船”或“卡车”,共有 10 个类别。

“用基础的资源实现世界级的结果”

在 DAWNBench 的榜单中,排名前三的获胜者都是 Fast.AI 的研究员,他们的算法训练时间最短而且训练成本最低。Fast.AI 并不是大型研究实验室,而是一个创造学习资源的非盈利组织,致力于让所有人都能学习深度学习。Fast.AI. 联合创始人、企业家兼数据科学家 Jeremy Howard 表示,他的学生的成功靠的是创新思考,这表示任何人都能“用基础的资源实现世界级的结果”。  

Howard 解释称,为了设计出能解决 CIFAR 识别任务的算法,Fast.AI 团队选择了一种相对不知名的训练方法——超收敛(super convergence)。创建这种方法的不是资金雄厚的科技公司,而是美国海军研究实验室(Naval Research Laboratory)研究员 Leslie Smith。

超级收敛的基本原理是,缓慢增加用于训练算法的数据流。我们可以这么理解这种方法:如果你要教某人识别树木,你不会一开始就给他们一片森林。开始的时候你会教他们每一种树及其树叶的模样,慢慢地将信息灌输给他们。

这样解释有点过分简化,但是 Fast.AI 使用超级收敛法训练的算法在训练速度上比竞争对手的算法快很多。Fast.AI 团队可以在三分钟内训练出一个能对 CIFAR 数据集进行分类的算法,而且准确度满足比赛要求。排名第二的团队没有使用超级收敛法,他们的训练时间超过半小时。

不过,Fast.AI 没有一路赢得所有比赛。在另一项挑战赛中,参赛者需要利用目标识别算法对 ImageNet 数据集进行分类,结果 Google 大获全胜,包揽了训练时间最短的前三名和训练成本最低的第一名和第二名( Fsat.AI 获得了成本最低的第三名和训练时间最短的第四名)。

但是,Google 的算法都在自家定制的 AI 硬件上运行,芯片也是针对任务特别设计的,即张量处理器(TPU)。事实上,Google 在一些任务中使用的处理器是其自称的 TPU“pod”——串联运行的 64 枚 TPU 芯片。相比之下,Fast.AI 参赛团队使用的是普通电脑上用的英伟达 GPU,所有人都可以买到。

 Google 的张量处理器(TPU)是 Google 特别定制的芯片

 Google 的张量处理器(TPU)是 Google 特别定制的芯片

Howard 表示,“Google 自家的基础设备可以轻松地训练算法,但可能价值不大。但是只花 25 美元用同一机器在三小时内完成相同的训练任务,价值就很大”。

ImageNet 的结果特别明显,因为评判标准很模糊。Google 的硬件帮助它大获全胜,但是考虑到它是世界上最富有的科技公司,这个结果并不让人惊讶。虽然 Fast.Ai 的学生的确提出了一种创新的解决方案,但是 Google 的解决方案也很巧妙。

Google 的一个参赛团队使用了一种名为 “AutoML” 的算法,这一系列的算法可以在没有人类指导的情况下搜索可以处理某一给定任务的最佳算法。也就是说,AI 设计 AI。

理解这些结果的困难在于,并不是只要找出哪个团队的结果最好就可以了,这些团队有着社会和政治上的影响。例如,思考一下谁控制着人工智能的未来,是利用 AI 增强自身势力和财富的 Amazon、Facebook 和 Google 等科技巨头吗?AI 带来的好处是否能平均、民主地分配给所有人?

对 Howard 而言,这些问题很重要。他表示,“我不希望深度学习被掌握在一小撮精英手中。每当我与年轻的从业者和学生对话时,越大越好这个观念真的很让我烦恼。对 Google 这样的公司而言,这样的观念很好,因为这能帮助它们吸引到人才,人们都认为除非你在 Google 工作,否则你干不出什么的。但是这种观念是错误的”。

AI 的力量会被大公司独占还是会被平均分配?

很遗憾,我们都不是 AI 预言家。没人可以通过观察 DAWNBench 挑战赛的结果来预测 AI 的未来。如果说这项比赛的结果有什么启示,那就是告诉我们 AI 行业还在不断变化中。决定 AI 未来的是小巧灵妙的算法还是硬件的计算能力?没人知道答案,且希望得到一个简单的答案是不合理的。

DAWNBench 组织者 Zaharia 和Coleman 表示,他们很高兴看到这项比赛引起了如此巨大的回应。Coleman 称:“比赛结果有很大的多样性。看到机器学习领域发生的事后,我并不是很担心(某一家公司)会主导整个行业。在我们现在所处的这个阶段,我们仍然能看到新框架的不断涌现,以及大量想法的分享。”

这两位组织者指出,大部分 DAWNBench 挑战赛的参赛作品都是开源的,但是这不是比赛的一个评判标准,这意味着这些作品的代码都发布在网上,任何人都可以获取。不管谁是比赛的获胜者,每个人都能从中受益。


声明:本文观点仅代表作者本人,不代表华强商城的观点和立场。如有侵权或者其他问题,请联系本站修改或删除。

社群二维码

关注“华强商城“微信公众号

调查问卷

请问您是:

您希望看到什么内容: