人工智能是不可怕,但你也得会用啊! | 数盟社区

随着人工智能与机器人技术的发展,几乎所有的行业都开始采用人工智能来取代人类劳动力。

如同圈地运动和农业机械化把劳动力赶出土地的过程一样,眼下这场人工智能革命也正将数不清的人类劳动力从他们原有的“土地”上赶出去,包括仓库管理员、卡车司机、清洁工……这是正在发生的事情,可不是危言耸听。

为了让受影响的人们能够适应这种转变,比尔·盖茨开始认真思考“机器人应该和人类一样交税”的问题。

因为,接下来的五到十年,人工智能的发展将会超出每一个人的想象。

技术环境将发生剧变

而精明如马克·库班——这位“三逗号俱乐部”的大佬,甚至认为,即便是编程这种最不容易被牵连的职业,在人工智能面前也将脆弱不堪。

诚然,人工智能也是靠编程写出来的。可事实却是,如今最好的围棋下法、扑克打法、图像识别算法均出自机器自己的学习,人类反而不清楚如何具体来创造出其中的算法。

这就是说,有些编程工作,仅靠手工已经无法实现了,而那些懂人工智能的人,在此类事情上则有着极大的优势。

毫无疑问,基于效率和成本的考虑,剩下的那些可以用手工完成的工作很快也将被人工智能所取代。

底层技术发展令该趋势不可逆转

反反复复谈论60多年的人工智能,在硬件性能、海量数据与算法优化的共同催化下,这一次终于要变成现实了。而这一情境下的任何高谈阔论,都比不上实实在在地盘点人工智能底层的种种事实——更能让人心安。

1. 硬件性能的提升

2012年,一个研究生运行在 GTX 580 显卡上的深度神经网络 AlexNet,其图像识别效果却将计算机视觉专家以人工方式编写出来的软件狠狠甩在后面,同时大大超越了 Google Brain 团队运行着2000个企业级 CPU 的神经网络。

《自然》杂志后来指出,早期深度学习技术进步的原因,就是在于「出现了便于编程的高速图形处理单元 (GPU),让研究人员将训练神经网络的速度提高了 10 到 20 倍」,仅这一点就能把每项训练迭代时间从几周减少到几天。

毫无疑问,是硬件性能在支撑着深度学习效率的提升——12个英伟达 GPU 的深度学习能力就相当于2000个 CPU 的表现」,而这又让过去只存在于科幻中的技术(如 Google 的 AlphaGo、Tesla 的完全自动驾驶硬件)成为了现实。

这样的成果激励着人们去实现更多新的人工智能设想,而非回头去古老的大型机上做无用功。

2. 海量数据的训练

移动互联网造就了海量的数据。全球90%的数据都是过去两年内所生成的,而今,人类每天都要新制造23亿 GB 的数据。这样的数据资源造就了人工智能在机器学习上的长足进步。

以著名的计算机图像识别比赛 ImageNet 为例,它的免费图像数据库,拥有上千万张人工标记过的图片,这使得针对于图像识别的深度学习算法得以迅猛发展。

同样,苹果的 Siri 正是得益于 iPhone 的海量用户及其使用数据,其底层的语音识别、自然语言理解、执行与语音回应组件经过深度学习改造后,使用体验有了质的飞跃。

3. 算法优化出来的进展

深度学习的多层神经网络模型,早在1965年便已问世。直到最近,随着计算能力与训练神经网络所需的数据量的突破,它的潜力才真正被挖掘出来。

其中,用于图像识别的卷积神经网络(CNN, Convolutional Neural Networks),是受动物视觉皮层结构的启发而发明的。2015年,微软基于卷积神经网络的计算机视觉系统,在图像识别的准确率上首次超越人类水平。

而用于语音识别的循环神经网络(RNN, Recurrent Neural Networks),去年10月份则把错词率降至5.9%,达到人类专业速录员的水平。

而经过深度学习改造的 Google 翻译,错误率径直减少60%,已接近人类笔译的水平。

这样的技术事实告诉我们,在某一领域能够超越人类的人工智能正如雨后春笋般冒出。而 Google 正用它们来加强自身的每一项服务,苹果则用它们来改善 iPhone 上的每一处体验。

一个新的技术环境正在慢慢成形。至于我们自己的选择,符合逻辑的不外乎这样:A. 尽可能地把这些成果用到我们的工作中;B. 静待其变,看这些先行者如何用它们来做出成绩。

要说如何用它来做出成绩,2016 安卓与 iOS 平台的双料“年度最佳应用”——Prisma,绝对是很好的一个榜样。

用机器学习做出成绩来

作为战斗民族的90后,技术发烧友 Alexey Moiseenkov,去年初偶然读到一位德国机器学习专家的论文,并从后者的收费网站 DeepArt 上找到灵感,坚信“人工智能 + 图像处理”将大有可为。

于是,他立即组建起自己的团队。数月之内,Alexey 就宣布他们的技术可以把 DeepArt 的图像处理速度提高1000倍。

6月11日,他们的应用 Prisma 在苹果应用商店上线。两周时间,下载量超过160万次;三个月后,全球下载量突破7000万;到年底,Prisma 一举拿下谷歌和苹果双料“年度最佳应用”。

对于 Alexey 具体是怎样做到的,我们只能搜罗到一些蛛丝马迹。但是,不懂机器学习的话,他肯定做不出这么好用的 Prisma 来。接下来,我们就从这些蛛丝马迹中来简单了解一下“机器学习”的学习。

a. 掌握基本原理

相对直观的机器学习概念,可参考“图解机器学习”网站(http://www.r2d3.us/图解机器学习/)。

但掌握机器学习模型最基本的实现过程还是必须的:吴恩达教授在 Coursera 的机器学习 MOOC(https://www.coursera.org/learn/machine-learning)。

而后,掌握深度学习的入门基础:可以用台湾大学李宏毅教授的 Deep Learning Tutorial。

理解机器学习及深度学习相关的最基本概念和模型后,对于启发 Prisma 的论文——《艺术风格的神经算法(A Neural Algorithm of Artistic Style)》、《利用神经卷积网络进行纹理合成(Texture Synthesis Using Convolutional Neural Networks)》,多少就能 GET 到其中最基本的点了,进而可以起步去关注该领域正在发生的比较有趣或有用的事情。

b. 把学习深入下去

而要把学习深入下去,唯一的办法就是按部就班地学习其中的细节:

对于机器学习,可以用吴恩达教授的 CS229(http://cs229.stanford.edu/),即最为有名的《斯坦福大学公开课 :机器学习课程》。

对于深度学习,则有李飞飞教授的 CS231n(http://cs231n.stanford.edu/)。

这两门课可以学到机器学习的详细内容与深度学习的完整模型,而更深入的理解肯定离不开相关的经典论文及其具体的代码实现。

c. 构建可用的数学模型

线性代数是掌握模型计算的基石:《麻省理工公开课:线性代数》(http://open.163.com/special/opencourse/daishu.html)。

如果你像我一样把微积分、概率统计都丢了,那就乖乖再把它们拾起来吧(学习上没有讨价还价的余地)

《麻省理工学院公开课:微积分重点》(http://open.163.com/special/opencourse/weijifen.html)

「我们花了两个月的时间研究数学模型,而开发仅用了一个半月。」

Prisma 的创造者这样来解释自己的工作,但要具体到其中的细节:

如何从一幅名画中提取出它的艺术风格?

如何来识别用户上传的照片里的各种元素?

如何用名画的格调对这张照片进行渲染?

如何剔除那些不必要的神经网络,并在保证较好的画面效果的同时尽可能提升速度?

这一切都需要对论文中原有的算法模型进行大刀阔斧的修改。Alexey 正是把论文中的方法落实成自己的创意,才迅速火遍了全球。

把人工智能用起来

所以,学会机器学习固然重要,但拿它真的来做出点什么,才会显得真正迫切:

比如这个有趣的案例:基于 AlphaGo 的 DeepMind 代码,让你的电脑自己来玩《超级马里奥》游戏。(http://www.ehrenbrav.com/2016/08/teaching-your-computer-to-play-super-mario-bros-a-fork-of-the-google-deepmind-atari-machine-learning-project/)

还有这个感人的故事,则是用 TensorFlow 把离世好友的回忆做成聊天机器人。(http://www.theverge.com/a/luka-artificial-intelligence-memorial-roman-mazurenko-bot)

正如 Prisma 所做到的那样,只要我们能把这里的技术用起来,人工智能越强大,我们也会随之越强大。

注:转载文章均来自于公开网络,仅供学习使用,不会用于任何商业用途,如果侵犯到原作者的权益,请您与我们联系删除或者授权事宜,联系邮箱:contact@dataunion.org。转载数盟网站文章请注明原文章作者,否则产生的任何版权纠纷与数盟无关。
期待你一针见血的评论,Come on!

不用想啦,马上 "登录"  发表自已的想法.