专业职业经理人门户网站,打造中国经理人互动平台

您当前的位置:首页 > 行业资讯> 财经频道 > 正文

人工智能革命将带来史上最大下岗潮

关键词:
74

如果说有什么公司可以成为机器人变革美国制造业的广告明星的话,这个公司一定是波音。据路透社,与 1990年 代相比,现在波音飞机的产出率提高了 20%多,但所需人工却减少了 1/3。就在过去这一年,波音又用 60 吨重的机器人替代了数百名工人。波音说这些机器人的速度是人类的两倍,缺陷率却只有后者的 1/3。自动化对该公司劳动力的影响是巨大的。1998年 该公司 1年 生产了 762 架飞机,每架飞机大概需要 217 人制造。2015年,该公司生产了 762 架飞机,每架飞机所用人数大约是 109 人。白宫最近的一份经济报告得出结论说,从机器人获得的劳动生产率提升在量级上与 19 世纪蒸汽机带来的生产力提升类似,这个一点儿也不奇怪。几乎没有经济学家会质疑智能机器很快就会在从快餐服务到卡车司机的各种工作中取代人类。2000年 到 2015年 间制造业几乎消失了 500 万份工作。这些工作部分是转移到了海外,但许多都是被自动化吃掉了。但是机器人入侵的经济后果并不像看起来那样简单。这一点 1970年 代在硅谷长大的我就能看到。我一位朋友的父亲在 Fremont 附近的一家老通用工厂工作。他在装配线工作,靠着一门焊接的手艺养活了全家。在 1970年 代末的巅峰时期,这家工厂雇用了 6800 人。不幸的是,他们造出来的车很差劲。在 1970、1980年 代,通用汽车以糟糕的可靠性著称。“在通用汽车 Fremont 工厂那里你可以买到任何东西,” 密歇根大学教授 Jeffrey Liker 在 2010年 美国生活的一个剧集当中说:“如果你想要性,想要毒品,想喝酒,想赌博—去那家工厂就行,那儿什么都有。”不久前我参观了那家通用老厂。想象一下,只要把一架商店购买的无人机绑上一步带摄像头的手机,再加上一把半自动武器,在效果上就相当于创造了一架自制的远程控制的刺杀无人机。当然,简单的自动武器并不是什么新东西:比如地雷。这是愚蠢的自动武器的体现,因为无论是敌人还是 3 岁小孩踩到它都会爆炸。


1990年 代,在美国活动家 Jody Williams 的帮助下发起的一场反地雷的国际运动终于让 162 个国家签署了一项禁止使用、开发或者囤积地雷的条约。为此 Williams 还获得了诺贝尔和平奖。现在,她是一项名为制止杀人机器人运动的名誉领袖。在 20 位诺贝尔奖得主的帮助下,她希望能在全自动武器成为现实前禁止这种杀人武器。“我发现杀人机器人的想法比核武器还要可怕,” 去年她在日内瓦告诉 NBC:“如果有人认为把决定人生死的权利交给机器也可以的话,那人性何在?” 联合国自 2014年 以来就一直在考虑制定国际指南的可能性。美国这边,五角大楼要求 “在使用武力时要有适当程度的人类判断。” 但什么才是 “适当” 的呢?实际上,目前正在制造的一些武器系统当中已经有全自动的了。美国很快就会部署远程导弹,这种导弹的自治系统能够自行搜寻目标。韩国已经研发出一种自动枪塔,这种枪塔能够在黑暗中感知到一英里以外的人类目标并向其射击。在去年的那次机器人比赛上,我跟 Georgia Tech 的教授 Ronald Arkin 进行了交谈,他就机器人伦理这个话题写了很多东西。“我不是终结者式武器的拥护者,” Arkin 告诉我:“但我认为这的确是一个复杂的议题。” 他的观点是更智能的武器可以减少人员伤亡。“因为机器没有情感,它们不大可能在危险情况下恐慌,” 他说:“或者因为哲学家所谓的 ‘战争迷雾’ 而作出坏的判断。” 比如说,去年10月,在美军一架 AC-130 武装直升机错误地朝阿富汗昆都士的一家医院开火导致至少 42 人丧生之后,美军上将 John F. Campbell 称这是一起 “本可避免因人为失误造成的悲剧。” 自动无人机会犯同样的错误吗?

“现在,我们是遥控着无人机去杀死那些真正可怕的人,” 计算机科学家兼作者 Jaron Lanier 说:“但我们正在设立能够自己走自己寻找目标的系统。” 当然,问题在于那些可怕的人弄到了无人机并反过来狩猎我们该怎么办?会发生什么?“是的,历史教导我们这种事情会发生,” 他说:“出现这种情况时,我们的态度不应该是诅咒 ‘那些邪恶的机器’,而应该指责那些工程师不负责任,不够聪明,考虑不够宏观。我们要讨论的不应该是 AI 的邪恶,而是工程师的责任,他们应该开发出一套可靠的不会反戈一击的系统。这才是正确的讨论姿势。”一些研究人员认为,我们应该能够把略显粗糙的伦理守则编程进机器里面,但这会需要某种程度的复杂性,复杂到我们只能靠猜测。不管怎样,越来越多自动武器的出现也许是不可避免的。跟需要大规模投资、只有国家才能支撑的核武器不一样的是,这种新技术是由商业开发推动的。“我敢保证,Google 和 Amazon 对无人机的监控能力很快就要比军方还要强,” Cummings 说:“他们拥有大得多的数据库,好得多的人脸识别技术,强得多的无人机制造和控制能力。这些对你的了解比 CIA 还要多得多。如果政府要指望企业来提供最新的国防技术这世界会变成什么样?”但是 Cummings 认为真正杀手机器人的到来还很遥远。在实验室设想自动机器人和武器要比在现实世界部署容易些。这一点我在机器人大赛结束后就认识到了。我漫步回到车库那里,这是参赛团队经常去的地方。这地方给人的感觉就像是 NASCAR 的车库,堆放着工具箱的架子,各种高科技的装备以及喝着啤酒的队员。不同的是这里放着的是机器人而不是车子。第一名被一个叫做 DRC-Hubo 的小机器人夺得,设计者是来自韩国的团队,这被人开玩笑说五角大楼这是要武装我们正好是中国邻居的盟友。至于机器人本身,它们的表演时间已经结束了。它们安静地挂在吊具上,跟一辆停泊着的车并无二致。即便是威猛的 Chimp,原本亮丽的红色喷漆也因为那次摔跤而被磨失了光泽,看起来有点软弱无力。而卡内基梅隆团队的程序员和工程师有的放下了手中的工具,有的盯住屏幕。这是绿野仙踪时刻,幕后的惊鸿一瞥会让你看到,像 Chimp 这样出色的机器其实是人类辛勤汗水和心灵手巧的结晶,没有这群人数年设计制造的努力,就不会有机器人的存在。同样地,Google 无人车或者刺杀基地组织领导的 CIA 无人机也是一样的道理。跟烤面包机相比,它们是智能机器。但它们是人类想象和人类工程的产物。如果说未来我们设计的机器会挑战我们,伤害我们,破坏我们热爱的东西,甚至要根除我们的话,那也是我们让它们干的。最终,智能机器崛起的可怕并不在于它们有朝一日会有自己的思想,而在于它们拥有我们(存在缺陷和复杂性的)人类为它们设计和制造的思想。


“欢迎光临机器人幼儿园,” Pieter Abbeel 一边说着,一边打开 Robot Learning Lab 的大门。位于加州大学伯克利分校北边一栋崭新建筑 7 楼的这座实验室实际上挺乱的:自行车就往墙边靠着,杂乱无章的小隔间里面呆着十几个研究生,白板上写着一般人看不懂的公式。38 岁的 Abbeel 是个身形瘦长的家伙,他下身穿一条牛仔裤,上面是一件宽松的 T 恤。2000年,他从比利时来到美国,在斯坦福攻读计算机博士。现在,在理解教会机器人智能思考所面临的挑战方面,他是全世界最重要的专家之一。但是首先,他得教会它们 “思考”。“这就是为什么我们把这儿叫做幼儿园,” 他开玩笑道。他把我介绍给 Brett ,这个 6 英尺高的人形机器人是曾经著名现已破产的硅谷机器人制造商 Willow Garage 的产品。几年前实验室把 Brett 弄了过来用作实验。Brett 的意思是 “用来干完沉闷任务的伯克利机器人(Berkeley robot for the elimination of tedious tasks)”,这个外表友善的创造物头扁扁的,用摄像头充当的眼睛隔得远远的,身材矮矮胖胖,跟人一样它也有手有脚,握爪就是它的手,轮子就是它的脚。现在 Brett 已经下班,站在实验室中央,它身旁是另一个还没上电的神秘安详的机器人。附近的地板上有一箱玩具,里面有木锤、塑料玩具飞机、还有一堆乐高积木,这是 Abbeel 和他的学生对 Brett 的教学道具。不过 Brett 只是实验室众多机器人当中的一员而已。在另一个隔间,一张椅子背面的吊带上悬着一个 18 英寸高的机器人。


在地下室下面还有一个工业机器人,它每天都要在一个相当于机器人沙盒的东西里面玩几个小时,为的只是想看看它能教自己什么东西。街对面的另一间实验室里,一个手术机器人正在学习如何缝合人的肉体,与此同时,一位研究生正在教无人机如何聪明地躲开物体。“我们不希望无人机撞到东西从天上掉下来,” Abbeel 说:“所以我们正在教它们学会看东西。”一直以来,可编程工业机器人执行的都是特定任务:移动机械臂到左边 6 英尺,抓起模块,然后转到右边,把模块插进 PC 印刷电路版。然后每小时重复这个动作 300 次。这些机械动作的机器在聪明程度上跟除草机无异。不过最近几年,机器学习(能够粗略模仿人类大脑并且让机器自学东西的算法)的突破让机器识别语音和视觉模式的能力得到了显著提升。Abbeel 的目标是培养机器人具备一般智力—一种理解世界的办法,从而让机器人可以自主学习完成任务。他还有很长一段路要走。“机器人甚至还没有 2 岁小孩的学习能力,” 他说。比方说 Brett 已经学会了做一些简单任务,像打绳结或叠衣服。但是一些人类很容易就能完成的事情,如认出桌上揉成一团的织物实际上是毛巾,对于机器人来说却特别困难,这部分是因为机器人缺乏常识,之前没有过叠毛巾的经验记忆,最重要的是,没有毛巾的概念。它看到的只是一团颜色。为了规避这一问题,在一盒儿童心理学磁带的启发下,Abbeel 创造了一种通过不断调整方法来完成任务的自学法。现在,当 Brett 整理衣物时,它也在做类似的事情:它会用抓手拿起毛巾,试着感觉一下它的形状,试试看怎么去折叠它。看起来很原始是吧,的确是。但你再想想:机器人这可是在学叠毛巾啊。这一切科学怪人式的东西看起来有点令人毛骨悚然。智能机器能够执行的任务的复杂性正在以指数的速度增长。这最终会带我们去向何方?如果机器人自己能学会叠毛巾,是不是有朝一日也能做饭、做手术甚至发动战争?人工智能也许能够很好地帮助解决人类面临的最复杂问题,如治疗癌症,治理气候变化等,但在近期内它可能也会插手监视、侵犯隐私,不知疲倦地进行电话营销。


除此以外,还有一个更大的问题正在显现:有朝一日机器会不会替自己着想?会不会对问题进行理性分析?甚至表现出情感?没人知道答案。智能机器的崛起跟任何其他技术革命都不一样,因为它最终危及的是人性的问题—我们有可能创造即将创造出一种新的生命形式,这种生命形式不仅是进化的突破,也可能会威胁到我们作为物种的生存。人形机器人 Brett 可以自学造东西和对物体分类。无论结局怎样,革命已经开始。去年夏天,伯克利的团队把一套短期记忆系统植入了一个仿真机器人里面。参与该项目的计算机科学家 Sergey Levine 说他们注意到了 “一件奇怪的事情”。为了测试机器人的记忆程序,他们向机器人发出一项指令,要求它把一颗钉放到一左一右两个洞的其中之一。出于控制的考虑,他们再度在移除记忆程序的情况下又试验了一次—令他们感到惊讶的是,机器人仍然知道把钉放进正确的洞口。在没有存储的情况下它是如何记得钉子应该放到哪里的呢?“最终我们意识到,只要机器人接收了指令,它就会旋转机械臂到正确的洞口。” 然后,在命令消失之后,它会看自己的身体扭向什么位置才确定钉子应该放在哪个洞里面。也就是说,机器人自己实际上已经找到了正确执行命令的办法。“这非常令人吃惊,” Levine 说:“也让人不安。”Abbeel 带我去到他的办公室,这是一间没有窗户的小隔间。在办公室里,他跟我谈到了 DeepMind(2014年 被 Google 以约 4 亿美元收购的 AI 初创企业)最近取得的一项突破。几年前,因为教会计算机玩太空入侵者之类的雅达利视频游戏并且玩得比人类还溜,DeepMind 已经震惊了大家一把。不过更令人震惊的是,DeepMind 是在没有在程序中告诉计算机游戏规则的情况下做到的。。这不像深蓝在国际象棋比赛中击败人类那样,游戏规则是在程序里面写好的。


计算机只知道一点:目标是拿高分。计算机采用的是强化学习法来做到这一点,这就好比训练狗,不管它用什么办法,只要它做到了你就表扬一声 “好狗” 一样,计算机就可以通过这种机制来探索游戏,在反馈中自己学会规则。在几个小时之内,计算机就掌握了超人的技巧。这是 AI 的一项重大突破—计算机第一次自己 “学会” 了一项复杂技能。Abbeel 的实验室的研究人员对这项突破感到着迷,他们决定用自己写的类似强化学习算法来做实验,试图帮助机器人学习游泳、学习单脚跳以及走路。或者玩视频游戏怎样?令他们惊讶的是,这个所谓的 TRPO(Trust Region Policy Optimization,信任区域策略优化)算法实现的结果几乎跟 DeepMind 的算法一样好。换句话说,TRPO 展现出了用一般方法学习的能力。“我们发现 TRPO 不仅可以教机器人走路,” Abbeel 说:“还可以在视频游戏中击败人类。”Abbeel 调出了一个有关一个机器人模拟器的视频。视频开头可以看到一个机器人摔倒在黑白相间的地板上。“记住,这个算法跟学视频游戏的是一样的,” 他说。机器人被布置了 3 个目标:有多远走多远,不要踩到自己的脚,以及躯干要高于一定高度。“它不知道走路是什么意思,” Abbeel 说:“也不知道自己有手有脚。它只知道自己的目标。然后想办法实现目标。”Abbeel 按下一个按钮,模拟开始工作。机器人笨重地摔到地上,不知道自己在干什么。“原则上,它应该能确定自己要走还是跳,” Abbeel 说。但是算法是通过实时 “了解” 到只要把自己的腿抬起来,它就能推动自己向前走来确定的。这让机器人可以分析自己上一次的表现,解码出哪一种动作的表现更好,然后在未来相应改变行为。很快机器人就开始蹒跚而行,东倒西歪像喝醉酒一样。它会突然往前扑倒,爬起来,走了几步,然后又倒了。但是慢慢地它的表现开始提高,学会了跌跌撞撞地朝着目标跑过去了。你几乎能感觉到它的信心在增加,抬腿的速度快得就像一名跑锋(running back)一样。机器人不知道自己在跑,因为程序没有进行设置。但现在它已经在跑了。它自己学会了复杂的平衡和肢体控制这些物理学的知识。这已经不仅仅是令人吃惊了,简直就是魔术。就好像是在短短 40 秒的时间内目睹一条鱼变成了人一样。“机器人移动和开始走路的方式让它看起来就像是活的一样,” 我说。Abbeel 笑了:“差不多吧。”尽管书本和电影里面有人工智能的各种渲染,但这个东西可不是悬浮在某处蓝色液体箱的一个合成大脑。人工智能是算法—一个数学方程式,它告诉计算机执行什么功能(通俗点你可以把它理解为机器的食谱;更深入的话题可参见寻找生命的基础算法)。21 世纪的算法就像是 19 世纪的煤矿:是我们的经济引擎,是现代生活的燃料。


没有算法,你的电话无法工作,也不会有 Facebook、Google、Amazon。算法规划航班然后引导飞机飞行,算法帮医生诊断疾病。“如果每个算法突然停止工作,我们所熟知的世界就要终结,” 机器学习的流行读物《主算法》的作者 Pedro Domingos(参见有没有主宰世界的主算法)写道。在 AI 的世界里,圣杯就是发现能够让机器理解世界的那个算法,这就好比是能够让物理学家解释宇宙运作机制的标准模型,只不过前者是数字世界的。在 DeepMind 伦敦办公室的Google 的智能设计师Demis Hassabis ,他还一位是神经科学家、计算机游戏设计师以及世界级的游戏玩家。数学算法已经有几千年的历史,是现代计算的基础。输入数据,计算机处理,然后算法吐出结果。但是现在科学家已经开发出能够逆转这个过程的算法,也就是让计算机写自己的算法。比方说你想让直升机倒着飞:你会写个算法告诉计算机有关直升机控制方面(输入数据)的信息,然后你告诉它你想让直升机怎么飞,飞行角度如何(结果),Bingo!计算机就会倒腾出自己的算法,然后告诉直升机怎么做。这个过程就叫机器学习,它是 AI 想法的核心:如果机器能够教自己让直升机倒着飞的话,那它也应该会自学其他事情,比如如何在 Tinder 上找到爱人,或者在你对着 iPhone 说话时认出你的声音,或者将来设计出一个创造终结者的天网出来。DeepMind 联合创始人 Demis Hassabis 已经说了:“人工智能是让机器变聪明的科学。”当然,实际上我们已经被智能机器包围了。你在用 Google Maps 的时候,算法给你画了一条最快捷的路线,并且根据实时数据计算出交通延误并对交通状况作出预测性分析。当你对着 Google Voice 说话时,它能认出你的声音是基于神经网络这种机器学习算法,它让计算机把你的话变成声音片段,然后跟别的片段进行比较,再理解你的问题。Facebook 通过图像识别程序扫描数十亿图片,将斩首视频、JB 图片等有害内容拒之门外。智能机器正在加速,可它要去向何方呢?地球的生命从诞生到实现更高智能花了 30 亿年的时间。相比之下,计算机大概只用 60年 就从一大块硅片变成了能够开车穿越美国或者在人群中认出一张脸的机器。每过去一周,就会有新的突破被宣布出来:今年1月,DeepMind 披露自己已经开发出一种算法,这种算法击败了欧洲的围棋冠军(该算法叫做 AlphaGo,从 3月9号开始,它将与韩国的顶尖围棋选手李世石进行一场 5 番棋大战)。


当然,它的快速演进还在人类的掌控当中,但你很难不去想我们是不是已经到达智能机器演进的某个拐点了。我们是不是即将目睹一个新物种的诞生?机器还要多久就会变得比人还要聪明呢?Elon Musk警告人类要注意 AI 的危险Google 的未来学家 Ray Kurzweil 提出了后来风行的 “奇点” 论,奇点说的是硅基机器变得比碳基机器(人类)更聪明的时刻,到那个时候,进化的天平将会向前者倾斜。“未来我们会对云展开大量思考,” 他在几年前的一场技术会议上如此说道。他甚至还预测了奇点到来的确切时间:2045年。在最近一场会议上的即席发言时,Tesla 和 SpaceX 的创始人 Elon Musk 把 AI 的发展称为是 “对恶魔的召唤”。尽管随后他告诉我说自己的说法有点过头,但他又说:“智能机器的崛起向我们提出了一个严重的问题,即我们需要考虑,作为人类我们是谁?我们希望建设一个怎样的未来?” 正如他指出那样,我们现在已经严重依赖机器了:“我们已经是赛博格(cyborg)了。不信你把手机关了看看—你就会知道幻肢综合症是什么样子的。”这并不是说超智机器要变得超级邪恶才会构成威胁。“AI 的真正风险不在于它的恶意,而在于它的能力,” 物理学家霍金最近指出:“超智 AI 极其擅长实现自己的目标,如果它的目标跟我们的不一致的话,我们就有麻烦了。你可能并不是邪恶的蚂蚁仇恨者,不会出于恶意踩死蚂蚁,但如果由你来负责一个水电绿色能源项目,然后需要淹没一个蚁窝所在的区域时,对于蚂蚁来说情况就太糟糕了。我们不要让人类落到那些蚂蚁的境地。”尽管有了更智能的算法、有了能力更强的机器人,但超智机器的未来仍然更像是科幻而不是科学。Facebook AI Research 的负责人 Yann LeCun 说,现在 “AI 的智能水平还远不如一只老鼠。” 是的,IBM 经年累月的编程和白花花的银子砸出了Watson,2011年 这台机器在智力竞赛中击败了最聪明的人类选手,现在,它是该公司 “认知计算” 行动的基础。一秒钟它可以阅读完 8 亿页的信息,消化掉维基百科的一整个语料库,更不用说几十年的法律和医学杂志。但是它不能教你如何骑自行车,因为它的智能是狭隘的—它对世界如何运作一无所知。


西雅图 Allen Institute for Artificial Intelligence 的 Aristo 是最复杂的 AI 程序之一,但是对于 “人呼吸空气” 这样的句子却是一头雾水。因为要想理解这个句子,你需要一些常识—但机器没有常识。哪怕常识可以通过语言定义,程序也不知道呼吸空气是否就是人活下来之所需;也不知道人是一分钟呼吸一次还是一辈子只用呼吸一次。一些给人留下深刻印象的功能,如能让用户用不同语言实时对话的 Skype Translator(目前还是预览版),也还有很长的路要走。在跟意大利的一个人对话时,我对天气的评论被翻译成了对圣经的解释。“Jeopardy!” 智力竞赛冠军 Ken Jennings 和 Brad Rutter 无助地看着 IBM 超级计算机 Watson 攻城拔寨当然,这并不是说智能机器的崛起只是一个虚幻,也不是说天网不会在我们难以想象的数据点集合中突然出现。自动武器,比如可以自行根据人脸识别技术等数据执行任务的无人机杀手(参见无人机百年史话)就是真正的威胁。但它们不是不会对人类这个物种的生存造成威胁。朝鲜黑客突然之间创造出一种让金三有能力对世界发动终结者式攻击的新算法的可能性也很低。在这种语境下,AI 不像 iPhone,写出一个新 app 你的活就干完了。这更像是自己来造互联网—这只能慢慢完成,要通过日积月累的点滴进展。百度首席科学家吴恩达最近告诉我说:“担心杀手机器人就像是在担心火星出现人口过剩一样—我们还有很多时间去解决麻烦。”实际上,对杀手机器人夸大其词的问题在于它掩盖了我们所面临的智能机器崛起的真正风险—工人因为被机器人替代而失业,战争中使用自动武器的增加,还有这个简单的事实,我们越是依赖机器,有东西出问题时我们的风险就越高。我们生活在这样一个世界的问题在于人际关系的疏远—我们跟机器的对话比跟人聊得更多(可以看看电影《her》),在于艺术变成了一种和谐的算法输出(参见机器学习艺术,Facebook 的深度学习系统可造出以假乱真的图像)。AI 时代还会对隐私造成影响深远的挑战,不仅仅有智能无人机在天上监视你,企业也会跟踪你的一举一动好卖东西给你。正如伦理道德研究院的 CTO Marcelo Rinesi 总结那样:“未来不是机器人一只脚永远踩在人脸上(注:原句出自奥威尔的《1984》:如果你要设想一幅未来的图景,就想象一只脚踩在一张人脸上好了——永远如此)。而是一个你看到的一切东西里面都有一个小小的电话推销员的世界,一个知道有关你的一切,永远不会停止卖东西给你的世界。”这还掩盖了与机器深层次结盟所带来的好处。大多数的研究人员,像 DeepMind 的 Demis Hassabis 就认为,如果我们赋予机器智能的话,它们就能够帮助我们解决疾病和医疗保健这样的大问题,也能帮助科学家攻克气候变化和物理学方面的大难题。微软的 Eric Horvitz 对 AI 的展望甚至更加宏伟:“对于人类来说,一个大的问题是我们的经验是不是可以计算的?如果是的话,对我们思维方式的更好理解,能不能告诉我们一些有关我们作为地球生命是什么样的新发现?有了这些自我认知之后,我们又能够做些什么呢?”


AlphaGo战胜李世石引发对人工智能的热议。对此李开复表示,“AlphaGo第一场就战胜了李世石,但是它不会感觉高兴。”虽然这些机器很“聪明”、高效、勤奋、低廉,但是仍只是冷冰冰的机器和工具。从工具的角度而言,这些机器只会为人类创造价值,担心其奴役人类大可不必,但是要盯好拥有机器学习+大数据的公司,别来作恶伤害用户。李开复预言,这些强大的机器将带来人类有史以来最大的“下岗潮”。以下为李开复分享全文实录昨天AlphaGo第一盘棋战胜了李世石,激起了各种“机器超越人类,科幻小说将成真”的讨论。特别有趣的是有人揣测AlphaGo下面会不会故意输下几盘棋,以免人类起疑心,阻挡了它统治人类的野心。其实,虽然机器在逻辑分析推算方面,能力会远超人类,但是依然是属于人类操控的工具。AlphaGo这类的“人工智能”机器真正可能带来的危机,不是奴役人类,而是让人类丧失斗志,无所事事。有些人描述AlphaGo是“和人一样的方式思考,但是比人快无数倍”。这么说并不精确。AlphaGo确实比人快无数倍,但是AlphaGo的思考只能说是“被人的大脑启发”,而非和人类思考一样。AlphaGo是一个能自我学习的深度学习,经过专家的调节,它能在任何在可以纯凭逻辑分析推算的问题上,把人类远远低抛在后面。机器速度会越来越快,学习能力会越来越强,数据会越来越多。基于深度学习的人工智能将带来什么改变呢?我们将看到无数的商机和产品,能够解决问题、拯救keyword/keyword生命keyword/keyword、产生巨大的商业和用户价值。未来,自动交易能得到更高的投资回报和风险比例,自动诊断+基因排序会达到个性化精准医疗,推荐引擎将能推荐你最可能会买的产品、想吃的菜,想认识的人。在拥有大数据+大计算+专家调节的领域,就不必再跟人类相比了,因为人类根本差的太远了(就像没有人能打败搜索引擎一样)。


这些技术可能辅助专家,也可能取代专家。非专家的工作者很多将会面临失业。未来十年,大部分今天的人类工作可被机器取代。机器将取代许多的护士、记者、会计、教师、股理财师。。。的工作。任何带有“助理”、“代理”或“经纪”等字样的职位都很可能被取代。这些机器不需要工资,只需要供电和网,就会一年365天,一天24小时“上班”。这些机器将帮助我们创造世界上的大部分财富。虽然这些机器确实很“聪明”,而且又高效、勤奋、低廉,但是他们并不“人性化”,只是冷冰冰的机器和工具。比如说,AlphaGo第一场就战胜了李世石,但是它不会感觉高兴,也不会理解我们对于它的讨论。甚至,它说不上这局棋是怎么赢的。因为,它的思考虽然周密,但是它不懂“赢了有什么感受?”,也不懂“为什么围棋好玩”,更不懂“人为什么要下棋?”,甚至连“你今天怎么赢的?”都说不上。今天的机器完全无法理解人的情感、喜怒哀乐、七情六欲、信任尊重、价值观等方面。对于人文艺术、美和爱、幽默感,机器更是丝毫不懂。有位AI研究员做了一套研究幽默感的系统,然后输入了一篇文章,这个系统看了每句话,都说“哈哈”!今天的机器连个两岁小孩都不如。对人工智能的研究者,这应该是一大未来的挑战。未来机器统治人类的预测还很遥远所以,今天这些机器仅仅是我们的工具,会为创造价值。至少今天,我们不必担心人工智奴役我们(不过要盯好拥有机器学习+大数据的公司,别来作恶伤害用户)。那我们该担心什么呢?这些强大的机器,将带来人类能否度过有史以来最大的“下岗潮”。


这次的“机器取代人类”将远超过去的工业革命和信息革命。不过,“下岗”还不是最可怕的,因为这些机器会产生巨大的商业价值,养活着这些下岗者,进而养活着人类。人类最应该担心的是:一旦当机器供养着人类,人类达到了马斯洛需求的基本需求,人类真的还会有动力去追求更宏伟的目标,自我实现吗?还是会醉生梦死、无所事事地或者?未来机器养活无所事事的人:真实的危机面对这个担心,我们应该:?关注启发式教育,用互动式教育启发孩子对学习的兴趣和效率。AlphaGo愿意跟人类学习,我们当然也要善用最善于分析,最博学的机器。善于学习,乐于学习的孩子,是不会醉生梦死的。?正视发育右脑的学科领域,平衡文理。塞翁失马,焉知非福?机器超越人类的左脑(工程逻辑思维),也许就是要人类从过去几十年重视理工,倾斜回来,花更多的精力在机器不擅长的右脑,例如:文学诗歌、艺术音乐、电影话剧、文创设计、工匠之美、宗教哲学、沟通情商。这不是说就不要学理工了,而是说应该让适合理工,爱好理工的人学理工,适合人文,爱好人文的人学人文。我们应该平等看待文理,并且鼓励发展文理双全的人才。?鼓励有上进心的年轻人挑战自己,孜孜以求,成为专才。不要把时间浪费在“安稳”但是重复性的工作上,而要以“成为某个特殊又有用领域的最顶尖人才”为目标,为己任。附张泉灵连线李开复实录:张泉灵:AlphaGo与李世石的比赛现在有新的进展了,有可能人工智能会把原来围棋高手超过2000多年的定式又会有一个推翻和颠覆。我们继续连线李开复先生。李开复:根据大家的分析李世石好像有在尝试一些新的打法,其实这个是非常不明智的。因为机器的搜索非常完整,不要说棋谱没有出现过的,你去试试就会让他误入歧途。所以一个比较好的打法还是按照你的经典标准的,过去专家的打法来,会比铤而走险更明智一些。



猜您感兴趣:‍‍‍‍‍‍‍‍职业经理人网   ‍‍‍‍资本运营‍‍‍‍  金融频道‍‍  财经频道  企业管理‍‍‍‍‍‍‍‍‍


  文章来源地址: http://www.jingliren.org/hyzx/cjpd/5652.html


职业经理人网(http://www.jingliren.org/)提供人力资源、领导力、企业战略、职场、企业领袖、提升专题、工商管理等栏目信息以及最新的行业资讯。致力于打造专业职业经理人资讯网站,为您提供通往专业职业经理人的成功之路。

热点资讯