前言:想要写出一篇令人眼前一亮的文章吗?我们特意为您整理了5篇人工智能带来的思考范文,相信会为您的写作带来帮助,发现更多的写作思路和灵感。
人工智能,英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。
人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能是包括十分广泛的科学,它由不同的领域组成,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。
(来源:文章屋网 )
关键词:人工智能;异化;规范;生态文明观
中图分类号:TP18
文献标识码:A
一、人工智能技术的发展及其影响
人工智能技术研究开始于20世纪50年代中期,距今仅有60年的发展历程,但是其迅猛的发展速度,广泛的研究领域以及对人类产生的深远影响等令人惊叹。调查显示,77.45%的人认为现实生活中人工智能技术的影响较大,并且86.27%的人认为人工智能技术的发展对人类的影响利大于弊;认为人工智能技术对人类生活影响很小且弊大于利的人权占很小一部分。人工智能技术的发展和应用直接关系到人类社会生活,并且发挥着重要的作用。人工智能技术的发展方向和领域等由人类掌控着,所以人类应该尽可能地把人工智能技术的弊处降到最低以便更好地为人类造福。2016年3月份,围棋人工智能AlphaGo与韩国棋手李世h对弈,最终比分4∶1,人类惨败。4月份,中国科学技术大学正式了一款名为“佳佳”的机器人,据了解,机器人“佳佳”初步具备了人机对话理解、面部微表情、口型及躯体动作匹配、大范围动态环境自主定位导航和云服务等功能。而在这次正式亮相之前,“佳佳”就担纲主持了2016“首届全球华人机器人春晚”和“谁是棋王”半Q赛。人工智能技术确实给人类带来了诸多的便利,给人类生产生活带来便利;但是,人工智能技术的快速发展超乎人类的预测,引起了人类的恐慌和担忧。百度CEO李彦宏称,人工智能是“披着羊皮的狼”。毋庸置疑,科学技术是一把双刃剑,当人类醉心于科学技术所带来的福利中时,更应当注意其带来的负面作用。人类发明和创造科学技术最终是为了造福人类,而非受到科技的异化。
随着科技的发展,人工智能技术越来越成熟,在此整体趋势之下,不同的人群对人工智能技术的不断成熟与应用有着不同的看法。调查结果显示,在关于机器人会不会拥有人类的思维甚至超过人类的问题方面,27.45%的人认为机器人会拥有人类的思维和超过人类;而56.86%的人认为机器人不会拥有人类的思维和超过人类,小部分人对此不是很清楚。由于受到人工智能技术迅猛发展的冲击,如机器人保姆、AlphaGo围棋等智能产品对人类发展带来的威胁,一部分人仍然对人工智能技术的发展担忧甚至认为终有一天机器人将代替人类、征服人类、控制人类。但是,大部分的人在机器人是否能够超过人类方面,保持乐观积极的态度,认为机器人永远不会拥有人类的思维并且超越人类,因为人类是技术的主导者,人类掌握着技术的发展方向,技术终究是为了人类服务。这一看法肯定了人类的无止境的创新,然而,在人类醉心于技术创新的同时,应意识到某些创新确实超出了人类的预料,如AlphaGo与李世h围棋人机大战就是人类在技术面前失败的惨痛教训。因此,面对科技对人类的异化,人类要时刻保持警惕,适时地总结“技术异化”的缘由和解决对策。
二、人工智能技术发展面临的问题及其原因
随着技术的革新,人工智能技术的应用越来越广泛,与人们的日常生活联系也愈加密切。从智能手机的普及到自动驾驶汽车的研制成功,再到生产、建设、医疗等领域人工智能技术的应用,都表明了人工智能技术正悄无声息地改变着我们生活方式。诚然,人工智能技术使我们的生活更加丰富多彩,给我们带来了极大便利,但与此同时,人工智能技术也给社会带来了一系列不可忽视的问题:人工智能技术在社会生产领域的应用对劳动市场造成冲击;人工智能系统在收集、统计用户数据过程中个人隐私及信息安全方面的隐患;人类对人工智能产品的依赖引发的身心健康问题;人工智能引起的责任认定问题等。斯蒂芬・霍金在接受BBC采访时表示,“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就是人类的末日。”表示同样担忧的还有特斯拉的创始人马斯克,他曾直言,“借助人工智能,我们将召唤出恶魔。在所有的故事里出现的拿着五芒星和圣水的家伙都确信他能够控制住恶魔,但事实上根本不行。”不可否认,人工智能技术是把双刃剑,有利亦有弊,争议从来就没有停止过,而最不容忽视的莫过于人工智能技术引发的一系列伦理困境,关于人工智能的伦理问题成了重中之重。
调查发现,47.55%的人认为人工智能所引发的伦理问题是因为人性的思考,占比较大;而22.55%的人认为是由于人们价值观念的改变;29.9%的人认为是利益分化与失衡以及一些其他的原因导致的。由此可以看出导致人工智能伦理困境的原因是多方面的。主要总结为以下几个方面。
第一,从技术层面来看,人工智能技术在现阶段仍然有很大的局限性。人工智能是对人脑的模仿,但人脑和机器还是存在本质区别的,人脑胜于人工智能的地方,就是具有逻辑思维、概念的抽象、辩证思维和形象思维。人工智能虽能进行大量的模仿,但由于不具备形象思维和逻辑思维,仅能放大人的悟性活动中的演绎方法,不可能真正具有智能,这决定了机器不能进行学习、思维、创造。此外,智能机器人也不具备情感智能,它们根本无法去判断自己行为的对错,也无法自动停止自己的某项行为,所以如果人工智能技术一旦被不法分子利用,后果不堪设想。可见,由于人工智能自身技术上的局限性导致的伦理问题已经影响到其未来发展。
第二,从规制层面来看,伦理规制的缺失和监督管理制度的不完善是导致伦理问题产生的重要原因。科技的发展目标是为人类谋求幸福,但我们必须认识到,无论是在科技的应用还是发展过程中总是存在一些难以控制的因素,倘若没有相应的伦理原则和伦理规制加以约束,后果难以想象。在目前人工智能领域,缺乏一套成体系的关于人工智能技术产品的从设计、研究、验收到投入使用的监督管理方案,也没有一个国际公认的权威性的规范及引导人工智能技术的发展及运用的组织或机构。现有的监督体制远远滞后于人工智能技术的发展速度,无法匹配技术发展的需要。缺乏相关监管制度的约束,人工智能技术就不可避免会被滥用,从而危害社会。
第三,从社会层面来看,公众对人工智能技术的误解也是原因之一。人工智能作为一门发展迅猛的新兴学科,属于人类研究领域的前沿。公众对人工智能技术的了解十分有限,调查显示,对人工智能技术只是了解水平较低的人较多,占62.75%,以致部分人在对人工智能技术没有真实了解的情况下,在接触到人工智能技术的负面新闻后就夸大其词,人云亦云,最终导致群众的恐慌心理,从而使得更多不了解人工智能技术的人开始害怕甚至排斥人工智能技术。我们必须清楚,人工智能是人脑的产物,虽然机器在某些领域会战胜人,但它们不具备主观能动性和创造思维,也不具备面对未知环境的反应能力,综合能力上,人工智能是无法超越人脑智能的。在李世h对弈AlphaGo的旷世之战中,尽管人工智能赢了棋,但人类赢得了未来。
三、人工智能技术的发展转向
人工智能技术的发展已经深入到人类社会生活的方方面面,其最终发展目标是为人类服务。但是,科学技术是把双刃剑,它在造福人类的同时,不可避免地会给人类带来灾难,因此,人类应该趋利避害,使人工智能和科学技术最大化地为人类服务。这就要求人类必须从主客体两个角度出发,为人工智能技术的健康发展找出路。
1.技术层面
(1)加强各个国家人工智能的对话交流与合作。人工智能自20世纪50年代被提出以来,尤其是近六十年来发展迅速,取得了许多丰硕的成果。如Deep Blue在国际象棋中击败了Garry Kasparov; Watson 战胜了Jeopardy的常胜冠军;AlphaGo 打败了顶尖围棋棋手李世h。从表面上看,人工智能取得了很大的进步,但深究这些人工智能战胜人类的案例,我们发现这些成功都是有限的,这些机器人的智能范围狭窄。造成这一现象的很大一部分原因就在于国际间人工智能技术的对话交流与合作还不够积极,所以加强各个国家人工智能的对话和交流迫在眉睫,同时也势在必行。
(2)跨学科交流,摆脱单一学科的局限性。从事人工智能这项工作的人必须懂得计算机知识、心理学和哲学。历史的经验告诉我们,一项科学要想走得长远就必须有正确的意识形态领域的指导思想的介入。在人工智能这项技术中,有些科学家们可能只关注经济利益而没有引进相应的伦理评价体系,最终使得技术预测不到位,没有哲学的介入,等真正出现问题时就晚了。所以要加强科学家与哲学家的沟通交流,令科学家能更多地思考伦理问题,提高哲学素养,在人工智能技术中融入更多的哲学思想,保证人工智能技术能朝着正确、健康方向发展。
(3)人工智能技术的发展,要与生态文明观相结合。在人工智能技术发展中,要注入更多的生态思想,这关系人民福祉、关乎民族未来的长远大计。在人工智能发展中,若是产生资源过度消耗、环境破坏、生态污染等全球性的环境问题时,人类必须制止并进行调整。人工智能技术要想发展得更好,前景更加明亮,前途更为平坦,就必须保持与生态文明观一致,与人类自身利益一致,为人类造福。
2.人类自身层面
(1)增强科学家道德责任感。科学技术本身并没有善恶性,而研发的科学家或是使用者有善恶性。人工智能将向何处发展,往往与研发人工智能的科学家息息相关。科学家应打破“个体化原理”,要融入社会中去,关注社会道德伦理问题,承担起道德责任,为自己、他人、社会负责,多去思考自己研发的技术可能带来的后果,并尽可能去避免,多多进行思考,严格履行科学家的道德责任。
(2)提高公众文化素养。调查发现,对人工智能技术了解水平较低的人较多,占62.75%;而非常了解的人较少,占4.41%;另外,对人工智能技术了解的人占21.08%,不了解的人占11.76%。由此可以看出,大部分的人对人工智能技术都能有所了解,但都不是很深入,而且仍有部分人对人工智能技术丝毫不了解,所以,人工智能技术对于个体的影响是比较微小的,其发展还没有深入到个人的日常生活中。特别是在一些关于人工智能的科幻电影的渲染,可能使那些对于人工智能技术并不了解或是一知半解的人产生偏见。在日常生活中,人工智能给人类带来了极大的便利。通过提高公众的文化素养,使公众正确认识人工智能技术,将是缓解甚至是解决人工智能技术某些伦理问题的重要途径之一。
(3)加大监督力度。人类需要通过建立一个完善的监督系统引导人工智能技术的发展。对于每项新的人工智能技术产品从产生到使用的各个环节,都要做好监督工作,以此来减少人工智能技术的负面影响,缓解甚至减少人工智能技术的伦理问题。
3.道德法律用
(1)通过立法规范人工智能技术的发展。调查发现,90.69%的人认为有必要对人工智能技术所引发的科技伦理问题实行法治,由此可以看出,要想保证科技的良好健康发展,必须要建立健全相关法律条例。然而我国在这一方面的法律还存在很大的漏洞,相关法律条文滞后于人工智能的发展,并未颁布一套完整的关于人工智能的法律体系。没有规矩不成方圆,在人工智能领域亦是如此。我们都无法预测将来人工智能将发展到何种地步,这时就需要人类预先加以适当的限制,利用法律法规加以正确引导,使其朝安全、为人类造福的方向发展。
(2)构建人工智能技术伦理准则并确立最高发展原则。要构建以为人类造福为最终目的的伦理准则。人工智能技术的伦理问题已经给人类造成了很多负面影响,而要防止其带来更多负面影响,构建合适的人工智能技术伦理准则势在必行。
此外,要确立以人为本的最高发展原则 。一切科学技术的发展都应把人的发展作为出发点。人工智能的发展也是如此,要将以人为本、为人类服务为出发点,并作为最高发展原则。
四、结语
科学技术是把双刃剑,人类只有消除人工智能技术的潜在威胁,发挥人工智能技术最大化效用,避免伦理困境重演,才能实现人机交互的良性发展,实现人工智能与人类的良性互动。
参考文献:
[1]王文杰,叶世伟.人工智能原理与应用[M].北京:人民邮电出版社,2004.
[2]甘绍平.人权伦理学[M].北京:中国发展出版社,2009.
[3]杨怀中.现代科技伦理学概论:高科技伦理研究[M].武汉:湖北人民出版社,2004.
[4]王志良.人工情感[M].北京:机械工业出版社,2009.
[5]邹 蕾,张先锋.人工智能及其发展应用[J].信息网络安全,2012(2).
[6]王 毅.基于仿人机器人的人机交互与合作研究[D].北京:北京科技大学,2015.
[7]田金萍.人工智能发展综述[J].科技广场,2007(1).
[8]郝勇胜.对人工智能研究的哲学反思[D].太原:太原科技大学,2012.
[9]龚 园.关于人工智能的哲学思考[D].武汉:武汉科技大学,2010.
在某种程度上,支持者与反对者之间的区别就是时间期限。比如,未来学家、发明家雷蒙德・库兹韦尔就认为20年智能就能研发出真正接近人类智力水平的人工智能。而我认为这个过程起码现在,几乎不到一个月就有一款最新的人工智能产品问世,而我们在开发人类大脑的道路上已经停滞不前了人工智能的威胁格力・马库斯/ 文 李雨蒙/ 译需要20 年,尤其要考虑到创造常识(正常思维)的困难,发明人工智能的挑战,还有软件技术,都比库兹韦尔预测的要困难得多。
然而,从今往后的一个世纪里,没有人会在意人工智能的发展需要多久,只会关心将会出现哪些先进的人工智能。或许在这个世纪末,人工智能就会变得比人类更加智慧――不仅可以解决国际象棋、琐碎小事等等,基本可以处理所有的事物,无论从数学、工厂还是科学和医药。还剩下一小部分创造类工作留给人类,比如演员,作家或是其他创意类工作。最终的电脑系统可以完成自我编程,获取大量的最新信息。我们这些“碳基生物”的模糊印象,他们能够在分分钟就分析处理完成,也不需要长时间的睡眠或休息。
对于支持者来说,人工智能的未来充满希望。库兹韦尔就曾撰文发表自己一个大胆的设想,就是人类与智能机器结合,将人类的灵魂上传到人工智能中,使我们的灵魂永生;彼得・迪亚芒蒂斯则认为人工智能是开启“富裕时代”,拥有富足食物、水源、消费工具的重要因素。不过,反对者像埃里克・布林约尔松和我很担忧机器人职业化和人工智能带来的隐患,即使不去考虑高级人工智能对劳动力市场的影响,功能强大的智能机器也会威胁人类的生活,与人类争夺有限的资源。
大多数人把这种担心看作是科幻小说里的蠢话――像《终结者》和《黑客帝国》这类。在一定程度上,我们需要未来很长一段时间做好打算,我们要担心小行星会撞地球,化石燃料产量下降,全球变暖等问题,而不用担心机器人问题。可是,詹姆斯・巴雷特的黑暗系新书《我们的最终发明:人工智能和人类时代的终结》,描述了一种严峻的情况,我们至少应该有所思考。
如果机器最终取代了人类――正如在人工智能领域工作的人所坚信的那样,真正的问题在于价值观:我们如何把价值观输入机器中,当它们的价值观与我们的价值观发生了很大的冲突时,我们该如何和这些机器协商呢?牛津的哲学家尼克・博斯特罗认为:我们不能乐观地假设,超级智能一定会分享人类的智慧和智能发展形成的价值观――对科学的求知欲,对他人的关心和仁慈,精神启发和沉思,克制物质占有欲,高雅的文化品位,对感受简单生活的快乐,谦虚无私等等。或许通过专门的训练,能够创造出拥有这些价值观的超级智能,或是珍惜人类财富和高尚道德的超级智能,或是设计者想要它拥有一些复杂目标的智能。这是可能的――可能从技术上说更简单――打造一个能够把最终价值都放在计算圆周率小数上的超级智能。
英国控制论学者凯文・沃里克曾问道:“当机器不在我们人类所处的思维次元中思考时,你如何跟它理论,如何与它做交易,如何能明白它的想法?”
如果说巴雷特黑暗系理论有漏洞的话,那就是他未经思考就提出的假设:如果机器人聪明到可以下棋,那它可能也会“想要制造宇宙飞船”――在任何足够复杂,有目标驱动的系统中都是天生具有自我保护和获取资源的本能。现在大部分机器都非常先进,比如,IBM公司的深蓝系列电脑,但是目前它们还没有显示出想要获得资源的兴趣。
可是,在我们感到沾沾自喜,确定无需担心时,别忘了有一点非常重要:我们要意识到随着机器越来越聪明,它们的目标也是会变化的。一旦电脑能够有效地重新给自己编程,成功地提升自己的性能,达到所谓的“技术奇点”或“智能爆炸”,那么我们就不能忽视机器在与人类抢夺资源和自我保护的较量中会有胜过人类的风险。
在巴雷特书中,最鲜明的观点之一是来源于著名的系列人工智能企业家丹尼・希利斯,他把即将到来的转变比作生物进化史上最重大的转变之一:“我们现在达到的高度就像是一个单细胞有机体转变为多细胞有机体的高度。我们是变形虫,我们不清楚自己在创造的到底是个什么东西。”
伊藤:原本科幻小说的人工智能已经成为改变我们生活的现实,您何时感受到人工智能真的离我们很近的呢?
奥巴马:总体来看,人工智能已经从各个方面渗透进我们的生活,只是我们还没有太注意到,这部分是因为我们所认知的人工智能方式是被大众文化所粉饰过的。这就是区别所在。我们通常在科幻小说中所见到的都是普通的人工智能。现在的电脑已经超越人脑变得越来越聪明,最终人类将变得不再全部都有用处,甚至它们正在麻醉我们,让人类陷入肥胖和愉快或是黑客帝国的世界中。
值得思考的是,这确实扩展了我们的想象力,使人类开始思考选择和自由意志的问题,实际上也对发展专业人工智能,进行精确计算和解决日益复杂的工作起到了重要的作用。如今,我们生活中的各个方面都能够看到专业人工智能的身影,无论从医疗、交通到分布式发电,它都能确保创造更加高效的经济。如果利用得当,它将为世界创造巨大的经济繁荣和机遇。但同时接下来我们要谈谈人工智能不利的方面,比如加剧不平等、压低薪酬等等。
伊藤:我认为人工智能问题已经远远超出了一个普通电脑的科学问题。重要的是,每个人都需要了解人工智能的行为方式。在媒体实验里,我们常用到“扩展智能”这一术语,因为问题在于我们该如何对人工智能建立社会价值观?
奥巴马:我们用无人驾驶汽车举例。当机器可以进行多项快速决定时,就能够彻底地降低交通事故,彻底提高交通网络效率,有助于解决导致地球温室效应的二氧化碳排放问题。但是,人类将会在无人驾驶汽车上附加怎样的价值?接下来我们需要做出一系列的选择,比如老生常谈的问题:汽车自动驾驶,如果你急转弯避免撞到行人,你就会撞墙自杀。这是一个道德决定,而由谁来制定这个规则?
伊藤:在我们探讨人工智能的道德问题时,政府将扮演什么角色?
奥巴马:在我看来,在人工智能的早期发展阶段,监管框架应当百花齐放。政府要尽量少地进行干预,更多地投资于科研,确保基础研究和应用研究之间的转化。随着技术的开发和成熟,我们要考虑如何将其纳入现有监管框架中。这是个更难的问题,而政府需要更多参与。我们并不总是要让新技术去适应现存监管框架,而是确保监管符合更广泛的价值。否则我们可能会发现,某些人群将因此处于不利地位。
伊藤:人工智能发展出新型军备竞赛的过程中是否存在风险?
奥巴马:毫无疑问的是,我们需要围绕着网络安全建立国际准则、协议和检验,特别是对初期的人工智能领域。而其中较有趣的问题是攻防之间的界限还比较模糊。而政府之间互相的不信任更加剧了难度。
为什么我们与人工智能爱好者召开多次会议?其中一个原因之前我们并没有谈到过,就是我们真的需要彻底想清楚人工智能带来的经济意义。因为现在大多数人并不会花时间担忧那些稀罕物――他们只关心“机器会不会取代我的工作?”对此,我还是非常乐观的,历史证明,当人类吸收新科技时,总能发现创造出新型的工作,我们生活的总体标准也随之上升。高技术人员在这些领域表现出色,通过衡量自身才能,与机器互动,扩展知识范围、销售额度以及产品和服务。低收入、低技能的人群将变得越来越多余,他们的工作或许不会被取代,但是工资会被极大缩减。如果想成功转型过渡,我们必须对如何管理转型进行社会性的对话。
实际上,还没有直观感受到哪些工作将被替代。不过我愿意打赌,如果你有一台懂得医疗系统的电脑,你将非常擅于诊断病情,所以相对于医生,护士或药剂师不太可能被替换,因为他们的工作并不是很高薪。那些专业技术较强的工作,比如律师或审计员或许会消失。反而许多服务业、艺术和那些计算机难以适应的职业将很难被取代。
伊藤:如埃隆。马斯克、NickBostrom所说,人工智能的潜力已经超越了人类对它们的理解能力。当我们推动人工智能向前发展,我们该如何应对这样的担忧?
奥巴马:这不仅仅影响到我们自身,而是全人类的大事。首先,我认为更加直观的是,这在专业人工智能方面是可解决的问题,当然我们必须留心它的动向。如果我们拥有一台可以下围棋的电脑,这是蕴含千变万化的一种游戏。当人工智能开发出一套算法,很可能让你在纽交所实现利益最大化。如果一个人或组织首先获得这种算法,他们就可以迅速地打压股市,或至少引起金融市场诚信的混乱。
当出现一种算法,“围棋能够破译核密码并且算出如何发射导弹”,如果这是人工智能唯一的功能,如果它是自学并且真正高效的运算,就会给我们造成极大的麻烦。
伊藤:您是一个《星际迷航》迷。它是如何影响您对未来的想象的呢?
但即便象棋下不过、围棋下不过、力气也比不过,机器依然并不能取代人类。
人工智能会说“爱你”,但它不会真的爱你,它像一面镜子,照耀的是人类的善与恶,美与丑,爱与恨。杨澜说,一想到未来手机、空调都在搜集她的数据,这种裸奔的感觉让她不寒而栗。
杨澜又说,科幻片中的人机大战是天方夜谭。
不出意外,柯洁输了。
关于那个在第一局比赛结尾露出的笑容,柯洁的解释是:当然是苦笑了,因为我很早就知道我要输了。而搜狗总裁王小川点评比赛时则更加直接:我们的关注点不是机器能否赢,而是机器用什么姿势赢。所有人在这一回输赢问题上达成了共识。
资本与市场宣称,这已经是人工智能的时代了。
4月末,我们带着一个普通人对人工智能的疑问,与过去一年内探访了30多个人工智能研究机构及实验室的杨澜深谈。当时,她就预判道:AlphaGo还会赢。
果然,可以算得上波澜不惊,天才少年柯洁的完败远并不如去年李世石的失败那样让世人震惊。
杨澜说:她还记得,1997年,当IBM的电脑深蓝战胜了国际象棋冠军卡斯帕洛夫的时候,她曾经在一个节目中断言,这样的事情在围棋领域是绝对不可能发生的。
因为蕴含着古老东方智慧的围棋变化万千,它的布局走法可能性多达10的172次方,比宇宙中的原子数量还多。不止杨澜,围棋专家和人工智能领域的专家,当时也纷纷断言:机器要在围棋比赛中战胜人类,至少还要一百年。
但是只用了不到20年的时间,机器就做到了。数次人机大战,机器都无可辩驳地完胜了人类,甚至表现出了创造力和直觉这些人类最引以为傲的特质。当AlphaGo去年走出让人汗毛倒竖的那一步棋之后,当时比赛的解说员称,再管它叫电脑程序已经不合适了,你完全能感觉到人工智能的“智能”的存在。
什么是人工智能?它们和人类是什么关系?世界上最顶尖的人工智能实验室里都在发生什么?为什么很多名人都让人们警惕人工智能?人机共生,人类准备好了吗?
对人工智能做了深度探访的杨澜一一给出了回答。 杨澜在成为工业文明遗迹的伦敦旧码头上思绪万千
Q=《北京青年》周刊
A=杨澜
相较人工智能,人的可贵之处恰恰在于我们不完美
Q:你在去年春节前就启动了这个专题片的策划,那时AlphaGo还没赢李世石呢,为什么这么有先见之明?
A:是,我团队都在说“杨澜姐你太超前了”。我的确对人工智能特感兴趣,人工智能不只是一个新的技术,它会影响到人类的生产、生活,以及人和人之间的相处模式和这个社会的运行模式。我只是隐隐约约地觉得它的影响要深远得多,而且这一次的规模会来得很大。同时在我身边像李开复、张亚勤这些老友,在说到自己的一些研究和投资的方向的时候,也在不停地说到人工智能。让我觉得这件事情非常了得,却很少有人能说明白。
那我就觉得其实观众也会有同样的兴趣和同样的迷惑,以一个媒体人的嗅觉,我觉得应该去探索这件事儿。
Q:你们花了非常大的工夫,做了到目前为止最全面也最有深度探索人工智能的纪录片,我想知道这个过程中你有什么独特的发现和结论?
A:有很多有意思的发现。
人的智能有很多局限性,比如我们经常健忘,然后我们三分之一的生命是在睡眠中度过的,还会做各种各样奇怪的梦,从纯产出的角度,我们肯定不像人工智能一样可以24小时在那计算和下棋。还有,我们的头脑不是用来处理大数据的,我们不可能同时做50万人的人脸识别,我能认清楚我身边这两百个人已经很不错了。我们人类有这么多的局限,那我们的可贵之处在哪里呢?其实这个可贵之处恰恰在于我们不完美。
正如采访中麻省理工学院的一个教授对我说的,“会忘记是人的高级智慧的体现”,如果我们什么都记得住,我们一进了这个屋子,“啪啪”眼睛一拍照,把@个屋子哪有灰尘哪有小虫子等所有细节都记住,我们就不可能把自己有限的能力集中到我们需要去创造、需要去抓住核心的东西上。
所以人类不用妄自菲薄,不要以为一个机器在围棋上不可战胜了,它就在各个方面都超越了人的智慧,人的智慧是有它的独一无二之处的。
Q:走访世界各地做了这么多功课,有没有哪些场景让你受到震撼?
A:我觉得这种震撼既有你看到的东西,也有你可以想象的东西。
当我到了伦敦的旧码头,作为工业文明的遗迹,那边有很多遗留下来的旧的大库房,库房之间有很多铁的天桥。这个当年是多么宏伟,那种蒸汽腾腾,你都可以想象到伦敦的雾天的那样的场景,但是今天,静谧极了,已经成为一个纯粹的历史遗迹了。
于是你会想到工业革命当时在英国,把几百万的农民变成了工人,让他们进入了城市。其实每次大的技术革命和工业革命发生的时候,就会产生剧烈的社会矛盾,我觉得很震撼的就是:那接下来的这一次技术革命,又会带来怎样的社会冲击?
Q:李开复先生说,“人工智能将会给传统行业带来血腥的颠覆”,“十年之内,50%的工作会被AI取代”, 你怎么看?
A:我更愿意说成是未来十年,50%的工作都会受到冲击和影响。受冲击和被取代不是一个概念,至于是不是“50%的人都要失业”,我认为需要商榷。
但是有些行业肯定会受到比较大的影响。比如卡车司机这个职业,他们有可能在十年之内,真的失去他们的工作,那他们该去哪里?甚至如果将来都是无人驾驶的话,我们都不需要拥有私家车,就像今天的共享单车一样,将来汽车也是共享的,那会对现在的汽车制造业产生多大的影响?
还有,如果说蒸汽机替代了人的肌肉的话,那么这一次的人工智能会替代掉很多简单的白领工作,人的脑力工作也被取代了。比如说律师的助理,可能就是一个人工智能,它可以帮助你查到所有需要的案例和卷宗。比如医生的助理、读片师,人工智能已经可以掌握到一千万个关于肺癌的影像资料,就不需要一个老专家在那儿看半天,还有一定的失误率。还有记者,如果你只是做一个五个W的报道,那现在的人工智能已经在帮你做了。所以这一次的影响更深远,涉及到的人会更多。
Q:无人驾驶使卡车司机失去工作的场景,你觉得在十年之内真的会出现吗?
A:我认为在十年之内,无人驾驶是最容易实现的改变。你可以想象,在一些发达国家或是像中国一样的高速公路非常发达的国家,负责运输的司机可能真的不需要了。也许某些场合还需要有一个人把手放在方向盘上,随时准备着人机切换,但是从理论上讲,起码不需要现在这么多司机了。
我们不排除外星人进攻地球的可能性,但是不是现在就要马上建立一套防御系统呢?
Q:在片子中我们看到,科学界对人工智能的认知也不尽相同,甚至还有核心观点分歧,是这样吗?
A:对。我会发现,人工智能这个领域的科学家,往往都是抱有比较乐观的态度。他们认为人工智能不过是自动化的一个新阶段而已,最终还是可以被人类所控制的。
但是,周边学科的科学家和社会公众,似乎对于人工智能的忧虑更多一些。也可能是因为我们看了不少科幻小说和科幻电影,所以就总会假想,如果机器有了人类不可控的能力怎么办?
斯坦福大学有一位人工智能的专家卡普兰教授,他说,其实人对于未知的,但是又很有力量的东西,总是心怀恐惧的。卡普兰教授比喻,这就像一个人在爬树,然后你就会担心他要是爬到月亮上了该怎么办呢?
Q:你自己更倾向于那种观点?
A:我更倾向于:我们眼前有足够多的事情需要去做。与其去担心一个所谓的智能机器将来会统治我们,不如好好来考虑一下随着人工智能的发展,我们的交通规则是否需要改变,失业的人如何能够维持一家庭的生计,还有由于大数据的发展所带来的我们的隐私问题到底该怎么保护?我觉得眼前的这些事情,已经足够我们烦恼了。
就像我采访哥伦比亚大学诺贝尔奖的获得者、著名的脑科学专家埃里克,他是研究人的学习能力、人的神经系统的。他说“I worry more about Trump”,他说我更担心的是川普的问题,而不是未来的一个机器……这就像说,我们不能够排除外星人来到地球的可能性,但我们现在是不是要马上建立一个专门为了防御外星人入侵的防御系统呢?
Q:所以你是偏向于更乐观,也更务实的态度?
A:我不代表乐观,我觉得技术永远是一把双刃剑。
人类其实可以仰望星空,让自己的想象力无边地驰骋,但是人工智能将要带来的冲击已经在敲门了,我们还是应该首先来应对目前就已经要发生的改变。而且技术的革命和科技的发展,在人类的历史上,从来没有因为人主观的乐观或者悲观,就停止脚步。从来没有!
Q:科幻片中说的那种人机大战是天方夜谭吗?
A:我认为是天方夜谭!在科幻电影里,是机器人一伙,人类一伙,两方产生了不可避免的冲突。但在现实生活中更可能出现的情况是,一群人带着自己的机器,和另外一群人带着他们的机器,所产生的冲突。所以最终要协调的,还是人的利益冲突,而不是说机器突然有了整体的自我意识,决定要把人给颠覆了。这个我认为只是科幻的场景。
Q:那么你觉得机器人可以具有人的价值观和思维方式吗?
A:我认为它们可以因为被输入的游戏规则而展现出某种人类表达的特质。比如说它被输入了“在某种情况下就要说我爱你”,但这并不意味着它感受到了爱;或者说它可以下一千万盘棋,但它不会像一个人那样,真正地享受下棋的过程。
实际上,我们现在只能证明,人工智能在一些需要处理大数据的垂直的领域具有超快的学习能力,但并没有证据表明它们会形成自我意识。
Q:所以你如何看待柯洁5月份将与AlphaGo进行的终极人机大战?(本刊记者采访杨澜时比赛还未进行)
A:虽然从我的判断上来说,它还是会战胜柯洁的,但是从另外一个角度来说,明明知道面对AlphaGo胜率并不高,柯洁还是愿意接受这个挑战,我觉得这就是体现了人类的智慧。而且,即便它能够战胜世界上所有的围棋高手,So what?
中国现在应该开始为迎接人工智能的时代做制度安排
Q:你认为,人工智能最有可能从什么领域进入到常规的日常生活?
A:我想到的是三个方面,一是无人车,就是无人驾驶,它可能会改变我们的出行方式。
第二个,在中国的场景下,就是医疗。因为中国的医疗资源实在分布得太不均衡,医疗能力实际上是集中在一些大城市的顶级专家的手里。但是因为中国人口基数大,医疗数据库也非常庞大,所以如果能够借用人工智能,就可以给那些乡镇级、社区级的医生提供非常好的诊断服务。
第三个方面,如果你要问李开复先生,他可能会说金融了,但是实际上中国在高频交易这些方面还是有限制的。比如股票,如果它用高于人零点几秒的能力下单的话,它就不得了了,但是它也会扰乱整个市场的秩序。
但我觉得,在法律援助这个方面其实是可以考量的,其实现在律师的很大一部分工作是在搜索和查询相关案例和相关法律条例,以及其他类似案件的判决情况。如果有了人工智能的帮助,可能以后基础的法律咨询就不需要请那么昂贵的律师了。
Q:这次的采访涉及全球,你感觉人工智能领域,中美之间的差距大不大?
A:其实中美两国在人工智能领域都是属于第一方阵的,在技术发展的水平上,我觉得各有优势。
的确在原创核心技术的突破方面,还是美国的实验室能力相对要强。但中国是一个大数据的王国,而所谓的机器学习,实际上是大数据学习,这是我们的天然优势。美国在这方面的资源远不如中国。
Q:中国之前的发展受益于所谓的人口红利,在人工智能时代到来的时候,这会不会成为劣势呢?
A:我认为不能简单地说是优势还是劣势。因为中国巨大的人口规模,会使中在大数据采集和人工智能的应用层面,具有得天独厚的优势。
但另一方面,过去几十年我们依赖低的劳动力成本和出口所带来的制造业的繁荣,也必然要进入一个新的阶段。如果你不能提升品牌的价值和品质,那么劳动力这个优势,其实正在迅速失去。
那如果很多蓝领要失业了,那这些蓝领应该怎样安排?会给社会带来什么样的不安定因素?这都是应该去面对的。
Q:你会有这样的担心吗?
A:我觉得现在就应该做制度安排,这个事情其实是说来就会来的。你现在去东莞看看,很多流水线都是无人工厂了,工人被机器人取代就是眼下正在发生的事情。所以我觉得像特朗普还在跟美国失业的蓝领工人说“我们要把工作从中国人的手里夺回来的时候”,我心里一阵冷笑,其实拿回美国也只是给机器人做而已,因为这是一场巨大的技术革命,它已经不是从什么人手里夺回来一份工作而已。
所以我觉得像中国这样的制造业大国应该开始做一些制度的安排,来更好地应对随之而来的比如失业问题,再培训问题,和税收的问题。
人工智能必然会带来伦理问题,而且已经就在眼前了
Q:斯坦福大学的李飞飞教授多次提到人工智能带来的伦理问题,你是什么观点?
A:人工智能一定会产生伦理问题,而且涉及很多层面。比如微软做了一款人工智能情感机器人“小冰”,当时放在网络上进行测试的时候,就有很多人故意教它说脏话,教它说一些种族主义和充满暴力的话,那么这个人工智能就像我们说鹦鹉“嘴脏了”一样学会了。其实人工智能就像一面镜子,它照耀的是人类的善与恶,美与丑。
还有像自动驾驶,如果出现一个两难的局面,它究竟应该牺牲车上的一个人,还是牺牲路边的很多人,甚至包括孩子?你要把这个选择权交给一个机器吗?如果你交给了机器的话,那么谁又会出钱买一辆将要牺牲自己的车呢?这是一个极致的问题,却不能说它不存在。
还有隐私问题,它其实也是一个伦理和道德范畴的事情。比如商业机构在多大程度上可以使用我的消费行为数据?我在多大程度上愿意暴露我的私生活?在什么样的环境不允许装这个数据采集器?我觉得这些其实就在眼前了。
Q:这么多的伦理问题又应该怎么解决呢?
A:我觉得这是我们需要面对的问题,但不是无解的问题。就像当年从马车变成了汽车,才有了红绿灯和人行道。社会的治理方式和制度的安排,一直都是跟着技术的发展而不断调整和改变的。
Q:前面说到人口红利和大数据采集,但是这其实也面临一个信息安全的问题。事实上我们今天的消费行为甚至个人资讯已经是透明的。
A:这一点我就觉得挺恐怖的,将来绝不仅仅是某些明星和名人的隐私,而是我们每个人的隐私、我们的消费习惯是不是能够得到足够的保护?因为我不想将来我得到的每一个推送,其实都是人工智能很有心机、很有套路地推送的。你还以为是你自己的要求,其实是别人对你的行为的预测。
并且我觉得中国当下应该开始研究隐私方面的法律保护了,可以说中国是摄像头最多的国家,从人脸识别到人工智能的使用,能够让像G20峰会这样的大型会议在开办之前,可以非常高效地抓到在这个城市潜伏的嫌疑犯,因为他们哪怕是一个侧面(被捕捉)都可以被认出来。
技术进步在推动社会发展的同时,法规和制度建设上的配套一定要跟上。
在我有生之年,我的工作不可能被人工智能替代
Q:你目前的生活跟人工智能的关联度高吗?
A:我主要是用手机,我们家还没有用扫地机器人。包括我现在,到睡觉的时候我都希望把手机彻底关掉,或者把它放到另外一个房间去充电。但是一想到未来的手机也好,空调也好,都在搜集我的数据,我就感到不寒而栗,好像有一种裸奔的感觉。所以我觉得未来可能我会比较有意识地把我的工作环境和我的卧室分开,虽然可能分开了也没啥用……
Q:你觉得自己的生活需要跟机器人隔离开吗?
A:那不会。如果是在工作的场景下,我可能很需要一个人工智能的助理,来帮我安排一些琐碎和需要数据处理方面的事情。比如我做采访之前做功课,需要好几个研究员或编辑来做案头的工作,其实将来可以让语音搜索和图像搜索帮助完成很多工作,所以我觉得它还是会为我的工作和生活带来很大的便利的。
Q:你觉得你的工作会被人工智能替代吗?
A:不会,我认为在我的有生之年,我的工作不会被取代。因为我不仅仅是在做一个简单的播报的工作,背后还有很多综合性的思考。我觉得机器在短期内,没法取代我的工作。
关于人工智能的“权威碰撞”
许多年前有一本小说,书名是《海底两万里》。这部幻想作品中的人,发明了一艘使用核动力的潜水艇。如今这早已经成为寻常的现实了。
某种意义上,我们已经进入了前人所预言的时代。
硅谷流行这样一句话:预测未来的最好方式就是创造它。
人类创造了机器,机器又改变了人类。
2016年5月,一辆特斯拉汽车在美国佛罗里达州与一辆拖车相撞,驾驶员丧生。事故原因是处在自动驾驶模式的汽车没能在明亮的天空下发现拖车的白色车身。
特斯拉汽车“自动驾驶”是一项辅助功能,每一次自动驾驶启动时,车辆都会提醒驾驶员“请始终握住方向盘,准备随时接管”。
放开方向盘,意味着人类将一部分掌控权交给了机器。
这也带来了更多的法律和伦理问题:
例如谁来为交通事故负责?
当汽车成为智能的移动空间万一有黑客入侵,谁来保证乘客的安全呢?
机器也将面临人类的道德困境:
在f不得已的情况下,自动驾驶汽车到底该优先保护车内的乘客,还是路边的人群呢?
如果选择后者,谁又会愿意购买一辆会牺牲自己的汽车呢?
英国著名物理学家史蒂芬?霍金多次公开表示对人工智能的担忧,他认为:“对于人类来说,强大的人工智能的出现可能是最美妙的事,也可能是最糟糕的事,我们真的不知道结局会怎样。”
特斯拉汽车公司掌门人伊隆・马斯克甚至宣称:随着人工智能的发展,我们将召唤出恶魔。
马文・明斯基是人工智能的先驱之一,他有个著名的说法“如果我们走运的话,机器或许会把我们当宠物养着。”
但是,更多人工智能专家的观点是:
现在担心邪恶的智能机器人奴役人类,就像担心火星上人口过剩。――百度前首席科学家吴恩达
在整个人类历史上,其实只有两次大事件是从根本上改变了人类生存状态,一次是工业革命,一次是农业革命。这一次的智能革命是堪比这两次革命的重大事件,可能更为重要。而且,要快速的多。――牛津大学人类未来研究院院长尼克・博斯特罗姆
人工智能会改变人类社会。因为作为一个那么强大的科技,它不光是针对情感、或意图,它也是对智能本身,对有知觉的存在本身的一个挑战。这是一个很好的哲学社会话题。――斯坦福大学人工智能实验室主任李飞飞