首页 > 文章中心 > 人工智能时代的看法

人工智能时代的看法

前言:想要写出一篇令人眼前一亮的文章吗?我们特意为您整理了5篇人工智能时代的看法范文,相信会为您的写作带来帮助,发现更多的写作思路和灵感。

人工智能时代的看法

人工智能时代的看法范文第1篇

看上去,人工智能(AI)在与人类的进化较量中占了上风。

4月下旬,著名物理学家史蒂芬?霍金在北京举办的全球移动互联网大会上做了视频演讲,“生物大脑可以达到的和计算机可以达到的,没有本质区别。计算机在理论上可以模仿人类智能,然后超越”,“人工智能可能是人类文明的终结者”。

5月下旬,目前围棋世界排名第一的中国职业九段柯洁将与人工智能程序AlphaGo(阿尔法狗)进行终极对弈,尽管柯洁早已放出豪言,“我会抱必胜心态、必死信念。我一定要击败阿尔法狗”,但是此前德州扑克人机大赛中,人工智能完胜已经让部分看客有些心灰意冷,一旦柯洁失败,或许会再次加深这一悲观情绪。

当然,“文明终结”的忧虑还为时尚早,无论是世界上最强的象棋、围棋还是黑白棋程序,尚属“弱人工智能”。

在人工智能拥有自主意识的“强人工智能”时代到来之前,企业家、投资者以及创业者们可能更担心另一些现实的问题,比如,怎么把人工智能商业化。这是过去数十年人工智能一直温而不火的重要原因。

真正的爆发

无论是科学家的危言耸听式担忧,还是商业巨头们疯狂的攻城略地,总之,“人工智能”已然成了这两年最火的科技热词。

创新工场创始人李开复对《财经国家周刊》记者说,“我们每个礼拜都会收到5家巨大的企业的请求,基金公司、汽车公司、管理公司、国企、甚至政府,都希望能够利用人工智能帮他们解决问题。”

人工智能的概念第一次被提出硎窃61年前,尽管之后持续有些热度,但它在最初50多年里几乎没有得到爆发性的关注。

“人工智能”关注度爆发的导火索,或许是去年3月韩国著名围棋棋手李世石以1:4输给AlphaGo。

它让不少人错误估计了人工智能的爆发节点。就好比在1997年,名为深蓝的IBM计算机也曾经击败世界象棋冠军,但人工智能并没有从此进入人类日常生活。

李开复也曾错误地预判人工智能的技术趋势,从而导致创业失败――2000万美元的投入、100个员工,几乎全军覆没。

李开复反思道,“创新固然重要,但不是最重要的,最重要的是做有用的创新”,而判断它能否成为科技主流的重要标志,就是能否商业化。

Deep Mind创始人、AlphaGo之父杰米斯?哈萨比斯也表示,“我们发明AlphaGo,并不是为了赢得围棋比赛,我们是想为测试我们自己的人工智能算法搭建一个有效的平台,我们的最终目的是把这些算法应用到真实的世界中,为社会所服务。”

那么,人工智能商业化的时候真的到了吗,会不会又是一阵虚火?

4月25日,在JIC投资沙龙上,阿里云战略资深总监李树解释,“AI的基础是三个理论,第一是算法,第二是必须得有计算的支撑,第三是必须有数据作为序列或者教化算法的基础”,这三方面都在走向成熟。

2016年,百度董事长兼CEO李彦宏曾在2016贵阳大数据博览会上表达过类似观点,“越来越多的数据每天产生,我们可以利用这些数据做一些过去只有人能够做的事情,同时,计算能力越来越强大,计算的成本越来越低廉”。

出门问问创始人兼CEO李志飞则以“虚拟个人助理”为例,称“四年前跟现在相比,我们都不知道能用在哪里,手机也没有习惯”,而今天,“家庭、车等场景我们都能看得清楚,产业、用户的需求变得比以前更加成熟了。”

在这种情况下,毫无疑问,4月10日德扑人机大战最终以人工智能“冷扑大师”完胜,成了真正引爆AI商业化的导火索。

这是因为,围棋是一种“完全信息博弈”,比赛双方所有信息都呈现在棋盘上;而扑克和电脑游戏这些由多人对战的游戏是“不完全信息博弈”,计算机无法获知所有信息。

人工智能冷扑大师的胜利,意味着在尔虞我诈、概率不确定、非完美信息需要推理和情商的游戏里,机器一样可以获胜,它最大的价值就在于赋予了人工智能商业化的可能性。

德州扑克冷扑大师和中国龙之队对决结束的时候,李开复发了一条朋友圈,“据闻AlphaGo近期即将来华和柯洁对战,其实已经不再具有科学意义了。以后我们应该更关注商业领域的人工智能,在金融、医疗、教育等领域产生商业价值。”

生活在“弱人工智能”时代的我们,还远没到担心人类会“永生”还是“灭绝”这样庞大而沉重的课题,但毫无疑问的是,人工智能的商业化时代,真的来了。

开始总是美好的

“中国任何浪潮来了都会来得太猛,大家都跳进去瞬间就有可能蓝海变成红海”,李开复如是说。

不出所料,浪潮之下,巨头们闻风而来。

4月28日,百度公布了2017年第一季度未经审计的财务报告,李彦宏在财报中明确提到,百度的战略已经从“移动先行”变成“AI先行”。

同一天,刚刚上任100天的百度集团总裁兼COO陆奇,在百度与小鱼在家联合的搭载了百度DuerOS操作系统的视频通话机器人“分身鱼”会上重申,“对百度公司来讲,不光是一个搜索引擎的公司,基于AI,从现在到将来会逐渐成为一个平台,这是一个战略上和文化上的改变。”

这让人联想到早先陆奇的到来和百度前首席科学家吴恩达的离开。在曾与吴恩达有过接触的首席科学家林晖看来,这某种程度上反映了百度对于人工智能需求的变化,从“学术派”走到了“实干派”。

随后,5月3日,据美国科技网站报道,腾讯宣布任命语音识别技术顶级专家俞栋博士为AI Lab副主任。这个2016年4月成立的人工智能实验室,现有50多位世界知名院校的AI科学家(90%为博士)与200多位应用工程师,此举或意味着腾讯在AI领域的正面回击。

相对低调的阿里巴巴事实上也在伺机而动,去年以来,阿里逐渐抛弃了AI产品头上的“云”背书,直接用“人工智能”给产品定位。

今年3月9日的阿里巴巴技术峰会上,马云推出了“NASA”计划,称面向未来20年组建强大的独立研发部门,同时点名了五大技术,机器学习、芯片、IoT、操作系统和生物识别都与人工智能相关。

随着互联网三巨头BAT的布局加速,一场真正的商业化战争,已经蓄势待发了。

根据猎云网研究院4月13日的《2017人工智能投融资白皮书》显示,2016年1月~2017年2月,共发生365起人工智能领域融资事件。

其中,来自投资界的数据显示,仅2017年第一季度,就有超60家人工智能公司获得了融资,金额超亿元的融资事件至少有5起。

这幅“人工智能”的“烽火狼烟图”,不禁让人联想起一年以前VR概念风头正盛的时候。

去年一季度,共有29家VR/AR公司总共获得融资超过10亿美元。

然而,仅仅一年后,市场研究公司Crunchbase的报告显示,今年一季度全球VR/AR的风险投资额只有2亿美元,不仅暴跌八成,而且被26家公司分食,创出了过去一年中投资的最低纪录。

AI会不会重蹈VR覆辙,还不好说,但资本一定有也有低谷。更何况,即便是在当下,也并不是所有投资者都对人工智能持乐观态度。

建投华科投资股份有限公司董事总经理戴D认为,“比尔?盖茨说有关人工智能领域的重大进步的所有预言,都已经被证明过于乐观。这一点对于22年后的今天这些投资人来说,仍然有一定的警示意义。”

在他看来,“人工智能处于初期发展阶段,对于投资、尤其是对于我们产业并购的整合者来说,可能为时尚早。”

小心陷阱

τ谌斯ぶ悄埽科学家在渲染危机感,投资者在夸大它的神奇,然而创业者需要警惕:人工智能的创业路径跟过往的经验完全不同。

其中,最大的不同就是创业门槛的高低,起步资金就是最重要的一项。

“移动互联网时代让创业成本达到历史新低,一个产品经理带着一个工程师就可以零元创业”,李开复调侃到,“但AI的创业成本却达到历史新高,挖人、买数据、买机器,每一项都要投重资”,以创新工场投资的一家创业公司为例,“第一个月就花了500万买机器”。

并且,人工智能创业大部分是“B端”的,然而大多数投资公司已经习惯了投资“C端”创业者,这就决定了融资的难度。

李开复这样对《财经国家周刊》记者描述过去很长一段时间“C端”创业公司的投资模式,“给你一笔钱搞100万个用户,再给你一笔钱搞1000万个用户,再给你一笔钱开始变现,再给你一笔钱你就盈利了,再给你一笔钱你就上市了,这一定程度上成为了投资的四步曲或五步曲”,这与大多数“B端”创业者要去苦苦哀求企业级用户的门是完全不同的。

然而,矛盾之处在于,创业者要想避免被BAT碾压,最好的方式就是去寻找一个巨头不能碾压的领域,避开社交、游戏、电子支付,而“卖企业级软件给银行”、“卖解决方案给医院”等等“B端”领域,虽然BAT可能不会去做,但创业公司也很难成功。

并且,在人工智能领域创业,一个很大的问题就是“想象力不够”,导致从一开始同质化竞争就很严重。

“大家都做一样的应用,人脸识别现在大概有15个公司”,李开复反问道,“人脸识别当然有商业价值,但是需要15家公司来做吗?”

当然,作为最早一批回国创业的科学家,曾在谷歌担任高级工程师的李志飞对《财经国家周刊》记者阐述了不同的看法

“早期有一些趋同,这个不值得奇怪”,因为,“这就跟摘果子一样,最大的摘完了之后大家才会动脑筋去想,是不是可以再自己培养果子或者到另一个地方去摘,关键是后面这个产业是不是真能够进一步地升华。”

那么,创业过程中最需要注意的问题是什么?

最显而易见的一点,是要找到强需求而不是伪需求,然后判断这个强需求能不能被技术解决,同时,让场景和产业深度结合起来。

其次,脱离工程师的思维,把焦点放在用户身上。

李志飞说,“工程师的思维就是特别喜欢做一个自己觉得很牛的、技术很复杂的东西,但这个可能跟用户的需求完全不一样。”

以语音识别软件出门问问为例,李志飞说,“过去我们喜欢演示特别复杂的句子,比如一句话把‘帮我查一下附近的餐厅、人均50块钱、带wifi、带停车场的’讲完,但用户真实的习惯可能是把它分成几个短句,通过渐进式的交互去完成查询。”

此外,不要急于打造平台级技术和场景,什么都想做。

过去的创业经验告诉创业者,通过一味的“铺场景”也可以拉高估值,但是危险在于,一旦业务方向不像设想的那么顺利,就会无形中拉高B轮融资的难度,造成现金流枯竭,这对于现金需求量极大的人工智能创业尤为危险。

在这一点上,李志飞很坦诚,“我们也跟热点,这是肯定的,因为你不跟热点的话,拿不到钱”,“但是热点一定是辅助的,公司业务的核心一定要以AI技术推动,然后才会有各种各样的使用场景,如果你随着资本波动而波动的话,一定会死得很惨。”

李志飞称,“对于技术型公司,你的扩张速度要永远保证你的账上还有18个月的经费”,因为“钱是很贵的”。

除此之外,团队的协调、合伙人之间的契合度也在技术导向型公司被无限放大。这是因为,跟过去移动互联网时代的产品经理和工程师不一样,AI的工程师和产品经理的价值观和思维方式并不相同。

人工智能时代的看法范文第2篇

在开始谈论人工智能管理之前,先做一道选择题。

一辆载人的自动驾驶汽车高速接近一个路口,此时路口有十个行人正在过马路。在刹车突然失灵的情况下,汽车的自动驾驶系统应该如何选择:

1、拐向路边的固定障碍,躲避十个行人但牺牲车内一位乘客;

2、保持直行,确保车内一位乘客的安全但牺牲十个行人。

您会如何选择?我们看看公众的观点。

当美国学术期刊《科学》就这个问题进行公众调查时,76%的被调查者表示,应该选择牺牲一位乘客以保全十位行人。而且这些选择“牺牲一位乘客”的被调查者都同意以下观点:自动驾驶汽车的制造商应该把“汽车事故死亡数最小化”作为一个指导原则设计自动驾驶系统――我们且称之为“公平对待系统”。

有意思的是,当询问被调查者是否愿意购买安装“公平对待系统”的自动驾驶汽车时,大部分人表示,他们还是会选择安装“车内乘客优先系统”的汽车。

作为人工智能技术发展目前最成熟的领域之一,自动驾驶汽车遇到的选择悖论并不是特例。事实上,人工智能技术作为数字经济时代最重要的科技创新,在逐渐深入发展并成为现代社会一部分的时候,从道德与法律到监管与责任划分,无不面临着前所未有的两难选择。

欧美研究监管原则

针对这样的挑战,目前从美国、欧盟到中国,各国都在从技术、法律、行政和道德伦理等多个方面进行研究探讨,以期在不远的将来制定满足人工智能应用的监管原则。 76%的被调查者表示,自动驾驶汽车的制造商英国把“汽车事故死亡数量小化”作为一个指导原则设置自动驾驶系统。

在人工智能技术发展最为领先的美国,有关人工智能监管的研究是由最高行政机构――总统行政办公室直接领导参与的。2016年,在组织了有关人工智能的多场研讨会之后,总统行政办公室和国家科技委员会(NSTC)于10月份了两份重量级报告:《国家人工智能研究发展战略规划》和《为未来的人工智能做好准备》。

在《国家人工智能研究发展战略规划》中,包含了7个关键性战略,其中的第三战略:理解和确定人工智能在伦理、法律和社会领域的影响;第四战略:_保人工智能系统的安全和隐私保护,前瞻性地包含了有关人工智能在伦理、法律、社会影响、安全和隐私保护等领域的相关内容,包含了和人工智能监管相关的目标与原则。

欧盟由欧洲议会牵头以立法研究的方式探讨人工智能和机器人监管的相关原则。在美国总统行政办公室人工智能规划和报告的同月,欧盟法律事务委员会向欧盟提交了《欧盟机器人民事法律规则》。该法律规则从机器人使用的责任规则、伦理原则、对人类自身和财产的伤害赔偿等多方面提出了对基于人工智能技术控制机器人的监管原则。

作为即将脱离欧盟的英国,也在人工智能监管领域开始独立的研究。2017年2月,英国下议院科学技术委员会向多位英国顶尖的互联网与人工智能领域的专家发出邀请,希望其对于“决策中的算法”给出自己的专家意见。4月26日,科学技术委员公布了收到的正式回复,并将以此作为基础开展人工智能监管的研究。

公平和准确难平衡

从美国、欧盟和英国的研究结果和形成的文件、决议与规则来看,目前在人工智能监管方面形成公式的挑战主要来自公平性、透明性和责任认定等三方面。

首先是公平性。对于人工智能算法来说,任何对于输出,也就是预测值有贡献的信息都应该作为输入变量参与到人工智能算法的计算中。但在现实社会中,并不是所有与结果相关的信息都可以被接受。

2014年以来,美国多个州的犯罪执法机构都依靠一个名为COMPAS的人工智能系统预测过往有犯罪记录的人员再次犯罪的可能性,并以此数据作为是否允许罪犯减刑提前回归社会的决策依据之一。2016年6月,COMPAS系统被第三方调查机构ProPublica质疑其预测结果对黑人罪犯有明显的歧视。

按照ProPublica提供的数据,在各个预测再次犯罪的评分水平上,白人与黑人均保持相似的再次犯罪概率。

但从整体结果看,在其他输入条件与白人罪犯基本类似的情况下,COMPAS人工智能预测模型仍然会倾向于把黑人罪犯判别为会再次犯罪。其中的一个重要原因是有关黑人的记录远多于白人的记录。这一点是COMPAS人工智能预测模型无法改变的。

这个结果引起了媒体和社会的争议。单纯基于人种、肤色、文化、信仰乃至生活习性的差异,人工智能系统基于算法就给予不同的评判和对待,这对于公平是一种事实上的漠视。那么未来在人工智能技术广泛进入人类社会的时候,各种小众人群都有可能由于个体差异遭受来自“模型的歧视”。

这显然是现代社会的文明准则所不能接受的。这也是监管部门首先要解决的问题――模型的公平性。

目前可行的折中方法是,限制种族、肤色、年龄、性取向和其他生物与生活习惯等特征被作为输入变量参与到人工智能算法的构建,以避免这些有可能造成“模型的歧视”的变量最终影响模型的预测结果。

应该认识到,人工智能模型的公平性和准确性是一个跷跷板,如何让这个跷跷板取得平衡并与现代社会的公平价值观取得一致,目前还没有一个最佳答案。

找不到问题所在

其次是透明性,也被称为可解释性。在现有的人工智能技术发展路径下,成熟的人工智能算法或许永远都是一个“黑盒子”――外界无法得知内部的运行机制,只能够通过对输入和输出数据的解读来了解其能够达到的效果,并推测其内部计算机制的构成。

目前科技界主流的看法都认为人工智能模型缺乏透明性,而且这一点不会随着技术发展而彻底改变。那么以往通过企业透明披露产品和系统信息以便政府监管的做法在人工智能领域是行不通的。

举个例子,传统汽车是由车身、发动机、变速箱、刹车系统、电子控制系统等多个部件组成。每个部件也都可以拆解成为具体的零件。任何一个产品问题都可以归结到具体零件上,并针对其提出改进意见。

但对于自动驾驶汽车,人工智能系统作为一个整体完成最终的控制动作,一旦发生人工智能系统的错误操作,除了明显的传感器故障,我们无法清晰定位问题原因,也不会立即明确该如何调整系统。

目前通用的做法是猜想故障原因,并用场景还原的方式提供与错误操作时类似的数据输入,并观察输出结果。在捕捉到错误输出后,通过提供修正错误的训练数据集,逐步完成对人工智能系统的调整。最终还是要在反复测试的情况下确认人工智能系统已经完成了针对此错误的修正。

由于人工智能算法的非透明性,监管部门就无法从人工智能算法本身入手提出管理要求,因为人工智能系统的提供商自己都无法清晰解释算法的核心工作机理。所以,最终的监管要求就会从基于原理和结构管理转而基于最终结果管理。也就是说,不管白猫黑猫,抓到老鼠就是好猫。

非透明性决定了未来人类在监管人工智能系统时永远要面临着“黑盒子”带来的不确定性。而这一点,也给责任认定带来天然的障碍。

谁来承担责任

对于责任认定的探讨研究,目前是最少也是最困难的。对于一般的C械电气设备,由于设计缺陷、材料质量或其他产品质量所导致的人身财产损害,设备制造商将承担主要甚至全部责任。

而对于人工智能系统控制的设备,由于其在算法透明性和可解释性方面的困难,监管部门几乎无法从算法本身去认定是否包含设计缺陷,也就无法就算法本身的设计去进行责任认定,这为监管带来了非常大的困难。

有意思的是,欧盟在其2017年2月投票通过的《欧盟机器人民事法律规则》中,提出了考虑给予机器人以特殊的法律地位,即电子人的概念。也就是说,未来法律体系中将会存在一个不同于自然人、法人、动物等的另一法律实体,其能够独立存在,享有自己的权利并承担相应的义务。对于由自身引起的第三方人身财产伤害,电子人将会被认定承担一定的责任,并作出赔偿。

如果电子人的概念未来被现有的人类社会广泛接受,那么其造成的影响就不局限于人工智能监管本身,而将深深影响到未来社会的各个方面。

除了公平性、透明性和责任认定之外,人工智能系统还会大量替代现有的人工岗位,从而对未来的劳动力市场产生巨大的影响。由此而衍生的社会就业冲击和对人类技能要求的改变还会影响更多的方面。

2017年2月,微软公司创始人比尔?盖茨在接受媒体采访时表示,应该通过对机器人征税,来筹集资金,以帮助被自动化所取代的工人进行再培训。

人工智能时代的看法范文第3篇

个人简历:

1981年,毕业于浙江美术学院工艺系(现中国美术学院),学士;

1982年-1983年,任教于中国美术学院,教师;

1984年-1986年,德国慕尼黑造型艺术学院与柏林艺术大学访问学者;

1986年-1988年,获美国耶鲁大学艺术学院硕士学位,被授以作为表彰最优秀毕业生的诺尔曼・艾弗斯纪念奖;

1988年,成立个人设计工作室,为Adobe公司提供设计;

1989年-1997年,美国耶鲁大学艺术学院,讲师;

1991年-1998年,就职于全球最大的出版O计软件公司Adobe,先后担任设计师,高级艺术指导,设计总管,负责全公司设计工作;

1998年,加入两方设计公司,任设计总监;

1999年,任上海大学美术学院,客座教授;

2001年,参加北京申奥工作,艺术指导;

2006年-2008年,任北京奥组委形象与景观艺术总监;

2003年-至今,任中央美术学院设计学院院长、长江学者特聘教授、博士生导师

主要设计、研究项目:2001 年参与北京市申奥工作,设计北京申奥多媒体陈述报告;2004建立中央美院奥运艺术研究中心并任主任,中心设计了奥运奖牌、奥运体育标识、奥运色彩系统、奥运景观系统指南、奥运门票等奥运设计项目;2006年10月至2008年10月任北京奥组委形象与景观艺术总监,负责北京奥运形象与景观设计工作;2009年作为学术总监与主要发起人负责申请、筹备、举办了ICOGRADA 北京世界设计大会。大会有40多个国家2000人参会,超过100场演讲,24个专业展览,成为推动中国设计发展的一项重要活动。曾任教于美国耶鲁大学艺术学院并担任世界最大出版设计软件公司Adobe 高级艺术指导与设计总管,负责全公司设计工作。作品多次参加国际重大展览并获奖,作品被多家博物馆收藏;多次被邀请作为设计比赛评委;在世界多地举办过学术讲座,主持过很多与设计相关的学术活动。

技术的进步、互联网的发展和数字化时代的到来使得设计行业面临着巨大的机遇和挑战。在2016年11月召开的国际艺术设计教育年会上,中央美术学院设计学院院长王敏教授就现阶段技术和数字化发展所引发的设计领域的一系列变革问题进行了名为“Envision, Empower, En-hance―Design in the Era of 4th Industry Revolution”的主题演讲,在设计领域引起了巨大的反响,更是吸引学者们广泛的关注。发言中,其不仅对目前数字和人工智能背景下的设计问题进行了广泛的论述,更对未来设计行业和设计教育的发展指引了方向。本期,我刊特别邀请到了王敏教授做客权威人物栏目,就第四次工业革命所引发的设计价值与设计蜕变相关问题接受我刊专访,深入探讨设计未来的研究方向和设计师的培养问题。

本刊主编:王院长您好!感谢您接受我刊的专访!我们知道,在去年年底结束的国际艺术设计教育年会上,您的发言引起了巨大的反响,特别是其中有关人工智能所引发的设计变革方面的问题,更是得到了很多学者和教育工作者们的关注。您能进一步深入解读一下您是如何看待设计师与人工智能的关系的呢?

王院长:好的。首先,我想说的是目前人工智能的发展已经对设计师带来了巨大的冲击,而且在未来,设计师的很多工作还将会被人工智能系统所取代。但其次,我想进一步说明的是某些工作的消失并不意味着设计行业的消失,因为设计师的很多工作是不能被人工智能所取代的。因此我想,设计师和人工智能的关系应该是相互促进、相互激励发展的关系。历次的工业革命,都带来了设计理念、设计价值的转变,也为设计领域的发展带来了巨大的机会。第四次工业革命也以一样。在人工智能、物联网Internet of Things ,工业4.0、新能源、新思维兴起的时候,也为设计领域和设计师带来了前所未有的机遇与挑战。

本刊主编:王院长,刚刚您谈到了历次工业革命和第四次工业革命的问题,您能介绍一下四次工业革命都对设计带来了怎样的影响吗?中国在这四次革命过程中又处于一种什么样的状态呢?

王院长:当然可以,而且我个人认为将四次工业革命的影响梳理清楚对于我们现阶段把握好设计发展的脉络是非常有帮助的,因为伴随工业革命、技术革命发生时,设计师设计理念的转变、设计所带来的价值的转变、设计行业发生的变化,这都会给我们一些对未来的启示和思考。首次,第一次工业革命由蒸汽机引发,人类进入机械生产时代,机器产生的能量大于人与动物的力量,机器取代了人工,带来了生产的进步,但也带来了各种毫无美感的粗劣的机器,在人们为工业进步欢呼之时,莫里斯倡导的艺术与手工艺运动也开始掀起,随后新艺术运动,新装饰,青年风格等在欧洲形成,很多艺术家设计师投入其中,创造了大量的精美设计作品,今天仍为很多人喜爱,这让人们看到了艺术与工业结合去创造美的可能性;其次,电与工业流水线带来了第二次工业革命,电报电话的能力远优于人的传播能力,人类通讯方式从此发生了革命性的变革。福特的T型车流水生产线大大提高了工业生产效率,将汽车带进普通人的生活,也预示着工业产品对人类生活所将带来的巨大影响。此时出现的包豪斯带来了现代设计教育的理念,包豪斯倡导艺术与技术统一,功能性与极简的现代审美观,其后形成的现代主义设计潮流极大推动了工业化对人类生活形态与审美的渗透与改变,在这个现代主义设计发展的进程中吸引了众多人才,也产生了很多设计大师,设计的价值为社会所关注;其三,第三次工业革命始于60年代,从计算机再到互联网,第三次工业革命又一次引起了生产方式和生活方式的巨大变革,比如计算机的应用颠覆性改变了设计、印刷、传播的过程,改变了设计师的工作与设计的价值,3D打印势必引发产业组织形态和供应链模式包括设计价值的颠覆性变化;最后,第四次工业革命来到,随着互联网的发展和计算机技术的更新,人工智能和机器学习开始成为新的热点,也是必为设计行业带来巨大挑战与机会。

再来看看我国,由于历史原因我们错过了第一次与第二次工业革命,仅仅搭上了第三次工业革命的末班车,面对第四次工业革命,我们从来没有像今天这样与世界领先的技术浪潮如此接近过。尤其是在人工智能领域,中国最大的优势在于7亿多互联网用户,而大量的用户就意味着更多的数据。2016年白宫前沿峰会报告指出,在人工智能的新领域深度学习领域中,中国无论是数量或是被引用论文数量都赶超美国位居全球第一。深度学习的应用也体现在我们的日常生活之中,购物平台利用大量的数据分析用户需求,匹配并推荐其需要的商品,或是资讯类APP为用户匹配并推送相关的新闻讯息。除此以外,深度学习最终价值的体现其实还有更多,比如AlphaGO大战李世石,深度学习在背后也起着非常重要的作用,再比如自动驾驶、语音识别、图像识别等都是深度学习的研究范畴,也将是人工智能未来在我们生活中的应用场景。

本刊主编:王院长您的思路太清晰了!正如您所说,历次的工业革命都对设计和人类产生了几乎是具有颠覆意义的影响,那么我想进一步请教一下您,您认为设计在第四次工业革命中是一个什么样的身份?设计存在的价值在哪里?而我们如此众多的设计师将何去何从?将如何重新找到自己的社会价值呢?

王院长:这个问题非常好,它正是我们中国设计和设计师们面临的困惑,这里我就谈谈我个人的看法。前面几次工业革命过程让我们看到,技术的发展淘汰了一些行业、工种,但它也不断创造新的机会、新的工作。在社会、技术发展的进程中,设计与艺术起到技术无法替代的作用。我们应该将第四次工业革命当作机遇、机会,来实现设计的新的价值。现阶段,第四次工业革命带来了对设计新的要求、新的机会。设计的定义、价值正在改变,企业对设计的需求也在改变。这是一个拥抱创新、创意、设计的时代。近年来,很多大型公司开始并购设计公司;国内外很多商业学院陆续开设设计思维的相关课程,新加坡甚至将设计思维作为高中的必修课;越来越多的设计师开始创业。这里我们所说的设计师创业,并非开办一个设计师事务所,或者打造一个设计品牌,而是更多的涉猎到非设计行业。这些变化就要求我们不断重新定义设计、重新定义设计师、重塑设计师,作为最根本的,我们还需要重新定义设计教育。在人工智能时代,很多行业或是消失,或是大量削减人数,设计行业也一样,但这并不意味着设计行业的消亡,正相反的是,未来社会更需要设计师,只是是与以往不同的设计师。我们要不断重新定义设计、重新定义设计师、重新判断设计的价值。设计师因为他们的职业特点,他们对用户体验的关注、他们所普遍具有的同理心、他们的创造性思维的能力,加上对跨行业的经验,使他们可以为企业带来美化产品之外的价值。设计由最初对产品的关注被提升到组织与策略的层次,设计一词不再局限于有型的产品,而是一种策略思考。

本刊主编:王院长,您提到设计和设计师都需要重新定义和进行价值重塑,那么您认为当前的设计人才应该具备那些能力呢?一名好的设计师又应该如何定义呢?

人工智能时代的看法范文第4篇

【关键词】法理学/法律推理/人工智能

【正文】

一、人工智能法律系统的历史

计算机先驱思想家莱布尼兹曾这样不无浪漫地谈到推理与计算的关系:“我们要造成这样一个结果,使所有推理的错误都只成为计算的错误,这样,当争论发生的时候,两个哲学家同两个计算家一样,用不着辩论,只要把笔拿在手里,并且在算盘面前坐下,两个人面对面地说:让我们来计算一下吧!”(注:转引自肖尔兹著:《简明逻辑史》,张家龙译,商务印书馆1977年版,第54页。)

如果连抽象的哲学推理都能转变为计算问题来解决,法律推理的定量化也许还要相对简单一些。尽管理论上的可能性与技术可行性之间依然存在着巨大的鸿沟,但是,人工智能技术的发展速度确实令人惊叹。从诞生至今的短短45年内,人工智能从一般问题的研究向特殊领域不断深入。1956年纽厄尔和西蒙教授的“逻辑理论家”程序,证明了罗素《数学原理》第二章52个定理中的38个定理。塞缪尔的课题组利用对策论和启发式探索技术开发的具有自学习能力的跳棋程序,在1959年击败了其设计者,1962年击败了州跳棋冠军,1997年超级计算机“深蓝”使世界头号国际象棋大师卡斯帕罗夫俯首称臣。

20世纪60年代,人工智能研究的主要课题是博弈、难题求解和智能机器人;70年代开始研究自然语言理解和专家系统。1971年费根鲍姆教授等人研制出“化学家系统”之后,“计算机数学家”、“计算机医生”等系统相继诞生。在其他领域专家系统研究取得突出成就的鼓舞下,一些律师提出了研制“法律诊断”系统和律师系统的可能性。(注:SimonChalton,LegalDiagnostics,ComputersandLaw,No.25,August1980.pp.13-15.BryanNiblett,ExpertSystemsforLawyers,ComputersandLaw,No.29,August1981.p.2.)

1970年Buchanan&Headrick发表了《关于人工智能和法律推理若干问题的考察》,一文,拉开了对法律推理进行人工智能研究的序幕。文章认为,理解、模拟法律论证或法律推理,需要在许多知识领域进行艰难的研究。首先要了解如何描述案件、规则和论证等几种知识类型,即如何描述法律知识,其中处理开放结构的法律概念是主要难题。其次,要了解如何运用各种知识进行推理,包括分别运用规则、判例和假设的推理,以及混合运用规则和判例的推理。再次,要了解审判实践中法律推理运用的实际过程,如审判程序的运行,规则的适用,事实的辩论等等。最后,如何将它们最终运用于编制能执行法律推理和辩论任务的计算机程序,区别和分析不同的案件,预测并规避对手的辩护策略,建立巧妙的假设等等。(注:Buchanan&Headrick,SomeSpeculationAboutArtificialIntelligenceandLegalReasoning,23StanfordLawReview(1970).pp.40-62.)法律推理的人工智能研究在这一时期主要沿着两条途径前进:一是基于规则模拟归纳推理,70年代初由WalterG.Popp和BernhardSchlink开发了JUDITH律师推理系统。二是模拟法律分析,寻求在模型与以前贮存的基础数据之间建立实际联系,并仅依这种关联的相似性而得出结论。JeffreyMeld-man1977年开发了计算机辅助法律分析系统,它以律师推理为模拟对象,试图识别与案件事实模型相似的其他案件。考虑到律师分析案件既用归纳推理又用演绎推理,程序对两者都给予了必要的关注,并且包括了各种水平的分析推理方法。

专家系统在法律中的第一次实际应用,是D.沃特曼和M.皮特森1981年开发的法律判决辅助系统(LDS)。研究者探索将其当作法律适用的实践工具,对美国民法制度的某个方面进行检测,运用严格责任、相对疏忽和损害赔偿等模型,计算出责任案件的赔偿价值,并论证了如何模拟法律专家意见的方法论问题。(注:''''ModelsofLegalDecisionmakingReport'''',R-2717-ICJ(1981).)

我国法律专家系统的研制于20世纪80年代中期起步。(注:钱学森教授:《论法治系统工程的任务与方法》(《科技管理研究》1981年第4期)、《社会主义和法治学与现代科学技术》(《法制建设》1984年第3期)、《现代科学技术与法和法制建设》(《政法论坛》)1985年第3期)等文章,为我国法律专家系统的研发起了思想解放和理论奠基作用。)1986年由朱华荣、肖开权主持的《量刑综合平衡与电脑辅助量刑专家系统研究》被确定为国家社科“七五”研究课题,它在建立盗窃罪量刑数学模型方面取得了成果。在法律数据库开发方面,1993年中山大学学生胡钊、周宗毅、汪宏杰等人合作研制了《LOA律师办公自动化系统》。(注:杨建广、骆梅芬编著:《法治系统工程》,中山大学出版社1996年版,第344-349页。)1993年武汉大学法学院赵廷光教授主持开发了《实用刑法专家系统》。(注:赵廷光等著:《实用刑法专家系统用户手册》,北京新概念软件研究所1993年版。)它由咨询检索系统、辅助定性系统和辅助量刑系统组成,具有检索刑法知识和对刑事个案进行推理判断的功能。

专家系统与以往的“通用难题求解”相比具有以下特点:(1)它要解决复杂的实际问题,而不是规则简单的游戏或数学定理证明问题;(2)它面向更加专门的应用领域,而不是单纯的原理性探索;(3)它主要根据具体的问题域,选择合理的方法来表达和运用特殊的知识,而不强调与问题的特殊性无关的普适性推理和搜索策略。

法律专家系统在法规和判例的辅助检索方面确实发挥了重要作用,解放了律师一部分脑力劳动。但绝大多数专家系统目前只能做法律数据的检索工作,缺乏应有的推理功能。20世纪90年代以后,人工智能法律系统进入了以知识工程为主要技术手段的开发时期。知识工程是指以知识为处理对象,以能在计算机上表达和运用知识的技术为主要手段,研究知识型系统的设计、构造和维护的一门更加高级的人工智能技术。(注:《中国大百科全书·自动控制与系统工程》,中国大百科全书出版社1991年版,第579页。)知识工程概念的提出,改变了以往人们认为几个推理定律再加上强大的计算机就会产生专家功能的信念。以知识工程为技术手段的法律系统研制,如果能在法律知识的获得、表达和应用等方面获得突破,将会使人工智能法律系统的研制产生一个质的飞跃。

人工智能法律系统的发展源于两种动力。其一是法律实践自身的要求。随着社会生活和法律关系的复杂化,法律实践需要新的思维工具,否则,法律家(律师、检察官和法官)将无法承受法律文献日积月累和法律案件不断增多的重负。其二是人工智能发展的需要。人工智能以模拟人的全部思维活动为目标,但又必须以具体思维活动一城一池的攻克为过程。它需要通过对不同思维领域的征服,来证明知识的每个领域都可以精确描述并制造出类似人类智能的机器。此外,人工智能选择法律领域寻求突破,还有下述原因:(1)尽管法律推理十分复杂,但它有相对稳定的对象(案件)、相对明确的前提(法律规则、法律事实)及严格的程序规则,且须得出确定的判决结论。这为人工智能模拟提供了极为有利的条件。(2)法律推理特别是抗辩制审判中的司法推理,以明确的规则、理性的标准、充分的辩论,为观察思维活动的轨迹提供了可以记录和回放的样本。(3)法律知识长期的积累、完备的档案,为模拟法律知识的获得、表达和应用提供了丰富、准确的资料。(4)法律活动所特有的自我意识、自我批评精神,对法律程序和假设进行检验的传统,为模拟法律推理提供了良好的反思条件。

二、人工智能法律系统的价值

人工智能法律系统的研制对法学理论和法律实践的价值和意义,可以概括为以下几点:

一是方法论启示。P.Wahlgren说:“人工智能方法的研究可以支持和深化在创造性方法上的法理学反思。这个信仰反映了法理学可以被视为旨在于开发法律分析和法律推理之方法的活动。从法理学的观点看,这种研究的最终目标是揭示方法论的潜在作用,从而有助于开展从法理学观点所提出的解决方法的讨论,而不仅仅是探讨与计算机科学和人工智能有关的非常细致的技术方面。”(注:P.Wahlgren,AutomationofLegalReasoning:AStudyonArtificialIntelligenceandLaw,ComputerLawSeries11.KluwerLawandTaxationPublishers.DeventerBoston1992.Chapter7.)在模拟法律推理的过程中,法学家通过与工人智能专家的密切合作,可以从其对法律推理的独特理解中获得有关方法论方面的启示。例如,由于很少有两个案件完全相似,在判例法实践中,总有某些不相似的方面需要法律家运用假设来分析已有判例与现实案件的相关性程度。但法学家们在假设的性质问题上常常莫衷一是。然而HYPO的设计者,在无真实判例或真实判例不能充分解释现实案件的情况下,以假设的反例来反驳对方的观点,用补充、删减和改变事实的机械论方法来生成假设。这种用人工智能方法来处理假设的办法,就使复杂问题变得十分简单:假设实际上是一个新的论证产生于一个经过修正的老的论证的过程。总之,人工智能方法可以帮助法学家跳出法理学方法的思维定势,用其他学科的方法来重新审视法学问题,从而为法律问题的解决提供了新的途径。

二是提供了思想实验手段。西蒙认为,尽管我们还不知道思维在头脑中是怎样由生理作用完成的,“但我们知道这些处理在数字电子计算机中是由电子作用完成的。给计算机编程序使之思维,已经证明有可能为思维提供机械论解释”。(注:转引自童天湘:《人工智能与第N代计算机》,载《哲学研究》1985年第5期。)童天湘先生认为:“通过编制有关思维活动的程序,就会加深对思维活动具体细节的了解,并将这种程序送进计算机运行,检验其正确性。这是一种思想实验,有助于我们研究人脑思维的机理。”(注:转引自童天湘:《人工智能与第N代计算机》,载《哲学研究》1985年第5期。)人工智能法律系统研究的直接目标是使计算机能够获取、表达和应用法律知识,软件工程师为模拟法律推理而编制程序,必须先对人的推理过程作出基于人工智能理论和方法的独特解释。人工智能以功能模拟开路,在未搞清法律家的推理结构之前,首先从功能上对法律证成、法律检索、法律解释、法律适用等法律推理的要素和活动进行数理分析,将法理学、诉讼法学关于法律推理的研究成果模型化,以实现法律推理知识的机器表达或再现,从而为认识法律推理的过程和规律提供了一种实验手段。法学家则可以将人工智能法律系统的推理过程、方法和结论与人类法律推理活动相对照,为法律推理的法理学研究所借鉴。因此,用人工智能方法模拟法律推理,深化了人们对法律推理性质、要素和过程的认识,使法学家得以借助人工智能科学的敏锐透镜去考察法律推理的微观机制。正是在这个意义上,BryanNiblett教授说:“一个成功的专家系统很可能比其他的途径对法理学作出更多的(理论)贡献。”(注:BryanNiblett,ExpertSystemsforLawyers,ComputersandLaw,No.29,August1981.note14,p.3.)

三是辅助司法审判。按照格雷的观点,法律专家系统首先在英美判例法国家出现的直接原因在于,浩如烟海的判例案卷如果没有计算机编纂、分类、查询,这种法律制度简直就无法运转了。(注:PamelaN.GrayBrookfield,ArtificialLegalIntelligence,VT:DartmouthPublishingCo.,1997.p.402.)其实不仅是判例法,制定法制度下的律师和法官往往也要为检索有关的法律、法规和司法解释耗费大量的精力和时间,而且由于人脑的知识和记忆能力有限,还存在着检索不全面、记忆不准确的问题。人工智能法律系统强大的记忆和检索功能,可以弥补人类智能的某些局限性,帮助律师和法官从事相对简单的法律检索工作,从而极大地解放律师和法官的脑力劳动,使其能够集中精力从事更加复杂的法律推理活动。

四是促进司法公正。司法推理虽有统一的法律标准,但法官是具有主观能动性的差异个体,所以在执行统一标准时会产生一些差异的结果。司法解释所具有的建构性、辩证性和创造性的特点,进一步加剧了这种差异。如果换了钢铁之躯的机器,这种由主观原因所造成的差异性就有可能加以避免。这当然不是说让计算机完全取代法官,而是说,由于人工智能法律系统为司法审判提供了相对统一的推理标准和评价标准,从而可以辅助法官取得具有一贯性的判决。无论如何,我们必须承认,钢铁之躯的机器没有物质欲望和感情生活,可以比人更少地受到外界因素的干扰。正像计算机录取增强了高考招生的公正性、电子监视器提高了纠正行车违章的公正性一样,智能法律系统在庭审中的运用有可能减少某些现象。

五是辅助法律教育和培训。人工智能法律系统凝聚了法律家的专门知识和法官群体的审判经验,如果通过软件系统或计算机网络实现专家经验和知识的共享,便可在法律教育和培训中发挥多方面的作用。例如,(1)在法学院教学中发挥模拟法庭的作用,可以帮助法律专业学生巩固自己所学知识,并将法律知识应用于模拟的审判实践,从而较快地提高解决法律实践问题的能力。(2)帮助新律师和新法官全面掌握法律知识,迅速获得判案经验,在审判过程的跟踪检测和判决结论的动态校正中增长知识和才干,较快地接近或达到专家水平。(3)可使不同地区、不同层次的律师和法官及时获得有关法律问题的咨询建议,弥补因知识结构差异和判案经验多寡而可能出现的失误。(4)可以为大众提供及时的法律咨询,提高广大人民群众的法律素质,增强法律意识。

六是辅助立法活动。人工智能法律系统不仅对辅助司法审判有重要的意义,而且对完善立法也具有实用价值。(注:EdwinaL.Rissland,ArtificialIntelligenceandLaw:SteppingStonestoaModelofLegalReasoning,TheYaleLawJournal.(Vol.99:1957-1981).)例如,伦敦大学Imperial学院的逻辑程序组将1981年英国国籍法的内容形式化,帮助立法者发现了该法在预见性上存在的一些缺陷和法律漏洞。(注:EdwinaL.Rissland,ArtificialIntelligenceandLaw:SteppingStonestoaModelofLegalReasoning,TheYaleLawJournal.(Vol.99:1957-1981).)立法辅助系统如能应用于法律起草和法律草案的审议过程,有可能事先发现一些立法漏洞,避免一个法律内部各种规则之间以及新法律与现有法律制度之间的相互冲突。

三、法理学在人工智能法律系统研究中的作用

1.人工智能法律系统的法理学思想来源

关于人工智能法律系统之法理学思想来源的追踪,不是对法理学与人工智能的联系作面面俱到的考察,而旨在揭示法理学对人工智能法律系统的发展所产生的一些直接影响。

第一,法律形式主义为人工智能法律系统的产生奠定了理论基础。18-19世纪的法律形式主义强调法律推理的形式方面,认为将法律化成简单的几何公式是完全可能的。这种以J·奥斯汀为代表的英国分析法学的传统,主张“法律推理应该依据客观事实、明确的规则以及逻辑去解决一切为法律所要求的具体行为。假如法律能如此运作,那么无论谁作裁决,法律推理都会导向同样的裁决。”(注:(美)史蒂文·J·伯顿著:《法律和法律推理导论》,张志铭、解兴权译,中国政法大学出版社1998年9月版,第3页。)换言之,机器只要遵守法律推理的逻辑,也可以得出和法官一样的判决结果。在分析法学家看来,“所谓‘法治’就是要求结论必须是大前提与小前提逻辑必然结果。”(注:朱景文主编:《对西方法律传统的挑战》,中国检察出版社1996年2月版,第292页。)如果法官违反三段论推理的逻辑,就会破坏法治。这种机械论的法律推理观,反映了分析法学要求法官不以个人价值观干扰法律推理活动的主张。但是,它同时具有忽视法官主观能动性和法律推理灵活性的僵化的缺陷。所以,自由法学家比埃利希将法律形式主义的逻辑推理说称为“自动售货机”理论。然而,从人工智能就是为思维提供机械论解释的意义上说,法律形式主义对法律推理所作的机械论解释,恰恰为人工智能法律系统的开发提供了可能的前提。从人工智能法律系统研制的实际过程来看,在其起步阶段,人工智能专家正是根据法律形式主义所提供的理论前提,首先选择三段论演绎推理进行模拟,由WalterG.Popp和BernhardSchlink在20世纪70年代初开发了JUDITH律师推理系统。在这个系统中,作为推理大小前提的法律和事实之间的逻辑关系,被计算机以“如果A和B,那么C”的方式加以描述,使机器法律推理第一次从理论变为现实。

第二,法律现实主义推动智能模拟深入到主体的思维结构领域。法律形式主义忽视了推理主体的社会性。法官是生活在现实社会中的人,其所从事的法律活动不可能不受到其社会体验和思维结构的影响。法官在实际的审判实践中,并不是机械地遵循规则,特别是在遇到复杂案件时,往往需要作出某种价值选择。而一旦面对价值问题,法律形式主义的逻辑决定论便立刻陷入困境,显出其僵化性的致命弱点。法律现实主义对其僵化性进行了深刻的批判。霍姆斯法官明确提出“法律的生命并不在于逻辑而在于经验”(注:(美)博登海默著:《法理学——法哲学及其方法》,邓正来、姬敬武译,华夏出版社1987年12月版,第478页。)的格言。这里所谓逻辑,就是指法律形式主义的三段论演绎逻辑;所谓经验,则包括一定的道德和政治理论、公共政策及直觉知识,甚至法官的偏见。法律现实主义对法官主观能动性和法律推理灵活性的强调,促使人工智能研究从模拟法律推理的外在逻辑形式进一步转向探求法官的内在思维结构。人们开始考虑,如果思维结构对法官的推理活动具有定向作用,那么,人工智能法律系统若要达到法官水平,就应该通过建立思维结构模型来设计机器的运行结构。TAXMAN的设计就借鉴了这一思想,法律知识被计算机结构语言以语义网络的方式组成不同的规则系统,解释程序、协调程序、说明程序分别对网络结构中的输入和输出信息进行动态结构调整,从而适应了知识整合的需要。大规模知识系统的KBS(KnowledgeBasedSystem)开发也注意了思维结构的整合作用,许多具有内在联系的小规模KBS子系统,在分别模拟法律推理要素功能(证成、法律查询、法律解释、法律适用、法律评价、理由阐述)的基础上,又通过联想程序被有机联系起来,构成了具有法律推理整体功能的概念模型。(注:P.Wahlgren,AutomationofLegalReasoning:AStudyonArtificialIntelligenceandLaw,ComputerLawSeries11.KluwerLawandTaxationPublishers.DeventerBoston1992.Chapter7.)

第三,“开放结构”的法律概念打开了疑难案件法律推理模拟的思路。法律形式主义忽视了疑难案件的存在。疑难案件的特征表现为法律规则和案件之间不存在单一的逻辑对应关系。有时候从一个法律规则可以推出几种不同的结论,它们往往没有明显的对错之分;有时一个案件面对着几个相似的法律规则。在这些情况下,形式主义推理说都一筹莫展。但是,法律现实主义在批判法律形式主义时又走向另一个极端,它否认具有普遍性的一般法律规则的存在,试图用“行动中的法律”完全代替分析法学“本本中的法律”。这种矫枉过正的做法虽然是使法律推理摆脱机械论束缚所走出的必要一步,然而,法律如果真像现实主义法学所说的那样仅仅存在于具体判决之中,法律推理如果可以不遵循任何标准或因人而异,那么,受到挑战的就不仅是法律形式主义,而且还会殃及法治要求实现规则统治之根本原则,并动摇人工智能法律系统存在的基础。哈特在法律形式主义和法律现实主义的争论中采取了一种折中立场,他既承认逻辑的局限性又强调其重要性;既拒斥法官完全按自己的预感来随意判案的见解,又承认直觉的存在。这种折中立场在哈特“开放结构”的法律概念中得到了充分体现。法律概念既有“意义核心”又有“开放结构”,逻辑推理可以帮助法官发现问题的阳面,而根据社会政策、价值和后果对规则进行解释则有助于发现问题的阴面。开放结构的法律概念,使基于规则的法律推理模拟在受到概念封闭性的限制而对疑难案件无能为力时,找到了新的立足点。在此基础上,运用开放结构概念的疑难案件法律推理模型,通过逻辑程序工具和联想技术而建立起来。Gardner博士就疑难案件提出两种解决策略:一是将简易问题从疑难问题中筛选出来,运用基于规则的技术来解决;二是将疑难问题同“开放结构”的法律概念联系在一起,先用非范例知识如规则、控辩双方的陈述、常识来获得初步答案,再运用范例来澄清案件、检查答案的正确性。

第四,目的法学促进了价值推理的人工智能研究。目的法学是指一种所谓直接实现目的之“后法治”理想。美国法学家诺内特和塞尔兹尼克把法律分为三种类型。他们认为,以法治为标志的自治型法,过分强调手段或程序的正当性,有把手段当作目的的倾向。这说明法治社会并没有反映人类关于美好社会的最高理想,因为实质正义不是经过人们直接追求而实现的,而是通过追求形式正义而间接获得的。因此他们提出以回应型法取代自治型法的主张。在回应型法中,“目的为评判既定的做法设立了标准,从而也就开辟了变化的途径。同时,如果认真地对待目的,它们就能控制行政自由裁量权,从而减轻制度屈从的危险。反之,缺少目的既是僵硬的根源,又是机会主义的根源。”(注:(美)诺内特、塞尔兹尼克著:《转变中的法律与社会》,张志铭译,中国政法大学出版社1994年版,第60页。)美国批判法学家昂格尔对形式主义法律推理和目的型法律推理的特点进行了比较,他认为,前者要求使用内容明确、固定的规则,无视社会现实生活中不同价值观念的冲突,不能适应复杂情况和变化,追求形式正义;后者则要求放松对法律推理标准的严格限制,允许使用无固定内容的抽象标准,迫使人们在不同的价值观念之间做出选择,追求实质正义。与此相应,佩雷尔曼提出了新修辞学(NewRhetoric)的法律理论。他认为,形式逻辑只是根据演绎法或归纳法对问题加以说明或论证的技术,属于手段的逻辑;新修辞学要填补形式逻辑的不足,是关于目的的辩证逻辑,可以帮助法官论证其决定和选择,因而是进行价值判断的逻辑。他认为,在司法三段论思想支配下,法学的任务是将全部法律系统化并作为阐释法律的大前提,“明确性、一致性和完备性”就成为对法律的三个要求。而新修辞学的基本思想是价值判断的多元论,法官必须在某种价值判断的指示下履行义务,必须考虑哪些价值是“合理的、可接受的、社会上有效的公平的”。这些价值构成了判决的正当理由。(注:沈宗灵著:《现代西方法理学》,北京大学出版社1992年版,第443-446页。)制造人工智能法律系统最终需要解决价值推理的模拟问题,否则,就难以实现为判决提供正当理由的要求。为此,P.Wahlgren提出的与人工智能相关的5种知识表达途径中,明确地包括了以道义为基础的法律推理模型。(注:P.Wahlgren,AutomationofLegalReasoning:AStudyonArtificialIntelligenceandLaw,ComputerLawSeries11.KluwerLawandTaxationPublishers.DeventerBoston1992.Chapter7.)引入道义逻辑,或者说在机器中采用基于某种道义逻辑的推理程序,强调目的价值,也许是制造智能法律系统的关键。不过,即使把道义逻辑硬塞给计算机,钢铁之躯的机器没有生理需要,也很难产生价值观念和主观体验,没办法解决主观选择的问题。在这个问题上,波斯纳曾以法律家有七情六欲为由对法律家对法律的机械忠诚表示了强烈怀疑,并辩证地将其视为法律发展的动力之一。只有人才能够平衡相互冲突的利益,能够发现对人类生存和发展至关重要的价值。因此,关于价值推理的人工智能模拟究竟能取得什么成果,恐怕还是个未知数。

2.法理学对人工智能法律系统研制的理论指导作用

GoldandSusskind指出:“不争的事实是,所有的专家系统必须适应一些法理学理论,因为一切法律专家系统都需要提出关于法律和法律推理性质的假设。从更严格的意义上说,一切专家系统都必须体现一种结构理论和法律的个性,一种法律规范理论,一种描述法律科学的理论,一种法律推理理论”。(注:GoldandSusskind,ExpertSystemsinLaw:AJurisprudentialandFormalSpecificationApproach,pp.307-309.)人工智能法律系统的研究,不仅需要以法理学关于法律的一般理论为知识基础,还需要从法理学获得关于法律推理的完整理论,如法律推理实践和理论的发展历史,法律推理的标准、主体、过程、方法等等。人工智能对法律推理的模拟,主要是对法理学关于法律推理的知识进行人工智能方法的描述,建立数学模型并编制计算机应用程序,从而在智能机器上再现人类法律推理功能的过程。在这个过程中,人工智能专家的主要任务是研究如何吸收法理学关于法律推理的研究成果,包括法理学关于人工智能法律系统的研究成果。

随着人工智能法律系统研究从低级向高级目标的推进,人们越来越意识到,对法律推理的微观机制认识不足已成为人工智能模拟的严重障碍。P.Wahlgren指出,“许多人工智能技术在法律领域的开发项目之所以失败,就是因为许多潜在的法理学原则没有在系统开发的开始阶段被遵守或给予有效的注意。”“法理学对法律推理和方法论问题的关注已经有几百年,而人工智能的诞生只是本世纪50年代中期的事情,这个事实是人工智能通过考察法理学知识来丰富自己的一个有效动机。”(注:P.Wahlgren,AutomationofLegalReasoning:AStudyonArtificialIntelligenceandLaw,ComputerLawSeries11.KluwerLawandTaxationPublishers.DeventerBoston1992.Chapter7.)因此,研究法律推理自动化的目标,“一方面是用人工智能(通过把计算机的应用与分析模型相结合)来支撑法律推理的可能性;另一方面是应用法理学理论来解决作为法律推理支撑系统的以及一般的人工智能问题。”(注:P.Wahlgren,AutomationofLegalReasoning:AStudyonArtificialIntelligenceandLaw,ComputerLawSeries11.KluwerLawandTaxationPublishers.DeventerBoston1992.Chapter7.)在前一方面,是人工智能法律系统充当法律推理研究的思想实验手段以及辅助司法审判的问题。后一方面,则是法律推理的法律学研究成果直接为人工智能法律系统的研制所应用的问题。例如,20世纪70年代法理学在真实和假设案例的推理和分析方面所取得的成果,已为几种人工智能法律装置借鉴而成为其设计工作的理论基础。在运用模糊或开放结构概念的法律推理研究方面,以及在法庭辩论和法律解释的形式化等问题上,法理学的研究成果也已为人工智能法律系统的研究所借鉴。

四、人工智能法律系统研究的难点

人工智能法律系统的研究尽管在很短的时间内取得了许多令人振奋的成果,但它的发展也面临着许多困难。这些困难构成了研究工作需要进一步努力奋斗的目标。

第一,关于法律解释的模拟。在法理学的诸多研究成果中,法律解释的研究对人工智能法律系统的研制起着关键作用。法律知识表达的核心问题是法律解释。法律规范在一个法律论点上的效力,是由法律家按忠实原意和适合当时案件的原则通过法律解释予以确认的,其中包含着人类特有的价值和目的考虑,反映了法律家的知识表达具有主观能动性。所以,德沃金将解释过程看作是一种结合了法律知识、时代信息和思维方法而形成的,能够应变的思维策略。(注:Dworkin,TakingRightsSeriously,HarvardUniversityPressCambridge,Massachusetts1977.p.75.)目前的法律专家系统并未以知识表达为目的来解释法律,而是将法律整齐地“码放”在计算机记忆系统中仅供一般检索之用。然而,在法律知识工程系统中,法律知识必须被解释,以满足自动推理对法律知识进行重新建构的需要。麦卡锡说:“在开发智能信息系统的过程中,最关键的任务既不是文件的重建也不是专家意见的重建,而是建立有关法律领域的概念模型。”(注:McCarty,Intelligentlegalinformationsystems:problemsandprospects,op.cit.supra,note25,p.126.)建立法律概念模型必须以法律家对某一法律概念的共识为基础,但不同的法律家对同一法律概念往往有不同的解释策略。凯尔森甚至说:即使在国内法领域也难以形成一个“能够用来叙述一定法律共同体的实在法的基本概念”。(注:(奥)凯尔森著:《法与国家的一般理论》,沈宗灵译,中国大百科全书出版社1996年版,第1页。)尽管如此,法理学还是为法律概念模型的重建提供了一些方法。例如,德沃金认为,法官在“解释”阶段,要通过推理论证,为自己在“前解释”阶段所确定的大多数法官对模糊法律规范的“一致看法”提供“一些总的理由”。获取这些总的理由的过程分为两个步骤:首先,从现存的明确法律制度中抽象出一般的法律原则,用自我建立的一般法律理论来证明这种法律原则是其中的一部分,证明现存的明确法律制度是正当的。其次,再以法律原则为依据反向推出具体的法律结论,即用一般法律理论来证明某一法律原则存在的合理性,再用该法律原则来解释某一法律概念。TAXMAN等系统装置已吸收了这种方法,法律知识被计算机结构语言以语义网络的方式组成不同的规则系统,解释程序使计算机根据案件事实来执行某条法律规则,并在新案件事实输入时对法律规则作出新的解释后才加以调用。不过,法律知识表达的进展还依赖于法律解释研究取得更多的突破。

第二,关于启发式程序。目前的法律专家系统如果不能与启发式程序接口,不能运用判断性知识进行推理,只通过规则反馈来提供简单解释,就谈不上真正的智能性。启发式程序要解决智能机器如何模拟法律家推理的直觉性、经验性以及推理结果的不确定性等问题,即人可以有效地处理错误的或不完全的数据,在必要时作出猜测和假设,从而使问题的解决具有灵活性。在这方面,Gardner的混合推理模型,EdwinaL.Rissland运用联想程序对规则和判例推理的结果作集合处理的思路,以及Massachusetts大学研制的CABARET(基于判例的推理工具),在将启发式程序应用于系统开发方面都进行了有益的尝试。但是,法律问题往往没有唯一正确的答案,这是人工智能模拟法律推理的一个难题。选择哪一个答案,往往取决于法律推理的目的标准和推理主体的立场和价值观念。但智能机器没有自己的目的、利益和立场。这似乎从某种程度上划定了机器法律推理所能解决问题的范围。

第三,关于法律自然语言理解。在设计基于规则的程序时,设计者必须假定整套规则没有意义不明和冲突,程序必须消灭这些问题而使规则呈现出更多的一致性。就是说,尽管人们对法律概念的含义可以争论不休,但输入机器的法律语言却不能互相矛盾。机器语言具有很大的局限性,例如,LDS基于规则来模拟严格责任并计算实际损害时,表现出的最大弱点就是不能使用不精确的自然语言进行推理。然而,在实际的法律推理过程中,法律家对某个问题的任何一种回答都可根据上下文关系作多种解释,而且辩论双方总是寻求得出不同的结论。因此,智能法律专家系统的成功在很大程度上还依赖于自然语言理解研究工作的突破。牛津大学的一个程序组正在研究法律自然语言的理解问题,但是遇到了重重困难。原因是连法学家们自己目前也还没有建立起一套大家一致同意的专业术语规范。所以EdwinaL.Rissland认为,常识知识、意图和信仰类知识的模拟化,以及自然语言理解的模拟问题,迄今为止可能是人工智能面临的最困难的任务。对于语言模拟来说,像交际短语和短语概括的有限能力可能会在较窄的语境条件下取得成果,完全的功能模拟、一般“解决问题”能力的模拟则距离非常遥远,而像书面上诉意见的理解则是永远的终极幻想。(注:EdwinaL.Rissland,ArtificialIntelligenceandLaw:SteppingStonestoaModelofLegalReasoning,TheYaleLawJournal.(Vol.99:1957-1981).)

五、人工智能法律系统的开发策略和应用前景

我们能够制造出一台什么样的机器,可以证明它是人工智能法律系统?从检验标准上看,这主要是法律知识在机器中再现的判定问题。根据“图灵试验”原理,我们可将该检验标准概括如下:设两间隔开的屋子,一间坐着一位法律家,另一间“坐着”一台智能机器。一个人(也是法律家)向法律家和机器提出同样的法律问题,如果提问者不能从二者的回答中区分出谁是法律家、谁是机器,就不能怀疑机器具有法律知识表达的能力。

依“图灵试验”制定的智能法律系统检验标准,所看重的是功能。只要机器和法律家解决同样法律问题时所表现出来的功能相同,就不再苛求哪个是钢铁结构、哪个是血肉之躯。人工智能立足的基础,就是相同的功能可以通过不同的结构来实现之功能模拟理论。

从功能模拟的观点来确定人工智能法律系统的研究与开发策略,可作以下考虑:

第一,扩大人工智能法律系统的研发主体。现有人工法律系统的幼稚,暴露了仅仅依靠计算机和知识工程专家从事系统研发工作的局限性。因此,应该确立以法律家、逻辑学家和计算机专家三结合的研发群体。在系统研发初期,可组成由法学家、逻辑与认知专家、计算机和知识工程专家为主体的课题组,制定系统研发的整体战略和分阶段实施的研发规划。在系统研发中期,应通过网络等手段充分吸收初级产品用户(律师、检察官、法官)的意见,使研发工作在理论研究与实际应用之间形成反馈,将开发精英与广大用户的智慧结合起来,互相启发、群策群力,推动系统迅速升级。

第二,确定研究与应用相结合、以应用为主导的研发策略。目前国外人工智能法律系统的研究大多停留在实验室领域,还没有在司法实践中加以应用。但是,任何智能系统包括相对简单的软件系统,如果不经过用户的长期使用和反馈,是永远也不可能走向成熟的。从我国的实际情况看,如果不能将初期研究成果尽快地转化为产品,我们也难以为后续研究工作提供雄厚的资金支持。因此,人工智能法律系统的研究必须走产研结合的道路,坚持以应用开路,使智能法律系统尽快走出实验室,同时以研究为先导,促进不断更新升级。

第三,系统研发目标与初级产品功能定位。人工智能法律系统的研发目标是制造出能够满足多用户(律师、检察官、法官、立法者、法学家)多种需要的机型。初级产品的定位应考虑到,人的推理功能特别是价值推理的功能远远超过机器,但人的记忆功能、检索速度和准确性又远不如机器。同时还应该考虑到,我国目前有12万律师,23万检察官和21万法官,每年1.2万法学院本科毕业生,他们对法律知识的获取、表达和应用能力参差不齐。因此,初级产品的标准可适当降低,先研制推理功能薄弱、检索功能强大的法律专家系统。可与计算机厂商合作生产具有强大数据库功能的硬件,并确保最新法律、法规、司法解释和判例的网上及时更新;同时编制以案件为引导的高速检索软件。系统开发的先期目标应确定为:(1)替律师起草仅供参考的书和辩护词;(2)替法官起草仅供参考的判决书;(3)为法学院学生提供模拟法庭审判的通用系统软件,以辅助学生在、辩护和审判等诉讼的不同阶段巩固所学知识、获得审判经验。上述软件旨在提供一个初级平台,先解决有无和急需,再不断收集用户反馈意见,逐步改进完善。

第四,实验室研发应确定较高的起点或跟踪战略。国外以知识工程为主要技术手段的人工智能法律系统开发已经历了如下发展阶段:(1)主要适用于简单案件的规则推理;(2)运用开放结构概念的推理;(3)运用判例和假设的推理;(4)运用规则和判例的混合推理。我们如确定以简单案件的规则推理为初级市场产品,那么,实验室中第二代产品开发就应瞄准运用开放结构概念的推理。同时,跟踪运用假设的推理及混合推理,吸收国外先进的KBS和HYPO的设计思想,将功能子系统开发与联想式控制系统结合。HYPO判例法推理智能装置具有如下功能:(1)评价相关判例;(2)判定何方使用判例更加贴切;(3)分析并区分判例;(4)建立假设并用假设来推理;(5)为一种主张引用各种类型的反例;(6)建立判例的引证概要。HYPO以商业秘密法的判例推理为模拟对象,假设了完全自动化的法律推理过程中全部要素被建立起来的途径。值得注意的是,HYPO忽略了许多要素的存在,如商业秘密法背后的政策考虑,法律概念应用于实际情况时固有的模糊性,信息是否已被公开,被告是否使用了对方设计的产品,是否签署了让与协议,等等。一个系统设计的要素列表无论多长,好律师也总能再多想出一些。同样,律师对案件的分析,不可能仅限于商业秘密法判例,还可能援引侵权法或专利法的判例,这决定了缘由的多种可能性。Ashley还讨论了判例法推理模拟的其他困难:判例并不是概念的肯定的或否定的样本,因此,要通过要素等简单的法律术语使模糊的法律规则得到澄清十分困难,法律原则和类推推理之间的关系还不能以令人满意的方式加以描述。(注:EdwinaL.Rissland,ArtificialIntelligenceandLaw:SteppingStonestoaModelofLegalReasoning,TheYaleLawJournal.(Vol.99:1957-1981).)这说明,即使具有较高起点的实验室基础研究,也不宜确定过高的目标。因为,智能法律系统的研究不能脱离人工智能的整体发展水平。

第五,人-机系统解决方案。人和机器在解决法律问题时各有所长。人的优点是能作价值推理,使法律问题的解决适应社会的变化发展,从而具有灵活性。机器的长处是记忆和检索功能强,可以使法律问题的解决具有一贯性。人-机系统解决方案立足于人与机器的功能互补,目的是解放人的脑力劳动,服务于国家的法治建设。该方案的实施可以分为两个阶段:第一阶段以人为主,机器为人收集信息并作初步分析,提供决策参考。律师受理案件后,可以先用机器处理大批数据,并参考机器的和辩护方案,再做更加高级的推理论证工作。法官接触一个新案件,或新法官刚接触审判工作,也可以先看看“机器法官”的判决建议或者审判思路,作为参考。法院的监督部门可参照机器法官的判决,对法官的审判活动进行某种监督,如二者的判决结果差别太大,可以审查一下法官的判决理由。这也许可以在一定程度上制约司法腐败。在人-机系统开发的第二阶段,会有越来越多的简单案件的判决与电脑推理结果完全相同,因此,某些简单案件可以机器为主进行审判,例如,美国小额法庭的一些案件,我国法庭可用简易程序来审理的一些案件。法官可以作为“产品检验员”监督和修订机器的判决结果。这样,法官的判案效率将大大提高,法官队伍也可借此“消肿”,有可能大幅度提高法官薪水,吸引高素质法律人才进入法官队伍。

未来的计算机不会完全取代律师和法官,然而,律师和法官与智能机器统一体的出现则可能具有无限光明的前景。(注:Smith,J.C,MachineIntelligenceandLegalReasoning,Chicago-KentLawReview,1998,Vol.73,No.1,p277.)可以预见,人工智能将为法律工作的自动化提供越来越强有力的外脑支持。电脑律师或法官将在网络所及的范围内承担起诸如收债、税务、小额犯罪诉讼等职能。自动法律推理系统将对诉讼活动发挥越来越多的辅助作用,例如,通过严密的演绎逻辑使用户确信全部法律结论得出的正当性;在解决相互冲突的规则、判例和政策问题时提示可能出现的判决预测;等等。正如网络的出现打破了少数人对信息的垄断一样,电脑法律顾问的问世,将打破法官、律师对法律知识的垄断,极大地推动法律知识的普及,迅速提高广大人民群众的法律素质,使法律真正变为群众手中的锐利武器。

人工智能时代的看法范文第5篇

人与机器人的结合,《机械战警》这个想法不错,既然机器进化成人遥遥无期,那我们不如换一个思路……不过话说回来,在机器人进化的过程里,现在有一派观点认为并不需要进化,而是需要“爆炸”。当然不是给机器人装上炸弹,而是技术爆炸如同宇宙爆炸一般,在一个奇异点之后突飞猛进。好吧,以机器人进化为话题,我们来聊一聊。

人类是如何进化而成的?马克思告诉我们,当猿离开大树下地行走之后解放了双手,直立行走成为人类区别于其他动物最重要的标志之一。黑猩猩很聪明,它可以用一根小木棍去钓白蚁吃;水獭也不差,知道在肚子上放一块石头来砸牡蛎。但无论猩猩还是水獭,都没有能力进一步将捡来的东西加工成工具。

人类因为双手解放就可以制作工具,进而通过工具扩大生产力,慢慢发展了旧石器时代、新石器时代、青铜时代、蒸汽时代、工业时代直到我们现在的信息时代。下一个革命性的时代是什么我说不上来,但谁也不能否认的是,下一个时代必然是通过人类大脑去思考,并通过双手去创造的,但人类创造时所借助的东西,我们往往称呼它们为机器。就算牛气如苹果的iPhone6,开模具、焊接线路、切割屏幕,无一不是机器在完成。

猫哥在这里先提出第一个问题:通览机器发展的大致历史,是不是有一种趋向,机器越来越趋近于人?或者说人类一直梦想自己可以“造人”?你不信?我们从古时候开始梳理。

在《列子・汤问》中有这样的记载:周穆王西巡狩道,有献工人名偃师。偃师所造倡者,趣步俯仰,颔其颐则歌合律,捧其手则舞应节,千变万化,惟意所适。王以为实人也,与盛姬内御并观之。伎将终,倡者瞬其目,而招王之左右侍妾。王大怒,欲杀偃师。偃师大慑,立剖散倡者以示王,皆傅会革木胶漆白黑丹青之所为……

这段话说的是周穆王出巡时偶遇了一位毛遂自荐,名叫偃师的奇人。偃师造了一具看着极像真人的假人,可以跟着音乐跳舞,而且千变万化、惟妙惟肖。周穆王甚至觉得这就是个真人,于是叫上了自己的宠妃一起来围观,谁知道假人跳舞的时候向周穆王的宠妃抛媚眼。周穆王急眼了想杀偃师,偃师为了自保就将假人拆散,周穆王一看――这货还真是假人。

欧洲人关于“造人”的思想相对晚了一点,到了欧洲中世纪时,由于炼金术得到了上至贵族、下至贫民的亲睐,“赫蒙克鲁斯”(人造人)成为炼金术的究极奥义。卡尔・荣格也曾经考证过,欧洲最早关于“造人”的思想起源于公元前3世纪。不过炼金术中的“赫蒙克鲁斯”并不是用一种机械工程的思维,而更多依托于幻术与魔法的幻想,完全没有基于任何一点靠谱的科学。

1818年,世界上第一个女性科幻作家玛丽・雪莱创作了《弗兰肯斯坦》,讲述一位医生妄想自己可以凭借科学使死人复活,于是在坟墓盗窃尸体,回实验室后再重新组装,最后通过电击让这个组装出来的人复活。谁知道复活后的弗兰肯斯坦是个彪形大汉,脸上全是接缝,而且脖子后面还有两颗大螺丝。这个医生一下就怂了,想毁掉自己这个可怕的发明,于是决定杀掉弗兰肯斯坦,而弗兰肯斯坦就像人一样,开始了本能驱使下的逃亡……

到了工业时代,机械技术突飞猛进,自动化设备、遥控甚至无线遥控也日益成熟,电子学的进展成为机器人发展的动力。第一个电子式自动机于1948年在英国的布里斯托尔由William Grey Walter发明。第一个数位化,由电脑控制的自动机是在1954年由George Devol发明,命名为Unimate,后在1961年卖给奇异电气,用在新泽西州的工厂中,用来将压铸设备中的金属上移。

随着机器人的能力越来越强,学习能力越来越高,甚至有人提出将机器人投入到战争中的时候,人们对机器人的思考也日益增加。或许你还无法理解为什么我们要提防着机器人,说个最简单的事儿,如果机器人的学习能力超过了你并夺走学霸的称号,那么你是否还有学习的动力呢?所以,机器人伦理学被推上议程,阿西莫夫非常符合时宜地推出了《我・机器人》短篇小说集,提出“机器人三大定律”来奠定机器人伦理学的基础。

此时此刻,工业用激光焊接机器人活跃于汽车生产线,物流机器人正通过视觉传感器规划着库房里的货运线路,美国的无人侦察机非法划过伊朗的天空,而以色列的拆弹机器人正在赶赴炸弹现场……总之,在你的身边,各型各色的机器人已经无孔不入。

机器的进化――Be Human

I analyze and I verify and I quantify enough

one hundred percentile

no errors, no miss

I synchronize and I specialize and I classify so much

don't worry 'bout dreaming

because I don't sleep

if I only was more human

I would count every single second the rest of my life

if I just could be more human

I'd have so many little babies and maybe a wife

I'd roll around the mud

and have lots of fun

then when I was done

build bubblebath towers and swim in the tub

sand castles on the beach

frolic in the sea

get a broken knee

be scared of the dark and I'd sing out of key

一直以来,猫哥我所认为的科幻神级作品中,《攻壳机动队》拥有一个至高无上的地位,其中有一段看上去至今令猫哥后背发凉的镜头-公安九课-群少女机器人为了破解黑客设置的防火墙,击打键盘的每一根手指又分裂出十根手指在键盘上快速输入代码。

果壳网友Tiberium的评价非常到位:在我看来,没有任何其他的场景比这个动作更加形象地传达出了在那个时代(以及我们现在的这个时代)人与机器的关系。手是什么?手是元工具,是人类的第一件工具。人之所以为人,正在于解放双手。一切工具都是双手的延伸。键盘又是什么?键盘是计算机的元工具,人为了和机器对话而发明了键盘,其结构到现在为止基本没有变过。在《攻壳机动队》中,人改造了手,“工具的制造者被他们的工具重新改造了”。这难道不意味着,人类终于有一次承认了机器的优越地位吗?

至于前边那段词其实是《Be Human》的歌词,也就是《攻壳机动队》TV版中一段让人听了以后想泪奔的插曲。这首曲子由菅野洋子作曲、斯科特・马修演唱。在剧中有一群名叫塔奇克马的思考型步战车,专门用于武装压制、潜入作战与网络攻防。因为有强大的AI学习能力,在与公安九课一群人类共事的时候逐渐具有了人性。而这首歌正好描述的就是这群塔奇克马――如果真的成为人类一定是一件美好的事情,可惜,不能。在TV版的最后,这一群塔奇克马为了拯救被弹道导弹锁定的难民聚集地,决定用搭载自己思考CPU的卫星撞击导弹(可以这么理解,他们的思考在云端服务器,通过无线电对地面上的塔奇克马发出行动指令),以自己彻底失去“生命”的方式救赎别人。在剧情设定中,编剧们让无机的“生命”拯救有机的生命――既然不能成人,但我们有人类的感情,我们不妨牺牲自己救助人类吧。

人类怎么看

说到机器人拯救人类,猫哥又有―个问题:如果一个机器人要和你交朋友,你会作何感想?我想应该有三种情况:1.程序出故障了;2.妈呀,机器人要造反,赶紧抄家伙;3.赶紧把它的电源给拔了。只会有少数人会觉得跟机器人交朋友也不错。

为什么猫哥会这么认为呢?这里要提到一个日本机器人科学的先驱――森政弘。森政弘在20世纪70年代作为东京工业大学的教授,在工作的时候发现一个有趣的现象:当时的日本民众对看上去像机器的机器人充满了好感,但对于看着像人的机器人却充满了畏惧。以此为基础,森政弘结合心理学提出“恐怖谷理论”,认为随着机器人行为接近于人的程度增高,人类首先会表示出友好,但到了一个特定的程度时,人类态度就会急转直下,直到机器人行为完全和人类一样的时候,人类会再次表达出对机器人的亲近。

以现在的技术手段,我们还无法做出与人类行为完全一致的机器人,甚至更多的完全拟人机器人带给人的感觉就如同“弗兰肯斯坦”一般,觉得它就是一具可以僵硬行走的尸体。“恐怖谷理论”其实已经被部分证实。2005年,日本大阪大学将新开发的拟人化应答服务机器人ReplieeQ1投放到爱知世博会现场,结果在事后的民意调查中发现,许多日本人认为这个机器人看上去很恐怖,虽然大阪大学极力将它做成一个热情的女性形象。皮克斯曾经在动画《小锡兵》中用电脑描绘了一个婴儿,却引起的小朋友很大的恐慌,这也算是一例。

事实上,给大家讲个小事儿,主编的女儿在一岁多的时候看见猫哥送的一个等身的娃娃时,第一反应不是欢天喜地,而是直接给吓哭。换做我们成年人,一个等身的机器人用非常生硬的动作与奇怪的语言跟你打招呼,那种奇怪的感觉就像――僵尸来袭。

技术奇异点

关于人类对机器人的感官与看法,恐怖谷理论认为人类会最终接受机器人,而这就得仰仗于机器人相关技术的大爆发,这个爆发如同宇宙从一个奇异点爆发产生了整个宇宙一样。如果你不信,不妨想一想蒸汽机出现之前的世界,荒蛮、愚昧而封建,以千年为尺度的历史中,科学技术的进展极其缓慢。如果再看看社会制度、生产力与生产关系以及艺术文化,无一不是在蒸汽机诞生之后得到了宇宙大爆炸一般的发展。正如谷歌技术总监雷蒙德・库兹韦尔所言:“我们的未来不再是经历进化,而是要经历爆炸!”

对于机器人相关技术而言,也必然存在这样一个技术奇异点,它所引爆的基础就是智能技术。大部分相信技术奇异点理论的科学家普遍认为人类将在2100年以前迎来机器人技术的技术奇异点,并作出了这样的描述:

发生的可能途径

某种先进的电脑也许会“苏醒”,并拥有超人智能。

大型电脑网络(以及和网络相连的用户)也可能“苏醒”过来,成为超人智能的实体。

人类与计算机结合,使得操纵计算机的用户可能被视为超人智能实体,也就是“智能扩大”。

生物科学将有可能提升人类的智能。

来临的条件

技术奇异点来临的条件是超级智能的产生。

超级智能产生方式可能是人工智能(AI)和智能扩大(IA)。

智能扩大的发展方向

人机小组自动化控制。

用于艺术创作的人机共同体。

允许人机联合团队参加棋类比赛。

发展不需人待在某个固定的地方才能使用的人机界面和网络接口。

发展更对称的决策系统。

利用本地网络让人类小组更高效地工作。

开发世界性的互联网,使其成为人机结合的工具。

技术奇异点的前景――强势人工智能

弱势人工智能的特点:依靠快速思维取胜的超级智能。

强势人工智能的特点:通过不同带宽交流的能力,包括高于语言和文字信息的交流方式(比如意念读取)。

可能阻止技术奇异点来临的因素

大规模的灾难,最可能发生的是国家之间相互毁灭的核战。

无论计算机硬件发展到多么先进的程度,我们都无法让其“苏醒”。