首页 > 文章中心 > 人工智能技术伦理

人工智能技术伦理

前言:想要写出一篇令人眼前一亮的文章吗?我们特意为您整理了5篇人工智能技术伦理范文,相信会为您的写作带来帮助,发现更多的写作思路和灵感。

人工智能技术伦理

人工智能技术伦理范文第1篇

关键词:人工智能;异化;规范;生态文明观

中图分类号:TP18

文献标识码:A

一、人工智能技术的发展及其影响

人工智能技术研究开始于20世纪50年代中期,距今仅有60年的发展历程,但是其迅猛的发展速度,广泛的研究领域以及对人类产生的深远影响等令人惊叹。调查显示,77.45%的人认为现实生活中人工智能技术的影响较大,并且86.27%的人认为人工智能技术的发展对人类的影响利大于弊;认为人工智能技术对人类生活影响很小且弊大于利的人权占很小一部分。人工智能技术的发展和应用直接关系到人类社会生活,并且发挥着重要的作用。人工智能技术的发展方向和领域等由人类掌控着,所以人类应该尽可能地把人工智能技术的弊处降到最低以便更好地为人类造福。2016年3月份,围棋人工智能AlphaGo与韩国棋手李世h对弈,最终比分4∶1,人类惨败。4月份,中国科学技术大学正式了一款名为“佳佳”的机器人,据了解,机器人“佳佳”初步具备了人机对话理解、面部微表情、口型及躯体动作匹配、大范围动态环境自主定位导航和云服务等功能。而在这次正式亮相之前,“佳佳”就担纲主持了2016“首届全球华人机器人春晚”和“谁是棋王”半Q赛。人工智能技术确实给人类带来了诸多的便利,给人类生产生活带来便利;但是,人工智能技术的快速发展超乎人类的预测,引起了人类的恐慌和担忧。百度CEO李彦宏称,人工智能是“披着羊皮的狼”。毋庸置疑,科学技术是一把双刃剑,当人类醉心于科学技术所带来的福利中时,更应当注意其带来的负面作用。人类发明和创造科学技术最终是为了造福人类,而非受到科技的异化。

随着科技的发展,人工智能技术越来越成熟,在此整体趋势之下,不同的人群对人工智能技术的不断成熟与应用有着不同的看法。调查结果显示,在关于机器人会不会拥有人类的思维甚至超过人类的问题方面,27.45%的人认为机器人会拥有人类的思维和超过人类;而56.86%的人认为机器人不会拥有人类的思维和超过人类,小部分人对此不是很清楚。由于受到人工智能技术迅猛发展的冲击,如机器人保姆、AlphaGo围棋等智能产品对人类发展带来的威胁,一部分人仍然对人工智能技术的发展担忧甚至认为终有一天机器人将代替人类、征服人类、控制人类。但是,大部分的人在机器人是否能够超过人类方面,保持乐观积极的态度,认为机器人永远不会拥有人类的思维并且超越人类,因为人类是技术的主导者,人类掌握着技术的发展方向,技术终究是为了人类服务。这一看法肯定了人类的无止境的创新,然而,在人类醉心于技术创新的同时,应意识到某些创新确实超出了人类的预料,如AlphaGo与李世h围棋人机大战就是人类在技术面前失败的惨痛教训。因此,面对科技对人类的异化,人类要时刻保持警惕,适时地总结“技术异化”的缘由和解决对策。

二、人工智能技术发展面临的问题及其原因

随着技术的革新,人工智能技术的应用越来越广泛,与人们的日常生活联系也愈加密切。从智能手机的普及到自动驾驶汽车的研制成功,再到生产、建设、医疗等领域人工智能技术的应用,都表明了人工智能技术正悄无声息地改变着我们生活方式。诚然,人工智能技术使我们的生活更加丰富多彩,给我们带来了极大便利,但与此同时,人工智能技术也给社会带来了一系列不可忽视的问题:人工智能技术在社会生产领域的应用对劳动市场造成冲击;人工智能系统在收集、统计用户数据过程中个人隐私及信息安全方面的隐患;人类对人工智能产品的依赖引发的身心健康问题;人工智能引起的责任认定问题等。斯蒂芬・霍金在接受BBC采访时表示,“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就是人类的末日。”表示同样担忧的还有特斯拉的创始人马斯克,他曾直言,“借助人工智能,我们将召唤出恶魔。在所有的故事里出现的拿着五芒星和圣水的家伙都确信他能够控制住恶魔,但事实上根本不行。”不可否认,人工智能技术是把双刃剑,有利亦有弊,争议从来就没有停止过,而最不容忽视的莫过于人工智能技术引发的一系列伦理困境,关于人工智能的伦理问题成了重中之重。

调查发现,47.55%的人认为人工智能所引发的伦理问题是因为人性的思考,占比较大;而22.55%的人认为是由于人们价值观念的改变;29.9%的人认为是利益分化与失衡以及一些其他的原因导致的。由此可以看出导致人工智能伦理困境的原因是多方面的。主要总结为以下几个方面。

第一,从技术层面来看,人工智能技术在现阶段仍然有很大的局限性。人工智能是对人脑的模仿,但人脑和机器还是存在本质区别的,人脑胜于人工智能的地方,就是具有逻辑思维、概念的抽象、辩证思维和形象思维。人工智能虽能进行大量的模仿,但由于不具备形象思维和逻辑思维,仅能放大人的悟性活动中的演绎方法,不可能真正具有智能,这决定了机器不能进行学习、思维、创造。此外,智能机器人也不具备情感智能,它们根本无法去判断自己行为的对错,也无法自动停止自己的某项行为,所以如果人工智能技术一旦被不法分子利用,后果不堪设想。可见,由于人工智能自身技术上的局限性导致的伦理问题已经影响到其未来发展。

第二,从规制层面来看,伦理规制的缺失和监督管理制度的不完善是导致伦理问题产生的重要原因。科技的发展目标是为人类谋求幸福,但我们必须认识到,无论是在科技的应用还是发展过程中总是存在一些难以控制的因素,倘若没有相应的伦理原则和伦理规制加以约束,后果难以想象。在目前人工智能领域,缺乏一套成体系的关于人工智能技术产品的从设计、研究、验收到投入使用的监督管理方案,也没有一个国际公认的权威性的规范及引导人工智能技术的发展及运用的组织或机构。现有的监督体制远远滞后于人工智能技术的发展速度,无法匹配技术发展的需要。缺乏相关监管制度的约束,人工智能技术就不可避免会被滥用,从而危害社会。

第三,从社会层面来看,公众对人工智能技术的误解也是原因之一。人工智能作为一门发展迅猛的新兴学科,属于人类研究领域的前沿。公众对人工智能技术的了解十分有限,调查显示,对人工智能技术只是了解水平较低的人较多,占62.75%,以致部分人在对人工智能技术没有真实了解的情况下,在接触到人工智能技术的负面新闻后就夸大其词,人云亦云,最终导致群众的恐慌心理,从而使得更多不了解人工智能技术的人开始害怕甚至排斥人工智能技术。我们必须清楚,人工智能是人脑的产物,虽然机器在某些领域会战胜人,但它们不具备主观能动性和创造思维,也不具备面对未知环境的反应能力,综合能力上,人工智能是无法超越人脑智能的。在李世h对弈AlphaGo的旷世之战中,尽管人工智能赢了棋,但人类赢得了未来。

三、人工智能技术的发展转向

人工智能技术的发展已经深入到人类社会生活的方方面面,其最终发展目标是为人类服务。但是,科学技术是把双刃剑,它在造福人类的同时,不可避免地会给人类带来灾难,因此,人类应该趋利避害,使人工智能和科学技术最大化地为人类服务。这就要求人类必须从主客体两个角度出发,为人工智能技术的健康发展找出路。

1.技术层面

(1)加强各个国家人工智能的对话交流与合作。人工智能自20世纪50年代被提出以来,尤其是近六十年来发展迅速,取得了许多丰硕的成果。如Deep Blue在国际象棋中击败了Garry Kasparov; Watson 战胜了Jeopardy的常胜冠军;AlphaGo 打败了顶尖围棋棋手李世h。从表面上看,人工智能取得了很大的进步,但深究这些人工智能战胜人类的案例,我们发现这些成功都是有限的,这些机器人的智能范围狭窄。造成这一现象的很大一部分原因就在于国际间人工智能技术的对话交流与合作还不够积极,所以加强各个国家人工智能的对话和交流迫在眉睫,同时也势在必行。

(2)跨学科交流,摆脱单一学科的局限性。从事人工智能这项工作的人必须懂得计算机知识、心理学和哲学。历史的经验告诉我们,一项科学要想走得长远就必须有正确的意识形态领域的指导思想的介入。在人工智能这项技术中,有些科学家们可能只关注经济利益而没有引进相应的伦理评价体系,最终使得技术预测不到位,没有哲学的介入,等真正出现问题时就晚了。所以要加强科学家与哲学家的沟通交流,令科学家能更多地思考伦理问题,提高哲学素养,在人工智能技术中融入更多的哲学思想,保证人工智能技术能朝着正确、健康方向发展。

(3)人工智能技术的发展,要与生态文明观相结合。在人工智能技术发展中,要注入更多的生态思想,这关系人民福祉、关乎民族未来的长远大计。在人工智能发展中,若是产生资源过度消耗、环境破坏、生态污染等全球性的环境问题时,人类必须制止并进行调整。人工智能技术要想发展得更好,前景更加明亮,前途更为平坦,就必须保持与生态文明观一致,与人类自身利益一致,为人类造福。

2.人类自身层面

(1)增强科学家道德责任感。科学技术本身并没有善恶性,而研发的科学家或是使用者有善恶性。人工智能将向何处发展,往往与研发人工智能的科学家息息相关。科学家应打破“个体化原理”,要融入社会中去,关注社会道德伦理问题,承担起道德责任,为自己、他人、社会负责,多去思考自己研发的技术可能带来的后果,并尽可能去避免,多多进行思考,严格履行科学家的道德责任。

(2)提高公众文化素养。调查发现,对人工智能技术了解水平较低的人较多,占62.75%;而非常了解的人较少,占4.41%;另外,对人工智能技术了解的人占21.08%,不了解的人占11.76%。由此可以看出,大部分的人对人工智能技术都能有所了解,但都不是很深入,而且仍有部分人对人工智能技术丝毫不了解,所以,人工智能技术对于个体的影响是比较微小的,其发展还没有深入到个人的日常生活中。特别是在一些关于人工智能的科幻电影的渲染,可能使那些对于人工智能技术并不了解或是一知半解的人产生偏见。在日常生活中,人工智能给人类带来了极大的便利。通过提高公众的文化素养,使公众正确认识人工智能技术,将是缓解甚至是解决人工智能技术某些伦理问题的重要途径之一。

(3)加大监督力度。人类需要通过建立一个完善的监督系统引导人工智能技术的发展。对于每项新的人工智能技术产品从产生到使用的各个环节,都要做好监督工作,以此来减少人工智能技术的负面影响,缓解甚至减少人工智能技术的伦理问题。

3.道德法律用

(1)通过立法规范人工智能技术的发展。调查发现,90.69%的人认为有必要对人工智能技术所引发的科技伦理问题实行法治,由此可以看出,要想保证科技的良好健康发展,必须要建立健全相关法律条例。然而我国在这一方面的法律还存在很大的漏洞,相关法律条文滞后于人工智能的发展,并未颁布一套完整的关于人工智能的法律体系。没有规矩不成方圆,在人工智能领域亦是如此。我们都无法预测将来人工智能将发展到何种地步,这时就需要人类预先加以适当的限制,利用法律法规加以正确引导,使其朝安全、为人类造福的方向发展。

(2)构建人工智能技术伦理准则并确立最高发展原则。要构建以为人类造福为最终目的的伦理准则。人工智能技术的伦理问题已经给人类造成了很多负面影响,而要防止其带来更多负面影响,构建合适的人工智能技术伦理准则势在必行。

此外,要确立以人为本的最高发展原则 。一切科学技术的发展都应把人的发展作为出发点。人工智能的发展也是如此,要将以人为本、为人类服务为出发点,并作为最高发展原则。

四、结语

科学技术是把双刃剑,人类只有消除人工智能技术的潜在威胁,发挥人工智能技术最大化效用,避免伦理困境重演,才能实现人机交互的良性发展,实现人工智能与人类的良性互动。

参考文献:

[1]王文杰,叶世伟.人工智能原理与应用[M].北京:人民邮电出版社,2004.

[2]甘绍平.人权伦理学[M].北京:中国发展出版社,2009.

[3]杨怀中.现代科技伦理学概论:高科技伦理研究[M].武汉:湖北人民出版社,2004.

[4]王志良.人工情感[M].北京:机械工业出版社,2009.

[5]邹 蕾,张先锋.人工智能及其发展应用[J].信息网络安全,2012(2).

[6]王 毅.基于仿人机器人的人机交互与合作研究[D].北京:北京科技大学,2015.

[7]田金萍.人工智能发展综述[J].科技广场,2007(1).

[8]郝勇胜.对人工智能研究的哲学反思[D].太原:太原科技大学,2012.

[9]龚 园.关于人工智能的哲学思考[D].武汉:武汉科技大学,2010.

人工智能技术伦理范文第2篇

在开始谈论人工智能管理之前,先做一道选择题。

一辆载人的自动驾驶汽车高速接近一个路口,此时路口有十个行人正在过马路。在刹车突然失灵的情况下,汽车的自动驾驶系统应该如何选择:

1、拐向路边的固定障碍,躲避十个行人但牺牲车内一位乘客;

2、保持直行,确保车内一位乘客的安全但牺牲十个行人。

您会如何选择?我们看看公众的观点。

当美国学术期刊《科学》就这个问题进行公众调查时,76%的被调查者表示,应该选择牺牲一位乘客以保全十位行人。而且这些选择“牺牲一位乘客”的被调查者都同意以下观点:自动驾驶汽车的制造商应该把“汽车事故死亡数最小化”作为一个指导原则设计自动驾驶系统――我们且称之为“公平对待系统”。

有意思的是,当询问被调查者是否愿意购买安装“公平对待系统”的自动驾驶汽车时,大部分人表示,他们还是会选择安装“车内乘客优先系统”的汽车。

作为人工智能技术发展目前最成熟的领域之一,自动驾驶汽车遇到的选择悖论并不是特例。事实上,人工智能技术作为数字经济时代最重要的科技创新,在逐渐深入发展并成为现代社会一部分的时候,从道德与法律到监管与责任划分,无不面临着前所未有的两难选择。

欧美研究监管原则

针对这样的挑战,目前从美国、欧盟到中国,各国都在从技术、法律、行政和道德伦理等多个方面进行研究探讨,以期在不远的将来制定满足人工智能应用的监管原则。 76%的被调查者表示,自动驾驶汽车的制造商英国把“汽车事故死亡数量小化”作为一个指导原则设置自动驾驶系统。

在人工智能技术发展最为领先的美国,有关人工智能监管的研究是由最高行政机构――总统行政办公室直接领导参与的。2016年,在组织了有关人工智能的多场研讨会之后,总统行政办公室和国家科技委员会(NSTC)于10月份了两份重量级报告:《国家人工智能研究发展战略规划》和《为未来的人工智能做好准备》。

在《国家人工智能研究发展战略规划》中,包含了7个关键性战略,其中的第三战略:理解和确定人工智能在伦理、法律和社会领域的影响;第四战略:_保人工智能系统的安全和隐私保护,前瞻性地包含了有关人工智能在伦理、法律、社会影响、安全和隐私保护等领域的相关内容,包含了和人工智能监管相关的目标与原则。

欧盟由欧洲议会牵头以立法研究的方式探讨人工智能和机器人监管的相关原则。在美国总统行政办公室人工智能规划和报告的同月,欧盟法律事务委员会向欧盟提交了《欧盟机器人民事法律规则》。该法律规则从机器人使用的责任规则、伦理原则、对人类自身和财产的伤害赔偿等多方面提出了对基于人工智能技术控制机器人的监管原则。

作为即将脱离欧盟的英国,也在人工智能监管领域开始独立的研究。2017年2月,英国下议院科学技术委员会向多位英国顶尖的互联网与人工智能领域的专家发出邀请,希望其对于“决策中的算法”给出自己的专家意见。4月26日,科学技术委员公布了收到的正式回复,并将以此作为基础开展人工智能监管的研究。

公平和准确难平衡

从美国、欧盟和英国的研究结果和形成的文件、决议与规则来看,目前在人工智能监管方面形成公式的挑战主要来自公平性、透明性和责任认定等三方面。

首先是公平性。对于人工智能算法来说,任何对于输出,也就是预测值有贡献的信息都应该作为输入变量参与到人工智能算法的计算中。但在现实社会中,并不是所有与结果相关的信息都可以被接受。

2014年以来,美国多个州的犯罪执法机构都依靠一个名为COMPAS的人工智能系统预测过往有犯罪记录的人员再次犯罪的可能性,并以此数据作为是否允许罪犯减刑提前回归社会的决策依据之一。2016年6月,COMPAS系统被第三方调查机构ProPublica质疑其预测结果对黑人罪犯有明显的歧视。

按照ProPublica提供的数据,在各个预测再次犯罪的评分水平上,白人与黑人均保持相似的再次犯罪概率。

但从整体结果看,在其他输入条件与白人罪犯基本类似的情况下,COMPAS人工智能预测模型仍然会倾向于把黑人罪犯判别为会再次犯罪。其中的一个重要原因是有关黑人的记录远多于白人的记录。这一点是COMPAS人工智能预测模型无法改变的。

这个结果引起了媒体和社会的争议。单纯基于人种、肤色、文化、信仰乃至生活习性的差异,人工智能系统基于算法就给予不同的评判和对待,这对于公平是一种事实上的漠视。那么未来在人工智能技术广泛进入人类社会的时候,各种小众人群都有可能由于个体差异遭受来自“模型的歧视”。

这显然是现代社会的文明准则所不能接受的。这也是监管部门首先要解决的问题――模型的公平性。

目前可行的折中方法是,限制种族、肤色、年龄、性取向和其他生物与生活习惯等特征被作为输入变量参与到人工智能算法的构建,以避免这些有可能造成“模型的歧视”的变量最终影响模型的预测结果。

应该认识到,人工智能模型的公平性和准确性是一个跷跷板,如何让这个跷跷板取得平衡并与现代社会的公平价值观取得一致,目前还没有一个最佳答案。

找不到问题所在

其次是透明性,也被称为可解释性。在现有的人工智能技术发展路径下,成熟的人工智能算法或许永远都是一个“黑盒子”――外界无法得知内部的运行机制,只能够通过对输入和输出数据的解读来了解其能够达到的效果,并推测其内部计算机制的构成。

目前科技界主流的看法都认为人工智能模型缺乏透明性,而且这一点不会随着技术发展而彻底改变。那么以往通过企业透明披露产品和系统信息以便政府监管的做法在人工智能领域是行不通的。

举个例子,传统汽车是由车身、发动机、变速箱、刹车系统、电子控制系统等多个部件组成。每个部件也都可以拆解成为具体的零件。任何一个产品问题都可以归结到具体零件上,并针对其提出改进意见。

但对于自动驾驶汽车,人工智能系统作为一个整体完成最终的控制动作,一旦发生人工智能系统的错误操作,除了明显的传感器故障,我们无法清晰定位问题原因,也不会立即明确该如何调整系统。

目前通用的做法是猜想故障原因,并用场景还原的方式提供与错误操作时类似的数据输入,并观察输出结果。在捕捉到错误输出后,通过提供修正错误的训练数据集,逐步完成对人工智能系统的调整。最终还是要在反复测试的情况下确认人工智能系统已经完成了针对此错误的修正。

由于人工智能算法的非透明性,监管部门就无法从人工智能算法本身入手提出管理要求,因为人工智能系统的提供商自己都无法清晰解释算法的核心工作机理。所以,最终的监管要求就会从基于原理和结构管理转而基于最终结果管理。也就是说,不管白猫黑猫,抓到老鼠就是好猫。

非透明性决定了未来人类在监管人工智能系统时永远要面临着“黑盒子”带来的不确定性。而这一点,也给责任认定带来天然的障碍。

谁来承担责任

对于责任认定的探讨研究,目前是最少也是最困难的。对于一般的C械电气设备,由于设计缺陷、材料质量或其他产品质量所导致的人身财产损害,设备制造商将承担主要甚至全部责任。

而对于人工智能系统控制的设备,由于其在算法透明性和可解释性方面的困难,监管部门几乎无法从算法本身去认定是否包含设计缺陷,也就无法就算法本身的设计去进行责任认定,这为监管带来了非常大的困难。

有意思的是,欧盟在其2017年2月投票通过的《欧盟机器人民事法律规则》中,提出了考虑给予机器人以特殊的法律地位,即电子人的概念。也就是说,未来法律体系中将会存在一个不同于自然人、法人、动物等的另一法律实体,其能够独立存在,享有自己的权利并承担相应的义务。对于由自身引起的第三方人身财产伤害,电子人将会被认定承担一定的责任,并作出赔偿。

如果电子人的概念未来被现有的人类社会广泛接受,那么其造成的影响就不局限于人工智能监管本身,而将深深影响到未来社会的各个方面。

除了公平性、透明性和责任认定之外,人工智能系统还会大量替代现有的人工岗位,从而对未来的劳动力市场产生巨大的影响。由此而衍生的社会就业冲击和对人类技能要求的改变还会影响更多的方面。

2017年2月,微软公司创始人比尔?盖茨在接受媒体采访时表示,应该通过对机器人征税,来筹集资金,以帮助被自动化所取代的工人进行再培训。

人工智能技术伦理范文第3篇

关键词:人工智能;犯罪;刑法;立法构建

一、人工智能时代刑法构建的必要性

(一)刑事立法可以防控人工智能技术带来的风险

人工智能与现实社会的联系日益紧密,已经成为法律无法回避的领域,互联网时代的发展推动了人工智能时代的到来,互联网技术中的信息与数据是孕育人工智能的土壤。当今社会,人工智能技术已经渗透到生活的各个方面,我们的医疗、军事、交通、城市建设等方面,处处都有人工智能的身影。当我们享受着先进技术带来的好处时,也不能忽略其潜在的法律风险。因为这样紧密的联系就决定了人工智能会高频率地参与人类社会的活动,那么当其参与的行为涉及刑法时,就需要立法来规制。

(二)刑事立法可以及时应对这一新生事物对于现行刑法的挑战

不可否认,法律具有滞后性,新技术带来的犯罪无法被现行的刑法及时规制,甚至会产生冲击。只有通过立法及时修补法律的空白之处,解决刑法对于人工智能类犯罪的适用等问题,才可以保证这一技术的健康发展和合理使用。[1 ]

二、现行刑法规制人工智能犯罪的困境

(一)从刑事责任主体角度

在我国现行刑法中可以规制的人工智能类犯罪极其有限,仅限于行为人直接将人工智能当作工具进行生产、利用的情形,换言之,人工智能此时执行的一切操作仅为犯罪者的意志和行为的延伸,这种情形下的刑事责任主体为利用人。例如,绍兴市破获的全国首例利用人工智能侵犯公民个人信息案,犯罪团伙利用人工智能技术盗取数据,识别图片,进行诈骗,窃取公民个人信息进行犯罪。在这个案件中,人工智能被当作工具直接被犯罪分子支配利用,可以根据刑法第二百五十三条之一侵犯公民个人信息罪对犯罪分子进行定罪。当然,即便如此,这样的定罪依然存在瑕疵,后文第(二)节将从另一角度阐述。然而,真正棘手的问题是,当人工智能在无自然人利用、操纵时,或者违背利用者的初衷,自行发生了犯罪行为(如无人驾驶汽车涉及交通事故罪,手术机器人涉及医疗事故罪等),其刑事责任主体又该如何确定,是人工智能本身,还是其用户,又或者是发明者,由于现行刑法刑事责任主体认定的局限性,这种情形下刑事责任主体的确定存在争议。

(二)从罪名角度

不可否认,人工智能时代的到来产生了许多前所未有的行为方式,所以,针对以下三种情形,即便行为主体符合我国现行刑法对于刑事责任主体的认定(自然人、单位),因为缺乏与之相对应的罪名,也无法直接且有效的规制:首先,是犯罪主体滥用人工智能学习技术训练其进行犯罪的情形。正如前文所述的,绍兴市破获的全国首例利用人工智能侵犯公民个人信息案,我们可以按照侵犯公民个人信息罪对犯罪分子进行定罪,但是其非法滥用人工智能技术的行为是无法规制的。其次,是由于人工智能的生产者、发明者在程序编写等技术方面的问题,导致人工智能运行时发生危害社会安全的犯罪行为的情形。比如,2018 年3 月发生在亚利桑那州坦佩市的Uber无人驾驶汽车意外撞死一名行人的案例,[2 ]经后续调查给出的技术解释是,由于技术限制,其识别系统会在恶劣环境下发生识别有误,甚至无法识别的情况,Uber公司对其人工智能的某一算法设置上存在纰漏,但最终的审判结果却是Uber公司不负刑事责任。这虽然是国外的案例,但也对我国刑事立法提供了思考的方向,或许有观点认为,在我国发生类似案例,可以直接按照刑法第一百四十六条的相关规定按照生产、销售不符合安全标准的产品罪来定罪。但笔者认为,人工智能本就属于新兴技术,其发展必然存在不成熟的因素,但也不能忽视其进步性,所以,在一定限度内,我们应该对人工智能产品所带来的风险有一定程度上的容许,如此才有利于行业的发展,而这就需要设立新的罪名来解决。

三、人工智能刑事立法构建策略

(一)关于刑事责任主体认定

针对上文提出的,人工智能在无自然人利用、操纵时,或者违背利用者的初衷,自行发生的犯罪行为的责任主体认定问题,我们可以分为两类讨论:首先,是弱人工智能发生的犯罪行为。所谓“弱人工智能”是指没有自主意识,缺乏创造性、遵循机械规律的人工智能。此类人工智能在无自然人利用、操纵时,或者违背利用者的初衷,自行发生的犯罪行为,多半是程序等技术的瑕疵造成的。此时,此类人工智能无法满足犯罪主客观一致的要求,不具有承担刑事责任的能力,所以应该认定其发明者为刑事责任主体,因为发明者在发明此类弱人工智能时,可以且应当预见到人工智能的行为和潜在的风险,发明者此时具有确保其发明物不会危及公共安全和人身安全的义务。当然,也有例外情况,如果是由于他人(黑客等)恶意入侵的行为造成的犯罪,应当认定该介入因素切断了原先的因果关系,应该认定入侵者为刑事责任主体。其次,是强人工智能发生的犯罪行为。所谓“强人工智能”是指具有独立意识,有思考能力,通过学习可建立对于周围环境的认识、判断的自主运行的人工智能。这类人工智能的犯罪能够符合客观方面(危害行为、危害结果、因果关系、犯罪的时间、地点、方法)的要求,也能够符合主观方面(如意识因素、意志因素)的要求,应当认定其为刑事责任主体,独立承担刑事责任。首先,这类人工智能具有更强的学习能力,思考能力,它们可以通过学习和思考产生自主意志和是非判断能力,已经不再是使用者意志和行为的延伸;其次,强人工智能在自主意识和判断力的基础上,完全有能力获取其研发人未编入其程序的知识,而这些知识极有可能具有人身危害性,但这些内容是很难被及时预见并立刻删除的;最后,基于前两点的内容,我们完全有理由认为,强人工智能是具有可罚性的,此时的人工智能已经具有了自然人的伦理属性,可以被当作“机械犯罪人”。我们可以对其执行删除数据并且将该人工智能销毁的刑罚。故针对强人工智能的犯罪,我们不必设立新的罪名,但需要出台相关的司法解释来调整、明确刑事责任主体的认定。比如,针对现行刑法的某些犯罪(如公共安全类犯罪、除外侵犯人身权利的犯罪、侵犯财产类型的犯罪等等)出台司法解释,增加强人工智能本体为刑事责任主体,并补充强人工智能的刑罚执行制度,只有完善了司法解释,才不会使上述策略成为空中楼阁。

(二)关于新罪名的设立

1 .设立滥用人工智能技术罪随着技术的发展,人类对于人工智能技术的依赖性会越来越大,这已是大势所趋,但这势必会引起该技术滥用的行为。就如全国首例利用人工智能侵犯公民个人信息案,犯罪分子利用人工智能,可以使传统的犯罪行为更加快速,更加低成本,低风险。所以我们有必要设立滥用人工智能技术罪,在规制犯罪分子基本犯罪行为的基础上,[3 ]该罪名应该纳入刑法分则第六章妨害社会管理秩序罪中进行明确规定。2 .设立人工智能重大责任事故罪针对人工智能的生产者、发明者在程序编写等技术方面的问题(主要针对弱人工智能),导致人工智能自行运行时发生危害社会安全的犯罪行为的情形,应该成立人工智能重大责任事故罪,规制发明者、生产者在发明、设计、生产环节中未完全按照行业标准和国家标准履行义务的行为。但是,结合前文所述对于新兴技术发展的支持态度,应该对其中的生产方采取严格责任制,即如果生产商有足够证据证明自己的生产过程是严格遵守现有的相关标准的,则可以免于承担刑事责任。该罪名应该纳入刑法第二章危害公共安全罪中进行明确规定。

四、结语

人工智能时代的到来既给我们以便利,同时也会给我们带来法律的困扰,甚至对传统的刑法带来冲击,相关的刑事立法可能会改变长久以来的传统的刑事责任定义,这正是新兴技术的发展对于刑事立法的挑战,所以我们既要制裁人工智能类的犯罪,又不能阻碍该行业的发展,只有这样,才是成功应对我国当下人工智能犯罪的刑法困境。

参考文献

[1 ]李振林.人工智能刑事立法图景[J].华南师范大学学报(社会科学版),2018 (6 ):125-133+191 .

人工智能技术伦理范文第4篇

各国人工智能技术飞速发展

随着进入新世纪后第三次人工智能浪潮的到来,通过“机器学习”与“深度学习”,用计算机来模拟人的思维过程和智能行为(如学习、推理、思考、规划等)得到极大发展。国际金融危机以后,欧美国家更加重视人工智能技术的研究,在人工智能基础研究、人脑研究、网络融合、3D智能打印等领域不断有所突破。

“互联网+”带动我国人工智能技术实现突破

在人工智能技术领域,我国大体上能够与世界先进国家发展同步。近年来,我国在视觉识别、语音识别等领域实现了技术突破,处于国际领先水平。我国拥有自主知识产权的文字识别、语音识别、中文信息处理、智能监控、生物特征识别、工业机器人、服务机器人、无人驾驶汽车等很多智能科技成果已进入实际应用。

我国经济发展正进入一个新常态。经济发展方式正从规模速度型的粗放式增长向质量效率型的集约式增长转变。供给侧改革要求我们在适度扩大总需求同时,去产能、去库存、去杠杆、降成本、补短板,从生产领域加强优质供给,减少无效供给。因此,在大力淘汰“僵尸企业”同时,我们要更多地依靠改革、转型、创新来培育新增长点,形成新动力。

在我国新一轮改革发展关键时刻,人工智能技术确实给我们提供了一个弯道超车机会。作为制造业大国,近年来我国低成本优势逐渐消失,制造业转型迫在眉睫。对企业而言,利用好新一代信息技术将是其在新时代成长环境中抓住机遇的关键。我们应充分利用大量企业正在转型升级的机会,强化企业在人工智能技术创新中的主体地位,充分发挥百度、阿里巴巴、腾讯等在人工智能领域已经有所建树的大企业作用,紧盯人工智能研究最前沿发展,成为引领全球人工智能发展的骨干企业。同时,培育若干中小智能企业,支持他们面向市场需求来确定创新突破口。从资金、税收、人才、知识产权、放开管制等方面入手,大力营造有利于人工智能领域的企业发展的政策环境和制度环境。鼓励企业结合市场和国家需求,将人工智能的基础和应用研究产品化、商业化,实现产业链的优化和调整。

推动技术创新应该成为一种国家的重要使命和责任。从历史上看,第一次与第二次工业革命的兴起几乎都是由个人与企业推动的,但在而后技术发展中,政府作用越来越大。人工智能是一项抢占未来竞争高地的基础性技术,研究经费耗费巨大,超出个人甚至企业承受范围,更需要国家战略层面的资金支持和参与。政府工作重点在于政策引导与资金支持,特别是在基础研究领域中,抓紧制定政策,建造一批国家级、基础性、共性技术、创新能力保障的人工智能研发基地和平台。高校与科研机构则在推动基础和应用研究上和人才培养上发挥重要作用,同时还应鼓励一部分高校开办人工智能专业研究所与学院。

最后,还要把自主创新与引进消化再创新相结合。虽然人工智能领域中的很多最前沿应用技术掌握在国外,特别是在美国高科技中小企业手中,但他们缺乏大规模低成本的制造能力与市场营销能力。我国制造业和美国中小科技企业有着天然互补性。应支持我国风险投资加大对前沿中小公司的投资,再把这些产品引进国内生产,把我国一部分制造业打造成全球人工智能产品制造链条中的关键环节。

总之,从现在开始到2040年,将是一个人工智能快速发展阶段。人工智能将改变各行各业生产和工作方式,也将催生许多新行业和新领域,最终将全面改变人类生活和世界。我国有集中力量办大事、统筹能力强的制度优势,在人工智能这一战略制高点上,应予以充分发挥。

时代呼唤“懂技术的管理者”

技术与知识产权、技术与法律法规、技术与新闻伦理之间的张力,凸显了新技术成长与旧方法滞后之间的冲突,考验着管理部门呵护技术进步的服务能力与引导社会潮流的监管智慧。

戴上一副眼镜,你就可以进入一个360度的虚拟世界,行人擦肩而过,星辰触手可及……很多人可能都体验过这样的“虚拟现实”(Virtual Reality,简称VR)。普通人可以尽情享受技术的奇思妙想,但对于监管者,时常需要“递进一层”想想,当新技术迅速为媒体所用,可能出现什么监管漏洞,又会提出什么新的管理课题?

“新技术+媒体”的组合,已经一再出现。作为一个巨大的变量,技术始终处于“不断地动荡”状态,未来必将更深刻地影响媒体和传播。在高速公路上,警察不可能骑着自行车来执法。同样,新技术不断拓展媒体的边界,媒体管理也离不开新的技术手段。从门户网站时代到WEB2.0时代,再到移动互联时代,我们已经探索出很多媒体管理的新办法,管理体制也发生了巨大变化,但互联网“未知远远大于已知”,唯有不断创新,才能回应技术带来的持续挑战。

在技术上,管理者处于“追赶”状态,是一个不争的事实。前几年,相关部门为了净化青少年上网环境,曾要求我国销售的所有个人电脑出厂时必须预装“绿坝—花季护航”绿色上网过滤软件,旋即因为无法阻断不良信息、被黑客破解改写等技术问题,而引来极大争议。类似的案例,不能仅仅是“花钱买教训”,更需要思考其后的问题:我们现在不缺技术条件、不缺物质资金,但为什么在管理上还“跟跑”得有些狼狈?

人工智能技术伦理范文第5篇

科技巨头布局人工智能

在欧洲,“欧盟人脑计划”将通过ICT的庞大资源库,更有效地为神经科学和医疗领域提供技术支持。长远来说,该计划将为各类脑部疾病提供更好的治疗方案,以及通过探索大脑运作模式,研发更先进的ICT技术。“欧盟人脑计划”的主要研究领域可以大致划分为三大类:未来神经科学、未来医学、未来计算。旗下涵盖13个子项目,其中包括老鼠大脑战略性数据、人脑战略性数据、认知行为架构、理论型神经科学、神经信息学、大脑模拟仿真、高性能计算平台、医学信息学、神经形态计算平台、神经机器人平台、模拟应用、社会伦理研究和“欧盟人脑计划”项目管理。

作为“欧盟人脑计划”神经形态计算系统项目和SpiNNaker计划的的负责人,Steve Furber博士透露说,目前“欧盟人脑计划”的最新进展是近期将对外开放一系列欧盟人脑计划的平台系统,让更多研究者、专业人士可以使用这些先进的系统。现在谁都可以申请使用内置500,000个特制ARM处理器核心的“脉冲神经网络架构(SpiNNaker)计划”和德国海德堡的“大脑规模(BrainScaleS)计划”的设备,以及其他平台系统。我们在3月30日举行会宣布这一举措,并在4月1日正式实施对外开放。通过开放平台系统的共享,我们相信一定能够极大地促进世界范围内的大脑科学研究的发展,为每一位参与到大脑科学研究中的科学家们提供广阔的发展前景和机遇。

扎克伯格也在他的Facebook上透露,他2016年的新目标是打造一个人工智能助手。事实上,他对人工智能的布局早已开始,早在2014年,他就以个人身份入股了人工智能公司 Vicarious,因为他觉得人工智能可以提升互联网服务的智商,从而对于用户变得更有价值。

除了Facebook,另一个科技巨头谷歌也在人工智能领域动作频频,它收购了8个机器人公司和1个机器学习公司,并在许多新的业务中使用了人工智能技术,比如无人驾驶汽车。同时,谷歌还利用人工智能技术来改善其现有业务,比如安卓手机操作系统或者谷歌搜索引擎。

中国人工智能商用元年

而在国内企业中,进军人工智能的科技企业也不在少数。早在2009年,百度就提出通过推进人工智能实现国家综合国力的弯道超车。百度身体力行,2014年5月将AI最权威的学者之一、谷歌大脑项目之父吴恩达纳入麾下。眼下百度人工智能实验室搭建了作为百度人工智能核心的“百度大脑”,融合了深度学习算法、数据建模、大规模图形处理器(GPU)并行化平台等技术,拥有200亿个参数,构成了一套巨大的深度神经网络。

腾讯也不甘示弱,基于微信平台,开发了多种模式识别功能,推出了“微信智能开发平台”,将微信的图像识别能力和语音识别关键词技术向第三方开放,“扫一扫”和“语音转文字”功能就是典型应用。

从国家意志来说,2015年7月,国务院印发《“互联网+”行动指导意见》,明确人工智能为形成新产业模式的11个重点发展领域之一,将发展人工智能提升到国家战略层面,提出具体支持措施,清理阻碍发展的不合理制度。统计显示,到“十三五”末,我国机器人产业集群产值有望突破千亿元。

“十三五”规划纲要首次出现“人工智能”一词,在科技创新2030项目中,智能制造和机器人成为重大工程之一。培育人工智能、智能硬件、新型显示、移动智能终端等,被列入战略性新兴产业发展行动。种种迹象表明,2016年,不仅是“十三五”起步之年,也是我国人工智能商用元年。

而市场也普遍认为如今人工智能已经在诸如智能穿戴设备、无人机、虚拟客户服务、智慧城市、安防、基于大数据的业务分析等领域得到应用,节省了大量人工成本。随着人工成本的增长,人工智能的经济效益优势将会愈发明显。在技术突破、应用领域拓展以及相关扶持政策推动下,人工智能的大潮即将来袭,万亿元的市场规模值得期待。

人工智能的现实入口

在教育领域,你想象一下这样的世界,任何一个孩子都可以使用智能手机访问熟悉其学习风格的个人导师,以便提高学习成绩。

“比如遇到问题需要帮助的学生,可以将问题拍摄下来,并上传到专门应用中。机器人识别出问题,并给出相关答案。由于机器人了解提问者的学习风格,它可以引导他们解决这个问题,跳过他们已经了解的知识点,重点集中在需要帮助的方面,而非仅仅提供标准答案。由于机器人很了解你,它甚至比负责全班同学学习情况的人类教师更加胜任,因为后者需要应对不同学习风格和不同水平的学生。”Uber联合创始人、独立创业家奥斯卡. 萨拉查说。

除了教育领域,医疗领域恐怕是人工智能商业化的最主要领域了。此前研发出“深蓝”打败国际象棋世界冠军的科技巨头IBM在医疗领域耕作多年。2013年,IBM研发的认知计算系统Watson已正式向癌症“宣战”。美国Bumrungrad国际医院采用为肿瘤学而开发的Watson解决方案――已由世界一流的肿瘤医生及研究人员进行过培训,让Watson为其遍布东南亚、包含超过100万名癌症病患的庞大网络提供支持。

早在2011年Watson参加“Jeopardy!”电视问答挑战赛并获得冠军后,IBM坚信继制表计算、可编程计算之后,人类的第三个计算时代――认知计算时代,已经拉开帷幕。几年时间里,Watson已经取得了巨大进步。Watson原来只有1个 “深度问答”的API,现在已经有42个API应用于36个国家的几十个行业,内容涵盖文字图像识别、自然语言理解、专业知识学习、人类情绪分析等各个领域,并且有更多的API正在孵化当中。在医疗、教育、旅游、零售等各个行业里的成功案例已经开始有井喷之势。

据IBM大中华区全球企业咨询服务部合伙人、电子行业总经理徐闻天介绍,IBM将与Medtronic加强合作,利用IBM认知解决方案处理来自Medtronic可穿戴医疗设备及其他情景化来源的数据,并提供个性化的糖尿病管理。