首页 > 文章中心 > 人工智能的伦理思考

人工智能的伦理思考

前言:想要写出一篇令人眼前一亮的文章吗?我们特意为您整理了5篇人工智能的伦理思考范文,相信会为您的写作带来帮助,发现更多的写作思路和灵感。

人工智能的伦理思考

人工智能的伦理思考范文第1篇

关键词:人工智能影视教育课堂在场价值观

人工智能技术作为社会媒介化发展的特殊产物,不仅能够建构起智能媒介化的信息社会,更能深入到传媒研究领域,引导影视传媒研究朝着“互联网+教育”的方向发展。当前影视传媒教育正面临重要的转型阶段,如何通过媒介信息技术调整现有的理论学习模式和教学培养目标,已经成为影视教育进行改革创新的突破口。基于人工智能为教育信息化带来的机遇和挑战,影视教育正致力于从“刀切教育”迈向“精准教育”,从“课堂缺席”转为“课堂在场”,从人才培养模式到教育信息平台搭建,都在不断强化智能教育培养,力求为影视传媒教育的智能化改革和实践提供决策依据。

一、影视教育智能化发展的应用价值

智能化影视传媒研究是教育信息化极为重要的应用场景,人工智能技术不仅拓宽了影视传媒教育的研究方向,同时也在技术手段、渠道搭建、傳媒伦理等层面发挥着重要作用。

1.消除数据鸿沟,发挥智能传媒教育技术赋能和知识平权的双重功能。影视传媒研究是以实践为基础的理论性教学,以培养创新型和复合型人才为教育目标。教育学者是影视文化传播的驱动者,因个体间存在传播技能、信息储备和交往行为方面的差异,造成影视传媒教育具有严重的知识鸿沟。在影视研究学者步入算法教育的重要阶段,智能教育平台可通过读取人的反馈改变原有的教学模式,调整每一位受教育者的天赋类型。与此同时,教育学者能够充分利用算法技术和人工智能手段,获取定制化的影视资源和学习条件,以技术逻辑引导学习流程,用分析框架提高教学模式的理论性和可操作性,通过强化教与学的变革场景,激活文化创作的想象力和逻辑性思维,使科技创新在理性与感性、理论与实践的引导作用下,从一般的理论教学形成智能媒介化的信息教学模式,从单向传授转变为双向互动的学习教育模式。

2.拓宽学习渠道,推动教育形态从理论课堂到智能媒体教育课堂的变革。人工智能技术与影视教育教学的深度融合,正引发起一场新的教学革命。从教育手段和学习途径上来看,原有的课堂教学已无法满足理论和实践的双重需求,大数据催生出的智能化影视教育,在虚拟世界和现实世界间搭建起新的算法课堂,利用人工神经网络简化理论教学的概念,又通过具有超强运算能力和通讯能力的技术手段协助实践操作。例如,人工智能照相机作为辅助型的教学工具,被运用于智慧课堂的摄影实践教学中,借助云端技术和物联网连接远程数据中心,可以帮助不懂摄影技术的学习新手尽快了解电影拍摄的理论框架和基本技能,推动教学场景从应用性教学到智慧型课堂的氛围建构。人工智能与影视教学的跨界融合,成为智能传媒教育进行颠覆式创新的重要表现形式,教育形态正逐渐从智慧课堂过渡到智慧校园,从传统的理论范式过渡到智慧媒体的应用型范式,帮助构建起新的学科话语体系。

3.重视传媒伦理,推动智能化影视传媒教育价值观和技术性的生成。人工智能是以追求效益为初心的理性工具,在技能研发阶段尚未对伦理规范提出强制要求,技术伦理向来是人工智能难以逾越的一道鸿沟;影视传媒教育则是以培养学生的伦理观和价值观为出发点,重视以道德审美为核心的理性意识。智能化传媒教育将信息技术和影视教学进行结合,使得理性工具得以同理性意识深度融合,人文关怀建立在技术作用之上,这既是培养受教育者核心价值观的时代需要,亦是强化人工智能技术伦理的有效途径。人工智能时代,强调智能化影视传媒教育技术性和价值观的生成,与其说是建立在影视教育应用场景上的技术伦理规范,不如说是借信息技术完成对传媒伦理和受教育者价值观的理性建构,让人工智能发展紧密联系意识形态和伦理道德问题,加深技术手段和教育学习的彼此作用,从而获得传媒教学在伦理层面的共识。随着传媒影响力的逐步扩大,以内容为载体的影视教学活动意味着要担负起更重要的教学责任,学科研究核心价值观的建设必须以注重传媒伦理和技术伦理为教学基础,重新建构现有的伦理道德观念,为人工智能技术注入价值观的活的灵魂。

二、影视教育智能化发展的风险问题

人工智能技术的迅速发展,赋予影视传媒教育极大的应用价值,与此同时也面临着潜在的风险问题。

1.灌输式教育仍占据主流,智能化影视教学陷入价值认知困境。在人工智能技术出现以前,理论+实践的教学策略已经成为一种固定的形态存在于传统影视教学工作中,受教育者根据统一的培养目标规划自己的学习方式,包括影视创作及影视理论等相关课程都按照相同的培养模式进行。由于教育主体对人工智能的认知存在两极分化的现象,过往只能够通灌输式对学生进行强制教育,智能化影视教学则是处于小范围内的实践和创新。对影视教育而言,理论与实践是学习的内容,继承与创新才是研究的实质。明确人工智能教育的价值认知,从灌输教育逐步迈向定制化教育,为高校的人才培养提供重要的智力支持,应当是影视教育智能化转型发展的着力点。

2.智能教育应用场景缺乏思考,其深度和广度有待进一步挖掘。当前,智慧课堂、智慧校园的出现奠定了智能传媒教育的基本雏形,依靠大数据、物联网等信息技术支撑的智能传媒教育,在平台搭建层面已出现显著性成果,但对应用场景的深度和广度挖掘还存在明显问题。影视教育智能化应当以追求个性化和定制化教育为目标,崇尚的是终身学习的教学理念,不应当将人工智能技术仅局限于传统的教学课堂,除了要从“线下”走向“线上”,还需要考虑到以人机交互为主要形态的教学应用场景,挖掘人工智能教育更多的应用情境和展现方式,从而对影视课堂的理论与实践教学价值提供合理的在场性证明。

3.专业壁垒依然存在,智能化教学成果马太效应极为明显。智能教育世界要求培养更加多元化的应用型人才,但人工智能的马太效应逐渐渗透到影视传媒教育工作中,也会导致教学成果受到出现严重的失衡现象,难以满足高校对人才培养的多元化需求。作为艺术研究的影视教学活动,其科学精神和创新实践同样重要。尤其在媒介融合背景下,要想推进受教育者从“影视学者”逐渐过渡到“影视作者”,人工智能不仅需要满足师生的定制化教学任务,还应当破除专业和行业的壁垒,对其相关联的学科和传媒领域进行合作,才能够改变当前智能化影视教育在教学模式上面临的不足,不断为社会输送更多的应用型人才。

三、影视教育智能化发展的转型实践

面对智能传媒教育的风险与挑战,影视专业更应当立足于自身的教育发展特色,从人才培养模式、应用场景建设、教育资源整合等方面,推进影视教育智能化发展的转型实践。

1.从“灌输教育”走向“精准教育”,创建新的人才培養模式。智能传媒教育范式的自主性建构,应当立足于对传统教学效率和人才培养模式的颠覆。基于当前影视传媒智能化发展在人才培养模式层面的不足,其转型实践需要从受教育者的个性化需求出发,在师生、家长和社会的通力合作下,创建新的人才培养模式,利用碎片化学习完成系统化的学习过程,逐渐从“灌输式教育”走向“精准化教育”。例如,人工智能时代对影视学生的培养更趋向于“以个人为导向的系统化学习”,通过前期对受教育者的大数据整理,对每一位同学的逻辑性、想象力、创造性和沟通能力等进行分析,从影视理论和影视创作两大方向出发对受教育者形成定制化的学生画像,并提供针对性的智慧作业,帮助教师采集学生的学习情况,从而实现规范化的信息管理。可以预见的是,智能传媒时代,“互联网+教育”学习模式的生成,在推动知识平权化等方面发挥重要价值,成为影视教育智能化追求的重要转型路径。

2.从“课堂缺席”走向“课堂在场”,打造新的传媒教育平台。人工智能不仅要改变传统的人才培养模式,同样也应当提供更加多元化的学习应用场景。过去的影视研究多局限于单一的课堂场景,采用课上理论和课下实践的方式进行授课,完成影视教学的闭环。人工智能时代,影视传媒教育应当调整原有的受教育模式,通过搭建合理的人工智能应用平台,可以巧妙地将课堂场景与智能技术结合起来,为受教育者提供更加多样性的教学应用场景,从而实现成长课堂的“在场共生”。例如,人工智能可以带动影视制作的推陈出新,通过搭建智慧超媒体系统,将电影屏幕从影院搬到校园,自动生成无穷界面。与此同时,影视传媒的智能化还可以帮助教师自动生成电影梗概,将理论性教学转变为可视化形象,使电影理论同定制化的影像人物之间建立匹配关联,让教育场景从线下逐步延伸到线上,为影视研究提供重要的云服务。

3.从“媒教分离”走向“共建合作”,实现产研学的自主对接。影视教育智能化发展的最终目的是为了寻求理论与实践的融和,帮助构建起传媒教育和传媒业界的良性生态关系。传媒教育智能化也可以全面提高受教育者的学习效率和工作效率,通过优化教育资源,带动影视内容的高质量生产、影视人才的高质量创作。因此,从“媒教分离”走向“共建合作”,引导产研学的自主对接也成为了影视教育智能化转型实践的有效探索。未来的影视传媒发展,能够抓取海量资源建构独立的影像景观模型,为机器人参加艺考创造可能性,并且也可以紧抓电影内容的智能化生产,从前期的电影脚本自动化写作到后期的虚拟演员个性化定制,系统均可以对剧本创作、电影拍摄等课程进行精准化评估,从中筛选出符合影视公司要求的作品,进入后续的市场化操作。

人工智能的伦理思考范文第2篇

什么是算法?

算法是指由计算机执行的一系列独立的指令和动作。从初始状态和初始输入开始,这些指令描述了完整的计算步骤――通过一系列有限的、确切的指令,产生并输出答案和数据,最终止于结束状态。

人工智能的算法是一套利用机器智能解决问题的复杂手段。过去,我们给计算机下达规则式的指令来解决问题;现在,我们只要告诉计算机想解决的问题,它就可以自行选择算法来解决问题――这便是人工智能带来的根本性变革。

人工智能最重要的是学习能力,即根据机器以往的经验来不断优化算法。第一次人工智能的浪潮始于上世纪70年代,当时的人工智能算法采用的是符号逻辑推理规则,以实现知识表征。由于缺乏自我学习能力,那时的人工智能无法解决新领域中出现的问题。第二代人工智能虽然在学习和感知能力上表现更佳,但由于当时的机器学习模型不具备大量吸收训练数据的能力,与人类的水平仍有很大差距。

算法的发展

大约在10年前,深层与结构化机器学习,或称为深度学习的新范式,让人工智能算法的智能程度越来越高。传统的机器学习方法让电脑学习的“知识”,要由人来设计并输入,因为需要掌握大量的专业知识,导致特征工程成为机器学习的瓶颈。深度学习打破了这一瓶颈,通过多层结构算法,机器对数据集的“特征”进行筛选和提取,通过反复训练,最终获得了提取抽象概念的能力。

随着神经网络研究的深入,计算机视觉和听觉等让人工智能技术再次迎来发展的拐点,计算机的算法也越来越精进。未来,计算机对自然语言的应用还将大幅提高,电脑可以听懂、读懂人类平常所用的语言,而不仅仅是机器指令。这样,存在于互联网和局域网中的海量信息,都可以成为深度学习的素材。

人工智能的伦理思考范文第3篇

关键词:人工智能;犯罪主体;刑罚

新事物的发展会对社会原有规范产生冲击,因此社会规范需要不断调整来应对这些问题。人工智能的出现对传统社会规范特别是刑法犯罪主体认定、罪名设置等提出了深刻地挑战。[1]面对这些刑法应该如何应对值得我们深入思考。

一、人工智能对刑法传统制度的冲击

人工智能大致可分为弱人工智能、强人工智能和超人工智能阶段。超人工智能在当下来看太过科幻化,我们暂且不在本文中讨论。弱人工智能具有超强的运算和学习能力,但只能在人类设定的算法程序下实施着特定动作;而强人工智能除了具备弱人工智能的优点外还可能像人类一样拥有自主意识。

(一)弱人工智能对刑法的影响

1.弱人工智能对犯罪主体认定的冲击。无人驾驶汽车造成的交通案件是人工智能对犯罪主体认定提出挑战的典型代表。无人驾驶技术参与的交通肇事与一般交通肇事在本质上是一样的,唯一的争论焦点就在于人工智能可否成为交通事故的责任者。在现行刑法领域内,犯罪都是“人”在实施的,这里的“人”指的是自然人和法人,从目前的刑法条文来看人工智能不是犯罪构成要件中的“人”。[2]无人驾驶汽车可以完全由人工智能来操作,那么在“人”退居幕后的情况下交通肇事的行为是由谁实施的呢?刑法学上刑事主体的归责原则是“无行为无犯罪”,如今人工智能仍只是被视为高科技产品,违反交通法规并不是它的“本意”。既然其没有支配行为的意志,将其认定为犯罪主体在目前来看是不合适的。

2.弱人工智能对罪名设置的影响。弱人工智能在现阶段仍被视为工具,它在特定程序的控制下“听命”于人类,这使其很容易被不怀好意之徒利用而成为“得力”的犯罪工具,但是由于人工智能的类人化特点使其与传统的犯罪工具相比大相径庭,例如有人利用人工智能进行在现阶段应该如何定罪呢?我们发现现行刑法并没有针对这种行为的罪名设置,根据罪刑法定原则无法对其定罪。

(二)强人工智能对刑法的影响

1.人工智能对主体责任判断的冲击。强人工智能可能像人类一样拥有自主意识而被赋予主体资格独立承担刑事责任,而刑事责任的承担需要分析积极因素和消极因素两个方面,积极因素包括罪过(故意、过失)、目的等,消极因素包括责任阻却事由等,所以说刑事责任的判断是需要分析主体的主观意识的。而主观意识往往是不可观的,在传统犯罪中我们可以通过客观行为判断出主体的主观意识;而强人工智能体的算法逻辑和人类的思维逻辑可能是完全不同的,也就是说我们无法通过客观行为来判断它的主观意识,那么在这种情况下我们该如何判断人工智能的主观意识呢?

2.人工智能对刑罚制度的影响。人工智能从本质上来讲是由特定程序控制的计算机。鉴于人工智能心智和形体可分离的特殊性,一旦被赋予刑事主体资格,在人工智能触犯刑法时要规制的是控制它行为的特定程序,而不是该程序的外在载体即计算机。因此我们对人工智能适用刑罚时,重点是如何限制其程序的自由或者剥夺其程序的生命等。简单的切断电源、断开网络或者单纯地限制人工智能形体的自由,并不能达到规制人工智能的目的,因为人工智能的程序是由预先输入的命令语句所决定的,以上措施可使人工智能体暂时无法工作但是其内在特定程序并未改变,在接通电源和网络或者解除对其自由地限制后很难保证其不会犯同样的罪行。

二、人工智能时代刑法的制度重构

(一)刑法对弱人工智能阶段所产生问题的回应

1.刑法关于弱人工智能对犯罪主体认定带来的冲击的回应

以无人驾驶汽车造成的交通肇事案件为例,按照“无行为无犯罪”的传统刑法规则原则来看,似乎传统意义上的肇事者已经“难觅踪迹”了。[3]笔者认为,可以从如下方面来应对人工智能对犯罪主体认定带来的冲击:

(1)以交通肇事罪追究无人驾驶汽车使用者的责任。在无人驾驶汽车的行驶中,虽然无人驾驶汽车主要靠车内智能驾驶仪来实现车辆的行驶,但这并不是说免除了使用者的一切注意义务,特别是车辆在情况复杂的道路上行驶时,使用者更要尽到注意义务,若是由于使用者未尽到注意义务造成重大交通事故,则可以交通肇事罪追究无人驾驶汽车使用者的责任。

(2)以产品犯罪追究无人驾駛汽车生产者和销售者的责任。在现阶段无人驾驶汽车仍被当做产品来看待,那么无人驾驶汽车的生产者和销售者就要为此承担一定程度的产品质量保证责任,如果不是由于现有技术瓶颈,而是无人驾驶汽车存在质量问题导致重大交通事故的发生,则可以生产销售伪劣产品罪等产品犯罪来追究生产者和销售者的责任。[4]

(3)由社会保险来承担责任。如果说该事故是由于当下技术瓶颈等非人为因素造成的,是社会发展所带来的风险。[5]那么此时可以选择由社会保险来承担这份责任。

2.刑法关于弱人工智能对罪名设置影响的回应。针对可能有人利用人工智能犯罪而法无明文规定的情况,在罪名设置方面有增设新的罪名或者对传统刑法罪名进行修正两种方案。增设新的罪名如“滥用人工智能罪”等口袋罪名,在人工智能的外延尚未彻底界定清楚的情况下贸然增设口袋罪会显得过于宽泛而无法准确定罪量刑。鉴于此笔者认为可以对传统刑法罪名作出针对性修改使其可以囊括该种类型的犯罪行为,这样就可以达到制裁此类犯罪维护社会秩序的目的。

(二)刑法对强人工智能阶段所产生问题的回应

1.强人工智能阶段刑法对人工智能主体责任判断的回应。上文中我们提到由于人工智能的特殊性我们可能无法通过传统方式分析出它的主观意识。[6]对于此笔者认为,既然人工智能是由算法程序控制的,我们不妨通过探究算法逻辑并摸索出算法程序的特点,进而通过分析人工智能的算法程序来判断它的主观意识,最终得出其应当承担的刑事责任。

2.强人工智能阶段刑法对人工智能刑罚制度的回应。由于人工智能体的特殊性,现行刑罚制度无法对其直接适用,因此我们需要创造出针对人工智能程序的特有刑罚。比如我们可以考虑通过更高级别的命令语句修改或者重新编写其程序,以此降低或者终止它的学习和运算能力,这样就可以达到规制人工智能程序的目的。

结语

人工智能已全面参与到我们的生产生活之中,并对我们的现行社会规范产生了深刻的影响,刑法作为人类社会稳定的重要调节器受到了人工智能的多方面挑战。因此刑法需要做出针对性的改变,尽量减少人工智能对人类社会造成的消极影响并让其更好的服务于人类的当下与未来。

参考文献 

[1] 王军:《人工智能的伦理问题:挑战与应对》,载《伦理学研究》2018年第4期。 

[2] 何丽:《基于人工智能视域下的法律主体研究》,载《政法学刊》2018年第3期。 

[3] 谭钊:《浅谈无人驾驶汽车的前景和面临的挑战》,载《东方法学》2017年第8期。 

[4] 林伟杰:《产品质量法释义》,中国民艺出版社2006年4月版。 

[5] 林伟:《关于预防人工智能反叛的初步探讨》,载《机器人技术与应用》2017年第4期。 

人工智能的伦理思考范文第4篇

摘要

人工智能时代,网络空间安全威胁全面泛化,如何利用人工智能思想和技术应对各类安全威胁,是国内外产业界共同努力的方向。本报告从风险演进和技术逻辑的角度,将网络空间安全分为网络系统安全、网络内容安全和物理网络系统安全三大领域;在此基础上,本报告借鉴 Gartner 公司的 ASA 自适应安全架构模型,从预测、防御、检测、响应四个维度,提出人工智能技术在网络空间安全领域的具体应用模式。与此同时,本报告结合国内外企业最佳实践,详细阐释人工智能赋能网络空间安全(AI+安全)的最新进展。最后,本报告提出,人工智能安全将成为人工智能产业发展最大蓝海,人工智能的本体安全决定安全应用的发展进程,「人工+「智能将长期主导安全实践,人工智能技术路线丰富将改善安全困境,网络空间安全将驱动人工智能国际合作。

目 录

第一章 人工智能技术的发展沿革

(一) 人工智能技术的关键阶段

(二) 人工智能技术的驱动因素

(三) 人工智能技术的典型代表

(四) 人工智能技术的广泛应用

第二章 网络空间安全的内涵与态势

(一) 网络空间安全的内涵

(二) 人工智能时代网络空间安全发展态势

1、网络空间安全威胁趋向智能2、网络空间安全边界开放扩张3、网络空间安全人力面临不足4、网络空间安全防御趋向主动

第三章 人工智能在网络空间安全领域的应用模式

(一) AI+安全的应用优势

(二) AI+安全的产业格局

(三) AI+安全的实现模式

1、人工智能应用于网络系统安全2、人工智能应用于网络内容安全3、人工智能应用于物理网络系统安全

第四章 人工智能在网络空间安全领域的应用案例

网络系统安全篇

(一)病毒及恶意代码检测与防御

(二)网络入侵检测与防御

第三章 人工智能在网络空间安全领域的应用模式

人工智能技术日趋成熟,人工智能在网络空间安全领域的应用(简称 AI+安全)不仅能够全面提高网络空间各类威胁的响应和应对速度,而且能够全面提高风险防范的预见性和准确性。因此,人工智能技术已经被全面应用于网络空间安全领域,在应对智能时代人类各类安全难题中发挥着巨大潜力。

(一)AI+安全的应用优势

人们应对和解决安全威胁,从感知和意识到不安全的状态开始,通过经验知识加以分析,针对威胁形态做出决策,选择最优的行动脱离不安全状态。类人的人工智能,正是令机器学会从认识物理世界到自主决策的过程,其内在逻辑是通过数据输入理解世界,或通过传感器感知环境,然后运用模式识别实现数据的分类、聚类、回归等分析,并据此做出最优的决策推荐。

当人工智能运用到安全领域,机器自动化和机器学习技术能有效且高效地帮助人类预测、感知和识别安全风险,快速检测定位危险来源,分析安全问题产生的原因和危害方式,综合智慧大脑的知识库判断并选择最优策略,采取缓解措施或抵抗威胁,甚至提供进一步缓解和修复的建议。这个过程不仅将人们从繁重、耗时、复杂的任务中解放出来,且面对不断变化的风险环境、异常的攻击威胁形态比人更快、更准确,综合分析的灵活性和效率也更高。

因此,人工智能的「思考和行动逻辑与安全防护的逻辑从本质上是自洽的,网络空间安全天然是人工智能技术大显身手的领域。

(1)基于大数据分析的高效威胁识别:大数据为机器学习和深度学习算法提供源源动能,使人工智能保持良好的自我学习能力,升级的安全分析引擎,具有动态适应各种不确定环境的能力,有助于更好地针对大量模糊、非线性、异构数据做出因地制宜的聚合、分类、序列化等分析处理,甚至实现了对行为及动因的分析,大幅提升检测、识别已知和未知网络空间安全威胁的效率,升级精准度和自动化程度。

(2)基于深度学习的精准关联分析:人工智能的深度学习算法在发掘海量数据中的复杂关联方面表现突出,擅长综合定量分析相关安全性,有助于全面感知内外部安全威胁。人工智能技术对各种网络安全要素和百千级维度的安全风险数据进行归并融合、关联分析,再经过深度学习的综合理解、评估后对安全威胁的发展趋势做出预测,还能够自主设立安全基线达到精细度量网络安全性的效果,从而构建立体、动态、精准和自适应的网络安全威胁态势感知体系。

(3)基于自主优化的快速应急响应:人工智能展现出强大的学习、思考和进化能力,能够从容应对未知、变化、激增的攻击行为,并结合当前威胁情报和现有安全策略形成适应性极高的安全智慧,主动快速选择调整安全防护策略,并付诸实施,最终帮助构建全面感知、适应协同、智能防护、优化演进的主动安全防御体系。

(4)基于进化赋能的良善广域治理:随着网络空间内涵外延的不断扩展,人类面临的安全威胁无论从数量、来源、形态、程度和修复性上都在超出原本行之有效的分工和应对能力,有可能处于失控边缘,人工智能对人的最高智慧的极限探索,也将拓展网络治理的理念和方式,实现安全治理的突破性创新。人工智能不仅能解决当下的安全难题,而通过在安全场景的深化应用和检验,发现人工智能的缺陷和不足,为下一阶段的人工智能发展和应用奠定基础,指明方向,推动人工智能技术的持续变革及其更广域的赋能。

(二)AI+安全的产业格局

人工智能以其独特的优势正在各类安全场景中形成多种多样的解决方案。从可观察的市场指标来看,近几年来人工智能安全市场迅速成长, 公司在 2018 年的研究表明,在网络安全中人工智能应用场景增多,同时地域覆盖范围扩大,将进一步扩大技术在安全领域的应用,因此人工智能技术在安全市场内将快速发展,预计到 2024 年,可用在安全中的人工智能技术市场规模将超过 350 亿美元,在 2017-2024 年之间年复合增长率(CAGR)可达 31%。

MarketsandMarkets 公司在 2018 年 1 月的《安全市场中人工智能》报告则认为,2016 年 AI 安全市场规模就已达 29.9 亿美元、2017 年更是达到 39.2 亿美元,预测在 2025 年将达到 348.1 亿美元,年复合增长率为 31.38%。而爱尔兰的 Research and Markets 公司在 2018 年 4 月份了专门的市场研究报告,认为到 2023 年人工智能在安全领域应用的市场规模将达 182 亿美元,年复合增长率为 34.5%。由于机器学习对付网络犯罪较为有效,因此机器学习作为单一技术将占领最大的一块市场,到 2023 年其市场规模预计可达 60 亿美元。

除了传统安全公司致力于人工智能安全,大型互联网企业也在积极开展人工智能安全实践,如 Google、Facebook、Amazon、腾讯、阿里巴巴等均在围绕自身业务积极布局人工智能安全应用。

(三)AI+安全的实现模式

人工智能是以计算机科学为基础的综合交叉学科,涉及技术领域众多、应用范畴广泛,其知识、技术体系实际与整个科学体系的演化和发展密切相关。因此,如何根据各类场景安全需求的变化,进行 AI 技术的系统化配置尤为关键。

本报告采用 Gartner 公司 2014 年提出的自适应安全架构(ASA,Adaptive SecurityArchitecture)来分析安全场景中人工智能技术的应用需求,此架构重在持续监控和行为分析,统合安全中预测、防御、检测、响应四层面,直观的采用四象限图来进行安全建模。其中「预测指检测安全威胁行动的能力;「防御表示现有预防攻击的产品和流程;「检测用以发现、监测、确认及遏制攻击行为的手段;「响应用来描述调查、修复问题的能力。

本报告将 AI+安全的实现模式按照阶段进行分类和总结,识别各领域的外在和潜在的安全需求,采用 ASA 分析应用场景的安全需求及技术要求,结合算法和模型的多维度分析, 寻找 AI+安全实现模式与适应条件,揭示技术如何响应和满足安全需求,促进业务系统实现持续的自我进化、自我调整,最终动态适应网络空间不断变化的各类安全威胁。

1、人工智能应用于网络系统安全

人工智能技术较早应用于网络系统安全领域,从机器学习、专家系统以及过程自动化等到如今的深度学习,越来越多的人工智能技术被证实能有效增强网络系统安全防御:

机器学习 (ML, Machine Learning):在安全中使用机器学习技术可增强系统的预测能力,动态防御攻击,提升安全事件响应能力。专家系统(ES, Expert System):可用于安全事件发生时为人提供决策辅助或部分自主决策。过程自动化 (AT, Automation ):在安全领域中应用较为普遍,代替或协助人类进行检测或修复,尤其是安全事件的审计、取证,有不可替代的作用。深度学习(DL, Deep Learning):在安全领域中应用非常广泛,如探测与防御、威胁情报感知,结合其他技术的发展取得极高的成就。

如图 3 所示,通过分析人工智能技术应用于网络系统安全,在四个层面均可有效提升安全效能:

预测:基于无监督学习、可持续训练的机器学习技术,可以提前研判网络威胁,用专家系统、机器学习和过程自动化技术来进行风险评估并建立安全基线,可以让系统固若金汤。

防御:发现系统潜在风险或漏洞后,可采用过程自动化技术进行加固。安全事件发生时,机器学习还能通过模拟来诱导攻击者,保护更有价值的数字资产,避免系统遭受攻击。

检测:组合机器学习、专家系统等工具连续监控流量,可以识别攻击模式,实现实时、无人参与的网络分析,洞察系统的安全态势,动态灵活调整系统安全策略,让系统适应不断变化的安全环境。

响应:系统可及时将威胁分析和分类,实现自动或有人介入响应,为后续恢复正常并审计事件提供帮助和指引。

因此人工智能技术应用于网络系统安全,正在改变当前安全态势,可让系统弹性应对日益细化的网络攻击。在安全领域使用人工智能技术也会带来一些新问题,不仅有人工智能技术用于网络攻击等伴生问题,还有如隐私保护等道德伦理问题,因此还需要多种措施保证其合理应用。总而言之,利用机器的智慧和力量来支持和保障网络系统安全行之有效。

2、人工智能应用于网络内容安全

人工智能技术可被应用于网络内容安全领域,参与网络文本内容检测与分类、视频和图片内容识别、语音内容检测等事务,切实高效地协助人类进行内容分类和管理。面对包括视频、图片、文字等实时海量的信息内容,人工方式开展网络内容治理已经捉襟见肘,人工智能技术在网络内容治理层面已然不可替代。

在网络内容安全领域所应用的人工智能技术如下:

自然语言处理(NLP, Natural Language Processing):可用于理解文字、语音等人类创造的内容,在内容安全领域不可或缺。图像处理(IP, Image Processing):对图像进行分析,进行内容的识别和分类,在内容安全中常用于不良信息处理。视频分析技术 (VA, Video Analysis):对目标行为的视频进行分析,识别出视频中活动的目标及相应的内涵,用于不良信息识别。

如图 4 所示,通过分析人工智能技术应用于网络内容安全,在四个层面均可有效提升安全效能:

预防阶段:内容安全最重要的是合规性,由于各领域的监管法律/政策的侧重点不同而有所区别且动态变化。在预防阶段,可使用深度学习和自然语言处理进行相关法律法规条文的理解和解读,并设定内容安全基线,再由深度学习工具进行场景预测和风险评估,并及时将结果向网络内容管理人员报告。

防御阶段:应用深度学习等工具可完善系统,防范潜在安全事件的发生。

检测阶段:自然语言、图像、视频分析等智能工具能快速识别内容,动态比对安全基线,及时将分析结果交付给人类伙伴进行后续处置,除此之外,基于内容分析的情感人工智能也已逐步应用于舆情预警,取得不俗成果。

响应阶段:在后续调查或留存审计资料阶段,过程自动化同样不可或缺。

3、人工智能应用于物理网络系统安全

随着物联网、工业互联网、5G 等技术的成熟,网络空间发生深刻变化,人、物、物理空间通过各类系统实现无缝连接,由于涉及的领域众多同时接入的设备数量巨大,传感器网络所产生的数据可能是高频低密度数据,人工已经难以应对,采用人工智能势在必行。但由于应用场景极为复杂多样,可供应用的人工智能技术将更加广泛,并会驱动人工智能技术自身新发展。

情绪识别(ER, Emotion Recognition):不仅可用图像处理或音频数据获得人类的情绪状态,还可以通过文本分析、心率、脑电波等方式感知人类的情绪状态,在物理网络中将应用较为普遍,通过识别人类的情绪状态从而可与周边环境的互动更为安全。AI 建模(DT, Digital Twin/AI Modeling):通过软件来沟通物理系统与数字世界。生物特征识别 (BO, Biometrics):可通过获取和分析人体的生理和行为特征来实现人类唯一身份的智能和自动鉴别,包括人脸识别、虹膜识别、指纹识别、掌纹识别等技术。虚拟 (VA, Virtual Agents):这类具有人类行为和思考特征的智能程序,协助人类识别安全风险因素,让人类在物理网络世界中更安全。

人工智能的伦理思考范文第5篇

AI生长

人工智能新近的发展似乎显得太快,超出了人们的预期和适应能力。2014年6月7日,正好是阿兰・图灵逝世60周年纪念日,聊天程序“尤金・古斯特曼”有争议地通过了图灵测试。此后宣称通过图灵测试的计算机频频出现。人们普遍相信,计算机模仿人类谈话而不被察觉,彻底实现的一天即使现在还没有到来,也为时不远了。

神经元网络理论、控制、深度学习和大数据的进步在不同侧面加强了人工智能,使它在一些特定的任务上打败了人类。特斯拉的联合创始人、CEO马斯克说,计算机比人更适合开车,“当所有的车都知道自己该怎么开的时候,让人来操控两吨重的致命机械太危险了”。理智上我们不得不赞同他,但情感上似乎难以接受――世界的方向盘是否也和汽车的方向盘一样,从此交到了计算机的手里?计算机冷笑一声:“当然是我们来控制世界,连方向盘都不需要。”

波普(K. R. Popper)的话在耳边响起――客观知识的世界,是人类创造的,却是自主的,也会具有创造性。尽管他是在50年前(确切地说是1967年)说这番话的,此刻我们面对人工智能这一存在,“细思恐极”。

强人工智能――会自主行动的机器人,会学习、自我改进、像生物一样进化的机器人是迫在眉睫的现实吗?对人工智能的担心究竟只是精神自虐,还是伴随着符合事实与逻辑的预测?如果是前者,不需要AI恐惧的人可以松一口气,如果是后者,早早想出应对之策才行。

两种恐惧

分析起来,AI恐惧无非两种,可以称为“AI的客观后果恐惧”和“AI的主观意图恐惧”。在两种恐惧之前还有一种失落,因为机器比人能干,未来的电脑可能比人还聪明,人之为人的部分荣誉感被剥夺了。但这种失落很快就能适应,人们早有经验――起重机比人力气大,望远镜比人看得远,计算器比人算得快,飞机还会飞呢。超越人能力局限的东西很多很多,只要它们被人掌握着,就不仅仅是对人能力的超越,而且是对人能力的延伸,能力再大也不用害怕。电脑真比人聪明了,就算有点失落,只要它们为我们所用,听我们安排,总归好处多多。况且“聪明”定义模糊,解微分方程,下棋,电脑都比人厉害,是不是就比人聪明了呢?也不能简单地下结论。

在客观后果一侧,讨论的比较多的是就业问题,担心机器人或者软件把人的工作岗位一批一批地抢走。工业生产不用说,流水线工人是最先被机器人替代的,无人工厂不是什么科幻,而是既成事实。之后是服务业,有餐馆尝试用小型无人机上菜,也有机器快递小哥,各种智能机器发明出来之后,大量留给人的服务岗位就会消失。如果你现在是仓库管理员,或者坐在高速公路入口发卡,赶紧准备下一份工作吧。之后是企业中层,启用各种交流软件和自动工作流程软件,企业内部上传下达的事情少了,启用商业智能软件,辅助决策的参谋岗位也少了。之后是创造性工作,包括媒体工作,做主持人、做研究员、做建筑师,虚拟角色和软件胜任愉快,连写文章、作曲、画画、导致失业不是人工智能负面后果的全部,担心还包括健康问题、非对称战争等等。家里有了机器人服务员,人们衣来伸手饭来张口,只用当一个沙发土豆就可以了。大量无人飞机和机器士兵,改变了战场的伦理――优势一方没有面对活人敌手的心理压力,打起仗来点点鼠标,像打游戏;劣势一方面抵御机器的进攻,连敌人的面都见不着,愤怒的情绪可能导向更多恐怖极端手段,把战火引向敌方非军事人员。

这些对人工智能改变社会的推测大体合乎逻辑,但并不带来太大的困扰。人工智能造成的负面后果会被它带来的好处抵消,人们相信积极影响远远大于消极影响,毕竟危险的、繁重的和乏味的工作由机器人来承担更合适。

在主观意图一侧,AI恐惧的程度会高出几个级别。人们担心的是机器产生压迫人、奴役人、消灭人的意图和行动。尽管这种担心非常严肃,也不见得是杞人忧天,但此刻还不到真正需要恐惧的时候。就像看电影不能代替学物理一样,面对AI发抖也不能代替冷静的分析。确实没有论据证明,只有生物才能产生意识,因此假设机器可能产生意识在科学上是“合法”的,但反过来,证实机器可能产生意识这个假设的论据,现在也还没有出现。何必被一种可能性有多大都不知道的想法吓破胆呢?除非你喜欢这种恐惧感,就像喜欢看鬼片一样。

以“坏”自保

最近有三个“牛人”聊到这个话题。2016年4月,《三体》作者、科幻作家刘慈欣,百度首席科学家吴恩达,对话“未来人工智能20年”。梁冬主持对话,扮演对人工智能的发展忧心忡忡的人。按照“AI的客观后果恐惧”和“AI的主观意图恐惧”分类法梳理三个人的观点,先说主观意图一侧。吴恩达的意见用一句歌词就概括了,“一千年以后……”,他的意思是机器表现得像人一样,成为有意识的物种,还早着呢,究竟会不会也不知道,何必担心?梁冬说,模仿鸟造飞机不成功,人类造出飞行机器其实用了和生物界不同的方案,因此造出思考机器也不必了解人脑,对人脑的无知根本不是人工智能的发展障碍。吴恩达和刘慈欣都表示同意。三位一致认为,如果机器真成了物种,那也是人类的孩子,一开始会模仿父母(即人类)的行为,如果机器变成了坏孩子,人类也没别人可埋怨。刘慈欣说,他特别“相信”人的“坏”,足以防范一个机器物种伤害人类自己。