首页 > 文章中心 > 卷积神经网络的历史

卷积神经网络的历史

前言:想要写出一篇令人眼前一亮的文章吗?我们特意为您整理了5篇卷积神经网络的历史范文,相信会为您的写作带来帮助,发现更多的写作思路和灵感。

卷积神经网络的历史

卷积神经网络的历史范文第1篇

过去10年,人们对机器学习的兴趣激增。几乎每天,你都可以在各种各样的计算机科学课程、行业会议、华尔街日报等等看到有关机器学习的讨论。在所有关于机器学习的讨论中,许多人把机器学习能做的事情和他们希望机器学习做的事情混为一谈。从根本上讲,机器学习是使用算法从原始数据中提取信息,并在某种类型的模型中表示这些信息。我们使用这个模型来推断还没有建模的其他数据。

神经网络是机器学习的一种模型,它们至少有50年历史了。神经网络的基本单元是节点(node),基本上是受哺乳动物大脑中的生物神经元启发。神经元之间的连接也以生物的大脑为模型,这些连接随着时间的推移而发展的方式是为“训练”。

在20世纪80年代中期和90年代初期,许多重要的架构进步都是在神经网络进行的。然而,为了得到好的结果需要大量时间和数据,这阻碍了神经网络的采用,因而人们的兴趣也减少了。在21世纪初,计算能力呈指数级增长,计算技术出现了“寒武纪大爆发”。在这个10年的爆炸式的计算增长中,深度学习成为这个领域的重要的竞争者,赢得了许多重要的机器学习竞赛。直到2017年,这种兴趣也还没有冷却下来;今天,我们看到一说机器学习,就不得不提深度学习。

作者本人也注册了Udacity的“Deep Learning”课程,这门课很好地介绍了深度学习的动机,以及从TensorFlow的复杂和/或大规模的数据集中学习的智能系统的设计。在课程项目中,我使用并开发了用于图像识别的卷积神经网络,用于自然语言处理的嵌入式神经网络,以及使用循环神经网络/长短期记忆的字符级文本生成。

本文中,作者总结了10个强大的深度学习方法,这是AI工程师可以应用于他们的机器学习问题的。首先,下面这张图直观地说明了人工智能、机器学习和深度学习三者之间的关系。

人工智能的领域很广泛,深度学习是机器学习领域的一个子集,机器学习又是人工智能的一个子领域。将深度学习网络与“经典的”前馈式多层网络区分开来的因素如下:

比以前的网络有更多的神经元更复杂的连接层的方法用于训练网络的计算机能力的“寒武纪大爆炸”自动特征提取

这里说的“更多的神经元”时,是指神经元的数量在逐年增加,以表达更复杂的模型。层(layers)也从多层网络中的每一层都完全连接,到在卷积神经网络中层之间连接局部的神经元,再到在循环神经网络中与同一神经元的循环连接(recurrent connections)。

深度学习可以被定义为具有大量参数和层的神经网络,包括以下四种基本网络结构:

无监督预训练网络卷积神经网络循环神经网络递归神经网络

在本文中,主要介绍后三种架构。基本上,卷积神经网络(CNN)是一个标准的神经网络,通过共享的权重在空间中扩展。CNN设计用于通过内部的卷积来识别图像,它可以看到图像中待识别的物体的边缘。循环神经网络(RNN)被设计用于识别序列,例如语音信号或文本。它的内部有循环,这意味着网络上有短的记忆。递归神经网络更像是一个层级网络,在这个网络中,输入必须以一种树的方式进行分层处理。下面的10种方法可以应用于所有这些架构。

1.反向传播

反向传播(Back-prop)是一种计算函数偏导数(或梯度)的方法,具有函数构成的形式(就像神经网络中)。当使用基于梯度的方法(梯度下降只是方法之一)解决优化问题时,你需要在每次迭代中计算函数梯度。

对于神经网络,目标函数具有组合的形式。如何计算梯度呢?有两种常用的方法:(i)解析微分(Analytic differentiation)。你已经知道函数的形式,只需要用链式法则(基本微积分)来计算导数。(ii)利用有限差分进行近似微分。这种方法在计算上很昂贵,因为函数值的数量是O(N),N指代参数的数量。不过,有限差分通常用于在调试时验证back-prop实现。

2.随机梯度下降法

一种直观理解梯度下降的方法是想象一条河流从山顶流下的路径。梯度下降的目标正是河流努力达到的目标——即,到达最底端(山脚)。

现在,如果山的地形是这样的,在到达最终目的地之前,河流不会完全停下来(这是山脚的最低点,那么这就是我们想要的理想情况。)在机器学习中,相当从初始点(山顶)开始,我们找到了解决方案的全局最小(或最佳)解。然而,可能因为地形的性质迫使河流的路径出现几个坑,这可能迫使河流陷入困境。在机器学习术语中,这些坑被称为局部极小值,这是不可取的。有很多方法可以解决这个问题。

因此,梯度下降很容易被困在局部极小值,这取决于地形的性质(用ML的术语来说是函数的性质)。但是,当你有一种特殊的地形时(形状像一个碗,用ML的术语来说,叫做凸函数),算法总是保证能找到最优解。凸函数对ML的优化来说总是好事,取决于函数的初始值,你可能会以不同的路径结束。同样地,取决于河流的速度(即,梯度下降算法的学习速率或步长),你可能以不同的方式到达最终目的地。这两个标准都会影响到你是否陷入坑里(局部极小值)。

3.学习率衰减

根据随机梯度下降的优化过程调整学习率(learning rate)可以提高性能并减少训练时间。有时这被称为学习率退火(learning rate annealing)或自适应学习率(adaptive learning rates)。训练过程中最简单,也是最常用的学习率适应是随着时间的推移而降低学习度。在训练过程开始时使用较大学习率具有进行大的改变的好处,然后降低学习率,使得后续对权重的训练更新更小。这具有早期快速学习好权重,后面进行微调的效果。

两种常用且易于使用的学习率衰减方法如下:

逐步降低学习率。在特定的时间点较大地降低学习率。

4 . Dropout

具有大量参数的深度神经网络是非常强大的机器学习系统。然而,过拟合在这样的网络中是一个严重的问题。大型网络的使用也很缓慢,这使得在测试时将许多不同的大型神经网络的预测结合起来变得困难。Dropout是解决这个问题的一种方法。

Dropout的关键想法是在训练过程中随机地从神经网络中把一些units(以及它们的连接)从神经网络中删除。这样可以防止单元过度适应。在训练过程中,从一个指数级的不同的“稀疏”网络中删除一些样本。在测试时,通过简单地使用一个具有较小权重的单一网络,可以很容易地估计所有这些“变瘦”了的网络的平均预测效果。这显著减少了过拟合,相比其他正则化方法有了很大改进。研究表明,在视觉、语音识别、文档分类和计算生物学等监督学习任务中,神经网络的表现有所提高,在许多基准数据集上获得了state-of-the-art的结果。

5. Max Pooling

最大池化(Max pooling)是一个基于样本的离散化过程。目标是对输入表示(图像,隐藏层输出矩阵等)进行下采样,降低其维度,并允许对包含在分区域中的特征进行假设。

这在一定程度上是为了通过提供一种抽象的表示形式来帮助过拟合。同时,它通过减少学习的参数数量,并为内部表示提供基本的平移不变性(translation invariance),从而减少计算成本。最大池化是通过将一个最大过滤器应用于通常不重叠的初始表示的子区域来完成的。

6.批量归一化

当然,包括深度网络在内的神经网络需要仔细调整权重初始化和学习参数。而批量标准化有助于实现这一点。

权重问题:无论权重的初始化如何,是随机的也好是经验性的选择也罢,都距离学习到的权重很遥远。考虑一个小批量(mini batch),在最初时,在所需的特征激活方面将会有许多异常值。

深度神经网络本身是有缺陷的,初始层中一个微小的扰动,就会导致后面层巨大的变化。在反向传播过程中,这些现象会导致对梯度的分散,这意味着在学习权重以产生所需输出之前,梯度必须补偿异常值,而这将导致需要额外的时间才能收敛。

批量归一化将梯度从分散规范化到正常值,并在小批量范围内向共同目标(通过归一化)流动。

学习率问题:一般来说,学习率保持较低,只有一小部分的梯度校正权重,原因是异常激活的梯度不应影响学习的激活。通过批量归一化,减少异常激活,因此可以使用更高的学习率来加速学习过程。

7.长短时记忆

LSTM网络在以下三个方面与RNN的神经元不同:

能够决定何时让输入进入神经元;能够决定何时记住上一个时间步中计算的内容;能够决定何时让输出传递到下一个时间步长。

LSTM的优点在于它根据当前的输入本身来决定所有这些。所以,你看下面的图表:

当前时间标记处的输入信号x(t)决定所有上述3点。输入门从点1接收决策,遗忘门从点2接收决策,输出门在点3接收决策,单独的输入能够完成所有这三个决定。这受到我们的大脑如何工作的启发,并且可以基于输入来处理突然的上下文/场景切换。

8. Skip-gram

词嵌入模型的目标是为每个词汇项学习一个高维密集表示,其中嵌入向量之间的相似性显示了相应词之间的语义或句法相似性。Skip-gram是学习单词嵌入算法的模型。

Skip-gram模型(以及许多其他的词语嵌入模型)的主要思想是:如果两个词汇项(vocabulary term)共享的上下文相似,那么这两个词汇项就相似。

换句话说,假设你有一个句子,比如“猫是哺乳动物”。如果你用“狗”去替换“猫”,这个句子仍然是一个有意义的句子。因此在这个例子中,“狗”和“猫”可以共享相同的上下文(即“是哺乳动物”)。

基于上述假设,你可以考虑一个上下文窗口(context window,一个包含k个连续项的窗口),然后你跳过其中一个单词,试着去学习一个能够得到除跳过项外所有项的神经网络,并预测跳过的项是什么。如果两个词在一个大语料库中反复共享相似的语境,则这些词的嵌入向量将具有相近的向量。

9.连续词袋(Continuous Bag Of Words)

在自然语言处理问题中,我们希望学习将文档中的每个单词表示为一个数字向量,使得出现在相似的上下文中的单词具有彼此接近的向量。在连续的单词模型中,我们的目标是能够使用围绕特定单词的上下文并预测特定单词。

我们通过在一个庞大的语料库中抽取大量的句子来做到这一点,每当我们看到一个单词时,我们就会提取它周围的单词。然后,我们将上下文单词输入到一个神经网络,并预测位于这个上下文中心的单词。

当我们有成千上万的这样的上下文单词和中心词以后,我们就有了一个神经网络数据集的实例。训练神经网络,最后编码的隐藏层输出表示特定单词的嵌入。而当我们对大量的句子进行训练时也能发现,类似语境中的单词得到的是相似的向量。

10.迁移学习

卷积神经网络的历史范文第2篇

关键词:化学计量学 分析化学 人工神经网络

化学计算学作为化学的分支学科,起步较晚,在涉及内容上又比较广阔,涉及到数学、统计学及计算机应用技术等相关学科,可以说是一门交叉性的学科。正是因为科学技术的发展及多学科相互渗透的作用才诞生了化学计量学这门独特的学科。涵盖于化学测量的整个过程,采样理论、实验设计、选择与优化、变量处理及数据分析斗属于化学计量学。化学计量学担负的主要任务是进行化学测量数据的分析与处理,进行测量程序与实验方法的最佳选择,最早由瑞典化学家提出,一直沿用至今。正是因为化学计量学的巨大作用,解决了传统化学研究中不能攻破的难题,成为化学研究的新方向与关注点。

一、化学计量学对于化学测量的应用分析

在化学研究中,需要将化学计量学渗透于化学测量的全过程。在上世纪五十年代以来,新的化学仪器分析方法已经被充分的引入到分析化学中,分析测试工作已经逐步实现了仪器化、自动化与初步的计算机化,这些技术的深入应用,为化学分析提供了可靠的测量数据,但是将这些分析仪器的优点结合起来,将杂乱无章的数据信息进行重新排列组合,最大限度的解决信息的筛选,成为化学研究工作者当前面临的最大难题。

化学计量学在解决这一问题中发挥了重大作用。将分析分离技术集于一体,通过特定的高维仪器产生分析信号,利用新型的分析信号多元校正及有效分辨方法进行复杂多组分的体系定性,进行定量解析。利用这种化学计量学的方法可以对巨大的数据信息进行有效的筛选,从而提取最有用的信息,对这些有用信息进行分析,实现了单纯的“数据提供者”到“问题解决者”的角色转变。化学计量法对于化学测量产生的影响是深远且巨大的。化学计量法应该贯穿于化学测量的全过程。

二、当前化学计量学在分析化学中的应用分析

(一)化学计量学在化学定量构效关系中的应用分析

化学定量构效关系研究是化学学科的根本性研究问题,结合物质的化学成分与基本的结构进行化学性质的测定,是我国目前化学理论研究中的重要目标。在进行研究时一般采用图论与数值的方法进行各种化合物的表征,将所获取的计算结果与实际的被测量化学物的物理、化学及生物特性结合起来,用比较明确的定量关系来代替含糊的定性描述。目前化学计量学在进行分析化学研究时引入了全局最优算法,在利用误差反向传播的多层次感知模型进行苯酚衍生物的活性测验时取得了明显的研究效果,较之先前的研究方法,改进是十分明显的。

(二)化学计量学中模式识别方法在分析化学中的应用

化学计量学中的模式识别法是根据化学测量数据矩阵,对样本集通过样本性质进行分类进行选取的方法。根据测量在多维模式空间中的相对位置不同,用线性判断识别分析法、最邻近法等进行模式的识别。模式识别法的研究能够为决策及过程优化提供最有实用价值的信息资料。我国石油化工行业、材料化学研究领域都基于该思想破解了很多研发难题。其中K―最邻近法从伏安波汇总对重叠的伏安响应信号进行区分,将K―最邻近法用于电位阶伏安波及毛细管曲线分类中,实现了对有机化合物构效关系的有效表征。二SMCA法最广泛的应用就是食品的鉴定。

(三)化学计量学的人工神经网络应用分析

除了我们上面提到的应用,化学计量学在神经网络应用方面也发挥了积极的作用。所谓的人工神经网络是基于现代生物学的对人脑组织进行研究而提出的,利用大量的简单的处理单元进行充分连接,从而形成的巨大的复杂的网络体系,主要是用来模拟人的大脑神经网络结构域的一定神经行为。人工神经网络可以对数据模式进行合理的解析与分类,对于原因与结果关系不确定的非线性测量数据有着独特的应用。分析化学的不确定性很多,借助于化学计量学的人工神经网络得到了有效的应用解决。从目前神经网络的应用情况来看,在谱图分析、药物分子药效的预测及蛋白质结构的预测方面都取得了不错的成绩。此外,在分析化学中应用比较广泛的还有遗传算法,遗传算法可以进行多组分分析波长选择、数据校正优化、核磁共振脉冲波形选择等。人工神经网络还进一步促进了仪器联机与实验的自动化。在生产方面起到了重要的指导作用。

(四)化学计量法波普化学的应用分析

目前在化学研究中,化学家们一直努力的目标主要是波普数据库的有效利用。波普数据库的质谱、核磁共振谱、色谱等复杂分析体系的快速定性定量分析都是当前研究的重点。化学计量学为这方面的研究提供了新的突破口。各种滤波、平滑、交换、卷积技术的应用,促进了分析化学的发展。可以直接提供不可分离的直接地测定相互干扰的共存性物种,对于完全未知的混合物也可以实现准确的测定。

(五)化学计量法的多元校正分析应用

我国化学的多元化分析成为今后化学研究的大趋势,不仅在研究目标上体现出多元化,对于研究对象也呈现出多元化的特性。这对于化学研究工作者是不小的挑战。要求化学工作者能够快速、准确的定位与定量,从而得出分析结果。在这样的背景下,多元校正法应用而生,其产生为现代分析仪器提供了大量的测量数据,并对这些数据进行了解析,可以说多元校正法是新型的数学统计方法。多元校正法在多个方面进行了研究优化,灵敏度、检测度、精密度等都对指标进行了优化,在对这些指标优化后,大大扩展了分析仪器的功能与方法的有效及实用性。正是因为正交设计、均匀性设计分析、板因式设计分析等多种实验设计优化方法的相互协调,对分析选择性进行了改善,在一定程度上拓宽了其化学计量法多元校正的应用领域。

三、结束语:

化学计量学从产生到现在大约只有30多年的历史,但是在短短的几十年内,其应用不断得到普及,其应用效果不断得到化学行业的肯定。将来,化学计量学将依然是令人关注的问题,有着广阔而光明的前景。化学计量学不断发展,将对仪器的智能化分析提供新的研究理论与方法途径,为高维联用仪器的发展提供新的突破口与改进点。通过本文对化学计量学在分析化学中的应用分析,我们在看到化学计量学优势作用的同时,更应该看到其发展中的不足,针对这些不足进行研究分析,在进行多次验证的基础上寻找新的解决途径,完善这些不足,为化学计量学的发展提供更加广阔的发展空间。在分析化学发展领域,增强对化学计量学的引入是今后化学研究发展的一个大方向。

参考文献

[1]黄丹.浅谈化学计量学在分析化学中的应用及发展前景[J].今日科苑.2009(08).

[2]周统武,蔡娟.化学计量学的学科现状与发展方向[J].中国科技信息,2009(03).

[3]周南.关于“分析化学中的计量学与质量保证”的国际研讨会[J].理化检验(化学分册),2007(03).

卷积神经网络的历史范文第3篇

在国内,百度DuerOS 2.0,希望成为新标杆,阿里ET大脑又开启新征程。

国外

谷歌:正式TensorFlow Lite可在移动设备上运行深度学习

今年5月,在GoogleI/O开发者大会上,Google宣布了一个专门针对移动设备优化系统的TensorFlow新版本。11月,正式了TensorFlow Lite。

据了解,这款被称为TensorFlow Lite的软件库,是可在移动设备上运行的深度学习工具,它允许开发人员在用户的移动设备上实时运行人工智能应用。此外,自TensorFlow Lite正式公布以来,已经出现了多个安装在移动设备上具有类似功能的学习软件库,包括苹果的CoreML、Clarifai人工智能云端训练服务,以及华为Mate10使用的麒麟970人工智能处理器。

亚马逊:AWS re:Invent 2017大会AWS云推出新品EKS

11月,在亚马逊举办的AWS re:Invent 2017大会上,公司了22款新品,分别涉及计算能力、数据库、机器学习、智能硬件和IOT等领域,尤其是在计算能力、数据库方面对AWS云服务进行了升级。

其中,AWS云推出了新品EKS,是AWS云上托管的Kubernete容器服务,不仅兼容多云环境,还具备高可用性、自动部署,自主升级等优势,并可与AWS上其他服务集成,两个平台可无缝集成,在ECS中的应用同样可以使用AWS其它服务。

FB:Pytorch 0.3实现多方优化增加对ONNX支持

今年初,Facebook在机器学习和科学计算工具Torch的基础上,针对Python语言了一个全新的机器学习工具包PyTorch。日前,这款工具包又迎来了它的0.3.0版本,此版本增加了多个函数功能,多方面性能均有所提升。

其中,0.3版本中删掉了Variable.reinforce()等随机函数,用torch.distributions包来代替。新功能包括构建了一个in-built Profiler,能对模型进行瓶颈分析,同时支持CPU和CUDA模型;增加Higher order gradients模块;以及优化器中增加了add_param_group函数,能在构建好的优化器中增加新的参数组。除此之外,还增加了新的张量函数和功能,在新版本中,能通过ONNX将模型迁移到其他框架上。

IBM:强化AI实力Deep Learning Impact软件工具

11月,IBM公布了一款最新软件Deep Learning Impact,其帮助用户开发的AI模型可使用流行的开源、深度学习框架,例如TensorFlow和Caffee。12月,这款工具被添加到IBM的Spectrum Conductor软件中。

除了软件,IBM还推出了为AI量身定制的基于Power9处理器的新系统。据了解,该系统可以在Power9 CPU和硬件加速器(例如GPU和FPGA)之间加速传输数据。此外,Power9将成为首个片上支持最新高速连接器(包括Nvidia下一代NVLink、OpenCAPI 3.0和PCIe 4.0)的商用平台。

国内

百度:DuerOS 2.0搭载AI硬件渡鸦raven H树立新标杆

在今年的百度世界大会上,主打下一代人机交互的DuerOS迎来一次重大升级,推出了2.0版本。据官方资料,DuerOS 2.0主要带来了两个变化:其一,是小度智能设备开放平台的升级;其二,则是小度技能开放平台的全新。至此,基于语音交互,DuerOS形成了两个开放式平台,可以对接设备开发商、生态合作伙伴、线上线下服务提供商。

此外,百度世界大会上同时了人工智能硬件产品渡鸦raven H,这款产品通过搭载DuerOS 2.0,在功能和用户体验上树立了新的标杆。

腾讯:腾讯云正式Supermind用人工智能方式实现网络规划

11月,腾讯云正式SUPERMIND智能网络产品。据介绍,相比此前网络产品,SUPERMIND智能网络将拥有高性能、全球互联、智能化等三大特点。

据了解,用人工智能方式实现网络规划、建设以及运维的全流程,是腾讯云SUPERMIND网络产品最大的亮点。腾讯云SUPERMIND智能网络能够结合几万条线路特征智能规划,通过历史用量分析、网络路径分析、用户反馈分析、节点规划建议、专线扩容建议等方面,合理规划出网络建设路线,大幅缩短规划时间,节约时间成本。

阿里巴巴:ET大脑获世界互联网领先科技成果18强

自去年8月阿里巴巴推出ET大脑,一年多来已经被用来解决和探索社会经济发展当中依靠人脑所无法解决的棘手问题。据阿里巴巴集团CEO张勇介绍:“整个ET大脑有非常多的人工智能技术,不仅仅是机器视觉、语音识别、自然语言处理等单个的AI技术,更重要的是这些技术有机整体的实现和全局的突破。”

在11月举办的第三届世界互联网大会上,15项世界互联网领先科技成果同时,其中便包括ET大脑。获奖原因包括AI、云计算、大数据能力与垂直领域知识深度结合,以及在应方面,已广泛应用于城市治理、工业制造、社会安全等数十个垂直领域。

中国移动:移动网络业界首个AI平台“九天”

12月,中国移动面向业界首个AI平台“九天”。

据了解,该平台可以拆分出三个方面:第一方面,产品的应用服务,包括运营、连接、服务三大领域,旗下分别包括智能营销、智能决策、智能网络、智能物联以及智能客服等领域;第二方面,AI核心能力层可以将其处理的数据自主分为语音语言类型、图像识别类型等;第三方面,“九天”的深度学习平台是中国移动首款基于GPU的深度学习训练平台。

中科视拓:推出深度学习服务平台SeeTaaS将深度学习开发过程简化

10月,中科视拓推出一站式企业级深度学习平台SeeTaaS,主要用于研发人脸识别、手势识别、无人机视觉、视频结构化分析等在内的企业级解决方案。据了解,该平台可以提供深度学习相关的数据、算法、算力等服务,同时将深度学习的开发过程简化为:上传数据、选择算法、自动调参、输出训练模型、模型批量测试、模型跨平台部署等。

应用方面,中科视拓已与中国平安、中国航天科技、中国电信、华为、百度、三星、高通等企业达成合作。

EasyStack:推出全球首个同时支持GPU和FPGA开源云平台

在2017中国开源产业峰会暨第21届中国国际软件博览会分论坛上,EasyStack正式推出全球首个同时支持GPU和FPGA异构计算的人工智能开源云平台ESCould AI。

卷积神经网络的历史范文第4篇

关键词:大学计算机基础;教学改革;人工智能;智慧课堂

云计算、大数据、人工智能新兴领域的崛起,推动信息技术全面渗透于人们的生产生活中。信息技术的核心在于计算机技术和通信技术。然而,虽然目前各个高校都开设了计算机基础课程,但是其教学却存在着诸多问题,导致该课程无法达到预期的教学效果。教育部在2012年《教育信息化十年发展规划(2011-2020年)》,其中指明“以教育信息化带动教育现代化,促进教育的创新与变革”[2]。因此,本文以华中师范大学计算机基础课程教学为例,深入阐述了传统计算机基础课程教学的弊端,提出了在当前人工智能如火如荼的时代背景下,如何应用人工智能相关技术对传统的计算机基础教学进行改革的具体方案。该方案以创建网络智慧课堂教学模式改革为主体,辅以教学观念、知识体系和课程考核方式改革,以期对高校的计算机基础课程教学有所裨益。

1传统教学的缺陷

⑴课程的教学地位没有引起足够的重视一些高校为计算机基础课程分配较少的学时(少于48学时),甚至有的专业将此课程设置为选修课。这种设置降低了该课程在教师和学生心目中的位置,导致了对该课程的忽视。同时,不少老师因为学时不够,时间紧迫,仅仅讲述与考试相关的内容,不考的一概不讲。这导致学生的眼界受限,知识和能力受限,无法培养其全面综合的计算机素质。还有的专业没有将这门课给专业的计算机学院的老师讲授,而是随意安排授课人员。没有经过系统专业训练的教师缺乏足够的知识储备,很难讲好这一门看似简单的课程。⑵课程教学内容的制定与当今时代对于信息化人才的需求脱节一些高校的现状是计算机基础的课程教材知识陈旧[3]、质量堪忧,教材总是无法跟上知识更新的步伐,例如都2019年了还在讲Office2010。有的高校由于缺乏对课程的重视,没有对教材优中选优,而是基于利益的考虑,优先选择自己院系编写的教材。其教材内容是七拼八凑,没有整体性、逻辑性和连贯性,更不用说前瞻性。这样的教材,无疑对学生的学习设置了巨大的屏障。除此以外,一些院校的课程教学知识体系不够明确和完善,教学大纲的制定不够科学。从教学大纲中制定的学时分配来说,常常偏重实用性[4],常用计算机软件操作占据了大部分的课时。这会让教师在授课时轻理论而重操作,如此培养学生,非常不利于其计算思维的形成,对后续其他计算机相关课程的学习也是很大的伤害。⑶教学模式过于传统,信息化水平较低从教学方式上来说,传统的教学模式以教师课堂授课为中心,是以教师为主体的教学模式[5]。在这种模式下,教师仍然主要以填鸭式教学为主[6],无法通过课堂教学发现学生的个性化特点,并进行有针对性的教学。另外,虽然计算机基础课程一般都配备了实验课时,但是实验课常常是采用教师布置上机任务、学生做完抽样检查的模式。这对于大课堂来说,教师的任务繁重,无法搜集到每一个学生的任务完成情况,无法清晰地掌握学生学习的实际情况和薄弱环节。而且,该课程缺乏相应的研讨课时,很难让学生对其所学知识进行深入思考和探究,以增强思辨能力和对课程的学习兴趣。⑷课程考核方式不够公平合理从考核方式上来说,该课程普遍采用“平时成绩”+“期末考试”的加权方式对学生成绩进行评定。平时成绩多由考勤分所得,期末考试多采用机考模式。这种考核方式过于单一化、机械化,无法对学生进行全方位的评价。很多学生来到教室打考勤,但可能根本没听讲,而是在睡觉或者玩手机。期末机考的公平合理性也是存在着很多的漏洞。例如机考的试题库可以十年不变,分值的分配和难度的掌握都没有经过系统的考量。甚至有的考试系统不够稳定和安全,频频爆出Bug,严重影响了考试结果的真实性。

2新人工智能环境下对计算机基础课程改革的具体方案

2012年开始,在随着卷积神经网络技术在视觉处理方面的应用取得巨大的成功之后,人工智能到达了有史以来的第三个爆发期。目前,深度学习技术在AlphaGo、无人驾驶汽车、机器翻译、智能助理、机器人、推荐系统等领域的发展如火如荼。与此同时,人工智能技术在教育领域方面的应用已经兴起。人工智能的教学产品也已有先例,例如基于MOOC平台研发的教学机器人MOOCBuddy等等。基于人工智能的教育是融合云计算、物联网、大数据、VR、区块链等新兴技术的增强型数字教育[2].在当前人工智能的大时代背景下,针对传统计算机基础的种种弊端,我们提出了如下教学改革方案。⑴改变教学理念,确立计算机基础课程的重要地位计算机基础作为高校的一门公共课,实则应当作为各个专业的学生后续的学习、科研的必修之课程。因此,高等学校应从源头上确立该课程的重要地位,将该课程纳入必修课范畴,并给与更充分合理的课时分配。除教学课时、实验课时之外,需要为该课程增加一定的研讨课时。任课老师必须是来自于计算机专业的人才。同时,定时举办关于该课程的教学培训、教学研讨会和教学比赛,改变教师的教学理念,从源头上给予该课程足够的重视。⑵优化教学内容,重新制定课程的教学知识体系教材是教师教学的主要依据,也是学生获得系统性知识的主要来源。因此,教材对于教学的重要性不言而喻。教材的选取需要优中择优,必要的时候可以根据自身院校的情况自己编写,力求使用好的教材使教学事半功倍。在选定优质教材的基础上,制定更加合理的教学大纲,优化计算机基础课程的教学知识体系,突出计算机学科入门相关基础理论知识的重要地位。对现有的过时内容进行更新,例如操作系统以Windows10的操作取代Windows7,Office这部分使用Office2019版本取代2010的版本,同时增加关于算法入门知识、程序设计入门知识以及人工智能、区块链等前沿知识单元的介绍。以华中师范大学为例,我们在图1中给出了该校计算机基础课程的教学知识体系结构图。⑶充分利用现代化的教学工具和人工智能技术,构建智慧课堂,改变传统教学模式现代化的教学应当转变以教师为核心的教学模式,更加突出学生的主体性地位。因此,在人工智能、物联网、大数据等技术和蓬勃发展的情形下,应当改变传统的课堂教学形式,充分利用现代化信息技术,将传统课堂教学和网络课堂教学模式相结合,构建智慧课堂。融合课堂教学身临其境的效果与网络课堂自主性强且方便师生交流的特点,通过师生之间多层次、立体化的互动,达到提升教学效果的目的。同时,建立功能强大、完善的学生实验平台,基于不同专业学生的不同特点和不同需求,进行个性化的作业设置。针对教师布置的实验任务和学生的完成情况,结合在线网络教学系统,通过传感器及网络数据,搜集学生的学习行为数据,并且使用人工智能算法进行智能分析,使教师对当前的学生的学习情况一目了然,并能引导学生对重点、难点的巩固和掌握。研讨课以学生为主体,按照所选课题进行分组调研、分组讨论,刺激学生的学习兴趣,培养其思辨能力。研讨内容最终可以课程论文的形式上交至课程共享平台,由教师和同学共同给出评分。这里,仍以华中师范大学为例,我们将在线教学系统、实验课平台、研讨课共享平台等集成为一个基于人工智能技术的网络智慧教学综合平台系统。该系统主要包括用户管理、在线教学、课堂互动、作业管理、考试管理、BBS系统、智能分析和平台管理8个模块,其主要功能如图2所示。该系统采用C/S模式,系统的服务器选用Linux服务器,同时开发基于PC机的和手机端的客户端系统,方便学生和教师随时选用、更加灵活。在线教学模块中的智能学习助理功能,能够根据历史用户的学习行为和当前用户的学习行为,自动地识别学习内容中的难点以及当前学生的难点内容,有针对性地对学生进行知识点强化。课堂互动模块中,通过可穿戴式传感器搜集学生的学习行为,用于后续智能分析模块中对学生的学习态度和学习行为进行智能分析。在线作业评价模块包括机器评价和教师评价两个功能。机器评价是系统为学生作业(客观题、主观题)自动评分,其中主观题的评分也是使用人工智能技术来实现。教师评分时可以参考机器评分,减少教师工作量。同时,教师评分为机器评分提供机器学习的经验数据,促进机器评分更加智能。智能分析模块能够依据学生的在线课程学习模块、课堂学习模块、作业管理模块等搜集到的学习行为数据进行综合分析,促使教师深入了解学生的学习情况和个性化特点,提升教学的针对性,并且有助于后续对学生进行全面、综合的分析和成绩评定。所有系统模块中使用到的智能分析技术包括基本的统计分析、以及各类机器学习算法(k-means,NaveBayes,SupportVectorMachine,DeepLearning等等)。⑷改变传统成绩考核的方式在“教学”+“实验”+“研讨课”课程结构以及网络智慧教学综合平台的辅助之下,学生的成绩评定更加全面化、多元化、公平化、自动化[7]。平时成绩中,除了教学综合平台的“课堂签到”次数之外,还增加更多丰富多元化的考察信息,如:学生的课堂讨论、在线课程学习和考核结果、平时作业完成情况,以及智能分析模块中辅助分析的学习态度、学习能力、平时成绩预测。期末上机考试系统也是智慧课堂综合平台的一个子模块,是精心设计的稳定、安全、功能强大的子系统,方便教师每一年更新试题库,修改bug。试题库中的每一套试卷都应当经过科学的考卷质量分析,使其难度、覆盖范围在一个均衡、合理的范围。最后,教师通过对各类平时成绩指标以及期末考试成绩加权,给出最终的学习成绩。通过规范、合理、公平、全面的考核体系,获得对学生公平、完善的评价机制,激励学生并刺激教学良性运转。

3结束语

相关期刊更多

数据采集与处理

北大期刊 审核时间1-3个月

中国科学技术协会

遥测遥控

统计源期刊 审核时间1-3个月

中国航天科技集团有限公司

北华大学学报·自然科学版

统计源期刊 审核时间1-3个月

吉林省教育厅