首页 > 文章中心 > 大数据经济分析

大数据经济分析

前言:想要写出一篇令人眼前一亮的文章吗?我们特意为您整理了5篇大数据经济分析范文,相信会为您的写作带来帮助,发现更多的写作思路和灵感。

大数据经济分析

大数据经济分析范文第1篇

关键词:告警数据 Hadoop Spark

1 引言

随着电信网络的不断演进,全省数据网、交换网、接入网设备单月产生告警原始日志近亿条。以上告警通过网元网管、专业综合网管、智能网管系统[1]三层收敛,监控人员每月需处理影响业务或网络质量的告警事件为20万条,但一些对网络可能造成隐患的告警信息被过滤掉。如何从海量告警数据中获取与网络性能指标、运维效率相关的有价值的数据,对于传统的关系型数据库架构而言,似乎是一个不可能完成的任务。

在一般告警量情况下,ORACLE数据处理能力基本可以满足分析需求,但当告警分析量上升到亿级,如果采用传统的数据存储和计算方式,一方面数据量过大,表的管理、维护开销过大,要做到每个字段建索引,存储浪费巨大;另一方面计算分析过程耗时过长,无法满足实时和准实时分析需求。因此必须采用新的技术架构来分析处理海量告警信息,支撑主动维护工作显得尤为必要,为此我们引入了大数据技术。

2 分析目标

(1)数据源:电信运营商网络设备告警日志数据,每天50 G。

(2)数据分析目标:完成高频翻转类(瞬断)告警分析;完成自定义网元、自定义告警等可定制告警分析;完成被过滤掉的告警分析、TOPN告警分析;核心设备和重要业务监控。

(3)分析平台硬件配置:云计算平台分配8台虚拟机,每台虚机配置CPU16核;内存32 G;硬盘2 T。

3 制定方案

进入大数据时代,行业内涌现了大量的数据挖掘技术,数据处理和分析更高效、更有价值。Google、Facebook等公司提供可行的思路是通过类似Hadoop[2]的分布式计算、MapReduce[3]、Spark[4]算法等构造而成的新型架构,挖掘有价值信息。

Hadoop是Apache基金会用JAVA语言开发的分布式框架,通过利用计算机集群对大规模数据进行分布式计算分析。Hadoop框架最重要的两个核心是HDFS和MapReduce,HDFS用于分布式存储,MapReduce则实现分布式任务计算。

一个HDFS集群包含元数据节点(NameNode)、若干数据节点(DataNode)和客户端(Client)。NameNode管理HDFS的文件系统,DataNode存储数据块文件。HDFS将一个文件划分成若干个数据块,这些数据块存储DataNode节点上。

MapReduce是Google公司提出的针对大数据的编程模型。核心思想是将计算过程分解成Map(映射)和Reduce(归约)两个过程,也就是将一个大的计算任务拆分为多个小任务,MapReduce框架化繁为简,轻松地解决了数据分布式存储的计算问题,让不熟悉并行编程的程序员也能轻松写出分布式计算程序。MapReduce最大的不足则在于Map和Reduce都是以进程为单位调度、运行、结束的,磁盘I/O开销大、效率低,无法满足实时计算需求。

Spark是由加州伯克利大学AMP实验室开发的类Hadoop MapReduce的分布式并行计算框架,主要特点是弹性分布式数据集RDD[5],中间输出结果可以保存在内存中,节省了大量的磁盘I/O操作。Spark除拥有Hadoop MapReduce所具有的优点外,还支持多次迭代计算,特别适合流计算和图计算。

基于成本、效率、复杂性等因素,我们选择了HDFS+Spark实现对告警数据的挖掘分析。

4 分析平台设计

4.1 Hadoop集群搭建

基于CentOS-6.5系统环境搭建Hadoop集群,配置如表1所示。

4.2 Spark参数设置[6]

Spark参数设置如表2所示。

4.3 数据采集层

数据采集:由于需采集的告警设备种类繁多,故采取分布式的告警采集,数据网设备、交换网设备、接入网设备分别通过IP综合网管、天元综合网管、PON综合网管进行采集,采集周期5分钟一次。采集机先将采集到的告警日志文件,通过FTP接口上传到智能网管系统文件服务器上,再对文件进行校验,通过Sqoop推送到Hadoop集群上。

4.4 逻辑处理层

(1)建立高频翻转告警监控工作流程

先将海量告警进行初步删选,通过数量、位置和时间三个维度的分析,得出高频翻转类告警清单列表,最后由专业工程师甄别确认,对某类告警进行重点关注和监控。

(2)差异化定制方案

按组网架构细分,针对核心重要节点的所有告警均纳入实时监控方案;

按业务网络细分,针对不同业务网络设计个性化的监控方案;

按客户业务细分,针对客户数字出租电路设计个性化的监控方案。

4.5 数据分析层

Spark读取Hive[7]表的告警数据,然后在Spark引擎中进行SQL统计分析。Spark SQL模K在进行分析时,将外部告警数据源转化为DataFrame[8],并像操作RDD或者将其注册为临时表的方式处理和分析这些数据。一旦将DataFrame注册成临时表,就可以使用类SQL的方式操作查询分析告警数据。表3是利用Spark SQL对告警工单做的一个简单分析:

5 平台实践应用

探索运维数据分析的新方法,利用大数据分析技术,分析可能影响业务/设备整体性能的设备告警,结合网络性能数据,找到网络隐患,实现主动维护的工作目标。

5.1 高频翻转类告警监控

首先制定了高频翻转类告警分析规则,将连续7天每天原始告警发生24次以上定义为高频翻转类告警,并基于大数据平台开发了相应的分析脚本,目前已实现全专业所有告警类型的分析。表4是全省高频翻转类TOP10排名。

5.2 核心设备和重要业务监控

目前以设备厂商或专家经验评定告警监控级别往往会与实际形成偏差,主要表现在以下几个方面:监控级别的差异化设定基于已知的告警类型,一旦网络重大故障上报未知的告警类型就无法在第一时间有效监控到;同一类型的故障告警出现在不同网络层面可能影响业务的程度是完全不同的;不同保障级别的客户对故障告警监控的实时性要求也是不同的。

通过大数据分析平台对差异化监控提供了灵活的定制手段,可根据告警关键字,分专业、地市、网管、机房、告警频次等维度自主定制需要的告警数据,实现日、周、月、某个时间区等统计分析。

应用案例:省NOC通过大数据分析出一条编号为CTVPN80113的中国平安大客户电路在一段时间内频繁产生线路劣化告警,但用户未申告,省NOC随即预警给政企支撑工程师,政支工程师与用户沟通后,派维护人员至现场处理,发现线路接头松动,紧急处理后告警消除、业务恢复。

5.3 被过滤告警分析

全省每天网络告警数据300万条~500万条,其中99%都会根据告警过滤规则进行过滤筛选,把过滤后的告警呈现给网络监控人员。过滤规则的准确性直接影响告警数据的质量。一般来说告警过滤规则可以从具有丰富运维经验的网络维护人员获得,但是这个过程非常繁琐,而且通过人工途径获得的告警过滤规则在不同的应用环境可能存在差异,无法满足网络维护的整体需要。采用大数据技术对被过滤的告警进行分析可以很好地完善过滤规则,让真正急迫需要处理的告警优先呈现给维护人员及时处理,真正做到先于客户发现故障。表5是动环专业被过滤的告警情况分布。

5.4 动环深放电分析

动环网管通过C接口采集蓄电池电压数据,在停电告警产生之后,电压数据首次下降到45 V,表示该局站电池出现深放电现象,通过计算这一放电过程的持续时间,记为深放电时长,该时长可以初步反映电池的放电性能。一个局站每天产生几十万条电压等动环实时数据。

在告警数据分析的基础上,实现对蓄电池电压变化数据的分析,提醒分公司关注那些深放电次数过多和放电时长过短的局站,核查蓄电池、油机配置、发电安排等,并进行整治。利用Spark SQL统计了一个月内抚州、赣州、吉安三分公司几十亿条动环数据,分析了其中深放电的情况如表6所示。

6 结论

本文利用HDFS+Spark技术,实验性地解决告警数据存储和分析等相关问题:一是通过数据分析,从海量告警数据中发现潜在的网络隐患;二是结合资源信息和不同专业的告警,最终为用户提供综合预警;三是转变网络监控思路和方式,通过数据汇聚、数据相关性分析、数据可视化展示,提高了网络监控效率;最后还扩展到对动环实时数据、信令数据进行分析。

从实际运行效果来看,HDFS和Spark完全可以取代传统的数据存储和计算方式,满足电信运营商主动运维的需求。

参考文献:

[1] 中国电信股份有限公司. 中国电信智能网管技术规范-总体分册[Z]. 2015.

[2] Tom white. Hadoop权威指南[M]. 4版. 南京: 东南大学出版社, 2015.

[3] RP Raji. MapReduce: Simplified Data Processing on Large Clusters[Z]. 2004.

[4] Spark. Apache Spark?[EB/OL]. [2016-11-27]. http:///.

[5] Matei Zaharia, Mosharaf Chowdhury, Tathagata Das, et al. Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing[J]. Usenix Conference on Networked Systems Design & Implementation, 2012,70(2): 141-146.

[6] S鹏. Apache Spark源码剖析[M]. 北京: 电子工业出版社, 2015.

[7] Hive. Apache HiveTM[EB/OL]. [2016-11-27]. http:///.

[8] Holden Karau, Andy Konwinski, Patrick Wendell, et al. Learning Spark: Lightning-Fast Big Data Analysis[M]. Oreilly & Associates Inc, 2015.

[9] 员建厦. 基于动态存储策略的数据管理系统[J]. 无线电工程, 2014,44(11): 52-54.

大数据经济分析范文第2篇

关键词: ULV处理器; 数据分流平台; 警务数据处理系统; 数据分流方案

中图分类号: TN911?34; TP393 文献标识码: A 文章编号: 1004?373X(2017)08?0033?03

Design of data distribution platform in large?scale police data processing system

SONG Hua1, LUO Xingyu2, YAN Huifeng2

(1. Chongqing Police College, Chongqing 401331, China;

2. College of Mobile Telecommunications, Chongqing University of Posts and Telecom, Chongqing 401520, China)

Abstract: As the previous data distribution platform for large?scale police data processing system is still at the development stage, and its data distribution efficiency, accuracy and effect are poor, a new data distribution platform for large?scale police data processing system was designed, whose core equipment is the ULV processor. The police data processing system has three levels of data streams. The ULV processor of the platform uses the physical hardware to distribute the data streams in three levels. The Web services processor written in Hash mapping function distribution scheme is adopted to distribute the result of the distribution hardware by software. The distribution results of the data streams in the first and second levels are given. The data stream in the third level is refined and corrected according to the protocol to acquire final distribution results. The analysis of the experiment result shows that the designed platform has high efficiency, high accuracy and good effect of distribution.

Keywords: ULV processor; data distribution platform; police data processing system; data distribution scheme

0 引 言

大型警帐据处理系统是一种能够在内部进行警务工作协调的应用系统,对公安机关意义重大。2013年,随着大数据时代的悄然来临,公安机关产生的数据量不断攀升,大型警务数据处理系统的处理能力也随之下降,为此,一些科研人员在大型警务数据处理系统中加入数据分流平台,以合理分配数据流量、提升系统处理能力[1?3]。以往为大型警务数据处理系统设计出的数据分流平台通常处于持续开发阶段,故不具备较高的分流速率和分流准确度,分流效果自然不好,因此,为大型警务数据处理系统设计一种新型的数据分流平台。

1 大型警务数据处理系统中数据流层次的划分

在公安机关中,大型警务数据处理系统的不同输入模块将会产生多种类型的数据流,对这些数据流的分层处理是提高数据分流平台分流速率和分流准确度的前提条件。因而,在数据分流平台开始进行分流工作前,需要先对大型警务数据处理系统数据流的层次进行合理划分。对大型警务数据处理系统数据流层次的划分依据 “由上至下、逻辑细化”的原理,如图1所示。

由图1可知,大型警务处理系统的数据流共被划分为三个层次。第一层次包含综合部门、调度部门和人事部门产生的数据流,这一层次中的数据流较为笼统,数据分流工作的进行相对容易;第二层次包含档案部门、考核部门和后勤部门,这一层次中的数据流细化程度较高,但数据的类型和结构也较为明显,数据分流工作难度中等;第三层次包含行动部分、医务部门和消防部门,这一层次中的数据流不仅细化程度较高、私密性较强,而且数据的类型繁多、结构复杂,数据分流工作难度较大。

根据以上分析不难看出,能够对第三层次中的数据流提供精准、高效分流工作的大型警务数据处理系统数据分流平台,一定能够满足第一、二层次中数据流对分流工作的需求。因此,大型警务数据处理系统要求所设计的数据分流平台在拥有强大的数据分类和存储性能的同时,也应具有较强的数据流控制能力和抵御网络入侵能力。

2 大型警务数据处理系统中的数据分流平台设计

2.1 数据分流平台分流方案设计

在大型警务数据处理系统中[2,4],数据分流平台的工作实质是:依据合理的分流方案[5],将第1节中给出的三个层次数据流以低于100 Mb/s的通信速率,准确分配到大型警务数据处理系统的数据检测平台中。由此可知,分流方案直接决定了数据分流平台的分流效果,是平台的重点设计对象。

所设计的数据分流平台使用哈希算法中的哈希映射函数设计分流方案。在大型警务数据处理系统的三个数据流层次中,传输控制协议(Transmission Control Protocol,TCP)和用户数据报协议(User Datagram Protocol,UDP)的数据类型占据了较大的比例。据不完全统计,TCP和UDP类型的数据占据总数据量的比例分别高达38%和42%。为此,平台将使用哈希映射函数把三个层次数据流中的数据类型分为TCP流、UDP流和其他流,随后将其依照由低到高的数据流层次分配到数据检测平台的相应位置。

在哈希映射函数中,将大型警务处理系统中TCP流、UDP流和其他流分别设为,,,三者均为48阶可编程函数,则有:

式中:,分别表示TCP流、UDP流中的数据;上、下角标均代表数据阶数;表示其他流中的数据。

那么,、和的相互关系可表示为:

2.2 分流处理器设计

分流处理器是实现分流方案的媒介,也是所设计的大型警务数据处理系统数据分流平台的核心设备,平台选用的分流处理器是超低电压版本(Ultra Low Voltage,ULV)处理器,平台对大型警务数据处理系统中三个层次数据流的分流工作均将通过这一设备进行实现。

ULV处理器是一种能耗极低、携带方便且具有超强抗入侵能力的多核处理器,其处理效率和运算精度均很高,并支持数据堆砌处理,适合进行复杂、海量的数据分流工作,图2、图3分别是ULV处理器的硬件结构和分流原理。

由图2、图3可知,ULV处理器的硬件结构分为功能硬件和基础硬件。功能硬件包括存储器、显示器和复杂可编程逻辑器件,基础硬件包括物理层、网络服务处理器和外设部件互连标准总线。上述硬件将依次对ULV处理器的硬件分流、软件分流和协议分流进行实现。

3 实验结果分析

在此将通过实验对本文设计的大型警务数据处理系统数据分流平台的分流速率、分流准确度和分流效果进行验证,实验现场如图4所示。

实验在某公安机关的大型警务数据处理系统中依次安装本文平台、单片机数据分流平台和嵌入式数据分流平台,并对系统进行初始化,给予系统64 b,512 b和1 518 b三种数据流。实验中,三个平台的分流速率对比情况如表1所示。

由表1可知,三个平台在大型警务数据处理系统中进行64 b数据流的分流工作时,均具有较高的分流速率。但随着数据流位数的增加,单片机数据分流平台和嵌入式数据分流平台的分流速率均出现了大幅度下降情况,而本文平台在实验中始K具有较高的分流速率。

为了准确描述三个平台的分流准确度,对大型警务数据处理系统中输入和输出的数据流数量进行了统计,二者数量越接近,被成功分流的数据流就越多,平台的分流准确度就越高,如表2所示。

由表2可明显看出,在安装本文平台的大型警务数据处理系统中,系统输出数据流和输入数据流的数量最为接近。上述结果说明,本文平台具有较高的分流准确度。

数据分流平台的分流效果取决于公安机关对平台的使用好感度,为此,在实验结束后对平台使用者进行了问卷调查,并总结出使用者对三个平台的使用好感度,如图5所示。

由图5可知,使用者对本文平台的使用好感度处于图中最高位置,其范围为[0.92,0.99]。使用者对单片机数据分流平台和嵌入式数据分流平台的使用好感度范围分别为[0.80,0.90]和[0.77,0.90]。上述结果说明,本文平台具有较好的分流效果。

4 结 论

为了合理分配数据流量、提升大型警务数据处理系统的处理能力,本文设计新型的大型警务数据处理系统数据分流平台,为公安机关提供更为高效、精准的数据分流工作。本文平台使用ULV处理器对大型警务数据处理系统的数据流进行硬件分流、软件分流和协议分流。经实验结果分析可知,本文平台具有较高的分流速率和分流准确度,并且分流效果较好。

参考文献

[1] 崔向前.论公安院校教师素养与高等警务人才人文素养培育[J].河南教育学院学报(哲学社会科学版),2014,33(6):42?45.

[2] 姜明月.云计算平台下的大数据分流系统的设计与优化[J].现代电子技术,2016,39(2):28?32.

[3] 席兵,韩盈盈.GPRS网络Gb/Gn接口数据过滤与分流的实现[J].广东通信技术,2014,34(7):11?14.

[4] 齐斐.数据交换在警务综合信息系统中的应用[J].甘肃科技纵横,2014,43(11):37?39.

大数据经济分析范文第3篇

传统经济也可以是高科技的

近几十年来的信息技术变革,其本质是信息化,从技术效果上看是一个生产“数据”的过程,十多年前还被零零碎碎手书的数据,已被各种新工具不断采集和存储,各行各业或多或少都拥有着自己的数据资源。从自身累积的历史数据中使用合适的分析方法,找到原本凭借行业内职业经验与直觉找不到的“规律”,解决自身实际问题,这就是数据创新。有时,这种创新带来的改变是“琐碎”的,但却优化了商业模式、提升了用户体验,甚至完善了企业经营模式与文化。

这里特别需要指出的是,不放过任何盈利机会的零售业,早已是数据创新的主战场。当前,商业流通结算行业的定价、销售和支付正在发生变革。大数据驱动下的商品定价变革将是根本性的,是原有商品定价模式的一种逆反,非商家定价,而是由消费者定价。在销售模式上,电子商务能否成为一种真正的销售变革,这完全取决于C2B模式。未来商业流通领域的价值链原动力是消费者驱动,而非现有的制造驱动或设计驱动,大致有两种:一是聚合需求形式,如反向团购;二是要约合作形式,如逆向拍卖等。从技术层面上说,都是基于交易数据创新的,需要更快捷地划分、分析和锁定消费者,转而将这些小众的微量需求来改进商品、促成销售,将已有的定制开发逐渐从“大规模”转成“个性化、多品种、小批量和快速反应”.在支付形式上,一种是将管理支付转为管理数据;另一种是将支付货币转为支付信用。

大数据时代,传统经济想要有高科技含量,最关键的是不要做数据的“看守人”.目前被打车软件“搅翻”的出租车行业,同样能利用数据创新改变现状,这是因为:出租车行业拥有的数据大多是轨迹线交通数据,这是一种能直接或间接反映驾驶者的主观意愿和车辆行驶过程中的环境限制等情况的数据,具有运行时间长、在城市整体交通流量中占有量大的特点。分析和挖掘出租车这种城市典型移动对象的历史轨迹数据中,找到本地区驾驶员偏好、乘客出行习惯或交通拥堵热点,有助于直接了解人们的各种社会活动、间接把握城市动态性。因而,依据轨迹线交通数据创新能改变当前导航市场的“红海”格局,使用实时交通路线推荐替代基于地图数据的最短路径推荐。

两种业态是一种竞合关系

什么是数据产业?从信息化过程中累积的数据资源中提取有用信息,即数据创新,将这些数据创新赋予商业模式,就是产业化,因而数据产业是信息产业的逆反、衍生与升级。应当看到,这种由大数据创新所驱动的产业化过程,是具有“提升其他产业利润”特征的,除了能探索新的价值发现、创造与获取方式以谋求本身发展外,还能帮助传统产业突破瓶颈、升级转型,是一种竞合关系,而非一般观点“新兴科技催生的经济业态与原有经济业态存在竞争关系”.

所以,数据产业培育围绕传统经济升级转型,依附传统行业企业共生发展,实为上策。需要指出的是,为加速数据产业企业集聚形成产业集群、凸显极化效应,设计数据产业发展模式同样应考虑建立数据产业基地,但不能照搬传统的“政府引导、市场选择和企业主导”方式,而应是某种“新型”样式,至少具有以下五方面特征:

一是产业显现凝聚力,围绕某一领域或行业数据资源,实现资源、科技共享,数据产品生产专业分工明确,基地内企业做到竞合协同,具有整体创新绩效。二是资本、科技双重驱使,由专业数据产业基金引导政府相关部门、多个大学与科研院所参与基地建设。三是“智慧”精准管理,在管理上将依靠数据创新实现精准化,充分体现“智慧”.四是多元化生态型,其实质是一种内嵌数据创新核心应用的城市CBD,具有充足的商业配套、齐备的文化设施和宜居的生态社区,能进行便利的商业活动、生产工作和生活娱乐。五是人才高地,能将各种人才结合在一起,调动其积极性、创造性。

数据产业的竞争关乎国力

数据产业竞争涵盖了政治、经济、军事、文化等多个领域,从宏观到微观,从虚拟到实体,涉及航空、航天、海洋、电力、教育等生活的方方面面。

根据对数据产业内涵和外延的不同理解,其概念有广义和狭义之分。

从狭义上来说,数据产业从技术效果上看主要是数据准备、数据挖掘和可视化,即对数据资源进行合理开发、对数据资产进行有效管理,直接商品化数据产品,涵盖数字出版与文化业、电子图书馆和情报业、多媒体业、数字内容业、领域数据资源开发业、行业数据资源服务业等,当前已有的数据创新有网络创作、数据营销、推送服务、商品比价和疾病预控等。从广义上来说,数据产业包括涉及狭义意义上的上下游关联行业,依次具体是:数据采集、数据存储、数据管理、数据处理、数据挖掘、数据分析、数据展示,以及数据产品评价和交易。

大数据经济分析范文第4篇

理性选择理论对行为主体“认知”问题的学术处理,从“经济人”到“理性经济人”并没有显著的变化。古典经济学框架下的理性选择理论以完全信息假设为前提,将行为主体(个人)界定为无本质差异和不涉及个体间行为互动,不受认知约束的单纯追求自身福利的“经济人”(约翰·伊特韦尔等,1996)。新古典经济学的理性选择理论将行为主体界定为“理性经济人”,它同样以完全信息假设为前提,研究了被古典经济学忽略的选择偏好,通过对“偏好的内在一致性”的解析,论证了个体能够得知选择结果的抽象认知(Von Neumann and Morgenstern,1947;Arrow and Debreu,1954)。这里所说的抽象认知,是指行为主体没有经历具体认知过程而直接关联于效用函数的一种认知状态,这种状态在新古典理性选择理论中的存在,表明“认知”是被作为外生变量处理的。

现代经济学的理性选择理论开始尝试将“认知”作为内生变量来研究。现代主流经济学从人的有限计算能力、感知、意志、记忆和自控能力等方面研究了认知形成及其约束(Salvatore, 1999;Schandler,2006;Rubinstein,2007),认为认知是介于偏好与效用之间,从而在理论研究上处于不可逾越的位置,只有对认知进行研究,对偏好和效用的研究才能接近实际。现代非主流经济学注重于运用认知心理学来研究人的认知形成及其约束(Kahneman and Tversky,1973,1974,1979;Smith,1994),它通过实验揭示了一些反映认知心理进而影响选择行为的情景,如确定性效应、锚定效应、从众行为、框架依赖、信息存叠等,以论证传统理论忽视认知分析而出现的理论与实际之间的系统性偏差。

但是,经济学理性选择理论对认知的分析和研究,是在预先设定规则的建构理性框架内进行理论演绎和推理的,它们对认知的解释,通常表现为一种规则遵循。例如,新古典理性选择理论关注个体应怎样符合理性(最大化)的选择,而不是关注个体的实际选择,它对认知的学术处理是从属于效用最大化的(Harsanyi,1977)。现性选择理论所关注的,或是在忽略认知的基础上建立解释和预测实际选择的理性模型来说明实现效用最大化的条件,以阐释个体如何选择才符合理性(Edgeworth,1981);或是通过行为和心理实验来解说实际选择的条件配置,以揭示实际选择的效用函数(Kahneman and Tversky,1973,1974,1979;Smith,1994),因而对认知的学术处理同样是从属于效用最大化的。基于选择的结果是效用,而认知与偏好都内蕴着效用形成的原因,我们可以认为,经济学在将个人追求效用最大化视为公理的同时,也在相当大的程度上表明理性选择理论对效用函数的描述和论证,不是依据数据分析而是一种通过理论预设、判断和推理得出的因果思维模式。

因果思维模式在信息完全和不完全情况下的效应是不同的。在信息不完全状态下,如果研究者以信息完全预设为分析前提,依据自己掌握的部分信息对问题研究做出因果逻辑判断和推论,则其不一定能得到正确的认知。在信息完全状态下,研究者不需要有预设的分析假设,也不需要依赖逻辑判断和推论,而是可以通过数据高概率地获取正确的认知。经济学的信息完全假设对认知研究的影响是广泛而深刻的。例如,新古典经济学假设选择者拥有完全信息,能够实现效用最大化,它对偏好与认知以及认知与效用之间因果关系的逻辑处理,是通过可称之为属于该理论之亚层级预设的“给定条件约束”实现的(信息完全假设是第一层级预设)。在该理论中,偏好被规定为是一种处于二元化的非此即彼状态,认知在“选择者知晓选择结果(效用)”这一亚层级预设下被跳越。很明显,这种因果思维模式有助于使其建立精美的理性选择理论体系,但由于没有对认知阶段作出分析,它很容易严重偏离实际。

现代主流经济学的理性选择理论偏离现实的程度有所降低,原因在于开始重视认知的研究。半个多世纪以来的经济理论研究文献表明,现代主流经济学的理性选择理论正在做逐步放弃完全信息假设的努力,它对偏好与认知以及认知与效用之间因果关系的逻辑处理,是在质疑和批评新古典经济学偏好稳定学说的基础是进行的,该理论用不稳定偏好取代偏好的内在一致性,解说了认知的不确定性,以及不完全信息和心理活动变动等如何对认知形成约束,以此质疑和批评新古典经济学的期望效用函数理论,并结合认知分析对个体选择的效用期望展开了深入的讨论。相对于新古典经济学的理性选择理论,虽然现代主流经济学的理性选择理论仍然是因果思维模式,但它有关偏好与认知以及认知与效用之因果链的分析衔接,明显逼近了实际。

现代非主流经济学的理性选择理论不仅彻底放弃了完全信息假设,而且彻底放弃了主流经济学中隐性存在的属于新古典理论的某些“给定条件约束”。具体地讲,它对偏好与认知以及认知与效用之间因果关系的论证,不是基于纯理论层次的逻辑分析,而是从实验过程及其结果对这些因果关系做出解说。至于效用最大化,该理论则认为认知与效用最大化的关联,并不像先前理论描述的那样存在直接的因果关系。现代非主流理性选择理论通过实验得出一个试图取代传统效用函数的价值函数(Kahneman and Tversky,1979),该函数体现了一种以实验为分析底蕴的不同于先前理论的因果思维模式,开启了以实验数据作为解析因果关联的理论分析先河。但由于现代非主流理性选择理论毕竟还是一种因果思维模式,因而同先前理论一样,在理论建构上它仍然具有局限性。

从理论与实践的联系看,经济学理性选择理论的因果思维模式之所以具有局限性,乃是因为它用于分析的信息是不完全和不精确,甚至有时不准确,以至于造成认知不正确和决策失误。当研究者以不准确或不精确的信息来探寻因果关系时,极有可能致使认知出现偏差;而当认知出现偏差时,理论研究和实际操作就会出问题。诚然,因果思维模式本身并没有错,但问题在于,单纯从现象形态或单纯从结果所做出的理论判断和推论,不足以让研究者揭示真实的因果关系。人们对因果关系的理解过程伴随着认知的形成过程,在非数据支持的因果思维模式存在局限性的情况下,经济学家依据这种模式所构建的理性选择理论,难以得到符合实际的认知理论。那么,在未来世界是什么影响和决定认知呢?人类认知有没有可能达到准确化呢?我们把目光聚焦于大数据,或许能够找到问题的答案。

二 、运用大数据能获得正确认知吗?

在迄今为止的经济理论研究文献中,经济指标或行为指标所选用的样本数据,不是互联网和人工智能时代所言的大数据。大数据具有极大量、多维度和完备性等特征,极大量和完备性表明大数据有可能提供完全信息,多维度意味着信息可以通过大数据的相关性得到甄别和处理。广而论之,人类的行为活动表现为一个庞大的数据堆积,个别行为所产生的数据只是这个庞大数据的元素形式。如果我们以人们的投资和消费活动作为考察对象,对大数据蕴含的因果关系以及由此得出的认知进行分析,那么,我们可认为投资和消费不仅在结果上会产生大数据,而且在运作过程中也会产生大数据。换言之,投资行为和消费行为在“结果”上显示极大量数据的同时,也在“原因”上留下了极大量数据让人们去追溯。因此,人类要取得因果关系的正确认知,离不开大数据,而在样本数据基础上经由判断和推理得出的针对因果关系的认知,至少是不全面的,它不足以作为人们投资和消费选择的科学依据。

1、运用大数据分析因果关系的条件配置

人类认知的形成离不开因果关系分析,但运用大数据来分析因果关系以求获取正确的认知,必须具备以下条件配置:1、移动设备、物联网、传感器、社交媒体和定位系统等的覆盖面要足够大,以便能搜取到极大量和完备性的数据;2、需要探索对极大量(海量)数据的算法,能够对大数据进行分类、整合、加工和处理;3、需要厘清和区别数据的不同维度及权重,以至于能够运用大数据来甄别因果关系的内在机理。显然,人类从两百年前的工业革命到今天的信息革命,对数据的搜集、整合、加工和处理还不全然具备以上的配置条件,人类运用大数据来分析因果关系,还刚刚处于起步阶段。

联系经济学理论看问题,经济学家分析投资行为和消费行为以及对其因果关系的研究,主要是在抽象理论分析基础上运用历史数据来完成的。其实,对投资行为和消费行为的研究,不能只是从结果反映的数据来考量,即不能只是局限于历史数据分析,还需要从即时发生的数据,乃至于对未来推测的数据展开分析。这可以理解为是运用大数据思维来研究经济问题的真谛。从大数据观点看问题,投资和消费的因果关系应该是历史数据流、现期数据流和未来数据流等三大部分构成的。经济学实证分析注重的是历史数据流,很少涉及现期数据流,从未考虑过未来数据流,因此,现有经济理论文献的实证分析以及建立其上的规范分析,很难全面反映或揭示经济活动的真实因果关系。

2、未来几十年大数据揭示因果关系的可行性

在互联网悄然改变人类经济、政治和文化生活的当今社会,互联网的发展历史可理解为经历了三个阶段:从前期“人与信息对话”的1.0版本,经由中期“信息与信息对话”的2.0版本,近期正走向“信息与数字对话”的3.0版本,互联网版本的不断升级是大数据运用范围不断扩大的结果,这是问题的一方面。另一方面,随着互联网、移动互联网以及物联网技术等的广泛运用,人类各种活动的数据将极大量地被搜集,人们行为的因果关系也会以迂回方式通过数字关系显露出来。特别地,若互联网在将来发展成“数字与数字对话”的4.0版本,这样的发展方向则明显预示着数字关系将取代因果关系,或者说,数据思维将取代因果思维,人类将全面进入大数据和人工智能时代。

如果我们把互联网版本的不断升级以及大数据运用范围的无边界扩大,看成是未来几十年运用大数据来分析因果关系的重要配置条件,那么,如何对大数据的整合、分类、加工和处理,以及如何通过大数据的完备性和相关性来获取因果关系的真实信息,则是另外两个重要的配置条件。工业革命后的人类科学文明对因果关系揭示的主要方法和路径,是先利用掌握的信息再通过抽象思维建立复杂模型,然后在实验室通过试错法来设置能反映因果关系的参数使模型具有操作性;但这种方法和路径涉及的数据,是样本数据而不是大数据。在大数据和人工智能时代,智慧大脑是使用“数据驱动法”来设置模型和参数的(吴军,2016)。具体地讲,是用云计算集约化及其运算模式来整合、分类、加工和处理大数据,通过数据之间的相关性来探寻在样本数据基础上无法判断和推论的信息;同时,对模型的处理,不是建立复杂模型而是建立许多简单模型,并通过数以万计的计算机服务器对模型进行优化和设定相应的参数,以至于完完全全地运用大数据来揭示因果关系。

有必要说明的是,数据驱动法使用的数据不仅包括“行为数据流”,而且在某些特定场景中,还包括“想法数据流”;前者是指历史数据和当前发生的数据,后者是指从已知数据的相关性所推测的未来数据。社会物理学认为,人们实际行为与“想法流”之间有着可以通过大数据分析而得到的可靠数量关系,这种关系会通过互联网成为一种改变人们选择行为的重要因素(阿莱克斯?彭特兰,2015)。诚然,在未来几十年,数据驱动法是否能成功地成为解析因果关系的有效方法,尚有待于大数据运用的实践,特别是有待于它在人工智能运用上之成效的检验。不过,数据驱动法作为解析因果关系的一种重要方法,无疑是智慧大脑的人机结合在大数据思维上的重要突破,它至少在如何展开大数据思维上打开了解析因果关系的窗口。

3、运用大数据分析因果关系所获取的认知,包括对历史数据分析的历史认知,对现期数据分析的现期认知,以及推测未来数据而形成的未来认知

经济学家运用大数据来研究经济现象的因果关系,对经济现象原因和结果关联的解读,只有以极大量、多维度和完备性的数据为依据,才是大数据意义上的思维。大数据思维较之于传统逻辑思维,最显著的特征是它可以通过对不同维度数据之间相关性的分析,得到比传统逻辑思维要精准得多的信息。这里所说的精准信息,是指由大数据规定且不夹带任何主观判断和推测的信息。例如,经济学家要得到特定时期某类(种)产品的投资和消费的认知,其大数据思维过程如下:1、搜集、整理和分类前期该类产品的投资和消费的极大量和完备性的数据;2、加工和处理业已掌握的数据,并在结合利润收益率、投资回收期、收入水平和物价水平等的基础上解析这些不同纬度的数据;3、根据不同纬度数据的相关性,获取该类产品投资和消费的精准信息,从而得出如何应对该产品投资和消费的认知。当然,这只是在梗概层面上对运用大数据分析而获取认知的解说,现实情况要复杂得多。

然则,现有的关于投资和消费的模型分析以及建立其上的实证分析,主要是以非大数据的历史数据作为分析蓝本的,因此严格来讲,经济学对投资和消费的因果关系分析所形成的认知,属于典型的对历史数据分析所形成的历史认知。众所周知,自经济理论注重实证分析以来,一直存在着如何“从事后评估走向事前决策”问题的讨论。由于经济学家对投资和消费展开实证分析所使用的数据,几乎完全局限于(样本)历史数据,这便导致对投资和消费的因果关系分析对现期认知和未来认知的缺位,它不能解决“从事后评估走向事前决策”问题。国内一些著名的成功人士指责经济学家不能解决实际问题。在我们看来,不熟悉大数据的成功人士的这种指责是可以理解的,但深谙大数据的成功人士带有调侃风味的指责就不公允了。经济学家要在理论上立竿见影地解决实际问题,必须能得到现期数据和未来数据(而不仅仅是历史数据),这需要计算机学家的配合和支持,否则便不能在精准信息的基础上分析投资和消费的因果关系,但经济学家又不是计算机学家,因此,经济理论的科学化需要大数据挖掘、搜集、整合、分类、加工、处理、模型和参数设置、云计算等技术及其手段的充分发展。

历史数据是存量,目前计算机对其处理的能力已绰绰有余,难点是在于模型和参数设置;现期数据是无规则而难以把控的流量,对这种流量数据的挖掘、搜集、整合、分类、加工和处理,取决于移动设备、物联网、传感器、社交媒体和定位系统的覆盖面,以及云计算的集约化的运算能力;未来数据是一种展望流量,它依赖于对历史数据和现期数据的把握而通过大数据思维来推测。如果说经济学家对投资和消费的因果分析以及由此产生的认知,主要取决于历史数据和现期数据,那么,解决“从事后评估走向事前决策”问题,既要依赖于历史数据和现期数据,也离不开未来数据。也就是说,在“历史数据 + 现期数据 + 未来数据 = 行为数据流 + 想法数据流”的世界中,经济学家要解决实际问题,其理论思维和分析手段都受制于大数据思维,经济学家运用大数据分析因果关系而得到正确认知的前提条件,是必须利用历史数据、现期数据和未来数据以获取精准信息。

就人类认知形成的解说而论,现有的社会科学理论是以信息的搜集、整理、加工、处理、判断和推论,作为分析路径来解释认知形成的。当认知被解释成通过数据的挖掘、搜集、整合、分类、加工和处理而形成,对认知形成的解释,就取得了大数据思维的形式。大数据思维是排斥判断和推论的,它否定一切非数据信息,认为产生精准信息的唯一渠道是大数据。在现有的社会科学理论中,经济学的理性选择理论对人类认知的分析和研究具有极强代表性,经济学家对投资选择和消费选择的解释,便是理性选择理论的代表性运用。基于人类认知形成和变动的一般框架在很大程度上与理性选择理论有关动机、偏好、选择和效用等的分析结构有很强的关联,我们可以结合这个理论来研究大数据思维下人们对经济、政治、文化和思想意识形态等的认知变动。事实上,经济学关于动机、偏好、选择和效用等关联于认知的分析,存在着一种可以通过对大数据思维的深入研究而得以拓展的分析空间,那就是大数据思维会导致人类认知的变动。

三 、大数据思维之于认知变动的经济学分析

我们研究这个专题之前有必要指出这样一个基本事实:大数据思维可以改变人的认知路径,可以改变不同阶段或不同场景下的认知形成过程,但改变不了影响认知的动机、偏好、认知和效用等的性质规定。如前所述,传统经济学理性选择理论在完全信息假设下,认为个体选择的动机和偏好以追求最大化为轴心,传统理论的这个真知卓见从未被后期理论质疑;但由于传统理论的完全信息假设存在着“知晓选择结果”的逻辑推论,因而认知在传统理论中是黑箱,也就是说,传统理论无所谓认知的形成和变动问题。现代主流经济学尤其是现代非主流经济学在不完全信息假设下开始重视对认知的研究,在他们看来,认知形成过程是从理智思考到信息加工和处理的过程;他们特别注重从心理因素来考察认知变动(Schandler,2006;Rubinstein,2007;),注重通过实验且运用一些数据来分析和研究认知(Kahneman and Tversky,1974,1979;Smith,1994),但这些分析和研究不是对极大量、多维度和完备性的数据分析。因此,经济学理性选择理论发展到今天,还没有进入对大数据思维改变人类认知问题的讨论。

1、经济学家能否对选择动机、偏好和效用期望等进行数据分析,决定其认知分析是否具有大数据思维的基础

经济学关于人类选择动机、偏好和效用期望等反映人们追求最大化的基本性质分析,以及从这三大要素与认知关联出发,从不同层面或角度对认知形成的分析,主要体现在理性选择理论中。但这方面显而易见的缺憾,是不能对动机、偏好、认知和效用等展开数据分析。现实的情况是,在大数据、互联网、人工智能和机器学习等没有问世或没有发展到一定水平以前,经济学家对这些要素只能做抽象的模型分析。经济学理性选择理论要跳出抽象模型分析,必须选择具有解释义或指示义的指标对动机、偏好和效用期望等进行数据分类分析,以便给认知的数据分析提供基础,显然,这会涉及抽象行为模型的具体化和参数设计的具体化,需要得到大数据和云计算集约化运算模式的支持(吴军,2016)。作为对未来大数据发展及其运用的一种展望,如果经济学家能够围绕最大化这一性质规定来寻觅动机、偏好和效用期望等的特征值,并以之来设置参数和模型,则有可能对直接或间接关联于动机、偏好和效用期望的大数据进行分析,从而为认知分析提供基础。

大数据的极大量和完备性有可能消除信息不完全,这给认知的数据分析提供可行性。诚然,选择动机、偏好和效用期望等只是反映人们选择的现期意愿和未来愿景,其极强的抽象性决定这样的数据分析还有很大困难,但由于选择动机、偏好和效用期望等会通过实际行为迂回地反映出来,因而我们可以找到解决这一困难的路径。例如,人们在准备投资和消费以前,一般有各种调研活动,即对影响投资和消费的信息进行搜集、整合、分类、加工和处理,值得注意的是,这些调研活动会在移动设备、物联网、传感器、定位系统和社交媒体中留下大数据的痕迹,这些数据痕迹会从某个层面或某个角度显现出投资者和消费者选择动机、偏好和效用期望的倾向或意愿。

智慧大脑依据什么样的标准来数据化这些倾向或意愿,从而对选择动机、偏好和效用期望以及进一步对认知展开数据分析呢?这里所说的标准,是指通过云计算和机器学习等对人们实际行为的数字和非数字信息进行相关性分类,把反映选择动机、偏好和效用期望的具有共性特征的倾向或意愿进行整理和归纳,以确定符合选择动机、偏好和效用期望之实际的参数。如果智慧大脑能够利用大数据、互联网、人工智能和机器学习等完成以上工作,根据认知是偏好与效用的中介这个现实,智慧大脑便可以对认知进行大数据分析。如果经济学家能够利用智慧大脑提供的大数据分析成果,经济学理性选择理论将会随着信息不完全假设前提变为信息完全假设前提,选择动机、偏好和效用期望的抽象分析变为数据分析,认知的抽象框定或心理分析变为数据分析而发生重大变化。以上的分析性讨论,是我们理解大数据思维改变人类认知之经济学解释的最重要的分析基点。

2、运用大数据思维进行偏好分析会改变认知形成的路径,使经济学理性选择理论接近现实

现有的理性选择理论有关动机和偏好的分析和研究(这里集中于偏好的讨论),主要集中于偏好如何界定和形成以及如何随认知和效用期望调整而发生变动等方面,并且这些分析和研究是采用“个体行为”为基本分析单元的个体主义方法论。在大数据时代,虽然个人、厂商和政府的选择偏好仍然是追求最大化,个体选择行为仍然是整个社会选择的基础,个体主义方法论仍然在一定程度和范围内存在合理性,但互联网平台改变了选择偏好的形成过程和机理。具体地说,现今人们的选择偏好已不是经济学理性选择理论意义上的选择偏好,而更多地表现为是一种以最大化为底蕴的具有趋同化特征的偏好。例如,某种产品投资或消费的介绍会和研讨会,对某种产品投资或消费的点赞和评价,中央政府和地方政府关于某种产品投资或消费的统计数据,专家和新闻媒体对某种产品投资或消费的评说和报道,等等,都会成为人们选择偏好出现一致性的催化剂。因此,经济学理性选择理论跳出抽象模型分析,已经在偏好分析上具备了大数据思维的条件和基础。

智慧大脑与非智慧大脑的区别,在于能对人们消费和投资的偏好展开大数据分析,能通过大数据的搜集、整合、加工和处理,运用云计算得到来自不同维度数据之间相关性的精准信息,以至于能获取建立在大数据分析基础之上的认知。从理论上来讲,偏好会影响认知但不能决定认知。就偏好影响认知而论,它主要是通过利益诉求、情感驱动、身心体验和时尚追求等对认知产生诱导或牵引作用。但在非大数据时代,这些诱导或牵引作用无法数据化,于是经济学家对偏好影响认知的研究便只能以抽象模型来描述。大数据思维对偏好影响认知的处理,是使用以许多简单而相对具体的模型取代高度抽象的单一模型,运用数据驱动法来设置参数和模型,对利益诉求、情感驱动、身心体验和时尚追求等偏好特征进行解读,这样便实现了很多非数据化信息的数据化,从而使以偏好为基础的在理论上对认知变动的研究有了新的分析路径。

阿里巴巴公司正在奋力打造的线上和线下相结合的“新零售”模式,是以大数据分析和运用的阿里云平台为背景和依托的。这个模式试图通过充分搜集、整合、分类、加工和处理已发生的历史消费数据,正在发生的现期消费数据和有可能发生的未来消费数据,捕捉人们消费偏好的动态变化,以期构建符合大数据思维的全新商业业态。撇开新零售模式在运营过程中的诸如数据处理、机器学习和人工智能运用等技术问题,仅以该模式对人们消费行为的系统梳理、分级整合及相关处理来说,它无疑会在引领人们消费行为的同时促动消费趋同化偏好的形成。尤其值得关注和研究的是,随着该模式运营所积累的数据量全然达到大数据的标准,人们的消费认知将会在消费趋同化偏好的导引下发生变化,这种情形不仅会发生在消费领域,投资领域也会出现投资趋同化偏好。很明显,趋同化偏好具有共性特征,它在很大程度上是对个体选择偏好的否定,对于这种偏好所导致的认知应该怎样理解呢?这个问题需要进一步研究。

3、在大数据时代,趋同化偏好会改变认知形成过程,消费者和投资者的认知不再是自己独立思考和理智判断的产物,而是在趋同化偏好驱动下对智慧大脑认知的认同

厂商的投资选择偏好是追求利润最大化,这一永恒的事实不妨碍或排斥投资趋同化偏好的形成。一般来讲,大数据发展初期的互联网平台对选择趋同化偏好形成的作用力,在消费领域要比投资领域来得更加直接和迅速。究其原因,是两大领域的机会成本和风险程度不同的缘故。但随着大数据、云计算和机器学习等的充分发展,智慧大脑有可能对历史、现期和未来的大量投资数据进行搜集、整合、加工和处理,有可能通过云计算集约化模式来分析不同维度数据之间相关性而获得精准信息,同时,智慧大脑会根据市场“行为数据流”折射出“想法数据流”而产生预见能力,寻觅和遴选出高收益的投资方向和投资标的。若此,智慧大脑投资选择的胜算率(利润率)将会大大提高,厂商会效尤智慧大脑进行投资选择,从而出现投资趋同化偏好。经济学曾经对诸如“羊群效应、蝴蝶效应、从众行为、信息重叠”等现象有过许多研究(罗伯特?希勒,2001),但严格来讲,这些研究是描述性的,不是联系偏好和认知等的分析性研究。

消费和投资的趋同化偏好主要是针对消费者和投资者的选择行为方式而言的,它不改变消费和投资选择偏好的追求效用最大化的性质规定,这是问题的一方面。另一方面,在将来大数据充分发展的鼎盛时期,消费和投资的趋同化偏好会改变认知形成过程,这可以从两种意义上来理解:1、从原先通过对信息进行搜集、整合、分类、加工和处理来获取认知,转变为通过对数据的搜集、整合、分类、加工和处理来获取认知;2、消费者和投资者的认知不再是自己独立思考和理智判断的产物,而是在趋同化偏好的驱动下认同智慧大脑的认知。关于第一点,大数据思维的认知之所以会取代独立思考和理智判断的认知,乃是因为它能够运用云计算集约化模式将消费和投资的历史数据、现期数据甚至未来数据进行分类处理和相关性分析,能够运用数以万计的计算机服务器对特定事物的因果关系展开深度机器学习,从而通过分类和归纳不同维度数据而得到精准信息(精准医疗就是基于此原理)。人类对因果关系探索的手段和路径发生变化,认知的形成过程及其机理就会发生变化。

关于第二点,消费者和投资者在未来放弃对信息的搜集、整合、分类、加工和处理,认同和效尤智慧大脑的认知来进行选择,这可理解为是他们进行效用比较(投入与收益)时的“幡然悔悟”。尤瓦尔?赫拉利(2017)有关一切有机和无机实体都可以运用算法来解构的前景预期,(吴军,2016)关于未来制造业、农业、医疗、体育、律师业甚至新闻出版业都将由大数据统治的观点,凯文?凯利(2014)以大数据和人工智能为分析底蕴对新经济十大重要准则的论述,均认为具有大数据思维且不作出主观判断的智慧大脑将是未来世界的操控者,而Master和AlphaGo战胜世界顶级围棋高手的实践,则显露了人工智能完全有可能战胜人脑的端倪。现实中的普通消费者和投资者通常只是依据有限或不准确的信息进行消费和选择,经济学家也只是根据有限或不准确的信息进行因果关系分析而得出认知,因此,相对于智慧大脑的选择效用,消费者和投资者是相形见绌,经济学家的理论见解和政策主张往往不吻合实际。

智慧大脑是运用大数据思维而超越一般智人大脑的大脑。不过,从性质上来讲,极少数拥有智慧大脑的人通过对数据的搜集、整合、分类、加工和处理所得到的认知,仍然属于人的认知。需要强调指出的是,这种认知不同于经济学理论及其他社会科学理论所阐述和论证的认知,它是在大数据思维驱动下的人类认知。对于这种新型认知的理解,如果我们结合经济学理性选择理论对其展开解说,则有着基础理论的分析价值。

4、在未来,智慧大脑的认知将引领非智慧大脑的认知,其结果是导致认知趋同化

熟悉经济学理性选择理论的学者知道,无论经济学家是从信息的搜集、整合、分类、加工和处理获取认知,还是通过心理分析或行为实验获取认知,他们都是在不完全信息或有限理性约束下进行的,这不仅存在着以不精准信息推论认知的问题,而且存在认知形成过程的主观判断问题。智慧大脑运用大数据思维所形成的认知的最大特点,是在接近完全信息基础上获取认知的,并且不夹带任何主观判断。现代未来学家曾分别从不同角度和层面对大数据、互联网和人工智能展开了许多讨论,他们的共同见解是认为大数据的极大量、多维度和完备性将有可能解决信息不完全问题(包含信息不对称),并且能够给人类选择提供精准信息。倘若如此,人类的认知问题便完全成为智慧大脑对数据的搜集、整合、分类、加工和处理问题,一旦人类可以通过大数据思维获取精准信息和完全信息,经济学理性选择理论将会在根基上被颠覆。

智慧大脑只有极少数人才具备,绝大部分人(包括智人)都是非智慧大脑。在未来世界,智慧大脑将引领非智慧大脑进行选择。这一引领过程是由前后相继的两个阶段构成:一是智慧大脑运用大数据对偏好进行分析,通过互联网将偏好传送给具有从众心理和从众行为倾向的非智慧大脑,形成非智慧大脑的趋同化偏好;另一是智慧大脑运用大数据分析获取认知,同样是通过互联网让非智慧大脑效尤智慧大脑的认知,形成趋同化认知,从而使非智慧大脑以智慧大脑的认知为认知来选择。这些情形表明,未来人类智慧大脑将决定非智慧大脑的偏好和认知,进一步说,则是智慧大脑将影响非智慧大脑的选择行为。这里有一个极其重要问题须讨论:对绝大部分非智慧大脑而言,他们在选择过程中是否还存在认知?事实上,无论是趋同化偏好还是趋同化认知,非智慧大脑的偏好和认知并没有彻底消失,只是形成的路径和内容发生了变化。关于这个问题的讨论,联系经济学的认知理论进行比较分析,或许会有更深的理解。

如前所述,传统经济学以完全信息为假设前提,将认知作为理性选择模型的外生变量,“认知”是被理论分析跳越的。现代经济学以不完全信息为假设前提,在理性选择模型中,努力通过心理和实验分析把认知作为内生变量,易言之,“认知”被解释为个体对信息进行搜集、整合、分类、加工和处理的结果,显然,以上分析在分析对象、分析方法和分析路径上,是与大数据思维不同的。现代经济学理性选择理论所分析的个体,是通过逻辑推论所抽象出来的芸芸众生;虽然智慧大脑也可以看成是个体,但人数极少,是具有大数据思维之共同特征的个体。现代经济学理性选择理论是借助于偏好分析来研究认知的,虽然认知已在一定程度上被视为内生变量,但分析方法和路径仍然是逻辑判断或推论为主;大数据思维对认知分析将会采用的方法和路径,是搜集、整合、分类、加工和处理数据,试图从极大量、多维度和完备性的数据中获取精准信息以得出认知。因此,尽管认知出现了趋同化,人类在大数据思维下仍然存在认知,只不过是非智慧大脑放弃自己的认知而统一于智慧大脑的认知罢了。

总之,偏好和认知的趋同化显示了大数据思维的魅力,这种魅力根植于大数据能够经由智慧大脑而产生精准信息。其实,智慧大脑如何设置参数和模型,如何运用云计算集约化模式,如何利用互联网以及寻觅广泛使用人工智能的方法和途径等,主要是计算机运用层面上的技术问题。我们研究大数据思维下人类认知变动需要重点关注的,是非智慧大脑究竟还有没有认知,其效用期望会呈现什么样的格局?既然非智慧大脑只是没有独立认知而不是完全跳越了认知,那么非智慧大脑便存在着效用期望,关于这种效用期望,我们可以联系效用函数来解说。

四 、认知结构一元化与效用期望变动的新解说

经济理论对选择行为与效用期望之间动态关联所建立的基本分析框架,展现出一幅“偏好认知选择效用期望”的图景。各大经济学流派的理性选择理论对这幅图景中的 “”有不同的解说和取舍(前文有所涉及),概括来说,或侧重于分析这些箭头前后要素之间的相互关联,或侧重于分析这些箭头前后要素之间的影响和决定作用。但就人们选择动机和目的与效用之间的关联而论,几乎所有理论都不怀疑“追求自身利益最大化”的公理性,于是,“最大化”在成为效用函数核心变量的同时,也在一定程度上被作为理性选择的判断标准。以上图景的逻辑分析链是建立在信息不完全分析假设上的,各大经济学流派的理性选择理论对这条逻辑分析链各环节的不同解说所产生的理论分歧,可归结为是在信息不完全假设分析框架内的分歧。值得学术界关注的是,当大数据在未来有可能提供完全信息时,这些分歧将会让位于新的理论探讨。

经济学家对效用函数的研究是与认知分析紧密相联的。但无论是传统经济理论还是现代经济理论,他们对效用函数以及最大化问题的研究存在着共性,即这些研究都是建立在抽象的认知结构一元化基础上的。具体地说,传统经济理论在完全信息假设上认为,选择者可以得到“获悉选择结果的认知”,从而主张用“最大化”来描述选择者的效用函数。现代主流和非主流经济理论在不完全信息假设上认为,选择者受有限理性约束不可能得到“获悉选择结果的认知”,从而主张不可用“最大化”来描述选择者的效用函数。这里所说的抽象认知结构一元化,是指不是以具体的认知主体作为分析对象,而是把整个人类描述为一个同一的抽象主体,让“最大化”问题成为效用函数的核心问题。在大数据思维的未来世界,随着信息有可能出现完全化,“最大化”问题将会成为不是问题的问题。

诚然,智慧大脑对大数据进行搜集、整合、分类、加工和处理,并通过云计算、机器学习乃至于根据人工智能实践来选择参数和设置模型,仍然没有越出追求自身利益最大化这一效用函数的性质规定,但由于智慧大脑的认知形成过程是建立在具有极大量、多维度和完备性的大数据基础之上的,大数据能够提供完全信息的特点有可能会让智慧大脑取得效用最大化。人类绝大部分选择者是非智慧大脑者,从科学意义上来讲,大数据对他们可谓是长期的黑箱,而他们依据自己认知所做出的选择又不可能实现效用最大化,于是,非智慧大脑者将以智慧大脑者的认知作为自己认知而做出选择,这便形成了大数据时代实际意义上的一元化认知结构。如果说我们划分智慧大脑和非智慧大脑是对人类选择主体的一种新界定;那么,我们揭示这两大选择主体实际意义上的一元化认知结构,则是对大数据时代人类认知问题的一种新解说。

大数据背景下人类实际意义上的认知结构一元化,将是未来发展的一种趋势,相对于经济理论抽象意义上的认知结构一元化,它容易把握和理解。但它在将来能否成为一种固定化趋势,取决于智慧大脑在经济、政治、文化和思想意识形态等领域进行选择时获得的效用函数值。对于该效用函数值的预期,大数据思维下的智慧大脑是具备这种能力的。从经济理论分析看,对效用函数值的讨论,将涉及内蕴且展示效用函数的效用期望问题的讨论。传统经济学的期望效用函数理论,是一种运用数学模型论证选择者能够实现最大化的理性选择理论((Von Neumann and Morgenstern,1947;Arrow and Debreu,1954),现代非主流经济学是在分析风险厌恶和风险偏好的基础上,用一条S型的价值(函数)曲线取代传统的效用函数,并通过相对财富变动对选择者感受的分析,解析了选择者的效用期望会不断发生调整的情形(Kahneman and Tversky,1979)。那么,大数据时代选择者的效用期望会发生怎样变动呢?

人类社会发展的历史表明,人的主观期望与实际选择结果之间会发生经常性偏离。选择者的效用期望能否实现最大化,一是取决于选择者能否得到完全信息,另一是取决于选择者认知过程的科学化。事实上,现代经济学对传统经济学以最大化为核心的效用函数的质疑和批评,主要是围绕信息不完全和忽略认知过程展开的。大数据时代存在着提供完全信息的可能性,而智慧大脑利用互联网和运用云计算、机器学习和人工智能等手段,正在实现着认知过程的科学化,这便提出了经济学必须回答的两大问题:1、大数据思维下的人类选择是否可以实现最大化,2、大数据思维下选择者的效用期望会不会发生调整。这是现代经济学没有提及的两大问题,但当我们分别从智慧大脑和非智慧大脑来讨论这两大问题时,结论或许会让笃信经济学经典理论的学者大跌眼镜。

在未来世界,随着互联网平台的日新月异以及移动设备、物联网、传感器、社交媒体和定位系统等搜集大数据手段的覆盖面的日益扩大,大数据的极大量、多维度和完备性给人类选择提供了完全信息的基础。智慧大脑在云计算、机器学习和人工智能等的支持下,以数据分析为基础的认知过程也越来越科学化,于是,智慧大脑便可以知晓选择过程的结果,有可能实现最大化,这说明智慧大脑不存在效用期望的调整问题。另一方面,非智慧大脑以智慧大脑的认知为自己的认知,其效用期望完全依附于智慧大脑的效用期望。具体地说,非智慧大脑不对数据进行搜集、整合、分类、加工和处理,跳越了认知过程,同样不存在效用期望的调整问题。非智慧大脑效用期望完全依附于智慧大脑效用期望的情形,或者说,非智慧大脑以智慧大脑效用期望为自己效用期望的情形,统一于智慧大脑与非智慧大脑的认知结构一元化。如果要追溯非智慧大脑效用期望的变动,那就是从原先属于自己的效用期望转变成了智慧大脑的效用期望。

智慧大脑有可能实现最大化,以及不存在效用期望调整是一回事,但智慧大脑能否在所建模型中给定效用期望值却是另一回事。效用期望作为一种主观预期或判断,它不会在互联网上留下可供大数据分析的历史数据流、现期数据流和未来数据流,也就是说,不会在互联网上留下可供大数据分析的行为数据流和想法数据流,这在决定智慧大脑难以跟踪、模拟和推论效用期望值的同时,也给非智慧大脑放弃认知而效尤智慧大脑提供了某种聊以。推崇人工智能可以替代人脑的学者,好用Master和AlphaGo战胜世界顶级围棋高手的事实作为这种替代的立论依据,但无论我们怎样在大数据分析、机器学习和人工智能运用等方面进行深度挖掘,也找不到智慧大脑能在所建模型中给定效用期望值的科学依据。智慧大脑不能确定效用期望值,也就规定了非智慧大脑不能确定效用期望值。这又提出了一个在理论上有必要回答的问题:非智慧大脑还有没有效用期望?

在经济社会,智慧大脑和非智慧大脑的投资和消费选择的效用期望都是追求最大化,这一点是永恒的。但问题在于,非智慧大脑以智慧大脑的认知为自己认知,以智慧大脑的选择作为自己选择的情形,会使自己的效用期望完全停留在期望智慧大脑选择结果的形式上,这可以解释为大数据时代非智慧大脑的效用期望的一种变动。但对于这样的效用期望的理解,与其说它是一种效用期望,倒不如说它是一种效用期待。社会经济的精英是人数极少的智慧大脑群体,但推动投资和消费的是占人口绝大多数的非智慧大脑群体。因此,非智慧大脑群体的偏好、认知、选择和效用期望,应该是理性选择理论研究的重点。关于这一研究重点的逻辑和现实的分析线索,是大数据思维趋同化偏好趋同化认知认知结构一元化最大化效用期望。不过,这条分析线索包含着许多本文或有所涉及或尚未涉及的交叉性内容,它需要我们在继续研究大数据思维改变人类认知这一理论专题时,做出进一步深入的探讨。

大数据经济分析范文第5篇

关键词:巨大子宫肌瘤;腹腔镜;子宫肌瘤剔除术

Clinical Analysis of laparoscopic myomectomy for huge uterine myoma

Ren Ren

【Abstract】Objective:To explore the feasibility and clinical value of laparoscopic myomectomy for huge uterine myoma.Methods:45 cases of huge uterine myoma from January 2009 to December 2012 were as the therapeutic group.41 cases of huge uterine myoma from January 2007 to December 2008 were as the control group.The therapeutic group received laparoscopic myomectomy.The control group received abdominal myomectomy.To compare the clinical discharge and hospitalization in the therapeutic group was less than the contral group.Results:The difference was statistically significan.The difference was not statistically significan about the incidence rate of abdominal incision bleeding in 2 groups.The incedence rate of incision infection in the therapeutic group was less than the contral group.The difference was statistically significan.Conclusion:Laparoscopic uterine myomectomy was feasible and safe if we full assessed of the risk of intraoperative,mastered the appropriate indications and grasped the intraoperative key.

【Key words】huge uterine fibroids; laparoscopic; myomectomy

【中图分类号】R737.33 【文献标识码】B 【文章编号】1674-7526(2012)12-0006-02

子宫肌瘤是一种最为常见的女性生殖器官良性肿瘤,临床对症状明显的患者多采用的以子宫切除术为主的治疗方式。但是随着生活品质的提高、保持身体的完整性、保留生育功能,提高到首位。随着现代腹腔镜技术的发展,腹腔镜下子宫肌瘤剔除术就成为了理想的主要术式[1]。但是对于肿瘤直径太大,子宫大于12孕周的,手术野的显露比较困难,手术难度及风险偏大,多以开腹手术为主[2]。随着腹腔镜设备的更新、现代腹腔镜技术水平的提高,腹腔镜手术适应证也不断拓宽,对于巨大子宫肌瘤行腹腔镜切除成为可能。为探讨腹腔镜巨大子宫肌瘤剔除术的技术特点,对我院45例巨大子宫肌瘤,直径8~13cm,行腹腔镜子宫肌瘤剔除术,临床疗效满意,报告如下。

1 资料与方法

1.1 一般资料:以我院妇产科2009年1月~2012年12月收治的子宫大肌瘤患者45例为治疗组,年龄27~50岁,平均35.67±7.78岁。其中单发肌瘤17例,多发肌瘤28例;浆膜下肌瘤15例,肌壁间肌瘤30例。以2007年1月~2008年12月收治的子宫大肌瘤患者41例为对照组,年龄26~52岁,平均3734±8.27岁。其中单发肌瘤19例,多发肌瘤21例;浆膜下肌瘤13例,肌壁间肌瘤28例。所有患者均由盆腔彩超等检查明确为子宫肌瘤,术前检查没有手术禁忌症,彩超或CT明确至少有1个肌瘤的直径为8~14cm,排除子宫癌性病变。2组患者,年龄、肌瘤类型方面,差异没有统计学意义,具有可比性。

1.2 手术方法:

(1)治疗组:静脉复合麻醉下,取膀胱截石位,在脐孔部或脐孔上方1~4cm处穿刺进腹,置入腹腔镜,调整头低足高位后探查腹腔情况。然后在左右髂前上棘与脐连线中外1/3处,置入第2、3个操作孔,用垂体后叶素6~12u加20ml生理盐水稀释后,注入子宫肌瘤包膜及基底部。根据肌瘤位置选择切口大小及方向。用单级电凝避开血管切开肌瘤包膜,深达瘤核,用子宫肌瘤螺旋钻刺入瘤体或抓钳抓住肌瘤固定并牵拉,用剥离棒分离肌瘤包膜到达基底部后电凝切断,注意不要穿透子宫内膜;如果肌瘤过大已影响到操作,用电动组织粉碎器切除肌瘤部分后再剥离;根据创面选择单或双层缝合,首先缝合内1/2肌层关闭瘤腔,再缝合外1/2浆膜层。如果术中发现穿透黏膜层并到达宫腔,要先缝合黏膜层后,再缝合剩余肌层及浆膜层。阔韧带肌瘤的周围组织疏松、血运丰富,打开阔韧带前后叶分离肌瘤时,采用连续缝合法关闭瘤腔,注意不要损伤子宫动脉及输尿管。切除后的肌瘤采用粉碎取出法,冲洗盆腔,检查无活动性出血后关腹。

(2)对照组:开腹组采用连续硬膜外麻醉,按常规手术方法进行子宫肌瘤剔除术。

1.3 统计方法:实验数据使用SPSS14.0统计软件进行分析,计数资料采用检验,计量资料采用t检验,以P

2 结果

2.1 2组术后恢复情况的比较:具体见下附表,可见治疗组手术时间、术后排气时间以及住院天数明显少于开腹组,差异具有统计学意义。

附表 2组术后恢复情况的比较组别

2.2 2组术后并发症的比较:治疗组腹壁戳孔出血2例,对照组出现切口出血1例,经比较,值=0.256,P=0.613>0.05。治疗组戳孔感染1例,对照组出现切口感染6例,经比较,值=4420,P=0.036

3 讨论

子宫已经被许多临床研究证实具有内分泌功能,与卵巢功能密切联系,既往对子宫肌瘤过大的患者,多选择子宫切除术,随着女性对自身生活质量的要求,许多患者都要求保留子宫。腹腔镜手术具有切口小、创伤小及恢复快的优点,广泛运用于临床,但是目前临床上对肌瘤数量>4个、直径>6cm的患者,认为不宜在腹腔镜下进行[3,4]。其危险在于:肌瘤过大,尤其是位于宫颈、阔韧带或子宫下段等部位时,会因为解剖结构变异,易损伤输尿管、膀胱及子宫血管;手术时间延长、创面大,出血较多[5]。随着腹腔镜技术及设备的发展,腹腔镜适应症拓宽,腹腔镜巨大肌瘤的剔除是安全可行的。 本次研究中,我们对研究患者行腹腔镜子宫巨大肌瘤剔除术,全部安全切除,并与开腹手术患者比较,术后排气时间以及住院天数明显少于开腹组,差异具有统计学意义;同时治疗组腹壁切口出血的发生率与对照组比较,差异没有统计学意义,切口感染的发生率低于对照组,差异具有统计学意义,可见腹腔镜子宫巨大肌瘤剔除术是安全可行的,充分发挥了腹腔镜的巨大优势。

我们总结,腹腔镜下巨大子宫肌瘤剔除术主要技术关键:①选择合适的手术切口:子宫下段后壁纵长形肌瘤宜选用纵切口;子宫前壁、宫颈段、阔韧带肌瘤或子宫后壁位置偏高的肌瘤选用横切口,与子宫的弓形血管走行一致,可有效减少出血[6];子宫旁及阔韧带肌瘤,在肌瘤外突的方向选择前或后切口,前方切口需将膀胱腹膜反折剪开以推开膀胱,后方切口要仔细辨认输尿管的走向,当解剖层次显示不清时,不要轻易的使用电凝,以免误伤输尿管。②对于肌瘤的剥离,选择肌瘤的中央隆起处切开肌瘤包膜后,显露瘤核,由于肌瘤过大,视野会受限,可旋切部分肌瘤,后再剥离肌瘤,在肌瘤根部要注意血管,可以用线圈套扎肌瘤基底部血供[7]。③肌瘤切除后,尽快缝合创面,缝合时避免误扎子宫动脉及输尿管,切除肌瘤后,可静脉滴注缩宫素,减少出血[8]。此外,腹腔镜巨大子宫肌瘤剔除术要把握适应症,我们总结:盆腔没有粘连,肌瘤直径控制在8~12cm,巨大肌瘤不要超过1个。

综上,腹腔镜子宫巨大肌瘤剔除术手术难度较大,对技术水平要求高,处理不当可导致出血过多,手术时间过长,导致严重的并发症,因此,要充分评估术中可能出现的风险,掌握合适的手术指征,把握术中关键,腹腔镜子宫巨大肌瘤剔除术是安全可行的。

参考文献

[1] Bachmann G.Expanding treatment options for women with symptomatie uterine leiomyomas:timely medical breakthroughs[J].Fertil Steril,2006,85(1):46~47

[2] HarKKi,KurKi Ts,Ijoberg J,et al.Safety aspects of laparoseopic hysterectomy [J].Acta Obstet Gynecol Stand,2001,80(5):383~391

[3] 刘陶,苏醒,刘晴.腹腔镜下大子宫肌瘤剔除术82例手术探讨[J].中国微刨外科杂志,2008,8(3);208~210

[4] 焦海宁,蔡蕾,喇端端.腹腔镜子宫大肌瘤挖除术243例临床分析[J].上海交通大学学报(医学版),2008,28(12):1600~1602

[5] 王丽英,李斌.较困难的腹腔镜子官肌瘤剔除术:附142例临床报告[J].中国微创外科杂志,2009,9(5):456~458

[6] ParKer WH.Laparoscopic myomectomy and abdominal myomectomy [J].ain obstet Gyneool,2006,49(4):789~797