《数据的商战策略》:过度害怕会扼杀创新大数据产业一直迴避伦理问题

导读 文:车品觉 伦理不容忽视 2016年11月,红极一时的大数据公司剑桥分析(Cambridge Analytica) 凭着对Facebook的舆论分

文:车品觉

伦理不容忽视

2016年11月,红极一时的大数据公司剑桥分析(Cambridge Analytica) 凭着对Facebook的舆论分析, 成功协助川普(Donald Trump)当选;英国国民健保署(NHS)的健康医疗大数据平台Care.data,因为资料隐私问题引发公众强烈抗议,最终摧毁了这项原本万事俱备的计画。与此同时,各种利用大数据及人工智慧技术的社会问题也开始不断浮现。

其实这也很正常,因为我们沿用的原则和法规已经无法跟上数据革命的步伐。大数据的进步正在不断延展关于隐私洩露和知情同意(informed consent)等问题。在这种情况下,我们非常需要一个全新的框架来建立一套健全的保护数据标準,让大家对科技发展保持信心。

以无人驾驶车领域的故事为例,当意外发生时,如果无人驾驶车在没有其他选择时,只能选择撞向一个有权势的大人物或一个弱小的儿童,那么,无人驾驶车的设计者应该如何处理?以数据驱动的自动化决策,在意外发生后进行责任评估,汽车和软体开发商到底谁的责任更大?同样的道理,如果脑科手术机器人出了意外,又该如何问责呢?

以大数据为基础的人工智慧仍然是一门相对较新的技术,在广泛被使用之前,公众对这种科技的信心很重要。数据伦理和标準是一方面,而对公众有着影响力的演算法所造成的结果,是否应接受审计,以确保透明度和安全性?未来如果有一种演算法能左右你的教育机会、职业选择、获得不同社会服务的权利,你又会怎么做?

牛津大学哲学与资讯伦理学教授卢洽诺.弗洛里迪(Luciano Floridi)一直在研究大数据产生的伦理影响。他描述了人工智慧两种不同的发展前景,第一种被称为「泳池模型」,即人工智慧的池水将溢满整个世界;第二种是他自己预测的「坑洞模型」,即人工智慧的水滴会落在一切事物上,但只会注满特定的坑洞。

顾问公司Frontier Economics在最近的一份报告中预测,到2035年,人工智慧将为英国经济增加8140亿美元产值,经济增长率将从2.5%上升到3.9%。如此美好的前景,需要先解决包括隐私和伦理在内的诸多问题,方能安全着陆,且让我们拭目以待。

联邦通讯委员会(FCC)之前发现,当地最大的行动营运商Verizon的无线部门侵犯了用户隐私,在用户的流量里植入了特殊的追蹤码(super cookies),以记录用户的特殊消费行为,并将相关数据提供给外部广告商,好让他们针对性地投放广告。因此FCC 认为,Verizon的行为违反了网路透明性规则。

这个案例让我们深思,数据安全的边界在哪里?目前来看,数据安全边界还相当模糊,对于数据安全问题,大家一定要谨慎,不能把它简单化和一刀切。无论是站在个人立场,还是作为组织机构,两者都会面对社会伦理问题。哪些事可为?哪些不可为?与在总体层面上处理客户群的资讯相比,若是站在客户个人层面上,或是针对既定範围内的某些客户,在何种程度上利用个人资讯是可以接受的?哪些个人资讯的储存可以明文、哪些要加密,而哪些资讯根本就不适合留存?什么情况下可以交叉参照一名消费者散落在各处的资讯?

举个例子,假设我订了一张第二天去的机票,这个资讯跟我的饭店入住纪录关联起来,三秒钟后,我的手机就收到了饭店八折预订的促销资讯。这对于作为消费者的我来说,是否合理?如果把一批曾到过的游客分成一些小组,一次给某个小组发送八折资讯,会不会好一点?

如今,大数据产业一直在忽略、迴避和否认数据伦理这个问题。忽略的原因就是害怕,害怕一检查就露出破绽,害怕过度关注伦理会扼杀创新,害怕伦理问题太过棘手而无从解决。但我们不需要害怕它,而是要去改变自己的数据安全策略,真正打通伦理这一环。

水能载舟,亦能覆舟

白宫警告,政府必须在人工智慧仍依赖人类的时候,思考如何监管和利用这项技术。大部分人也赞同,政府需在这方面有所作为,但如何具体落实尚未清晰。人工智慧的实际问题越来越多,而且迫在眉睫。例如,Google的无人驾驶车一旦出意外,谁该负责任?汽车生产者还是乘客,数据提供者还是演算法工程师?

我就见过一例,因为某个表格栏位数据意外遗失,令自动化系统演算法判断失误,导致一家企业损失了几千万元。最后追究责任时,才发现这只是产品经理的一个小疏忽。

数据输入问责制日趋重要

我们都知道,想让机器学习成功,首先要给它清楚的目标,然后向它「餵食」大量数据。但让人担心的是,人类在输入目标和设计上,可能会把既有的偏见,灌输进人工智慧的思维。比如,某大平台向男性推送高薪工作的机会远高于女性;的员警系统判断,非裔人比更容易被当成惯犯。如果要由人工智慧决定谁可以获得贷款、工作或假释,那么,对输入这些系统的数据进行某种程度的问责,以确保準确性,将变得越来越重要。

法律界也指出,智慧产品的创造者,有义务证明其产品符合公共安全要求。毫无疑问,人工智慧已经带来政策上的挑战,比如,在自动化技术变得更加複杂、更加智慧的同时,如何继续确保其可控性?虽然人工智慧在某些方面已打败人类,但很多系统的应用仍依赖人类来指示方向,有能力完成,和自主完成并不相同。当然,有些科学家也曾经说:「如果有一天,製造机器人的是另一个机器人时,我们就要小心了。」

现在,政府已在想办法监管人工智慧,例如无人机和癌症探测分析仪等。白宫科技政策办公室也联合多个政府机关,依据事实制定监管办法。各位不要以为这只是政府该烦恼的问题,因为我们可能很快会发现,某CEO下台是因为一个关键演算法失误,这绝非危言耸听,如今,複杂的科技已让传统管理体系捉襟见肘。大数据、人工智慧、机器学习等都是新生事物,水能载舟,亦能覆舟,趁人类仍掌控着大局时先打好基础,做好防範,是当务之急。

无人驾驶车致死事件,人工智慧準备好了吗?

国家公路交通安全管理局(NHTSA)调查了第一宗无人驾驶车致死的车祸,当事人驾驶一辆以自动驾驶模式行驶的汽车上了高速公路,却因识别错误,全速撞向一辆卡车。据说,意外中用以紧急防撞的毫米波雷达也同时出错,有人解释这种情况很罕见,但圈内还是有很多人热议,人工智慧到底準备好了吗?

人工智慧并非新概念,自从参与1956年达特茅斯会议(Dartmouth Conference)的学者们提出这一概念以来,已有六十多年历史。人工智慧研发是一个不断成长的领域,其研究方向早就随着大数据及分散式运算能力的发展而不断扩展,至今已包括机器/深度学习、自然语言处理、图像识别、手势控制、虚拟助手、智慧机器人、情感认知、智慧推荐、语音翻译、视频内容识别等。

人工智慧领域的融资总额逐年稳步增长,从2010年的2亿美元到2013年的6亿美元,再到2015年的12亿美元,未来有望更上一层楼。从融资金额和宗数上,我们可以看出,从事机器学习和自然语言处理的公司现在可谓炙手可热。Google的CEO在一封致股东信中,更把机器学习誉为「人工智慧和计算的真正未来」。

现在谈起高科技,人们势必会提及Google、IBM、微软等巨头,但在人工智慧领域,创业机会其实比我们想像的更蓬勃,根据的统计资料,在人工智慧的风险投资项目中,九成公司的员工少于五十人,更有五成公司的员工少于十人。的情况也类似,虽然百度、阿里、腾讯在人工智慧的投资也不少,但产业内还是不乏活跃的小团队。不断崛起的年轻公司持续推进着人工智慧的发展,这一领域的未来一片光明。

不管你是满足于偶尔向Siri提问,还是在热切期待与机器人相伴的那一天,但有一件事情确定无疑:未来几年,人工智慧在我们生活中的角色将越来越重要。

史蒂芬.霍金(Stephen Hawking)曾在一次访问中说,披着数字助手和无人驾驶车等外衣的人工智慧正快速发展,其进化速度可能比人类更快,而且它们的终极目标将不可预测。一旦机器人达到能够自我进化的关键阶段,我们将无法了解它们的目标是否与人类相同。历史告诉我们,人类的进步来自贪婪,而每次毁灭来自愚昧,这正符合《易经》「水火既济」和「火水未济」的道理。

书籍介绍

本文摘录自《数据的商战策略:建立以数据驱动为核心的营运关键》,天下杂誌出版 *透过以上连结购书,《关键评论网》由此所得将全数捐赠联合劝募。

作者:车品觉

从行动网路到5G时代,企业欠缺的再也不是数据, 而是一套符合商业目标的大数据策略,实现数据变现。

数据收集不完怎么办? 部门各自为政怎么解? 如何找到数据化的切入点? 如何不让安全原则影响业务效率?

从阿里巴巴经验, 解答企业推行数据化的最容易遭遇的困难点; 揭开当前数据变现的最热领域。

本书作者车品觉在2010年至2016年先后任职于支付宝、淘宝,并担任阿里巴巴集团副总裁及首任数据委员会会长,期间开发多个数据产品,成功带领阿里巴巴转型成为数据公司。

数据,终将成为企业的核心资产。但是,要落实以数据为核心的改变、让数据发挥策略性的价值,在实际运作上还有许多环节要打通。在本书中,作者第一手公开阿里巴巴的转型过程,建立以数据驱动为核心的智慧商业模式,包括如何从工作流中寻找数据化的切入点、如何设定数据收集策略与数据流通策略。

并介绍医疗、金融、零售、娱乐等多种产业,如何发挥对数据策略的想像,透过不同领域的数据结合,让外部数据弥补内部业务的盲点,实现数据变现。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章