探索中国CIO人才现状 | 第四季调研报告
大数据伦理,需要CIO的参与
2015-10-20  来源:techtarget

最近,在哈佛大学举行的一次会议上,学者和业内人士讨论了大数据在不久的将来要面临的伦理挑战。

在哈佛大学举办的Societal Impact through Computing Research 研讨会上,一位与会者分享了自己与一位六个月前,刚搬到哈特福德,康涅狄格州的保险公司的IT领导人之间的一次会面。这位IT领导人“完全依赖于他的导航系统,”这位与会者说,只有使用GPS设备才能在城市里找到方向。没有它,他甚至不知道哪里是北。

你很容易认为,导航技术的好处超越了这位保险公司高管对于城市路线的知识缺乏。但我明白这个人想要表达的观点:大数据——使GPS设备可以提供实时方向,正在改变我们理解世界的方式。当一个GPS设备告诉我们向右转时,我们就向右转。并且,因为我们非常愿意将新技术融入到生活,我们也冒着风险——有时我们的方式真的错了,伦理上也错了。

这是圆桌讨论会上提出的观点之一。(参与的10位学者和/或行业专业人士都要求匿名,以确保开放和坦诚的对话。)这一对话让我深思大数据伦理,和CIO的职责。在应对大数据项目时,IT的领导人经常被要求考虑业务问题而不是技术解决方案。但是一旦业务目标得以确定并实现,这一大数据项目将会对社会带来什么影响?

语义错误

拥有更多数据的优势是显而易见的,但当社会变得如此依赖数据,在不加深思和考虑后果的情况下,信任数据并以此作为行动的依据,又会带来什么后果?

我在自己关于大数据分析的报告中发现,错误分析结果也会让研究人员相信,例如,认为失业率在下降,因为他们的社交媒体软件分析程序误将Steve Jobs 名字中的 “Jobs”当作为 “工作”的意思。

这一错误解读导致了错误的结果,但是有大量的大数据分析入侵私人生活的案例。比如,Target公司的怀孕预测(teenage pregnancy)事件,还有最近在Gartner Catalyst会议上听到的,一家大型金融机构的客户流失预测。这一银行发现了一种客户准备离开的规律,但未能意识到这些他们想要挽留的许多客户,其实是想在申请离婚前,进行财产转移的配偶。

在这些例子中,都是语义错误造成的。 (我们能称之为一个数据质量的问题吗?) 与会者之一,一位计算机科学的博士生说:“我曾经是一名数据科学家,我的同事们都很聪明,但他们提出的解决方案,完全没有实际意义。”一些大数据项目在真空中进行,完全无法和现实世界相关联。

当数据导致歧视

当涉及到大数据的伦理问题时,语义错误只是冰山一角。更大的担忧是这种对于数据的盲目信仰会导致,取消分析审查或缺乏批判性思维。例如,当方案合适,但有潜在的伦理问题时,企业要如何选择?当大数据帮助企业维持成规或歧视性政策而不是消除它们时,又会发生什么?

这听起来也许有点匪夷所思,但是实际情况已经证明了大数据会加强歧视。来自卡内基梅隆大学的研究人员最近发表了一篇有关谷歌公司的在线广告系统将更多的高薪工作广告发送给男性,而不是女性的文章。为什么这么做?谷歌公司在向新闻媒体,如《纽约时报》和《华盛顿邮报》提供的一份声明中说:“广告客户可以选择他们的目标客户,而我们有相关政策说明这类基于利益的广告是允许的。”

数据和分析已经成为创新的温床。这可能意味着,正如一位与会者指出的,对于企业而言,更容易在事后获得谅解,而不是事先获得许可。 “即使你想获得许可,法律体系也没有相应的流程。法律体系还没有赶上技术,”这位与会者,是哈佛大学伯克曼互联网与社会中心的律师。

即使这样的流程存在,数据科学家也不是律师,反之亦然。也许,正如那位博士生所说的那样,也许是时候结束数据分析的讨论,开始讨论大数据的伦理问题和法律后果。“数据分析最终将不可避免地必须在法律领域或政治舞台上做出评判,”他说。

大数据伦理不仅是学术

如果你认为大数据伦理纯粹仅是学术讨论,事实并非如此。这一话题在最近在纽约举行的Strata + Hadoop World 大会上也被提及。

DJ Patil,美国科学和技术政策办公室的首席数据科学家,站在台上,发出号召。“我的请求是,每个培训、每个课程、每一个大型开放式网络课程、每个大学课堂、每个专业学位、每个公司的项目都有内在的数据伦理课程,—不是附加的,是内含的—培训每个数据科学家,每个计算机科学家,每个数据工程师,每个数据运算的人,”他说。“我们必须明确这个项目应该是怎样的。”

随后,Patil开展了一场众人参加的、两部分的有关数据伦理的对话,与会者来自银行,医疗和零售行业。

当一位与会者问Patil应该如何做,他说:“正确的方式:我们聚在一起,承担职责,作为团体,对问题进行定义。错误的方式:一群不在这一领域工作的人聚在一起,写下定义,然后说, ‘这是你的新伦理标准。倒霉的家伙。’”