加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程 > 正文

你知道的太多了!人工智能时代如何夺回我们的“不知情权”

发布时间:2018-07-07 20:07:35 所属栏目:编程 来源:IT之家-IT
导读:原标题:你知道的太多了!人工智能时代如何夺回我们的“不知情权” 据国外媒体报道,柏林墙倒塌后,东德公民终于有机会阅读到斯塔西(Stasi,东德的国家安全机构,被认为是当时世界上最有效率的情报和秘密警察机构之一)保存的关于他们的资料。然而迄今为
副标题[/!--empirenews.page--]

原标题:你知道的太多了!人工智能时代如何夺回我们的“不知情权”

据国外媒体报道,柏林墙倒塌后,东德公民终于有机会阅读到斯塔西(Stasi,东德的国家安全机构,被认为是当时世界上最有效率的情报和秘密警察机构之一)保存的关于他们的资料。然而迄今为止,只有大约10%的人真的去查阅了这些资料。

2007年,脱氧核糖核酸(DNA)结构的发现者之一詹姆斯·沃森(James Watson)表示,他并不想知道自己的载脂蛋白E(ApoE)基因信息。该等位基因被认为是阿尔茨海默症的风险因子。

民意调查显示,如果有选择的话,大多数人宁愿不知道自己的死亡日期——甚至是快乐事件的发生日期也不想知道。

以上这些都是故意选择不知道的例子。苏格拉底可能会提出,未经审视的生活不值得过;而霍布斯则会争论称,好奇心是人类最主要的激情;但还有许多古老的故事向我们描述了知道太多也会带来危险。从亚当、夏娃和智慧树,到盗取取火秘密的普罗米修斯,这些故事告诉我们,现实生活中需要在选择知道和不知道之间达成微妙的平衡。

然而,如果出现一种技术,能以无法预知的方式改变这种平衡,同时让我们在决定什么时候保持不知情的问题上变得复杂的话,又会带来什么后果?这种技术其实已经出现了,那就是人工智能。

人工智能可以利用相对较少的数据来找到模式并做出推论。例如,只需要几个Facebook上的点赞就可以预测出你的个性、种族和性别。还有一种计算机算法声称,只需根据人们的照片,就能以81%的准确率区分同性恋和异性恋男性,而区分同性恋和异性恋女性的准确率为71%。另一种名为“替代性制裁的惩罚性罪犯管理分析”(Correctional Offender Management Profiling for Alternative Sanctions,COMPAS)的算法则可以通过青少年被捕记录、家庭犯罪记录、教育、社会隔离和休闲活动等数据,来预测犯罪者再犯的可能性,准确率达到65%。

在这些例子中,结论和所用的数据可能在本质上存在着惊人的偏差(即使某些结果的有效性仍在争论中)。这使得控制我们所知道的内容十分困难,而且也没有什么法规来帮助我们保持不知道的状态:不存在受保护的“不知情权”。

于是,这就创造了一种氛围,用Facebook的早期座右铭来说,我们很容易“快速行动,破除陈规”(move fast and break things)。但是,当涉及到我们私人生活的细节时,“破除陈规”是否就是我们想要的呢?

几十年来,政府和立法者都知道“潘多拉的盒子”有时候最好还是不要打开。至少在20世纪90年代,保护个人不知情权利的法律就已经出台。例如,1997年的“欧洲人权和生物医学公约”(European Convention on Human Rights and Biomedicine)规定:“每个人都有权了解其被收集的有关健康状况的任何信息。但是,应当遵从个人不希望被告知的意愿。”类似的,1995年世界医学协会的“患者权利宣言”(Rights of the Patient)中指出:“患者有权利明确要求不被告知(医疗数据),除非是为了保护其他人的生命。”

然而,为人工智能制定“不知情权”法规是完全不同的问题。虽然医疗数据受到严格管制,但人工智能所使用的数据往往掌握在名声不佳的盈利性科技公司手中。人工智能处理的数据类型也更广泛,因此任何相应的法律都需要对什么是“不知情权”有更深入的理解。研究故意不知情的心理将有助于设计适用于人工智能的不知情权法律。不过,令人惊讶的是,这一严谨的科学研究话题长期以来一直被忽略,或许是因为某种隐含的假设,即故意忽略信息是不理性的。

心理学家拉尔夫·赫特维格(Ralph Hertwig)和法律学者克里斯托弗·恩格尔(Christoph Engel)近期发表了一篇文章,对故意选择不知情的动机进行了细致分类。在他们识别出的动机中,有两组尤其与面对人工智能时对不知情的需求密切相关。

第一组动机围绕公正和公平展开。简而言之,知识有时会破坏判断力,而我们往往选择以故意不知情作为回应。例如,学术论文的同行评议通常是匿名的。大多数国家的保险公司在登记之前不得获取有关客户健康状况的细节;他们只能知道一般的健康风险因素。这种考虑尤其与人工智能关系密切,因为人工智能可以产生极具偏见的信息。

第二组相关的动机是情绪调节和避免遗憾。赫特维格和恩格尔写道,刻意的不知情可以帮助人们维持“珍视的信仰”,并避免“精神不适、恐惧和认知失调”。故意不知情其实非常盛行。调查中大约90%的德国人希望避免可能由于“预知诸如死亡和离婚等负面事件”而产生的负面情绪,40%到70%的人也不想知道正面事件,以帮助保持“对惊喜和悬念的积极感受”,比如不知道未出生孩子的性别。

这两组动机能帮助我们理解在人工智能面前保护不知情权的必要性。举例来说,人工智能“同志雷达”(gaydar)算法的潜在收益似乎接近于零,但是在公正性和公平性方面的潜在成本却很高。正如《经济学人》(The Economist)所说的那样,“在世界上同性恋社交不被接受或被认为非法的部分地区,这样的算法可能对安全构成严重威胁。”同样的,NtechLab目前正在开发的种族识别人工智能系统所能带来的潜在收益,与其对公正性和公平性的负面影响相比显得苍白许多。COMPAS累犯预测软件具有比人类更高的准确性,但正如Dressel和Farid所写,这“并不像我们想要的那种准确,尤其是从未来还悬而未决的被告者的角度来看”。预测个人预期寿命的算法,比如Aspire Health正在开发的算法,并不一定会让人们的情绪调节变得更容易。

这些例子说明了识别个体不知情动机的影响,并且展示了知识和无知的问题可以有多复杂,特别是在涉及人工智能的时候。关于集体不知情在什么时候有益处,或者在道德上合理的问题,没有现成的答案。理想的做法是单独考虑每个案例,进行风险收益分析。理想情况下,鉴于争论的复杂性和后果的重要性,这一分析将公开进行,考虑各种利益相关者和专家意见,并考虑所有可能的未来结果,包括最坏的情况。

这其中涉及的问题太多了……事实上,理想做法在大多数情况下都是行不通的。那么,我们又该如何做呢?

一种方法是控制和限制机器根据已采集数据进行的推理。例如,我们可以“禁止”使用种族作为预测变量的司法算法,或者从潜在求职者的预测分析中排除性别。但是,这种方法也存在问题。

首先,限制大公司使用信息的成本太高,技术难度也很大。这需要这些公司将算法开源,同时要求大型政府机构不断对其审查。另一方面,一旦采集到大量的数据集,总是会有很多迂回的方法来推理出“禁止的知识”。假设政府宣布使用性别信息来预测学术成功是非法的,那就可能出现使用“拥有汽车类型”和“最喜欢的音乐流派”作为性别替代指标,直接进行替代指标的二级推理。有时候,尽管一家公司的意图是好的,但有关性别的推理也可能意外地嵌入到算法中。这些二级推理导致对算法的审查更加困难。一个分析中包含的变量越多,发生二级推理的可能性就越大。

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读