加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 业界 > 正文

用AI识别内部人威胁面临的道德规范

发布时间:2018-09-06 08:08:45 所属栏目:业界 来源:nana
导读:9月15日技术沙龙 | 与东华软件、AWS、京东金融、饿了么四位大咖探讨精准运维! 还记得汤姆克鲁斯的《少数派报告》吗?人工智能可识别昭示未来风险的员工行为。该如何有效且有道德地使用这一数据呢? 为保护公司网络不受恶意软件、数据渗漏和其他威胁的侵害,

其次,移动App之类收集的行为信息经处理,以便留下每位用户的行为模式,而要评估的新行为模式,则从不暴露。只要这些信息有丁点儿暴露,就毫无隐私敏感性可言了。这就是一堆数字和公式。比如,地理定位的使用就很谨慎,只用于做对比,从不存储。

即便黑客深入风险引擎系统,能够解码公式,这些公式也是随时在变的。公司价值有助确定实际控制措施的设计。Aetna设计了可接受算法公式而非实际属性和特征的风险引擎。

有关AI在员工行为预测中的用法,任何公司的策略都应把公司价值和透明性,还有人的判断,放在核心位置。AI应被看作是有指导的学习系统,由人做出最终决策。基于透明性和价值统一建立起道德策略,并通过保留人在预测过程中的位置来实施该策略。

使用行为数据有哪些法律问题?

使用AI预测并阻止危险雇员行为的公司企业,需做好保护雇员、客户及公司本身,与维护雇员人权之间的平衡。有迹象表明美国法律可能朝着严加保护个人隐私的方向发展,包括雇员的个人隐私。

另外,AI技术本身也可能并不准确,或者说,不公平。举个例子,如果测试发现从台位上站起次数越多就越有可能是骚扰者,而一部分女性因为怀孕或挤奶而不得不频繁站起,那测试对怀孕女性就不公平了。如果测试可靠、有效、无偏颇,雇主就可以像使用其他性格测试或任意可观方法一样,用该测试来针对所标出的人了。

关键就在于规则应用的一致性。如果雇主想要基于AI学到的东西(比如AI标记不恰当网上言论)采取行动,就得确定出能触发行动的阈值,然后确保在以后的案例中一直照此执行。

所采取的动作也需恰当可行。比如说,如果有人告诉HR某同事利用病假去旅行,恰当的响应应该是去调查,即便尚无任何确切证据指征不当行为。纪律处分应在调查之后进行。

雇主是不是通过AI系统获知潜在不当行为倒是无关紧要。关键在于处理过程中的风险和一致性。

如果AI预测准确,而公司没能做出保护员工的举动,那就有可能导致法律责任了。比如说,如果公司知道或应该知道有员工会性骚扰其他员工或对同事做出不当举动,那公司可能面临“留任失当”的起诉。虽然这些起诉通常五花八门难以证明,当涉及监视雇员社交媒体使用和在线发帖情况的时候,雇主就已经某种程度上面临这种问题了。

公司企业应谨慎选择用AI监视雇员以预测潜在不当行为,除非工作场所AI使用方面的法律更加明确,且AI系统被证明是可靠的。否则,公司或许要为依赖有可能影响到部分人群的系统而担责。

【本文是51CTO专栏作者“”李少鹏“”的原创文章,转载请通过安全牛(微信公众号id:gooann-sectv)获取授权】

戳这里,看该作者更多好文

【编辑推荐】

  1. 2018上半年网络安全观察报告
  2. Spring Cloud Finchley版中Consul多实例注册的问题处理
  3. 大部分员工认为遭到老板的监视
  4. 给卷积神经网络“修理工”的一份“说明书”
  5. 所有和Java中代理有关的知识点都在这了
【责任编辑:赵宁宁 TEL:(010)68476606】
点赞 0

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读