加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 访谈 > 正文

多样化的团队可以帮助减少偏见算法

发布时间:2020-04-08 02:21:00 所属栏目:访谈 来源:站长网
导读:与人工智能的好处一样强大,使用偏差数据和有缺陷的AI模型可能会造成很多损害。 斯坦福大学高级研究学者兼数字公民社会实验室主任露西伯恩霍尔兹(图)表示,为了解决这一日益严重的问题,必须将人的价值观纳入整个数据科学过程。 她说: [价值观]不应成为单

与人工智能的好处一样强大,使用偏差数据和有缺陷的AI模型可能会造成很多损害。
 多样化的团队可以帮助减少偏见算法

斯坦福大学高级研究学者兼数字公民社会实验室主任露西·伯恩霍尔兹(图)表示,为了解决这一日益严重的问题,必须将人的价值观纳入整个数据科学过程。

她说:“ [价值观]不应成为单独的讨论主题。” “我们需要就以下内容进行对话:我们要为什么而努力,我们要保护谁,如何试图识别个人的人为因素,而这必须贯穿于整个数据科学之中。”
 多样化的团队可以帮助减少偏见算法

伯恩霍尔兹与之交谈索尼娅Tagare,theCUBE,SiliconANGLE Media的移动即时串流工作室主持人的女性数据科学大会在斯坦福大学,加州期间,。他们讨论了价值在数据科学中的重要性,为什么必须要有一个多元化的团队来构建和分析算法以及数字公民社会实验室正在开展的工作。

根据伯恩霍尔茨的说法,所有数据都是有偏见的,因为是人们在收集数据。她强调说:“而且我们正在将偏见建立到数据科学中,然后将这些工具导出到偏见系统中。” “你猜怎么着?问题变得越来越严重。因此,让我们停止这样做。”
 多样化的团队可以帮助减少偏见算法

Bernholz解释说,在创建算法并进行分析时,数据科学家需要确保他们正在考虑数据集中所有不同类型的人,并在上下文中了解这些人。

“我们非常清楚,有色女性与白人男性面临的环境不同;他们不会以同样的方式走遍世界。”她解释说。“而且认为您的购物算法不会影响他们在现实世界中所经历的差异是荒谬的。”

她补充说,还必须让参与算法创建以及公司管理的人员具有不同的个人资料,他们可以决定是否以及如何使用它们。

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读