加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

对于人工智能的恐惧及其5个解决方法

发布时间:2019-10-13 10:35:56 所属栏目:建站 来源:Kevin Casey
导读:实施人工智能技术的IT领导人可能会感到一些恐惧,这有着充分的理由。 人工智能在拥有数十年发展和应用历史的同时却有着奇怪的定位,但对于许多人来说,人工智能仍然是一种未来主义的感觉。实际上人工智能并不是新事物,但它始终是一个永恒的新领域。没有人
副标题[/!--empirenews.page--]

实施人工智能技术的IT领导人可能会感到一些恐惧,这有着充分的理由。

对于人工智能的恐惧及其5个解决方法

人工智能在拥有数十年发展和应用历史的同时却有着奇怪的定位,但对于许多人来说,人工智能仍然是一种未来主义的感觉。实际上人工智能并不是新事物,但它始终是一个永恒的“新”领域。没有人可以确切地知道其发展到底会何去何从。

对于不了解的事物,一些人会感到害怕。而人工智能的未来发展也让很多人彻夜难眠,这是有道理的,尤其是考虑到可能出现的不利后果时。人们可以合理地假设任何重大技术发展都是如此:它们将会产生变化,从而令人感到恐惧。但是,与人工智能相关的恐惧却有不同的优先级。例如,大多数人不知道什么是微服务架构,即使他们每天使用的一些应用程序是以分离的方式构建的。但是像微服务这样的技术进化并不会像人工智能那样对潜在的社会和经济影响产生这样的情感反应。微服务也不会在流行文化中一直存在。

这主要说明了人们对人工智能发展前途并不明朗的担忧,当人们的想象力失控时,就会很难评估它们的有效性。这对于如今试图构建实用人工智能战略的IT领导人和其他高管来说并不是特别有用。然而,很多人会对人工智能感到恐惧,并且有着充分的理由。对于人工智能的入门者来说,他们更容易失败,因为他们通常基于当前的现实,而不是未来的推测。

加州大学欧文分校神经科学研究助理、ContinualAi公司联合负责人Keiland Cooper表示,“人们对人工智能的恐惧类型取决于人们所谈论的人工智能类型。与当今普遍使用的更现实的人工智能算法相比,理论性更强、更遥远的‘通用人工智能’(一种能够完成人类所能做的所有事情的计算机)将引发更多的恐惧。”

以下了解一下当今有关人工智能的五个问题,以及专家为解决这些问题而提供的建议,这样就不会破坏企业实施人工智能的计划。

1. 恐惧:人工智能会产生有偏见的结果

人们越来越关注人工智能系统中的偏见和其他问题及其导致的决策或结果的可能性。与好莱坞电影的一些更富想象力的人工智能故事不同,人们应该对于人工智能的偏见感到恐惧。

SkyMind公司联合创始人兼首席执行官Chris Nicholson说,“人工智能的算法只和训练数据一样好。因此,如果一个数据集包含了组织的历史偏见,那么它所做的预测将反映这一历史行为,例如,如果一家公司通常会将拥有常春藤名校学位的白人男性提升到权威职位,那么经过培训的人工智能算法可以识别出未来的领导才能,并将其重点放在同一类型的应聘者身上,并且忽略不属于该类别的应聘者。”

解决方法:

人们应该接受这种恐惧并采取行动。无需担心人工智能偏见会增加其不受控制地扩散的可能性。

人工智能算法不应免除个人和组织对结果的责任。人工监督和管理是绝对必要的,并且有很好的例子说明了另一种恐惧(不再需要人类)可能有点言过其实。

Nicholson说,“人们不能相信人工智能能够知道一切或做出完美的决定。人工智能算法是由人类创造的,但人类也会犯错。所以每个公司都要做的是建立一个系统来检查人工智能,或者定期抽取人工智能的决策样本并展示给专家,并询问他们:这看起来正确吗?而其结果至少不会比专家差,这是企业最初所希望的结果。”

这在医疗、保险、银行、政府等行业可能尤为重要。但事实上,在任何地方这都是一个重要的问题。

Tara-Ai公司联合创始人兼首席执行官Iba Masood表示,“人工智能从业者和机器学习工程师必须确保他们在一定程度上遵守算法责任制,IT主管应该有专门的数据团队为他们现有的数据集构建消除偏见的程序。这将有助于在利用系统进行决策过程中,特别是在涉及最终消费者的情况下,需要实现一定程度的公平和公正。”

这是一个道德和公平的问题。Masood认为,人工智能伦理也可能成为一种竞争性的区分标准。

Masood说,“我相信,未来五年将会有更多的具有公平意识的消费者,他们希望与那些在人工智能辅助下的决策过程中部署公平机制的公司进行交易。通过努力减轻用于基于决策的系统的数据集的偏差,IT团队可以在这种消费者行为转变中产生重大影响。”

2.恐惧:人们不知道人工智能为什么会这么做

这是对未知事物的另一种自然恐惧:许多人工智能的结果很难解释。

Nicholson说,“人工智能先进的形式能够对数据做出最准确的预测,但也最难解释为什么做出这种预测。”

这有时被称为人工智能的“黑盒”,指的是缺乏对人工智能系统决策的可视性,这对许多组织来说可能是一个重要的问题。

Nicholson说,“在许多情况下,人们都需要知道为什么要做某事。在受到严格监管的行业组织中尤其如此。例如医疗保健行业不希望人工智能算法在不知道为什么做出决定的情况下就患者的诊断或治疗做出决定。”

Cooper提供了另一个场景,指出黑盒模型在出现问题时变得特别重要。

Cooper说,“假设训练一种算法来挑选优秀股票,并且做得很好,可能赚取9%的利润。如果在金融投资中获得了足够或更好的回报(如果Cooper的假设合理的情况下),那么可能就不太在乎其原因。毕竟已经获得。但是如果损失了9%的成本应该怎么办?如果失去了一切那么该怎么办?人们可能会更关心的是为什么。”

他说,“问题在于,在许多情况下,人们不知道为什么要选择它所选择的东西。这很可怕,因为它不仅使人们减少了与正在使用的人工智能系统的联系,而且如果它做错了什么,也不会带来太多的洞察力。”

解决方法:

解决这种恐惧的方法之一是确保即使在人工智能技术得以改进的情况下,人类的智能和决策仍然是任何过程中至关重要的部分,在某些情况下还是最终的部分。换句话说,即使人工智能在这些流程和决策中的作用不断扩展,也可以通过确保人们保留对流程和决策的适当控制来缓解这种恐惧。

Nicholson说:“在医疗保健案例中,最好采用人工智能作为人类专家的决策支持形式。也就是说,不能让人工智能独自运作并且不受监督。可以将人工智能集成到现有的决策过程中,在此过程中可以向人类专家提出建议,并且专家将是做出最终决策的人,他们将能够解释做出该决定的原因。”

3.恐惧:人工智能将会做出错误的决定

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读