加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 业界 > 正文

2020AI治理元年,人们到底在担心些什么?

发布时间:2020-01-11 13:48:50 所属栏目:业界 来源:A5专栏 
导读:副标题#e# 人工智能在我看来可以说是一个人类最伟大的创造,并不是说这个技术能够实现什么样的高度,而是这个技术真的解放了人类,激发出机器的生产力,让人释放出来可以做更具人性和创造性的事情。不过对于人工智能的担忧也与生俱来,人工智能会不会失控,
副标题[/!--empirenews.page--]

人工智能在我看来可以说是一个人类最伟大的创造,并不是说这个技术能够实现什么样的高度,而是这个技术真的解放了人类,激发出机器的生产力,让人释放出来可以做更具人性和创造性的事情。不过对于人工智能的担忧也与生俱来,人工智能会不会失控,会不会带来人类无法挽回的后果?

近日,人工智能公司旷视科技宣布成立AI治理研究院,呼吁各界对AI治理事件的关注和讨论。“人工智能技术要可持续化发展,过去几年,人工智能经历了一段野蛮生长的时期,”旷视AI治理研究院负责人称:“2020年将成为AI治理元年。”

“人工智能的野蛮生长”这种说法并非没有缘由,随着互联网、云计算在各行各业的快速渗透,整个社会的网络化和数据化程度空前提升,原来越多的智能化设备开始切实的落地进入到智慧城市之中,而相关的算法也不断进步,人工智能开始在各种领域中开展探索应用,甚至已经开始进入到一个自我学习和进化的过程之中。尤其是在最近几年,伴随着人工智能技术的大规模产业化应用,一些并无先例可循的人与人工智能矛盾逐渐浮出水面。担忧和质疑之声愈演愈烈,尽快探讨出一种可预期的、可被约束的、行为向善的人工智能治理机制,成为了近人工智能时代的首要命题。

AI的边界在哪儿?从《终结者》说起

1984年,卡梅隆拍了第一部《终结者》,2019年,《终结者6》上映,35年弹指一挥间,唯一改变的就是这个世界真的已经连接在了一起,天网的故事似乎不再那么遥不可及。著名物理学家霍金在去世之前,曾经和人称“钢铁侠”的特斯拉创始人马斯克共同发布公开信,提出了对人工智能发展的担忧。霍金说:“在未来100年内,结合人工智能的计算机将会变得比人类更聪明。届时,我们需要确保计算机与我们的目标相一致。我们的未来取决于技术不断增强的力量和我们使用技术的智慧之间的赛跑。”持有这种观点的人并非少数,由于民众的担忧,美国加州就立法禁止警方在执法记录仪上使用面部识别技术,而浙理工一个博士也起诉了一家把指纹识别换成人脸识别的野生动物公园,他的理由是害怕人脸生物信息的泄露,当然这个担心也很有趣,因为比起公开的人脸信息的泄露,指纹的泄露恐怕是更致命的。显然,人工智能发展一日千里,实际应用落地也快马加鞭,人们可能还来不及思考这些看似的便利背后是否会带来什么不妥,这些设备就已经在运行之中了。而在问题逐渐暴露之前,类似的担忧和争议恐怕还会继续。

事实上,机器也好,人工智能也好,人们对新技术的担忧在近一百年中一直存在。早在1950年,阿西莫夫的科幻小说中就针对人们对机器人的担忧提出了著名的机器人三定律,奠定了一个思考的方向和基础。这三个定律就是“一、机器人不得伤害人类,或看到人类受到伤害而袖手旁观;二、在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;三、在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。”从这里我们可以很清晰的看到机器人生存的天条就是不得伤害人类,而后续这些规则得到了一些补充,不过最让我觉得有价值的一个补充就是繁殖原则,机器人不得参与机器人的设计和制造,除非新机器人的行为符合机器人原则。在这个阶段,人们已经开始思考到机器人的繁衍带来的可能的危害了,而这个问题,事实上也是《终结者》中矛盾冲突的起源。

这些本属于科幻领域思考和探讨的问题,现在终于开始摆在了现实的世界面前:2020年1月,欧盟专利局驳回了英国萨里大学一个名为DABUS的AI所申报的专利成果,理由是欧盟专利申请中指定的发明者必须是人,而不是机器。但萨里大学研究人员强烈反对这一决定,他们认为因没有人类发明者而拒绝将所有权授予发明者,将成为“人类取得伟大成果的新时代”的重大障碍。

但无论如何技术发展的脚步都不会暂停,尤其是在云计算全面普及、5G全面部署,AI能力全面发育的今天,2020年将无疑成为应用爆发之年和矛盾最为突出的一年。人工智能应用的边界是什么?是否能够享有和人一样的权利?谁能够为人工智能犯的错误负责?在人工智能进入爆发期之前这些问题亟待解决。因此,称2020年是AI治理元年并不为过,除了技术研发和进步之外,关于AI伦理方面的规则制定我觉得也到了最为关键的时刻。

各国各界在摸索中前行

事实上,社会各界对AI技术的讨论热情只增不减,全球范围内很多政府或社会组织、名门政要都或多或少对人工智能提过一些要求。比如2019年4月,欧盟委员会公布了指导人工智能发展和建立信任的7项原则。虽然这些指导方针没有约束力,但它们可能成为未来几年进一步行动的基础。同年6月17日,我国国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南。

但是世界各国政府层面对于人工智能治理的规范和边界,还没有进入实质性的立法或明确标准,在推动人工智能应用规范这一方面,人工智能企业反倒起了更为积极的作用。

作为国内领先的人工智能企业,旷视在推进人工智能应用的过程中已经意识到正视人工智能技术所带来的伦理问题的重要性,主张AI企业要把治理当作头等大事来关注。2019年7月,旷视首发《人工智能应用准则》,《准则》从正当性、人的监督、技术可靠性和安全性、公平和多样性、问责和及时修正、数据安全与隐私保护六个维度,对人工智能正确有序发展作出明确规范,同时给出相应干预措施或指导意见,确保人工智能能够在可控范围内持续发展。据透露,旷视内部还成立了专门的道德委员会,以监督该《准则》在企业技术研发和产品应用中的实施。

旷视联合创始人、CEO印奇认为AI治理需要 “理性的关注,深度的研究,建设性的讨论和坚持不懈的行动”。这个问题我觉得各大企业乃至主管部门都应该参与其中,早些划定可以研究和使用的范畴,能够避免人工智能行业误入歧途,在良好的环境中快速发展,这就像在建大楼之前打地基。

谁来握住AI野马的缰绳

坦白说对于人工智能发展的问题,你可以提出反对意见,但却没有办法阻止它的发展,因为这是一个大势所趋。犹如核武器,犹如工业化,不管你有多大的担忧,都没有办法阻止他的发展,这是讨论这个问题的一个前提。所以剩下的其实还是一个规则和伦理的探讨,犹如核武器的管理问题,可能也是全世界最重要的一个管理问题。人工智能的管理重要性,可能并不在核武器之下,但只要这匹野马不脱缰,就能够为人类所用,载我们到达从未到过的地方。

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读