您现在的位置是:首页 >人工智能 > 2019-07-19 17:11:36

自治系统可能最终需要监管但没有一项政策可以管理所有人工智能

人工智能无处不在。移动地图通过交通路由我们,算法现在可以驾驶汽车,虚拟助手可以帮助我们顺利地在工作和生活之间切换,智能代码擅长表现我们下一首新收藏的新歌。

但AI也可能证明是危险的。特斯拉首席执行官埃隆马斯克曾警告说,有偏见,不受监督和不受监管的人工智能可能是“我们作为一个文明面临的最大风险”。相反,AI专家担心自动化系统可能会吸收人类程序员的偏见。当偏差被编码到为AI供电的算法中时,几乎不可能将其移除。

人工智能偏见的例子很丰富:2015年7月,谷歌照片人工智能系统将黑人称为大猩猩 ; 在2018年3月,CNET报道亚马逊和谷歌的智能设备似乎无法理解口音 ; 在2018年10月,亚马逊摧毁了一个人工智能的招聘工具,似乎歧视女性; 2019年5月,联合国教育,科学及文化组织(教科文组织)的一份报告发现,艾滋病毒个人助理可以加强有害的性别陈规定型观念。

为了更好地理解人工智能的治理方式,以及如何防止人类偏见改变我们每天依赖的自动化系统,CNET采访了旧金山的Salesforce AI专家Kathy Baxter和Richard Socher。巴克斯特说,规范技术可能具有挑战性,而且这个过程需要细微差别。

她说,该行业正在努力开发“值得信赖的人工智能,这是一种负责任的人工智能,它是有意识的,并且是对人权的保障”。“我们确保[过程]不会侵犯这些人权。它也需要透明。它必须能够向最终用户解释它在做什么,并让他们有机会做出明智的选择。它。”

Baxter表示,Salesforce和其他科技公司正在开发关于AI数据模型中使用的数据标准的跨行业指南。“我们将展示模型中使用的因素,如年龄,种族,性别。如果您正在使用其中一个受保护的数据类别,我们将提出一个标志。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。

相关文章

点击排行

热门推荐