专家们迫切需要人工智能和公共责任-王其杉博客|程序员|科技新闻
根据谷歌、微软以及AI Now其他研究人员的最新报告,人工智能系统和创造者急需政府和人权监督机构的直接干预。令人惊讶的是,看起来科技产业本身并没有那么好。
在本周发布的40页的报告(PDF)中,总部位于纽约大学的组织(与Microsoft Research和Google相关的成员)表明,在部署基于人工智能的工具时,很少考虑潜在的不良影响,甚至没有记录好的影响。虽然这是一回事,如果它发生在控制试验在这里和那里,而不是这些未经测试的,无证件人工智能系统被投入工作的地方,他们可以深深影响数千或数百万人。
这里不讨论示例,但可以考虑边界巡逻、整个学区和警察部门等等。这些系统正在造成真正的危害,而且不仅没有系统能够阻止它们,而且几乎没有系统能够跟踪和量化这种危害。
研究人员在文章中写道:“目前控制人工智能的框架不能确保问责制。”随着这些制度的普遍性、复杂性和规模不断扩大,缺乏有意义的问责制和监督,包括责任、责任和正当程序的基本保障,是一个日益紧迫的问题。
现在,公司正在为从给学生评分到评估移民的犯罪行为等各个方面创建基于人工智能的解决方案。创建这些项目的公司受限于他们自己决定的一些道德声明。
比如,谷歌,最近在轰动国防部工作之后,就制定了一些“人工智能原则”。该机构表示,其人工智能工具将具有社会效益、负责任,不会违反普遍接受的人权原则。
当然,事实证明该公司一直在为中国开发一个经过审查的搜索引擎原型。很棒的工作!
据报道,谷歌计划为中国提供一个友好的搜索服务。
所以现在我们知道公司可以信任自己设定自己的界限有多远。我们不妨假设像Facebook这样的公司就是这样的,它使用基于人工智能的工具来调和;亚马逊,它公开追求人工智能用于监视目的;和微软,它昨天发表了一篇关于人工智能道德的好文章,但是尽管它的意图看起来不错,却是一个“代码”。“道德”不过是承诺公司随时可以自由突破。
AI Now报告有很多建议,我在下面已经总结过了,但是它们确实值得一读。这是相当可读和良好的审查,以及聪明的分析。
急需监管。但是一个“国家AI安全机构”或类似的东西是不切实际的。相反,卫生或交通等行业的人工智能专家应该考虑使特定领域的规则现代化,包括限制和定义机器学习工具作用的条款。我们不需要人工智能部门,但是联邦航空局应该准备好评估一个机器学习辅助的空中交通控制系统的合法性。
面部识别,特别是面部识别在情感和犯罪侦查等有问题的应用中,需要仔细检查并受到诸如虚假广告和欺诈性药物之类的限制。
从数据集到决策过程,公共问责和文件化需要成为规则,包括系统的内部操作。这不仅仅是使用特定系统的基本审计和论证所必需的,而且是出于法律目的,如果这样的决定受到系统分类或影响的人的质疑。公司需要吞下他们的骄傲,并记录这些东西,即使他们宁愿将它们作为商业秘密-这似乎是我在报告中最大的要求。
在人工智能问责制过程中,需要建立更多的资金和更多的先例;对于ACLU来说,写一篇关于剥夺某些阶层人民权利的市政“自动决策系统”的文章是不够的。这些事情需要诉诸法庭,受影响的人需要反馈机制。
整个人工智能行业需要摆脱它的工程和计算机科学的摇篮——新的工具和能力跨越了边界和学科,并且应该在研究中被考虑,而不仅仅是技术方面。研究人员写道:“扩大人工智能研究的学科方向将确保更深地关注社会环境,并且当这些系统应用于人类群体时,更加关注潜在的危害。”
它们是很好的建议,但不是那种可以在短时间内做出的推荐,所以预计2019年会是又一次失误和误报的泥潭。和往常一样,永远不要相信公司所说的,只相信公司所做的——即使这样,也不要相信它说出自己所做的。