当前局势期间的社会动荡凸显了对新AI数据法规的需求

作为旨在保护公共健康和安全并促进创新的AI监管的长期支持者,我相信国会两党都不得拖延颁布《人工智能数据保护法》第102(b)节,我的拟议立法,现在是众议院讨论草案。以第102(b)节的道德AI立法形式存在的护栏对于维护个人的尊严是必要的。

《 AI数据保护法》第102(b)条规定了什么,为什么联邦政府现在迫切需要颁布该法案?

要回答这些问题,首先有必要了解在我们的民主社会同时面对两个同时存在的威胁的历史性时刻如何使用人工智能(AI)。只有这样,才能认识到AI给我们个人尊严带来的风险,并且将第102(b)节理解为保护美国人所珍视的自由的最重要的补救措施之一,这些自由是我们社会的基石。

美国现在正在经历大规模抗议活动,要求结束种族主义和警察的野蛮行径,并在试图平息致命的当前局势期间观看内乱的发生。无论是在环境中还是在我们生活的每个其他方面,我们都意识到或赞成它,政府和私人行为者正在部署AI技术,以就我们做出重要决策。在许多情况下,人们都在利用AI来帮助社会,并尽可能快地将我们带入下一个常态。

但是到目前为止,政策制定者在很大程度上忽视了由AI驱动的关键公共卫生和安全问题。在AI方面,大多数焦点都集中在用于训练算法的数据集的公平性,偏见和透明性问题上。毫无疑问,算法会产生偏差。一个人只需要考虑雇员招募和贷款承销的例子,以举例说明不公平地排斥妇女和少数民族的情况。

我们还看到AI会从数据中产生意外的,有时无法解释的结果。考虑一下该算法的最新示例,该算法应有助于法官对非暴力罪犯进行公正的判决。由于尚待解释的原因,该算法为23岁以下的被告分配了较高的风险评分,这比较常被监禁的老年同龄人判刑长12%,而同时又不减少监禁和累犯。

但是,当前的双胞胎危机暴露出另一个更为棘手的问题,而这个问题已经被人们广泛忽视了:社会应该如何应对AI算法正确无误的情况,但从道德的角度来看,社会对结果感到不满意?由于AI的基本目的是产生准确的预测数据,供人类做出决策,因此,立法者现在不是时候解决关于AI的可能,而是应该解决的时间。

政府和私人公司对我们的个人资料有无限的需求。目前,包括美国在内的世界各地都在使用AI算法,以准确地收集和分析有关我们所有人的各种数据。我们具有面部识别功能,可以在人群中监视示威者,或者确定一般公众是否正在与社会保持距离。有用于跟踪联系的手机数据,以及公共社交媒体帖子,用于模拟当前局势在特定邮政编码中的传播,并预测与示威活动相关的位置,规模和潜在暴力行为。而且,不要忘记用于分析口罩使用情况和发烧的无人机数据,或者用于预测哪些住院的局势患者最有可能恶化的个人健康数据。

只有通过使用AI,才能如此大规模地汇编和分析大量个人数据。

通过算法的访问以维护和平并减少毁灭性大流行性流感的名义创建了我们的手机数据,社会行为,健康记录,旅行方式和社交媒体内容以及许多其他个人数据集的个性化配置文件,以及会导致各种政府行为体和公司为我们最私人的属性,政治倾向,社会圈子和行为创建令人恐惧的准确预测性概况。

如果不受监管,社会就会冒用这些由AI生成的分析法,这些分析法将被执法机构,雇主,房东,医生,保险公司以及其他任何可以收集或购买的私人,商业和政府企业使用,以做出预测性决策,无论它们是否准确,这会影响我们的生活,并打击自由民主最基本的观念。人工智能将继续在就业环境中发挥越来越大的作用,以决定应采访,雇用,晋升和解雇的人。在刑事司法背景下,它用来确定对谁进行监禁以及对其判处什么刑罚。在其他情况下,人工智能将人们限制在家中,限制医院的某些治疗,拒绝贷款,并对不遵守社会疏远规定的人处以罚款。

那些经常回避任何类型的AI法规的人往往以假想和危言耸听的方式来驳斥这些担忧。但是就在几周前,黑人和密歇根州居民罗伯特·威廉姆斯(Robert Williams)因面部识别比赛不当而被错误逮捕。根据新闻报道和美国公民自由协会的新闻稿,底特律警察将威廉姆斯先生在妻子和两个分别为二岁和五岁的受惊女孩面前的前草坪上戴上手铐。警察将他带到约40分钟外的拘留所,在那里他被关了一夜。第二天下午,一名警官在审讯中承认“计算机一定弄错了”之后,威廉姆斯先生终于被释放,在被捕后将近30个小时。

虽然人们普遍认为这是首例确诊的AI错误面部识别导致无辜公民被捕的案例,但显然这不会是最后一个案例。在这里,人工智能是影响个人公民的关键决定的主要依据-被执法部门逮捕。但是我们不仅要关注AI失败的事实,那就是识别错误的人,剥夺他的自由。我们必须确定并禁止那些不应将AI用作特定关键决策的基础的实例,即使AI“正确”。

作为一个民主社会,我们不应该因我们打算但未曾犯下的罪行而被逮捕,或者因为像威廉姆斯先生的错误而被误诊为无疑会随着时间推移而死亡的疾病而感到不舒服逮捕。我们必须建立一个AI“禁飞区”,以维护我们的个人自由。我们绝不能将某些关键决策完全留给人工智能算法的预测输出。

需要明确的是,这意味着即使在每个专家都同意输入和输出的数据完全没有偏见,透明且准确的情况下,也必须根据法律禁止将其用于任何类型的预测或实质性决策。在我们渴望数学确定性但又必要的世界中,这被认为是违反直觉的。

《人工智能数据保护法》第102(b)节在两种情况下都正确,合理地实现了这一目标,即AI会产生正确和/或不正确的结果。它通过两种关键方式来实现。

首先,第102(b)节明确指出了AI无法完全或部分做出的那些决定。例如,它列举了对AI的特定滥用,这些滥用将禁止被涵盖实体完全依赖人工智能来做出某些决定。这些包括个人的招募,雇用和纪律,对医疗的拒绝或限制或医疗保险发行人就医疗覆盖范围做出决定。根据社会最近的见证,应该扩大禁区,以进一步降低将AI用作种族歧视和骚扰受保护少数民族的工具的风险。

其次,对于并非完全禁止的基于AI分析的某些其他特定决策,第102(b)节定义了人类必须参与决策过程的那些情况。

通过立即颁布第102(b)条,立法者可以通过不允许影响个人的最关键的决定完全留给人工智能算法的预测输出,从而维持个人的尊严。