专业AI风险管理器的出现

当1970年代和1980年代充满银行危机时,来自世界各地的监管机构齐心协力,为如何管理金融风险设定了国际标准。这些标准(现在称为巴塞尔标准)定义了有关如何度量和管理风险的通用框架和分类法。这导致了专业财务风险管理人员的崛起,这是我的第一份工作。最大的专业风险协会GARP和PRMIA现在拥有超过250,000个认证会员,并且还有更多没有经过这些特定认证的专业风险经理。

现在,我们受到数据泄露和数据隐私丑闻的困扰,世界各地的监管机构都对数据法规做出了回应。GDPR是当前的榜样,但我希望全球监管机构能够将规则扩展到更广泛地涵盖AI,并为如何管理AI设定标准。英国ICO刚刚发布了草案,但详细的审计人工智能指南。在欧盟正在开发一个为好。有趣的是,它们的方法与巴塞尔标准非常相似:应明确管理特定的AI风险。这将导致专业AI风险管理者的出现。

下面,我将充实正式的AI风险管理角色的含义。但在此之前,有一些概念需要澄清:

全球大多数数据法规都将重点放在数据隐私上

数据隐私是数据保护的一部分。GDPR不仅仅是隐私

数据保护是AI法规的子集。后者也涵盖了算法/模型开发。

全球AI监管标准的兴起

巴塞尔框架是国际清算银行(BIS)制定的一套国际银行业监管标准,旨在促进金融市场的稳定。BIS本身没有监管权,但是其作为“中央银行中央银行”的地位使巴塞尔法规成为世界标准。制定这些标准的巴塞尔银行监管委员会(BCBS)是在全球金融危机之时成立的。它始于1974年的10名央行行长,现在由28个辖区的45名成员组成。

鉴于最近发生的侵犯隐私和丑闻事件,我们可以将GDPR视为等同于数据世界的巴塞尔标准。我们可以将欧洲数据保护主管(EDPS)视为用于数据隐私的BCBS。(EDPS是GDPR的监督者。)我预计,随着越来越多的国家颁布数据保护法律,将会出现一个更具全球性的集团。

尚无领先的算法规定。GDPR仅涵盖其中一部分。一个原因是很难对算法本身进行调节,而另一个原因是,算法的规范已嵌入到部门法规中。例如,巴塞尔(Basel)规定了应如何在银行中构建和部署算法。医疗保健方面也有类似的规定。潜在的冲突或重叠规则使编写更广泛的算法规则变得困难。尽管如此,欧盟,英国和新加坡的监管机构正在率先提供有关如何管理和审核AI系统的详细指南。

通用框架和方法

《巴塞尔协议I》是在三十多年前于1988年撰写的。《巴塞尔协议II》在2004年。《巴塞尔协议III》在2010年。这些法规为应如何构建风险模型,支持这些模型的流程以及风险将如何影响风险模型设定了标准。银行业务。它提供了一个讨论,衡量和评估银行面临的风险的通用框架。这是由EU / UK / SG发布的详细指南所发生的情况。所有人都采取基于风险的方法,并帮助定义AI的特定风险和必要的治理结构。

新职业和C级职位

通用框架使专业人士可以快速共享概念,遵守准则并标准化实践。巴塞尔催生了金融风险管理者和专业风险协会。还创建了一个新的C级职位,即首席风险官(CRO)。银行首席风险官独立于其他高管,通常直接向首席执行官或董事会报告。

GDPR推动了数据隐私的发展。它要求拥有250名以上员工的组织必须具有数据保护官(DPO)。这引起了国际隐私专业人员协会的新兴趣。首席隐私和数据官(CPO和CDO)也在增加。随着更广泛的AI法规的到来,将围绕着它形成一波专业AI风险经理和全球专业社区的浪潮。DPO是第一次迭代。

专业的AI风险经理将需要或做什么?

这项工作将结合财务风险管理人员和数据保护人员的一些职责和技能。财务风险经理需要技术技能来构建,评估和解释模型。他们的主要任务之一是在开发时和部署时审核银行的贷款模型。DPO必须监视内部合规性,进行数据保护影响评估(DPIA),并充当高层管理人员和监管者的联络点。AI风险管理人员必须精通技术,但必须掌握法规。

这对创新意味着什么?

人工智能的发展将会慢得多。监管是银行没有处于AI创新前沿的主要原因。贷款模型多年来未更新,以避免内部和外部各方进行额外的审核工作。

但是,人工智能的发展也将更加安全。AI风险管理人员将要求明确定义模型的目的,并且仅复制所需数据进行培训。数据科学家的笔记本电脑中不再包含敏感数据。

这对初创公司意味着什么?

专业AI风险管理器的出现将为建立数据隐私和AI审计的初创公司带来福音。

数据隐私。开发个人数据模型将自动需要DPIA。想象一下,数据科学家在开始一个项目之前必须申请批准。(提示:不好)要解决此问题,数据科学家将需要工具来对数据进行匿名处理或生成综合数据,以便避免DPIA。因此,初创企业的机会是双重的:将需要符合法规的软件,并且将需要为那些法规提供解决方法的软件,例如复杂的综合数据解决方案。

人工智能审核。模型准确性是一种与AI相关的风险,对此我们已经有了通用的评估技术。但是对于其他与AI相关的风险,没有任何风险。审计公平性和透明度没有标准。使AI模型对对抗攻击具有鲁棒性仍是研究的活跃领域。因此,这对初创公司(尤其是在可解释的AI领域中的初创公司)来说是一个开放空间,可以帮助他们定义标准并成为首选的供应商。