公司为何需要自己的人工智能行为准则

在过去的一年中,我一直致力于人工智能的研究,包括阅读多本关于AI的书,以及参加斯坦福大学关于人工智能基础知识的在线课程。

仅供参考,该课程由斯坦福大学的兼职教授Andrew Ng(Coursera.org的共同创始人)教授,并且他在Coursera上开设了一个新的相关课程,名为“与Ng的深度学习”。

所有这些研究和研究使我对AI,它可以做什么,不能做什么及其对我们世界的潜在影响有了更好的了解。尽管我不是工程师,并且来自技术市场的市场研究部门,但是在处理各个级别的技术近40年之后,我对技术及其对我们世界的影响的深刻理解一直存在于我的工作和研究中。

人工智能已经存在了数十年,但在当今的技术世界中更为普遍。这就是为什么我想要并且需要在设计级别上更深入地研究AI,以更全面地了解AI将如何影响我们的世界。

从全球和政治的角度来看,尤其是一本书对于我自己对AI的理解至关重要,它的作者是李开复,题为《AI超级大国》。中国,硅谷和新世界秩序。

进入AI全球视野的另一个国家是俄罗斯,俄罗斯的领导人弗拉基米尔·普京(Vladimir Putin)曾在记录中表示,“领导AI的国家将统治世界”。

在斯坦福大学上课期间,吴教授谈到了我非常感兴趣的一个话题,那就是人工智能中的伦理学。我对AI和机器学习的研究越来越深入,对我来说,很明显,AI可用于善与恶。我相信,为公司使用的AI和ML制定指南或原则将成为所有性质的公司必须尽快实施并在下一个十年生存的最重要举措之一。

Google和Alphabet的首席执行官Sundar Pichai在最近的《金融时报》社论中表示,他认为“必须对AI进行监管,以防止包括深造假和面部识别在内的工具的潜在后果。”($)

他的建议包括“英国与欧盟之间的国际协调,关于“核心价值”的协议”,使用开源工具(例如Google已经开发的工具)来测试对书面原则的遵守情况以及使用包括欧洲GDPR在内的现行法规,以建立更广泛的监管框架。”

在Pichai推动政府监管的同时,他并没有等待任何政府推动Google和Alphabet认为应该在AI和AI道德上的立场。

正如他在《金融时报》社论中所说的那样:“我们需要对可能出问题的地方保持清醒的头脑。”

微软总裁布拉德·史密斯(Brad Smith)在今年早些时候的达沃斯会议上回应了Pichai的观点,他说:“现在是监管AI的时候了。”

我同意AI将需要一些政府法规,Pichai建议美国的出发点是走下监管AI和ML的道路。

我发现Pichai和Brad Smiths的评论很重要。任何公司的首席执行官都需要开始考虑制定自己公司的AI道德规范,他们计划在使用AI和ML技术时遵循这些规范。

Google制定了自己的AI原则,准则和国家目标,以寻求制定基于AI的条款和AI道德规范来保护人权。

同样,微软已经就其AI原理和目标发表了评论,甚至还包括负责任的机器人的指南。

Salesforce已经创建了一个非常简洁的AI道德目标文档,包括承诺在AI中所做的一切都是负责任,负责,透明,授权和包容的。

IEEE最近在《福布斯》(Forbes)上向其成员发布了有关AI合规性的预计指南建议,其中包括AI和IoT,AI与工作,AI与医疗保健,AI与道德,人工智能与伦理学应遵循的评论和原则,以及对AI战略的更广阔视野。

我最近询问了技术和电信领域的一些主要公司是否发布了自己的AI原则和准则,并且感到惊讶的是,甚至没有这样做的公司。他们承认,拥有自己的AI准则至关重要,并且正在对此进行一些工作,但他们透露,准备发布完整的AI道德战略还遥不可及。

已制定AI原则和AI道德操守准则战略的公司应成为优先事项。人工智能正在成为一种技术,正在迅速成为任何业务的复杂组成部分。在不久的将来,他们的客户将要求了解与他们打交道的公司如何处理基于AI的个人数据以及他们的AI道德规范将是什么。如果公司很聪明,他们将很快建立自己的AI原则和道德立场,并准备好迎接AI时代市场和客户对他们的期望。