
欧洲立法者正在完成一项人工智能法案的工作。拜登政府和国会领导人都有控制人工智能的计划。OpenAI的首席执行官萨姆·奥特曼(Sam Altman)上周在参议院作证时建议成立一个拥有监督和许可权力的联邦机构。OpenAI曾开发出轰动的人工智能软件ChatGPT。在日本举行的七国集团峰会上,这个话题被提了出来。
在这些全面的计划和承诺中,纽约市已成为人工智能监管方面的一个适度先锋。
市政府于2021年通过了一项法律,并于上个月针对该技术的一项高风险应用——招聘和晋升决策——制定了具体规定。强制执行将于7月开始。
该市的法律要求在招聘中使用人工智能软件的公司通知求职者正在使用自动化系统。它还要求公司每年让独立审计机构检查技术是否存在偏见。候选人可以要求并被告知收集和分析了哪些数据。违反规定的公司将被罚款。
纽约市专注的做法代表了人工智能监管的一个重要前沿。专家说,在某种程度上,政府和国际组织制定的大致原则必须转化为细节和定义。谁正在受到这项技术的影响?好处和坏处是什么?谁可以干预,如何干预?
“如果没有具体的用例,你就无法回答这些问题,”纽约大学副教授、负责任人工智能中心主任朱莉娅·斯托亚诺维奇(Julia Stoyanovich)说
但即使在它生效之前,纽约市的这项法律也受到了批评。公共利益倡导者说,这还远远不够,而商业团体说,这是不切实际的。
两个阵营的抱怨都表明了监管人工智能的挑战,人工智能正以迅猛的速度向前发展,带来未知的后果,激起了人们的热情和焦虑。
令人不安的妥协是不可避免的。
斯托亚诺维奇担心,该市法律存在漏洞,可能会削弱其效力。“但这比没有法律要好得多,”她说。“除非你尝试监管,否则你不会学会如何监管。”
该法律适用于在纽约市有员工的公司,但劳工专家预计它将影响全国的做法。至少有四个州——加利福尼亚、新泽西、纽约和佛蒙特州——以及哥伦比亚特区也在制定法律,规范人工智能在招聘中的应用。伊利诺斯州和马里兰州已经颁布法律,限制使用特定的人工智能技术,通常用于工作场所的监控和求职者的筛选。
纽约市的这项法律是在激烈的观点冲突中产生的。在市长白思豪(Bill de Blasio)执政的最后几天,市议会通过了该法案。随后,在该市消费者和工人保护部门(规则制定机构)的监督下,进行了一轮又一轮的听证会和超过10万字的公众评论。
一些批评人士说,结果是过度同情商业利益。
政策和民权组织民主与技术中心(Center for Democracy & Technology)主席亚历山德拉·吉文斯(Alexandra Givens)说,“这部本来可以成为里程碑式法律的法律被淡化了,失去了效力。”
她说,这是因为法律将“自动化就业决策工具”定义为用于“实质性协助或取代自由裁量决策”的技术。吉文斯说,纽约市采用的规则似乎对这一措辞进行了狭义的解释,因此,只有当人工智能软件是招聘决定中的唯一或主要因素,或者被用来推翻人类的决定时,才需要对其进行审计。
她说,这遗漏了自动化软件的主要使用方式,招聘经理总是做出最后的选择。她说,人工智能导致的歧视的可能性,通常是在筛选数百或数千名候选人时,或者在有针对性的在线招聘中,产生一批候选人。
吉文斯还批评该法限制了不公平待遇的群体种类。它涵盖了性别、种族和民族歧视,但不包括对老年工人或残疾人的歧视。
“我最担心的是,当我们应该对政策制定者提出更多要求时,这会成为全国的模板,”吉文斯说。
市政府官员表示,该法律的范围被缩小,以使其更加清晰,并确保其重点突出,具有可执行性。该委员会和工人保护机构听取了包括公益活动人士和软件公司在内的许多声音。官员们表示,其目的是权衡创新与潜在危害之间的权衡。
“在确保人工智能技术得到合乎道德和负责任的使用方面,这是一个重大的监管成功,”罗伯特·霍尔顿(Robert Holden)说。该法律通过时,霍尔顿是委员会技术委员会主席,现在仍是委员会成员。
纽约市正试图在联邦工作场所法的背景下解决新技术问题,这些法律的招聘指导方针可以追溯到20世纪70年代。平等就业机会委员会(Equal Employment Opportunity Commission)的主要规则规定,雇主所采用的任何选择做法或方法都不应对女性或少数族裔等受法律保护的群体产生“差别影响”。
企业批评了这项法律。在今年提交的一份文件中,包括微软(Microsoft)、SAP和Workday在内的行业组织软件联盟(Software Alliance)表示,对人工智能进行独立审计的要求“不可行”,因为“审计领域刚刚起步”,缺乏标准和专业监督机构。
但新兴领域是一个市场机会。专家表示,人工智能审计业务只会继续增长。它已经吸引了律师事务所、咨询公司和初创企业。
销售人工智能软件以协助招聘和晋升决策的公司普遍开始接受监管。其中一些已经接受了外部审计。他们将这一要求视为一种潜在的竞争优势,证明他们的技术扩大了公司的求职者数量,增加了工人的机会。
硅谷初创公司Eightfold AI的总法律顾问罗伊·王(Roy Wang)说,“我们相信我们能够符合法律,展示出好的人工智能是什么样子。”Eightfold AI生产用于协助招聘经理的软件。
纽约市的法律还采取了一种可能成为规范的方法来监管人工智能。该法律的关键衡量标准是“影响比率”,或者计算使用该软件对受保护的求职者群体的影响。它没有深入研究算法是如何做出决策的,这是一个被称为“可解释性”的概念。
批评人士说,在招聘等影响人生的应用程序中,人们有权要求解释一个决定是如何做出的。但一些专家表示,像chatgpt风格的软件这样的人工智能正变得越来越复杂,这可能会让可解释的人工智能的目标变得遥不可及。
负责任人工智能研究所(Responsible AI Institute)的执行董事阿什利·卡索万(Ashley Casovan)说:“重点是算法的输出,而不是算法的工作。”该研究所正在为人工智能应用在工作场所、医疗保健和金融领域的安全使用开发认证。
Steve Lohr报道技术、经济和劳动力问题。他是2013年获得普利策解释性报道奖的团队成员之一。@SteveLohr
点击分享到









