

路透伦敦8月10日电- - -围绕欧盟首个人工智能(AI)监管规则的谈判周三看来将达到戏剧性高潮,议员们将进入对这一具有里程碑意义的立法的最后一轮讨论,有人希望这将是最后一轮讨论。
随着各国寻求为本国人工智能产业制定规则,这一决定可能成为其他政府的蓝图。
在会议召开之前,立法者和政府未能就关键问题达成一致,包括对快速增长的生成式人工智能的监管以及执法部门对其的使用。
以下是我们所知道的:
聊天是如何破坏人工智能法案的?
主要问题是,该法律的初稿是在2021年初起草的,比OpenAI的ChatGPT(历史上增长最快的软件应用之一)推出早了近两年。
就在微软(microsoft)的OpenAI等公司不断发现其技术的新用途之际,立法者们却在争先恐后地制定法规。
OpenAI的创始人萨姆·奥特曼(Sam Altman)和计算机科学家也对创造强大、高智能的机器可能威胁人类的危险发出了警告。
早在2021年,立法者就专注于具体的用例,根据人工智能工具被设计用于执行的任务对其进行监管,并按风险从低到高进行分类。
在航空、教育和生物识别监测等许多环境中使用人工智能被认为是高风险的,要么是对现有产品安全法的延伸,要么是因为它们构成了潜在的人权威胁。
2022年11月,ChatGPT的到来迫使立法者重新考虑这一点。
这种所谓的“通用人工智能系统”(GPAIS)并不是为单一的用例而构建的,而是完成各种任务:参与类似人类的对话,编写十四行诗,甚至编写计算机代码。
ChatGPT和其他生成式人工智能工具并不明显符合该法案最初的风险类别,这引发了一场关于如何监管它们的持续争论。
建议是什么?
通用人工智能系统,也被称为基础模型,可以由开发人员构建在“顶部”以创建新的应用程序。
研究人员有时会对人工智能的行为感到措手不及——比如ChatGPT的“幻觉”错误答案的习惯,在这种情况下,底层模型被训练成最好地预测句子串,但有时会产生听起来很有说服力的答案,但实际上是错误的——而隐藏在基础模型代码中的任何潜在的怪异行为,在不同的环境中部署时,都可能以意想不到的方式发挥作用。
欧盟监管基金会模型的提议包括,迫使企业清楚地记录其系统的培训数据和能力,证明它们已采取措施减轻潜在风险,并接受外部研究人员进行的审计。
最近几周,欧盟最具影响力的国家法国、德国和意大利对此提出了挑战。
这三个国家希望允许生成式人工智能模型的制造商进行自我监管,而不是强迫他们遵守严格的规则。
他们说,严格的监管将限制欧洲公司与谷歌和微软等占主导地位的美国公司竞争的能力。
在OpenAI代码上构建工具的小公司也将面临更严格的规定,而OpenAI等提供商则不会。
执法部门的问题是什么?
消息人士告诉路透社,立法者也对执法机构使用人工智能系统在公共场所对个人进行生物识别存在分歧。
欧盟议员希望制定法规保护公民的基本权利,但成员国希望在警务或边境保护机构等为国家安全利益使用该技术方面具有一定的灵活性。
一位消息人士称,如果使用远程生物识别的豁免受到限制并明确界定,欧洲议会议员可能会放弃一项拟议中的禁令。
可能的结果是什么?
如果最终文本在周三达成一致,理论上欧盟议会可以在本月晚些时候投票使该法案成为法律。即使到那时,它也可能需要近两年的时间才能生效。
然而,如果没有最终协议,欧盟议员和各国政府可能会达成一项“临时协议”,具体细节将在数周的技术会议上敲定。这可能会重新点燃长期以来的分歧。
他们仍然需要为明年春天的投票做好准备。否则,该法律可能会被搁置,直到6月份的议会选举之后,欧盟27个成员国将失去监管该技术的先发优势。
(马丁·库尔特报道;编辑:约瑟芬·梅森和大卫·埃文斯)