非政府组织警告称,欧盟关于人工智能的规定必须在保护人权方面做得更多

综合资讯作者 / 世界之声 / 2025-07-01 11:52
"
    包括人权观察、大赦国际、透明国际和算法观察在内的150个非政府组织签署了一份致欧盟的声明。他们在信中呼吁,在通过《

  

EU rules on AI must do more to protect human rights, NGOs warn

  包括人权观察、大赦国际、透明国际和算法观察在内的150个非政府组织签署了一份致欧盟的声明。他们在信中呼吁,在通过《人工智能法》时,不仅要维持人权保护,还要加强人权保护。

  在算法带来的世界末日和不同阵营认为该技术可能带来的无癌症乌托邦之间,有一系列的陷阱需要负责任地部署人工智能。

  就在奥特曼、马斯克、扎克伯格等人一头扎进黑盒子的时候,旨在至少抑制他们热情的立法正在酝酿之中。欧盟提出的关于人工智能的法律——《人工智能法案》——是所有主要监管机构首次出台此类法律。两个不同的阵营声称,这要么是a)削弱了欧洲的技术主权,要么是b)在限制人工智能的危险部署方面做得不够。

  周三的集体声明的签署者警告说,“如果没有强有力的监管,公司和政府将继续使用人工智能系统,这将加剧大规模监控、结构性歧视、大型科技公司的权力集中、不负责任的公共决策和环境破坏。”

  

  欧盟科技界的前三名

  来自欧盟科技界的最新消息,来自我们睿智的老创始人鲍里斯的故事,以及一些可疑的人工智能艺术。它是免费的,每周都在你的收件箱里。现在就报名吧!

  这不是“人工智能带来灭绝风险”的一句话。它包括起草者认为必须保留或加强的该法的具体部分。例如,“问责制、透明度、可及性和补救框架”必须包括人工智能部署者发布基本权利影响评估的义务,在可公开访问的数据库中登记使用情况,并确保受人工智能决策影响的人有权获得信息。

  非政府组织也对基于人工智能的公共监控(比如在查尔斯国王加冕典礼期间部署的监控)采取了强硬立场。他们呼吁全面禁止“所有参与者在公共场所进行实时和远程生物识别,无一例外”。他们还要求欧盟禁止在执法部门的预测和分析系统,以及移民背景和情感识别系统中使用人工智能。

  此外,这封信的作者敦促立法者不要“屈服于大型科技公司为了经济利益而规避监管的游说努力”,并坚持一个客观的过程,以确定哪些系统将被归类为高风险。

  拟议的法案将根据人工智能系统对健康和安全或基本权利构成的风险程度,将其分为四个级别。这些等级是:不可接受的、高的、有限的和最小的。

  政府使用的社交评分系统等应用程序是不可接受的,而用于垃圾邮件过滤器或电子游戏的系统则被认为风险最小。

  根据拟议的立法,欧盟将允许高风险系统(例如用于医疗设备或自动驾驶汽车的系统),但部署者必须遵守有关测试、数据收集文件和问责制框架的严格规则。

  最初的提案没有提到通用或生成人工智能。然而,随着去年ChatGPT的迅速崛起,欧盟在最后一刻批准了修正案,增加了一个额外的部分。

  过去几个月,商界领袖一直在努力工作,试图影响欧盟淡化拟议文本。他们尤其热衷于应该被归类为高风险的人工智能,这导致了高得多的成本。有些人,比如OpenAI的山姆?奥特曼,则展开了个人魅力攻势(在竞争中发出一两个威胁)。

  其他公司,特别是来自全球各大公司(包括meta、雷诺和喜力)的160多名高管也向欧盟委员会致信。他们在信中警告称,该立法草案将“危及欧洲的竞争力和技术主权”。

  6月14日,欧洲议会通过了关于人工智能法案的谈判立场,目前三方谈判已经开始。这需要议会、委员会和理事会在通过最后案文之前进行讨论。

  随着法律确立了一个全球先例(尽管希望能够像技术一样不断发展),布鲁塞尔目前很可能正充斥着代表所有利益相关方的热心倡导者。

  Linnea Ahlgren

  Linnea是TNW的高级编辑,于2023年4月加入。Linnea是TNW的高级编辑,于2023年4月加入TNW。她拥有国际关系背景,研究领域包括清洁和气候技术、人工智能和量子计算。但首先,咖啡。

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读