出于其独特使命,联合国教科文组织数十年来一直领导国际社会,努力确保科学技术在强有力的伦理规范下向前发展。

在基因研究、气候变化、科学研究等众多领域,教科文组织都制定了全球标准,以最大限度地发挥科学发现的效益,同时减少其风险,确保它们服务于建设更加包容、可持续、和平的世界。它还指明了神经技术伦理、气候工程和物联网等领域的前沿挑战。

AI human brain

这些通用技术正在重塑我们的工作、沟通、生活方式。世界正在经历自6个世纪前印刷术普及以来的最快速变化。人工智能技术在许多领域带来了积极变化,但如果没有伦理规范,它就可能复制现实世界的偏见和歧视,加剧分裂并威胁基本人权和自由。人工智能相关商业模式高度集中在少数几个国家和少数公司手中。这些公司通常是由男性主导的团队中创建,不能体现世界的文化多样性。与此形成鲜明对比的是,世界上一半的人口仍然无法享有稳定的互联网连接。

Mujeres y brecha digital

为了纠正这一问题,在会员国的明确授权下,教科文组织制定了最全面的国际框架,以引导人工智能技术的开发和使用。在2021年11月召开的联合国教科文组织大会上,193个会员国鼓掌通过了《人工智能伦理问题建议书》。这一综合性文书历经2年时间制定,是来自世界各地的专家、开发者和其他利益相关者经过最广泛的全球磋商之后的产物。

建议书的4项核心价值观

1
尊重、保护、促进

人权、基本自由和人类尊严

2
生活于

和平、公正、相互关联的社会

3
确保

多样性和包容性

4
健康的

环境和生态系统

基于人权的人工智能策略

1. 相称性和非伤害性

人工智能系统的使用不得超出实现合法目标所必需的范围。应运用风险评估来防止此类用途可能造成的危害。

2. 安全和安保

人工智能参与者应避免和应对可能的伤害(安全风险)以及潜在的攻击漏洞(安保风险)。

3. 隐私权和数据保护

必须在人工智能的整个生命周期中保护和促进隐私。还应建立适当的数据保护框架。

4. 多利益攸关方与适应性治理和协作

使用数据时必须尊重国际法和国家主权。此外,包容性的人工智能治理方法应有各利益攸关方的参与。

5. 责任和问责

人工智能系统应该是可审计和可追溯的。应建立监督、影响评估、审计和尽职调查机制,以避免与人权规范发生冲突以及对环境福祉造成威胁。

6. 透明度和可解释性

人工智能系统的伦理部署取决于其透明度和可解释性。这些方面的水平应适合具体情况,因为其与隐私、安全和安保等其他原则之间可能存在冲突。

7. 人类监督和定断

成员国应确保人工智能系统不会取代人类的最终责任和问责。

8. 可持续性

应根据人工智能技术对“可持续性”的影响对其进行评估。“可持续性”是一系列不断发展的目标,包括联合国可持续发展目标中规定的目标。

9. 认知和素养

应通过开放和无障碍的教育、公民参与、数字技能和人工智能伦理培训、媒体和信息素养来促进公众对人工智能和数据的理解。

10. 公平和非歧视

人工智能参与者应促进社会正义、公平和非歧视,同时采取包容性方法,确保所有人都能享受人工智能的惠益。

我们迫切需要重新平衡女性在人工智能领域的处境,以避免有偏见的分析,并构建虑及全人类期望和需求的技术。

联合国教科文组织总干事
奥德蕾·阿祖莱阿祖莱,联合国教科文组织总干事

查看所有出版物