最好看的新闻,最实用的信息
05月19日 16.7°C-18.9°C
澳元 : 人民币=4.84
凯恩斯
今日澳洲app下载
登录 注册

联合国教科文组织193个成员国签署 通过首份人工智能伦理全球协议

2021-11-27 来源: cnBeta 原文链接 评论0条

联合国教科文组织193个成员国签署 通过首份人工智能伦理全球协议 - 1

教科文组织警告说,该技术已经通过性别和种族偏见、大规模监控的增加以及执法部门使用“不可靠的人工智能技术”造成了一些伤害。它说,到目前为止,还没有一套普遍的标准来指导人们应该如何部署人工智能以造福于人,但这个文本希望能改变这种情况。

教科文组织负责人奥黛丽·阿祖莱在评论这份文件时说:“世界需要人工智能的规则来造福人类。关于人工智能伦理学的建议是一个重要的答案。它建立了第一个全球规范性框架,同时赋予各国在其层面上应用它的责任。教科文组织将支持其 193 个成员国实施该建议,并要求它们定期报告其进展和做法”。

如果你想阅读这份32页的完整文件,你可以到联合国教科文组织数字图书馆阅读或下载PDF文件。它有联合国所有六种语言版本;英语、法语、俄语、西班牙语、中文和阿拉伯语。

官方新闻稿:

联合国教科文组织的193个会员国星期三正式通过了首份有关人工智能伦理的全球框架协议。这一历史性文本确定了共同的价值观和原则,用以指导建设必需的法律框架来确保人工智能的健康发展。

2018年,教科文组织总干事阿祖莱发起了一个雄心勃勃的项目:为世界打造一个运用人工智能的伦理框架。3年后,来自世界各地的数百名专家经过密切磋商,发布了《人工智能伦理问题建议书》。

建议书内容

《建议书》旨在实现人工智能给社会带来的积极效果,同时预防潜在风险。它包含以行动为导向的政策相关章节,涉及数据管理、教育、文化、劳工、医疗保健、经济等多个领域,将应对与透明度、问责制和隐私相关的问题,从而确保数字转型能够促进人权,并推动实现可持续发展目标。

数据保护

《建议书》呼吁,在科技公司和政府已采取的措施之外,还需要采取更多行动,通过确保透明度、行动力和对个人数据的控制来保证个体得到更多保护。它指出个体应该有权访问甚至删除其个人数据记录。它还包括改善数据保护和个体对自身数据的了解和控制权的行动,并将提高世界各地的监管机构的执行能力。

禁止社会评分和大规模监控

《建议书》明确禁止使用人工智能系统进行社会评分和大规模监控。《建议书》指出,此类技术极具侵入性,它们侵犯人权和基本自由,且被广泛使用。《建议书》强调,成员国在制定监管框架时应考虑最终的责任和问责必须始终由人类承担,人工智能技术本身不应获得法律人格。

帮助监测和评估

《建议书》还为协助自身的落实提供了工具基础。伦理影响评估意在帮助开发和部署人工智能系统的国家和公司评估这些系统对个人、社会及环境的影响。准备程度评估方法帮助成员国评估本国在法律和技术基础设施方面的情况。这一工具将有助于提高各国的机构能力,并建议采取适当措施,以确保伦理规范在实践中得到遵守。此外,《建议书》鼓励会员国考虑增设独立的人工智能伦理官员或其它相关机制,以监督审计和持续监测。

环境保护

《建议书》强调,人工智能行为者应支持节约数据、能源和资源的人工智能方法,这将有助于确保人工智能成为应对气候变化和解决环境问题的更有效工具。它要求政府评估整个人工智能系统生命周期的直接和间接环境影响,包括其碳足迹及人工智能技术制造所需原材料开采的能源消耗和环境影响。《建议书》还希望减少人工智能系统和数据基础设施的环境影响。它激励政府投资于绿色科技,摈弃对环境有不成比例的负面影响的人工智能系统。

出笼背景

人工智能如今无处不在,从航班预订、无人驾驶到个性化新闻推送,它为我们的日常工作生活带来诸多便利。人工智能还为政府和私营部门的决策提供支持。

在高度专业化的领域,如癌症筛查、为残疾人建立包容性的环境,人工智能技术正在带来显著变化。它还有助于应对气候变化和世界饥饿等全球问题,并通过优化经济援助减少贫困。

但该技术也带来了前所未有的新挑战:性别和种族偏见增加,对隐私、尊严和行动力的重大威胁,大规模监控的风险,以及在执法中越来越多地使用不成熟的人工智能技术,如此种种。直到现在,我们还没有通行的标准来应对这些问题。

联合国教科文组织总干事阿祖莱周四召开新闻发布会,推介该组织成员国大会刚刚通过的这份关于人工智能伦理的全球标准。

阿祖莱表示,“世界需要为人工智能制定规则以造福人类。《人工智能伦理问题建议书》是一个重要的举措,它制定了首个规范性全球框架,同时赋予各国在相应层面应用该框架的责任。教科文组织支持其193个会员国落实《建议书》内容,并要求它们定期报告相关进展和做法。”

转载声明:本文为转载发布,仅代表原作者或原平台态度,不代表我方观点。今日澳洲仅提供信息发布平台,文章或有适当删改。对转载有异议和删稿要求的原著方,可联络content@sydneytoday.com。
今日评论 网友评论仅供其表达个人看法,并不表明网站立场。
最新评论(0)
暂无评论


Copyright Media Today Group Pty Ltd.隐私条款联系我们商务合作加入我们

电话: (02) 8999 8797

联系邮箱: info@sydneytoday.com 商业合作: business@sydneytoday.com网站地图

法律顾问:AHL法律 – 澳洲最大华人律师行新闻爆料:news@sydneytoday.com

友情链接: 华人找房 到家 今日支付Umall今日优选