
全球的政策制定者都在努力应对人工智能技术进步的巨大影响,包括国际组织将如何使用这些工具。
Aaron Martin是弗吉尼亚大学数据科学学院的助理教授,他最近受邀在数据保护国际组织研讨会的小组讨论中分享了他对这一关键话题的见解。该研讨会在华盛顿世界银行举行,由欧洲数据保护监管机构共同主办。今年的会议标志着该会议首次在欧洲以外举行。
马丁于2023年加入弗吉尼亚大学数据科学学院,并被联合任命为弗吉尼亚大学媒体研究系的教员,他专门研究数据治理以及国际机构如何制定跨国政策,特别是与技术相关的政策。
在小组讨论中,Martin分享了他对全球机构在数据保护方面面临的挑战的看法,以及为什么他们必须努力解决这些挑战。
他最近谈到了他在会议上的经历,以及他对这个迅速演变的全球问题的许多方面的看法。
可以这么说,国际组织——包括那些在华盛顿参加研讨会的组织——在其使命和授权方面是非常多样化的。
这些机构包括具有发展或人道主义使命的联合国机构,以及北约(NATO)或国际刑警组织(Interpol)等促进国际安全和执法合作的组织。他们每个人都在以不同的方式探索人工智能的使用,我的印象是,目前他们的方法是谨慎的,这是令人鼓舞的。
IOs的一个关键特点是,他们享有所谓的法律豁免权和特权——这有助于确保他们的独立性和有效运作。在实践中,这意味着有关数据保护的国家法律法规(如《通用数据保护条例》)和人工智能(如《欧盟人工智能法案》)将不适用于IOs,因为它们适用于政府机构或商业公司。
这变成了一个真正的治理问题——我们如何确保IOs负责任地处理数据和使用新技术?这些组织中的大多数都制定了隐私和数据保护政策,但人工智能带来了一系列新的挑战,他们需要努力应对。本次研讨会的重点是让各组织共同努力,为数据以及越来越多的人工智能制定良好的指导和实践。
最近,关于人工智能公司在获取新的高质量数据来源方面面临挑战的新闻报道让我感到震惊。人们越来越担心,如果没有越来越多的数据,人工智能模型将变得不那么有用和不那么可靠——正如我的一位小组成员所描述的那样,这些模型是“饥饿的”。有人担心,如果人工智能模型接受过多合成(即假)或人工智能生成的数据训练,它们将开始崩溃,因此人工智能公司正在争相寻找新的数据合作伙伴。
在研讨会上,我的发言重点是提高人们对IOs与人工智能公司过度共享数据的各种风险的认识。IOs拥有丰富多样的数据,例如关于发展指标、全球冲突和人道主义事务的数据。
他们还拥有来自世界各地的数据,这些数据在网上的代表性非常低,而人工智能公司通常会去那里获取数据。IOs需要仔细考虑如何确保这些数据的机密性,并采取措施保护它免受滥用和有害的人工智能商业模式的影响。
会有一些共同的挑战—例如,每个IO都有一个人力资源部门,因此企业应用程序存在于IOs中,就像它们存在于任何其他组织中一样。许多(如果不是大多数的话)IOs都有重要的预算考虑,这将影响并可能限制他们使用AI工具,包括生成AI。
我特别感兴趣的是,包括在我的研究中,人道主义IOs使用人工智能可能会如何影响援助的接受者,即所谓的受益者。例如,IOs是否应该完全依赖AI来决定谁将获得食品援助?这样做的风险是什么?这些都是棘手的问题,需要与一系列利益相关者进行接触,包括那些直接受这些决策影响的人。
人道主义组织通常对他们的人工智能方法非常深思熟虑。“不造成数字伤害”是他们的口头禅,这意味着他们对人工智能可能对难民和其他受冲突和危机影响的人造成的潜在和实际伤害非常敏感。
我确实担心在援助领域被称为“人工智能万金油”的东西,以及那些被出售技术的组织,这些技术根本无法实现炒作。重要的是,我们要继续与这些组织接触,帮助他们了解可能性和风险。
好吧,这是查塔姆议院规则,所以我在这里应该小心,但我对IOs将人工智能纳入其组织的战略思维印象深刻。我曾参加过一些会议,在这些会议上,人们似乎在盲目地寻找AI用例,而这通常是错误的方法。
另一位小组成员解释了他的组织如何使用人工智能来记录世界各地侵犯人权的行为,这是一个令人着迷的应用,并说明了人工智能对世界产生积极影响的潜力。
弗吉尼亚大学提供
引用问答:教授讨论国际风险
所有组织面临人工智能和数据保护(2024年,9月30日)检索自https://techxplore.com/news/2024-09-qa-professor-discusses-international-ai.html本文档
作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司
内容仅供参考之用。