金奈,11月7日(IANS):周四,马德拉斯印度理工学院(IIT)的一项研究表明,在人工智能发展中采取包容的方法,让不同的利益相关者参与进来,将导致每个人都被包容,尤其是那些历史上代表性不足的人,此外,建立透明度将促进公众信任,使其更容易获得广泛接受。
来自印度理工学院马德拉斯学院和德里智库维迪法律政策中心的研究人员呼吁在印度和国外的人工智能发展和治理中采用参与式方法。
印度理工学院马德拉斯分校瓦德瓦尼数据科学与人工智能学院院长B. Ravindran教授表示:“人工智能技术在公共和私营部门的广泛采用,使它们以新的、意想不到的方式对人们的生活产生了重大影响。
然而,Ravindran说,有必要“询问它们的设计、开发和部署是如何进行的”。他补充说,研究发现,受到影响的人对它们的开发几乎没有发言权。
该研究确定了人工智能开发中的参与式方法可以改善人工智能算法的结果并增强过程公平性的主要原因。
它还试图通过跨学科合作,确定参与式人工智能治理方法的必要性和重要性,同时将其置于现实世界的用例中。
即使多个领域正在通过人工智能增加其操作的自动化,进入其设置和执行的各种选择和决策也可能被转换,变得不透明,并混淆责任。
该团队在发表于《arXiv》的预印本论文中表示,该模型强调了让相关利益相关者参与人工智能系统的设计、实施和监督的重要性。
为了实施参与式人工智能,该研究建议采用参与式人工智能治理方法;建立明确的利益相关者识别机制;开发有效的方法来整理和翻译利益相关者的意见;在整个人工智能生命周期中解决道德问题;优先考虑人为的监督和控制。
Ravindran表示,这些建议对于解决人工智能发展中的几个紧迫问题至关重要。
“研究结果表明,参与式流程可以增强人工智能解决方案,特别是在面部识别技术和医疗保健等领域。采用参与式方法是使人工智能真正以人为中心的途径,这是印度人工智能使命的核心愿望。”维迪法律政策中心法律与技术负责人Shehnaz Ahmed说。