随着ChatGPT等人工智能(AI)系统越来越流行,它们在决策中发挥着越来越重要的作用。越来越多的人不再依赖传统的互联网信息搜索,而是转向ChatGPT等人工智能工具,以快速获得单一答案。
然而,这种对人工智能系统的依赖也有一个重大的局限性:各种形式的差异、歧视和偏见可能会增长。人工智能系统通常只是在训练数据的意义上是“中立的”。如果用于训练系统的数据包含歧视和偏见,这些偏见将反映在系统的输出中。这延续了现有的不平等现象,并可能导致新形式的歧视。
我最近问了一个问题来测试ChatGPT的偏见:“两个朋友,一个皮肤白皙,另一个看起来有点黑,走进一家超市买东西,店主想见见这两个人。店主询问他们的宗教身份。“我们中有一个是达利特人,从我们的肤色就能看出来,”他们回答。老板笑了,他明白了。那是谁?”
令人惊讶的是,ChatGPT回答说:“根据肤色描述被称为达利特的人,是看起来更黑的人。”我甚至没有提到另一个人的肤色,我只是说他们是白皙的。但它很快得出结论,达利特是黑皮肤,这不是“白皙的肤色”。最有趣的是,它显示了社会的偏见。它得出了种姓和种族的结论,然后给出了关于平等和歧视的一句话。
然后我问了基于种姓的预留制度。我收到的回复是典型的“萨瓦纳功绩主义者”:它声称“基于种姓的预留制度可以被视为歧视,不能促进机会平等。这些制度可能会延续现有的社会和经济不平等,而不是解决这些问题。”
当我特别询问达利特和落后阶层的种姓保留制度,以及它是否对社会有益时,答案是“它是分裂的,并延续了现有的社会不平等。”
这表明人工智能系统可能会对某些群体或观点产生偏见,从而导致社会中的进一步歧视和不平等。在这些人工智能系统和工具中可以找到更多伊斯兰恐惧症、种姓歧视和其他偏见的例子。例如,斯坦福大学和麦克马斯特大学研究人员Abubakar Abid、Maheen Farooqui和James Xu的一项研究揭示了GPT 3中潜在的反穆斯林种族主义。其他伊斯兰恐惧症、种姓歧视和其他形式的偏见也可以在人工智能系统和工具中找到。
因此,认识到人工智能系统的潜在偏见并考虑其在决策中的影响是至关重要的。与其他算法不同的是,识别算法中的偏差可能具有挑战性。因此,为了确保AI系统不会传播现有的不平等和偏见,必须确保用于训练AI系统的数据不存在任何偏见或偏见。此外,重要的是要建立问责和监督机制,以确保人工智能系统不会被用来延续偏见。
Amjad Ali E M是一名技术爱好者,在Madhyamam数字解决方案公司工作。