人工智能是新的性别歧视吗?

0
149
性别歧视

人类大脑对一个人的性取向形成偏见和负面看法的能力似乎是不够的。因此,我们现在有了人工智能(AI)(在这种情况下不是完全智能的),可以通过分析人的脸来发现性取向。是的,你没看错!斯坦福大学的一项研究显示,计算机算法可以在相当数量的情况下成功检测出一个人是异性恋还是同性恋——男性81%,女性74%。

该软件分析人们的照片,只考虑面部特征来得出他们的性偏好结果。研究表明,同性恋者表现出非典型的性别特征。根据这项研究,男同性恋和女同性恋看起来更女性化,反之亦然。然而,这种算法也有它自己的缺陷。它只有两种偏好——同性恋和异性恋。没有包含双性恋偏好。它也没有研究非白人社区,因为只有白人的照片是测试的一部分。这项研究由Michal Kosinski和Yilun Wang进行,它将对许多问题产生影响,在全球范围内引起了广泛关注。这个软件不侵犯个人的隐私权吗?这项技术难道不能作为对抗LGBT问题的潜在武器吗?那么人脸检测技术的伦理道德和它们在这方面的程度呢? Apart from these questions, scientists also have expressed their concerns about the biological origins of sexual orientation- whether it’s a choice or an inborn characteristic.

这种技术具有危险的含义。虽然人工智能在过去支持了许多积极的事业,如解决问题,社会互动,解决犯罪,但这项技术的进步是令人担忧的。这种软件有可能成为网络犯罪的工具。Facebook、Instagram和其他社交媒体平台上有数百万张照片,可以作为这一工具的数据,这些照片可以在人们不知情和不同意的情况下被用来识别人们的性取向。这可能会被用作任何错误目的的诱饵。

在同性恋权利尚未得到承认的国家,确定性别的技术可能会剥夺人们受教育、就业和基本生活的权利。社区和团体也可以使用该算法来阻止LGBT利益群体对个人的迫害。它不仅对个人的性取向构成了威胁,而且还很有可能开发出一种软件,用于更大的犯罪和恶意目的,基于对社会这部分人的敌意和反对。毫无疑问,人工智能可以而且已经让我们的生活变得更好,但当它有能力被滥用来维护人们的基本权利时,它有什么好处吗?

留下一个回复

请输入您的评论!
请在这里输入你的名字