我们如何从判别算法中学习作者玛蒂尔德詹森年月日偏见主题你和你的数据不识别黑脸或针对具有第二国籍的人的软件。算法经常出现歧视。我们如何才能阻止这种情况并扭转这进程采访了两位想要重新获得公民信任的人工智能专家。推特加拿大博士生的位黑人同事在月份的次会议上想改变他的虚拟背景。但是的人脸识别算法并没有认出他的脸。只有当他站在个灯泡前时软件才能识别出他的头并给他所需的背景。当在上分享这张照片时以下不当行为被曝光算法缩小了照片的大小甚至将黑人完全切掉了。
因此人工智能存在某些偏见神经信息学
家在阿姆斯特丹大学开展研究研究如何开发不歧视的算法。作为名黑人本人他在年代后期并未被自动旋转门认出这确实让他的白人同事出局了。旋转门事件激发了他在神经信息学神经科学和计算机科学的结 法国手机号码清单 合中研究偏见和歧视的机制。两者有很多共同点人工智能就像我们的大脑样工作。我们的大脑也是个模式识别器个鉴别器。偏见存在于方方面面算法是在大量数据的基础上进行训练的。这些数据来自那些根据定义有偏见偏见的人。
因此这些大数据文件也包含定的
偏差也就不足为奇了。解释说有时这涉及有害的偏见。这些可能导致算法以不正当理由歧视人们。因为如果数据已经包 电子邮件数据 含有害的偏差这将像回旋镖样反映在算法开发的各个方面。为了开发算法开发人员选择了部分数据其中也存在偏差。这通常是在不知不觉中发生的或者纯粹是出于方便毕竟您必须处理最后期限等问题。然后算法中也有定的决策模式。例如他们没有考虑到男性的数据比女性多得多。而些统计方法也会加剧数据中的这种不平等。