文件名称:大数据的不同影响-研究论文
文件大小:742KB
文件格式:PDF
更新时间:2024-06-08 23:16:05
big data data mining algorithms
诸如数据挖掘之类的算法技术的拥护者认为,这些技术消除了决策过程中的人为偏见。 但是,算法仅与其处理的数据一样好。 数据通常是不完善的,从而使这些算法可以继承先前决策者的偏见。 在其他情况下,数据可能只是反映了整个社会仍然存在的普遍偏见。 在其他情况下,数据挖掘可以发现令人惊讶的有用规律,这些规律实际上只是排他和不平等的既有模式。 不加思索地依赖数据挖掘会否定历史上处于不利地位的弱势群体充分参与社会。 更糟糕的是,由于由此产生的歧视几乎始终是算法使用的无意出现的特性,而不是其程序员的有意识选择,因此通常很难确定问题的根源或向法院解释。 本文以美国反歧视法为视角,特别是通过标题VII禁止就业歧视来考察这些担忧。 在没有明显的歧视意图的情况下,数据挖掘受害者的最大理论希望似乎在于完全不同的影响理论。 但是,判例法和《平等就业机会委员会统一指南》认为,当一种实践的结果可以预测未来的就业结果时,可以将这种实践证明为一种商业必要性,并且专门设计数据挖掘来找到这种统计相关性。 除非有合理可行的方式证明这些发现是虚假的,否则第七标题似乎会加冕它的使用,即使其发现的相关性常常反映出偏见的历史性模式,其他人对受保护团体成员的歧视或存在的缺陷。基本数据解决这种无意歧视的根源并弥补法律上相应的缺陷在技术上,法律上和政治上都是困难的。 在计算上可以完成的操作有许多实际的限制。 例如,当由于要挖掘的数据本身是过去故意歧视的结果而发生歧视时,通常没有明显的方法来调整历史数据以消除此污点。 在数据挖掘完成之后会改变数据挖掘结果的纠正措施将在法律和政治上有争议的领域上付诸实践。 改革方面的这些挑战使反歧视法所依据的两个主要理论之间的紧张关系得到了彻底缓解:反分类和反从属。 要找到解决大数据不同影响的解决方案,将需要付出最大的努力来消除偏见和偏见。 它将需要重新审查“歧视”和“公平”的含义。