偏见的人工智能正在改变美国人的生活。 我们对于它可以做些什么呢?

偏见的人工智能正在改变美国人的生活。 我们对于它可以做些什么呢?
偏见的人工智能正在改变美国人的生活。 我们对于它可以做些什么呢?
Anonim

想象一下一个世界,在这个世界上,人工智能算法会做出影响您日常生活的决策。 现在,想象他们充满了偏见。

数据科学家,哈佛博士和作家凯茜·奥尼尔说,这就是我们已经生活的世界。 (在这里阅读我们与O'Neil博士的讨论的第一部分)。 我们与美国国家图书奖提名人一起坐下来,了解在大数据时代我们能对偏见采取什么措施。 CT:AI有偏见吗?

CO:每个未明确规定为公平的算法都应视为有偏见的。 因为作为人,我们有偏见。 如果我们承认这一点,并且正在使用我们的值和数据来创建这些算法,那么我们就不应该假设发生了任何使事情变得公平的不可思议的事情。 那里没有魔术。

CT:算法从哪里获取数据?

CO:这取决于算法。 有时,社交媒体可用于政治市场定位或广告,营利性大学和掠夺性贷款等活动,但很多数据并未在社交媒体上甚至是在线上收集。

数据收集越来越多地与现实生活联系在一起,例如找到工作,在工作中工作,上大学或入狱。 这些事情不是我们可以通过隐私法规避的事情。 它们是权力的问题,算法所针对的人员没有权力,而收集信息,构建和部署算法的人员则拥有所有权力。 如果您是刑事被告,则您没有任何隐私权;您在工作中没有任何隐私权;如果您申请工作,那么您在隐私权方面的权限也就不多如果您不回答未来雇主提出的问题,那么您很可能无法找到工作。

当涉及到算法及其可能造成的危害时,我们应该少考虑隐私,而应该多考虑功能。

CT:我们可以做些什么来改善它?

CO:我们可以认识到这些算法并不是天生的完美,并测试它们的缺陷。 我们应该有持续的审核和监控程序,尤其是对于重要决策,例如聘用,刑事判决或评估工作人员,以确保算法以我们希望他们的方式行事,而不是以某种歧视或不公平的方式。

Image

艾尔莎·约翰逊(Ailsa Johnson)/©文化之旅

CT:对于数据驱动的未来,最佳和最坏的情况是什么?

CO:最糟糕的情况就是我们现在所拥有的-我们所有人都盲目地期望算法是完美的,即使我们现在应该对此有所了解。 我们传播过去的不公正和不公平现象。 而且我们继续忽略这些算法的缺陷。

最好的情况是我们承认这些算法本质上并不比人类好。 我们决定人类想要什么,我们正在追求什么。 我们希望社会看起来像什么,我们教那些价值观。 如果我们成功做到这一点,这些算法可能会比人类更好。

CT:普通人可以扮演什么角色?

CO:个人可以扮演的最重要的角色是不隐式地信任任何算法。 要产生大量的怀疑。 如果您正在使用算法进行评估,请问“我怎么知道它是公平的,我怎么知道它有帮助,我怎么知道它是正确的? 错误率是多少? 该算法对谁失败? 它会使妇女或少数民族失败吗? 提出这样的问题。

除了怀疑之外,第二件事是,如果您认为算法对您或其他人不公平,那就是与其他人一起组织。 最近的例子是老师。 有关增值教师的统计模型非常糟糕,几乎是随机数生成器。 但是,在美国各地,他们一直被用来决定应该聘用哪些教师以及要解雇哪些教师。

我的建议是让他们的工会退缩。 这确实发生在某些地方。 但是令人惊讶的是,由于计分系统的数学性质,几乎没有阻力。

CT:您是如何进入“大数据”的?

CO:我在华尔街工作,从内部目睹了金融危机。 我对使用数学来利用人或愚弄人的方式感到厌恶。 我看到了可能来自数学谎言的那种损害,我称之为“数学武器化”。

我决定摆脱困境,因此我加入了占领华尔街并开始从事数据科学家的工作。 我慢慢意识到,在华尔街之外也发生了误导性数据算法的虚假和误导性炒作,这将导致大量损失。 不同之处在于,尽管全世界的人们都注意到了金融危机,但我认为人们不会注意到这些大数据算法的失败,因为它们通常发生在个体层面上。

在这里阅读我们与O'Neil博士的讨论的第一部分。 Cathy O'Neil 博士 的书《数学破坏的武器:大数据如何增加不平等并威胁民主》现已出版。

热门24小时