使用机器学习来对抗过滤气泡
有趣的是,Nobias 的核心技术是机器学习,该技术在放大偏见和制造过滤气泡方面发挥了重要作用。Nobias 发表了一篇关于它用来对新闻报道和文章中的偏见进行评分的方法的详细说明。“对于偏差算法,我们所做的就是尽量做到客观。我们使用了 Matthew Gentzcow 和 Jesse Shapiro在 2010 年和 2016 年在顶级经济学期刊Econometrica 上发表的方法论,”Ahuja 说。
该公司使用演讲记录作为人工智能算法的训练数据,该算法检测在线内容中的倾斜和政治偏见。“在,你知道有人是还是。这更加客观,”Ahuja 说。
在对演讲文本进行训练后,机器学习算法开发了一种在左倾和右倾演讲之间划清界限的关键字类型的模型。然后使用这些相关性对新内容进行分类。AI 算法使用阈值和多级偏差(极右和-左、中-右和-左以及中心)来减少误报。
如果用户不同意或在特定文章的分析中发现错误,他们可以向 Nobias 发送反馈。该公司使用这些众包信息来进一步调整人工智能算法并使其更加准确。“我们每个月都会更新机器学习算法,但是如果我们收到很多关于正在讨论的东西的大量反馈,那么我们会更快地更新它,”Ahuja 说。
令我担心的一件事是,不良行为者可能会试图通过以人类读者可能不会注意到但对机器学习模型具有完全不同含义的方式小心地措辞他们的内容来欺骗或玩弄人工智能算法。
“老实说,我们还没有大到足以让人担心,”Ahuja 说,并补充说,“我们所做的是每月更新机器学习模型,因此恶意行为者很难不断地利用人工智能来为他们所用。”
Ahuja 还表示,Nobias 不会发布定义政治倾向类别的关键字列表,这将使恶意行为者更难攻击 AI 模型。
你要为自己的偏见负责
专家和有远见的人建议,在机器学习和自动化时代,可以保护我们免受人工智能算法不利影响的一件事就是使用更多的人工智能。
Ahuja 没有向 Nobias 提出这样的要求。“我们想让人们更容易发现自己的偏见。这就是为什么我们更多地将其视为一种生产力工具。你知道你需要均衡饮食。这只是帮助你在没有太多工作的情况下到达那里,”她说。
这意味着我们仍然有责任走出我们的过滤泡沫,竭尽全力调查故事的不同方面,学会倾听和容忍对立的观点,并尝试在其中找到共同点和妥协。辩论。
这些是任何人工智能都不会为您做出的艰难的人类选择。
![](http://yyk.iask.sina.com.cn/pic/fimg/160992406625668983361.jpg)