YouTube 视频推荐算法因“过度优化”引发质疑

  • 佐嗣晏
  • 发表   2018-2-12 10:07
  • 查看: 2993| 评论 |原作者: 佐嗣晏
英国《卫报》在一次调查中发现,2016 年美国大选期间,YouTube 的推荐算法推荐反对希拉里·克林顿的视频的频率是反对唐纳德·特朗普的视频的六倍。另外《华尔街日报》的一份调查也显示,YouTube 的视频推荐算法可以 ...
youtube-video-algorithm-problem.jpg



英国《卫报》在一次调查中发现,2016 年美国大选期间,YouTube 的推荐算法推荐反对希拉里·克林顿的视频的频率是反对唐纳德·特朗普的视频的六倍。另外《华尔街日报》的一份调查也显示,YouTube 的视频推荐算法可以说是积极地把用户推向意识形态更为极端的内容——一旦 YouTube 发现某位用户表现出特定的意识形态偏见,YouTube 的算法就会努力迎合用户的这种喜好,但推荐的视频观点会更加极端。

谷歌的工程师在接受采访时表示,这种情况主要和 YouTube 基于广告的盈利模式有关,由于推荐算法的过度优化,导致 YouTube 具有过度的粘性。这样一来用户就可以不停地看视频,然后为 YouTube 带来更多的广告收入,即便 YouTube 自身并不会故意为用户推荐带有偏见或者激进观点的视频。

YouTube 已经承认了这一问题,表示这的确是他们的责任。推荐算法方面的产品主管 Johanna Wright 向《华尔街日报》表示他们会做更多的工作来努力遏制这一情况,但从 YouTube 应对儿童邪典视频的过程来看,这种针对视频内容的“软审查”绝对是更为困难的一件事:作为传播渠道,不能假装自己在推动媒体环境恶化这件事上毫无责任;另一方面,YouTube 又不能变成真的审查者。显然 YouTube 必须想出一个十分恰当的应对办法,才能安稳地走到钢丝的另一头。



Source: The Guardian, The Wall Street Journal, vantifair


加pixel中文网官方微信公众账号,扫描下图或者搜索"pixel中文网"关注!

最新评论

返回顶部