简介
1995年,MIT研究员Nicholas Negroponte 预测了一种新闻生产新范式,取名叫做“the Daily Me”,顾名思义,他认为未来的新闻业将是一种自主的、个性化的内容产出与更新模式。23年后,他的这种预测仿佛因为“个性化算法推荐”这套系统折射成了现实:社交平台、内容资讯平台、电商购物平台等等,运用智能算法分析用户的使用偏好与历史数据,从而给用户提供千人千面的、独一无二的“定制化”信息,例如Facebook鼎鼎有名的News Feed频道就以“为使用者创造自己的独特信息”而深为自豪,再如国内的淘宝、网易云、知乎等等APP也深谙其道,打开APP,每个用户的时间线都与他人不同,我们沉迷在算法为我们打造的“糖果屋”里,到处都是我们感兴趣的生动内容,仿佛在如今的网络社会,”数字精英”鸿沟已经荡然无存,我们每一个人都是网络内容红利的主人与享有者,而我们多数人对此已经习以为常。
然而,在这种大数据的“贴心服侍”下,真的就没衍生出什么需要警惕的风险吗?
本文旨在分析社交媒体议程设置过程中过滤气泡与推荐算法之间的关系,主要包括以下三个方面:首先,讨论当前关于Facebook News Feed的仇恨言论问题。其次,结合现有研究议程设置理论,深入分析算法是如何构建和重构这种“the Daily Me”范式的。第三,根据算法对用户、平台和社会公共领域的影响,得出若干结论。
案例分析
2018年8月21日,纽约时报刊登了一篇报告,直指Facebook助长了德国的“反难民”舆论,在其中,华威大学的两名学者Karsten Müller 和Carlo Schwarz 用时两年时间调查了3335起“反难民”事件,实验结果令人惊讶:“无论在什么地方,只要每人使用Facebook都比全国平均水平高出一定标准差,对难民的攻击就增加了大约50%。”在深入采访之后,他们逐渐了解了这一个惊人的现象背后的缘故,在德国小镇阿尔特纳的一次采访中,阿尔特纳难民安置中心的所有者An.Wesemann告诉研究人员,当她为该中心的组织建立一个Facebook页面时,她对难民的看法“立即改变了”,因为她从自己的Facebook时间线上收到了大量的反难民海报与激进的言论推送。换言之,Facebook的算法以提升用户参与度为核心任务,通过分析用户的个人信息、历史搜索记录、阅读偏好等信息,不断更新算法认为的的“最有价值、最有关联”的信息,这也就是为什么An.Wesemann会成为这些“反难民”信息目标受众的原因。
基于此,Karsten Müller 和Carlo Schwarz说,Facebook对于反难民暴力虽然不是根本原因,但是Facebook使用的算法推荐制度确实改变了受众的信息接收内容,从而在一定程度上重塑了他们面对特定事件的心态与举动。
然而,并非只有An.Wesemann一个人受到这种算法议程设置的影响。Facebook通过其算法分析,向志同道合的受众群体推广具有感染力的内容,这可能导致其用户相信他们看到的是就是“既定事实”,甚至把自己定义为权威。
实际上,Facebook News Feed,甚至所有的社交媒体平台,都不能完全通过他们的个性化推荐算法来展现完整的舆论氛围或着“现实”,相反,他们创造的只是一个“媒体现实”。
2010年,用来形容这种“大数据算法下受众内容的无知性与分层性”,“过滤气泡”(Filter Bubbles)应运而生。
概念解释
在深入分析之前,需要明确两个传播学概念。
议程设置:这一理论可以追溯到由沃尔特·利普曼(Lippmann,1922)撰写的《舆论》第一章。在这一章中,他认为“他们需要了解的世界,以及他们确实了解的世界,往往是两个非常矛盾的东西”(Lippmann,1922)。虽然“议程设置”一词并没有在他的书中直接提出,但这个概念还是第一次被传达出来。李普曼之后,许多学者从他们的角度丰富了这一理论。1963年,美国政治学家伯纳德·科恩(Bernard Cohen)阐明,媒体“在告诉人们应该思考什么内容,可能大部分时间并不成功,但在告诉读者应该思考什么方向,却是惊人的成功”(Cohen,1922)。在此过程中,与议程设置理论相关的一个显著案例是“Chapel Hill study”,麦克库姆斯和肖伯纳将新闻报道中政治事件的显著性与1968年公众对重要选举问题的感知进行了比较,以确定媒体在何种程度上参与竞选,从而影响公众舆论(McCombs& Shaw, 1972)。自1972年以来,随着大众传媒议程设置功能的探讨,已有400多篇相关文献发表于众。
一般意义上来说,议程设置理论被描述为“新闻媒体影响公众议程主题重要性的能力”(McCombs & Reynolds,2002)。在当今社会,这一理论已经被社交媒体创新与应用。
过滤气泡:这个概念是2010年互联网学者Eli Pariser提出的,用来形容一种“智慧孤立”的状态(Pariser,2012)。在web2.0时代,社交媒体平台内的算法开始主动“发现我们”(Lash,2006),积极对用户的个人内容进行分类和过滤。在这一点上,设定议程与过滤泡沫之间存在因果关系。正如上文在Facebook News Feed的“反难民暴力”(Amanda.T&Max.F,2018)一案中提到的,用户似乎受到这些反难民观点的影响,并被他们单一的具有Facebook色彩渲染x下的的社会规范和激进的“意识形态泡沫”(Amanda.T&Max.F,2018)所束缚。2016年,美国总统选举的惊人结果也引起了公众对过滤泡沫的持续关注,公众质疑算法带来的这种影响,是否会损害网络民主,以及用户的数字权利。
讨论:谁要对“过滤泡沫”负责?
在这个个性化的时代,正如前面提到的“Facebook的反难民暴力效应”一样,算法真的有能力控制网络的信息生态系统吗?个体的视野是否变得越来越狭隘和两极分化,直到沦为过滤泡沫中的“囚徒”?
其实关于算法的威力,不同的学者还有不同的论述。事实上,正如Eli Pariser所说,学术上的争辩对个人和社会都是有价值的,因为每个算法不仅表现为一种形式的技术,而且还“包含并显示着一种世界观”(Pariser,2015)。基于此,我们越多“询问这些算法如何工作以及它们具有什么影响,我们就越能够塑造我们自己的信息宿命”(Pariser,2015)。换句话说,了解这种“算法化”(Striphas,2015)是如何被体验到的,以及“算法生活”(Amoore&Piotukh,2016)是如何度过的,也可以帮助用户自主有效地“捅破过滤泡沫。
用户自我审查(Users’Self-censorship)
一方面,一些研究者认为算法和过滤气泡之间没有必然的联系,相反,内容收敛的趋势受用户选择性接触的影响更大。2015年,Facebook强调“个人选择”在信息多样性方面比算法更重要。下面是他们的数据结果之一,显示“99%的用户接触过至少一个意识形态一致的项目,96%的用户在新闻Feed中遇到至少一个意识形态交叉的项目。”
此外,牛津大学的研究人员认为,根据他们的研究结果,那些有算法操纵风险的人大约只占8%的网络使用人口。而且,用户仍然有足够的主观能动性使用与转换“多个平台和媒体”,而不是被动地落入那些“过滤泡沫”。米尔斯·贝克认为,以前的研究人员夸大了技术的力量,甚至陷入了“技术决定论”,他坚持认为算法没有产生有意义的过滤气泡,是“我们的价值观”创造了“我们自己的过滤气泡”。基于此,米尔斯·贝克解释了“什么内容说服用户通常反映了他们的价值观,先验确定他们接受什么的信息”,这才是一个紧迫的问题,重视程度应该远远超出研究Facebook新闻算法。(Baker,2016)
算法偏见,内容隐视与网络帝国主义(Algorithmic Discrimination, Content Invisibility and Net-imperialism)
另一方面,一些学者仍然将过滤泡沫视为算法(Lan,2018)的“原罪”,其中主要讨论了算法偏见,内容隐视与网络帝国主义对过滤泡沫产生的影响。
首先,算法偏见。Boyd,Levy和Marwick认为,算法可以识别用户的网络,预测他们的在线行为,然后有偏见的对待用户,与预测用户未来的平台使用潜力(Boyd,Levy&Marwick,2014)。此外,图罗更注重“算法带来的市场歧视”(图罗,2006)。Graham、Hayles、Thrift和Turow也从类似的角度论证了这个术语,即计算机算法通过向用户提供特定内容,加快了“机械化基础”和缺乏“人类自由裁量权”(Graham,2004)。
其次,内容隐视。Taina Bucher认为算法可能对一些内容造成威胁(Bucher,2012)。正如约翰·B·汤普森(2005)指出的那样,内容能见度从根本上受媒介本身的中介和影响,泰娜·布歇尔认为“过滤气泡”实际上是一种“局限信息”的形式,这不是一种全新的现象。他还引用了马歇尔·麦克卢汉的著名理论“媒介就是信息”(McLuhan,1964),论证了在新媒体时代,算法媒介是“使具体的信息可视化,并在一定方向上控制信息可见性的方向”。此外,其他学者也有类似的讨论,比如Taylor提出“Facebook的排名算法拥有内容的曝光度与极限程度”(Taylor,2011)。
第三,网络帝国主义。学者们认为算法带来的过滤气泡在一定程度代表了“权力的流动”(Beer,2009)。2007年,Scott Lash使用“新媒体本体论”来描述信息已经能够塑造人们的生活方式(Scott Lash,2007)。随后,罗杰·伯罗斯应用斯科特·拉什的工作来解释信息技术,它现在是“包含”或“控制”而非“有机调节”用户的生活(Burrows,2007),这可以清楚地看出学者们对技术力量的强调。此外,一些学者,如奈杰尔,凯瑟琳海尔斯和史蒂夫格雷厄姆从用户的脆弱性开始,说明用户倾向于陷入“技术无意识”(节俭,2005),因为现在的算法增强了其结构和重建人们生活的能力。一些学者试图从平台的获利模型的角度更好地分析这种算法网络帝国主义。Thrift将算法的威力归根为“资本主义的文化循环”(Thrift,2005),Taina Bucher认为Facebook News Feed不仅被设定为“预先存在的文化假设”,其实为平台获利才是根本目的。(Bucher,2012)。
作为总结,现有对算法效果的研究主要分为两种观点:一些学者如Bucher,MacCormick和Thrift认为算法是议程设置过程中过滤气泡的主要原因,而另一些学者如Eytan Bakshy,Lada Adamic,Solomon Messing认为过滤气泡与算法没有直接关系,甚至根本不存在过滤气泡。
事实上,如果像Lan(2018)所建议的那样,如果研究人员将用户的主观能动性与算法的影响完全分开,那么这两种判断可能都趋向于极端,尽管用户的选择性接触(Katz,1968)和自我筛选内容一直存在,但个性化推荐算法的当前议程设置的确在一定程度上增强这种“选择性接触”,从而带来“过滤气泡”的风险(Pariser,2011),这将会带来的后果是过分强调“个性化问题”而不是公共议程。然而,从人们的社会需要来看,在信息传播的过程中,公共传播和公共议程仍然是必要的。
如上所述,如果每个人都只关注自己感兴趣的一小部分被算法推荐的内容,那么他可能对外部世界的了解就会越来越少,这可能导致缺乏一种“共同的视角”,这意味着人们对某些事实的判断将会是不同的,并且很难达成共识。当它们沉浸在“过滤气泡”或“the Daily Me”的形式中时,社会舆论就很难被整合。(Lan, 2018) 此外,无论在传统媒体领域,还是在这个“算法时代”,传播的社会整合功能都不应该消失。能够整合各种人群的公共议程仍然需要达到最广泛的人口,因为它不仅是建立个人归属感的重要工具,而且是联系不同社会阶层和群体的纽带。
总结
从这个意义上说,平台所有者和用户都应该警惕个性化算法可能带来的“过滤气泡”问题。但另一方面,应该认识到,如果使用得当,算法也可能成为破除这些过滤气泡的武器。例如,有时算法需要提供一些”刺耳“的声音,即与用户喜好不一致的内容,以便让用户更好地理解现实世界的多面性(Lan,2018)。此外,还应设计算法来尽可能保持“中立”,通过推送公众信息,使具有公共价值的内容达到更广泛的人群。
“社交媒体是一种幻觉。”(Amanda.T & Max.F, 2018)。面对这种“幻觉”,用户必须明确区分“算法世界”和“现实世界”,而不是无意识地被操纵。本文通过讨论议程设置理论中Facebook反难民暴力的案例,通过分析算法与其可能效果的关系:过滤气泡。此外,社会媒体作为大众传媒的一种形式,应该继承大众传媒的社会整合功能。基于此,算法还应该关注于平衡个性化信息和公共问题,纠正而不是强化社会偏见,并将用户的“the Daily Me”转变为“社会黑匣子”。(Pasquale, 2015)
尽管要真正实现还有许多障碍需要克服,但在这样一个时代,数据和算法逐渐成为成为塑造个人生活的重要因素(Lan,2018),的确需要引起更多的公众的注意,不仅仅是通过对这些现象有着清楚的认识与警惕,同时也应对算法过程中内部权力关系的流动逻辑保持清醒的认识。
Reference
Amanda, T., & Max, F. (2018, Aug 21). Facebook Fueled Anti-Refugee Attacks in Germany, New Research Suggests. Retrieved from The New York Times: https://www.nytimes.com/2018/08/21/world/europe/facebook-refugee-attacks-germany.html
Amoore, L., & Piotukh, V. (Eds.). (2016). Algorithmic life: Calculative devices in the age of big data. London: Routledge.
Beer, D. (2009). Power through the algorithm? Participatory web cultures and the technological unconscious. new media & society, 985-1002.
Bucher, T. (2012). Want to be on the top?Algorithmic power and the threat of invisibility on Facebook. new media & society, 1164-1180.
Boyd, D., & Levy, K., & Marwick, A. (2014). The networked nature of algorithmic discrimination. Open Technology Institute. Retrieved from http://www.danah.org/papers/2014/DataDiscrimination.pdf
Baker, M. (2016, December 17). Filter Bubbles and Bias on Twitter and Facebook.Retrieved from Medium: https://medium.com/quora-design/filter-bubbles-on-twitter-and-facebook-ebf2b10442be
Cohen, B (1963). The press and foreign policy. New York: Harcourt.
Eytan, B., Lada, A., & Solomon M. (2015, May 7). Exposure to Diverse Information on Facebook. Retrieved from Facebook Research: https://research.fb.com/exposure-to-diverse-information-on-facebook-2/
Graham, S. (2004) ‘The Software-sorted City: Rethinking the “Digital Divide”’, in S. Graham (ed.) The Cybercities Reader, pp. 324–32. London: Routledge
Hamill, J. (2018, February 22). Facebook and Twitter are not creating ‘echo chambers’ and ‘filter bubbles’, academics claim. Retrieved from METRO: https://metro.co.uk/2018/02/22/facebook-twitter-not-creating-echo-chambers-filter-bubbles-academics-claim-7334193/
Hayles, N.K. (2006). ‘Unfinished Work: From Cyborg to the Cognisphere’, Theory,
Culture & Society 23(7–8): 159–66.
Katz, & Elihu. (1968). On reopening the question of selectivity in exposure to mass communication. In Theories of cognitive consistency: A sourcebook. Edited by Robert P. Abelson, et al., 788–796. Chicago: Rand McNally.
Lan, P. (2018). 假象、算法囚徒与权利让渡——数据与算法时代的新风险. Journal of the Northwestern Teachers University, 20-31.
Lash, S. (2007b). ‘New New Media Ontology’, Presentation at Toward a Social Science of Web 2.0, National Science Learning Centre, York, UK, 5 September.
Lippmann, W (1922). Public opinion. New York: Harcourt.
Lash, S. (2006) ‘Dialectic of Information? A Response to Taylor’, Information,
Communication & Society 9(5): 572–81.
McCombs, M; Shaw, D (1972). "The agenda-setting function of mass media". Public Opinion Quarterly. 36 (2): 176. doi:10.1086/267990
McCombs, M; Reynolds, A (2002). "News influence on our pictures of the world". Media effects: Advances in theory and research.
MacCormick, J. (2012). 9 Algorithms that changed the future: The ingenious ideas that drive today’s computers. Princeton, NJ: Princeton University Press.
MacKinnon, R. (2018, April 26). F8. User notification about content and account restriction. Retrieved from Ranking Digital Rights: https://rankingdigitalrights.org/index2018/indicators/f8/
McLuhan, M. (1964). Understanding Media: The Extensions of Man. London: Routledge.
Negroponte, N. (1995). Being Digital. United States: Alfred A. Knopf, Inc.
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.
Pariser, E. (2012). Filter Bubble: How the new personalized web is changing what we read and how we think. New York: New York, N.Y. : Penguin Books.
Pariser, E. (2015, May 7). "Fun facts from the new Facebook filter bubble study". Medium.
Pasquale, F. (2015). The black Box society: The secret algorithms that control money and information. Cambridge, MA: Harvard University Press.
Striphas, T. (2015). Algorithmic culture. European Journal of Cultural Studies, 18, 395–412. doi:10.1177/1367549415577392
Sunstein, C. R. (2006). Infotopia:How Many Minds Produce Knowledge. United State: Oxford University Press, USA; 1 edition (July 28, 2006).
Savage, M. and R. Burrows (2007) ‘The Coming Crisis of Empirical Sociology’, Sociology 41(6): 885–99.
Tufekci, Z. (2015). Algorithmic Harms beyond Facebook and Google: Emergent Challenges of Computational Agency. COLO.TECH.L.J, 203-216.
Taylor, D. (2011). Everything you need to know about Facebook’s EdgeRank. TheNextWeb. Available at: http://thenextweb.com/socialmedia/2011/05/09/everything-you-need-to-knowabout-facebook’s-edgerank (accessed 3 February 2012).
Tonkelowitz, M. (2011). Interesting news, any time you visit. The Facebook Blog. Available at: http://blog.facebook.com/blog.php?post=10150286921207131 (accessed 3 February 2012).
Thrift, N. (2005). Knowing Capitalism. London: SAGE.
Thompson JB. (2005). The new visibility. Theory Culture & Society 22(6): 31–51.
Turow, J. (2006). Niche Envy: Marketing Discrimination in the Digital Age. Cambridge: MIT Press.
Zuckerberg, M. (2018, Jan 1). Facebook. Retrieved from Facebook: https://www.facebook.com/zuck/posts/10104413015393571
Comments