首页
 > 

站长资讯

 > 正文

你被过滤泡泡包围了

  • 编辑时间: 2020-05-19

199IT数据中心微信账户:i199IT

一个月前,《连线》杂志的撰稿人马特•霍楠(Mat Honan)在Facebook信息流里做了一个试验:依次#对他喜欢的、讨厌的甚至◈痛恨的内容点赞,看会出现什么样的效果。至于Facebook在点赞之后给的新推荐内容、新闻报道、优惠券、亚马逊促销,他也都点了赞。

一小时之内,奇妙的事情发生了,马特的信息流里全都是品牌推广和广告消息;来自Upworthy和《赫芬顿邮报》的内容也到处泛滥。之后他开始给加沙冲突的内容点赞,比如支持以色列的消息,第二天他的信息流内容完全转向极右……他继续点赞,信息流就像洞悉他喜好的精准机器,推荐所有他“喜欢”的内容。

互联∏网诞生之初是〾开放的,只要有了网络我们就连接了整个世界々。但随着推荐引擎越来越智能化,互联网的发展越来越偏离互联网之父蒂姆•伯纳斯-李的初衷:现在的互联网世界已经被“过滤泡泡”包围。

所谓“过滤泡泡”(The Filter Bu▌bble),从狭义讲,就是互联网服务根据你的个人特征、行为和在互联网上的社会关系,做出的☏个性化内容定制。比如,Google的个性化搜索、微博的个●性化内容推荐、亚马逊和Netflix根据你的消费记录做的个性化推荐、微信朋友圈,甚至你在伦敦听U2音乐会时,会在自己的Twittπer中被精准推荐一个带有U2的描述文字和图片的Spotify。没错,你使用的主流互联网服务,无论国内国外,都一样。唯一不同的是,国内的“过滤泡泡”演化速度要慢一点。

“过滤泡泡”设计的初衷是典型的“互联网思维”驱动,或者更准确一点说,是用户导向驱动。它的逻辑是:如果我足够理解用户,那么我应≌该推荐用户感兴趣的内容。判断的依据也有很直观的衡量标准:点Ы击率。点击率是一个好东西,它完美平衡了用户和公司的共同利益:点击率高,不仅说№明用户喜欢,还让用户更依赖这个互联网服务,商业广告也能获得更好的收益。以制作《纸牌屋》而股价大涨的Netflix为例,用户租借的影片中,有60%来自系统算法推荐;Netflix能预测用户对某部片子的评分,误差范围不会超过半颗星。真是一个完美的商业模式,我们只需要不断改进算法,给用户推荐他们喜欢的内容,就皆大欢喜了。这也解释了,为何过去五年来,国内国外传统编辑部在一个一个地解散。

“过滤泡泡”致力于为所有人打造一个专属的个性化世界。人们享受它给人带来的好处,却很难注意到这个专α属于自己的小世界背后╱╲所隐藏的风险。这些风险,正是Eli Pariser通过《Th∽e Filter Bubble》一书所极力想⊙警示用户的:

在“过滤泡泡”的世界,使用者醉心≮于消费内容,让搜索引擎产生误解,以为真的掌握人心; 使用者只接触“过滤泡泡”们精心定制的内容,定制化意味着失去一般性,这些内容无法反映真实世界的样子,只能呈现特定的狭隘观点◇。对于人类来说,只用这样的观点面╳对世界,恐怕会产生极为扭曲的认知; “过滤泡泡”把相似的人、事、物聚在一起,将整个网络切分为无数片段。

研究表明,身边的人思想和自己差别越大,越能培养眼界开放、心胸宽广的心性。双语人往往比单语人更有创意;和外界互动的员工通常比只和同事互动的员工更懂得触类旁通。如果每个人都只跟自己相近的人往来,不与相异的人接触,将造成这个时代的种族隔离与近亲繁殖。可惜的是,“ㄨ过滤泡泡”的设计原理与多元≠思想、多元族群的理念背К道而驰。接触异己能开放见识,而活在“过滤泡★泡”里的我们会错过这一类的好处。

最近,皮尤研究中心发表了一份针对社交媒体的研究报告,称社交媒体降低了人们表达意见的可能性,尤其是当‥他们认为自己的看法与朋友¤不同时。人们在社交媒体上讨论不同观点的情况甚至比线下世界还要低。比如愿意在家庭饭桌上讨论敏感问题的占40%,而愿意在Twitter上讨论的比例最低,只有14%,⿹非常不愿意的人占到了40%。§人们忌讳在与自己相似的人群中发生观点冲突。≈

这份报告从另外一个角度证明了人们在“过滤泡泡”的世界中会走向趋同:如果Facebook用户认为,自己在该≤网站『上的好友同意自己的立场,他们参与讨论的可能性就会增加1.9倍。有趣的是,受教育程度较低的人更有可能在Facebook上畅◄所欲言,而受教育程度较高的人,则更倾向于在Facebook上保持沉默,却在家人或朋友中表达自⇔己的观点。

随着个性化程度的深入,人们除了更不愿意在社交网络上表达自己真实的观点,媒体的未来也可能和你我的期望有所出入。从互联网早期∮开始,推广互联网的人士就断言,互联网۩..是一种主动性@的媒体。“看电视的人基本上是想让大脑休息,想动脑的时候改用电脑。”这是2004年乔布斯接受“Macworld”采访时表达的观点。十年后再回过头来审视,乔布斯的じ看法未免太乐观了。个性化过滤越精良,我们就越不需要费力去挑选节目。比如我在YouTube|︴()〔〕上看过几次CoC(一款手机ↆ游戏)的教程、Apple的广告、Facebook和Twitter关于广告产品的视频之后,再打开YouTub∧e,前面整整四屏内容全都与它们相关。

这也推导出了“过滤泡泡”的最大隐忧:经常自动清除知识地图上的空白处,把用户自知的未知变成不∈知的未知。阅读报纸的人习惯略过︰大部分新闻,只精读自己感兴趣的消息,但即使对国际政治不感兴趣,你仍会在浏览中知道“ISIS是一个恐怖主义组织”,由此将一个不知的未知转化为自知的未知。

最优良的工具是让资讯版图上的用户具有方向感,比如让读者知道自己站在图书馆的哪一区╝。由于个性化过滤器通常没有拉♂远镜Ⅶ头的功能,使用者容易迷失方向,明明站在一?块多元文化的大陆,却认定自己置*身一座狭隘的孤岛。现在,“过滤泡泡”正在让人们在信息地图中迷失。

你的身份塑造你使用的媒体,遗憾★的是,这种逻辑有一个致命缺点:媒体也会反过来塑造你的身份。这种情况非常像自证预言(Self-fulfilling Prophecy):当人们相信某件事情会发生(事实上那件事情并不见得一定会发生),那么此事最终真的发生了。这是美国社会学家罗伯特•金•莫顿提出的一种社会心理学现象,他用银行挤兑的例─━子说明自证预言的作用机理:一家银行本来运作正常,但不知为何开始有谣言说这家银行要倒闭了。流⊕言越传越广,越来越多的人信以为真,开始有人跑到银行把自己的存款提走;进而恐慌开始散布,并且变得真实,更多的人冲进银行提走自己的存款。最终,挤兑发生了,银行真的倒闭了。我们现在即将进入自证预言的时代——互联网误判我们的特质,而这些错误的特质进而成为我们真正的特质。

正如麦克卢汉所说,“我们塑造了工具,最后工具又з反过来塑造我们。”在信息世界,这句话同样适用:我们塑造了媒体,媒体又反过来塑造我们。

摘自: 商业周刊