井底之蛙

图片 1

他写这本书是在 2001
年,那时的互联网世界以今天的眼光来看还只是一片荒芜。那时还没有订制广告的商业模式,也还没有订制的网络电台和订制的搜索结果页面,没有占据社会中心地位的社交网络平台,「拉黑」这个词还不不存在。

Cass Sunstein 在 《Republic.com》
这本书里谈论过一个话题:让每个人只看到为他的偏好所定制的世界,会不会导致社会的分崩离析?他的论点是:社会的整体自由依赖于一个公共的讨论平台的存在。对每个人来说,他们都需要在这个公共的环境里接受别人的讯息,这些声音也许刺耳,也许粗糙,但是这个彼此磨砺的过程是维系社会的必要条件。在传统社会里,尽管每个人的观念不同,但大家看到的世界至少还是同一个模样,这逼着大家学会忍耐这个世界里和自己的观念不符的部分。而一旦每个人可以定制自己的视野,他就会放弃倾听、宽容和讨论的责任,只是躲在自己的天地里任性地选择自己喜欢的声音。长此以往,每个人都会沿着自己的方向走向极端,他把这个过程称之为社会的极化(group
polarization)。

他写这本书是在 2001
年,那时的互联网世界以今天的眼光来看还只是一片荒芜。那时还没有订制广告的商业模式,也还没有订制的网络电台和订制的搜索结果页面,没有占据社会中心地位的社交网络平台,「拉黑」这个词还不不存在。

而今天所有这些都有了。

附上我在知乎上回答问题:如果英剧《黑镜子》拍第三季,你来写一集剧本策划,你想写一个什么样的故事呢?

解释下,个性化推荐算是搜索引擎的一个延伸,它省略了用户输入关键词和在检索结果页面选择的步骤。也就是说,个性化推荐的本质是一个模糊场景下的模糊检索,对于获取信息的效率来讲提升是肯定的,但是因为缺少用户的输入环节,也会导致程序每次给出的结果都相较之前范围更窄。

以前我们说到克隆,那么复杂的生物技术和DNA之类的会是难关。但是,一个人存在的证据是什么?无非是他说什么话做什么事。那么像黑镜一样,在社交网站上得知他的所作所为,得到这样一个大的数据库,可以模仿并一定程度预测,那么这个人就被制造出来了,制造一个人,不用制造他的本源(受精卵),只要知道他成熟之后怎么表现。

前些天翻到一篇旧文你在 Facebook
上一直点赞,一直点一直点,会发生什么 

因此想起木遥的一篇日志
http://9.douban.com/site/entry/339924616/

Eli Pariser写过一本书《The Filter
Bubble》,大致观点是互联网产品在努力的做的个性化服务,在限制我们的视野,而非拓展。互联网看似开放透明,可以把所有知识信息展示给所有人,但在信息爆炸的当下,信息处理成了我们最头疼的问题,这个时候,我们就需要各种各样的Filter,来过滤掉我们不喜欢的东西。

我突然想到,对呀,人怎么会只是我们看得到的人呢?一个人怎么会只等于他所作所为?那是功利性的评价,不是人性的。一个完整的人,正常的人,是不可能全部表现的。克隆这件事,还得从DNA开始做起。

当然,我知道这不是个性化推荐或者说工具的锅。我们都喜欢自己喜欢的,并不关心信息从哪些渠道而来;至于对这个世界的认知,同样存在“可得性偏差”,以自己每天接收到的信息来推测这个世界是怎么运行的。翻一翻,现在还能找到过去很多呼吁人们从电视机前离开的新闻。但是,人每天看电视时间的峰值也就几个小时,而移动互联网时代的你我,可是永不下线~

世界从此安静修改

图片 1

“让每个人只看到为他的偏好所定制的世界,会不会导致社会的分崩离析?他的论点是:社会的整体自由依赖于一个公共的讨论平台的存在。对每个人来说,他们都需要在这个公共的环境里接受别人的讯息,这些声音也许刺耳,也许粗糙,但是这个彼此磨砺的过程是维系社会的必要条件。在传统社会里,尽管每个人的观念不同,但大家看到的世界至少还是同一个模样,这逼着大家学会忍耐这个世界里和自己的观念不符的部分。而一旦每个人可以定制自己的视野,他就会放弃倾听、宽容和讨论的责任,只是躲在自己的天地里任性地选择自己喜欢的声音。长此以往,每个人都会沿着自己的方向走向极端,他把这个过程称之为社会的极化(group
polarization)。

马特开始在信息流里依次对内容点赞。有喜欢的,有他讨厌的,甚至痛恨的。他都点了。至于
Facebook
在点赞操作之后给出的新推荐内容,他也点了。接着是一些新闻报道,优惠卷内容,亚马逊促销。他都点了赞。

接着,在很短的时间内,奇妙的事情发生了,一小时之内,马特的信息流里面已经没有人类的踪迹了。全都是品牌推广和广告消息。

与此同时,来自 Upworthy 和 Huffington Post
的内容也到处泛滥。在试验的第一晚,马特看了一下他的消息流,从上到下依次是:Huffington
Post、Upworthy、Huffington Post、Levi’s 广告、Huffington
Post、Upworthy。

在睡觉之前,他想起来自己应该点赞些关于加沙冲突的内容。于是他点赞了一条支持以色列的消息。转天早上,他的信息流内容完全转向极右。他还是要继续点赞,当然。于是他又点了第二修正案和反移民法案的页面。

马特发现即便是在同样的时刻,Facebook
的移动端和桌面端页面内容是不同的。在移动端上几乎没有和人相关的消息,都是网站内容或者广告什么的,而在桌面端——虽然也充斥着品牌推广内容——仍旧能够看到好友动态。显然,在移动端寸土寸金的屏幕上,Facebook
想要将用户的注意力放在从人的身上挪开。

当试验进行到第二天的时候,马特的 Facebook
内容已经变得面目全非了。系统给他推荐的全是极右翼的内容,他已经担心自己会上黑名单了。

发表评论

电子邮件地址不会被公开。 必填项已用*标注