facebook情绪渲染的真实背后

标签:Facebook情绪渲染

访客:22983  发表于:2014-07-08 14:20:47

【导读】数据永远只能告诉你已经发生已经过去,那些确定无疑的信息,但是不确定的未来还是会被我们这一代又一代的人创造出来,而这些,只能依赖直觉。

facebook情绪渲染的真实背后

近日facebook被各大媒体指责,其“渲染情绪”实验在人的动态信息中加入了测试数据,随后研究团队声称根据其测试结果表明,他们所控制的变量确实按照预期引发了他人不快或者愉悦的反应。

那么对此,我希望能够谈些有价值的事情。

第一, 我们是否早已被操控?

我们现在假设facebook的算法可以随意控制我们的情绪,只要在信息流中加入干扰信息,就可以左右你一天的情绪,那么你将被facebook统治。

第一种观点也是最常见的,facebook面临大量的指责,各大报纸对其展开批评 ,这违反了伦理道德,用户不应当是facebook的小白鼠……

再说第二种观点,这个观点就是,如果修改算法修改界面上的元素就算是操控,那么从电视时代的广告,就已经开始群体心理操控了,而随后的互联网广告,谷歌不断调整算法的关键词广告的投放,图片广告的诱人点击的图片,各种性暗示,各种勾起人性阴暗面的广告词难道就不是一种操控?

换句话说,媒体与大众永远是一种操控的关系,而facebook的这种行为并没有任何不妥,“渲染情绪”自古就有,报纸广告早就在做,电视媒体早就在做,谷歌早就在做,只不过拥有更多用户隐私的facebook显得更加尖锐而已。

用户当然不应该是小白鼠,因为这是假象,其实我们一直活在操控中,所以在电视媒体横行的时候,福柯就说这是一个比极权更没有自由的时代。

很不幸的是,现在比以前更是如此。

第二, 真相—数据的信号与噪声

纽约客在本次事件后发表了一篇文章,澄清了这次结果并不是像facebook说的已经感染到了大众,实际上真正的结果是

在这种语境下,人们并没有变得更开心,他们试图想借由自己内容积极的消息出人一头——或者至少显示出他们没有落后。当积极的内容减少之后,人们的幸福感可能并没有减少——他们可能只是觉得不太需要去为了与好友保持步调而自我夸大了。如果 Facebook 的研究能够说明什么问题的话,可能只是告诉我们当在一个社交群体时人们会做出模仿他人的举动而已。
研究结果描述篇幅较少的一个发现能够支持这一理论:当人们读到的情绪化内容较少时,他们发布情绪化内容的机率也会减少。
而这说明了facebook的结论并非正确,只是为了引起媒体关注。

这里我再谈一下信号与噪声,当我们过渡倾向于一种结论时,就会将所有数据往自己倾向的结论去倾斜,最后得出一个自以为正确的结论,这种错误叫做“过度拟合”,误将信号当成了噪声,而facebook此次就犯了类似的错误。

无穷多的数据也会给我们带来无穷多的噪声,我们需要寻找的是信号,这种信号才是真正的价值所在。目前的可穿戴设备就属于噪声阶段,能够提取的信号非常之少,比如去年一直很热的智能手环就是一个非常好的案例,为用户提供了一大堆数据,但是用户根本不知道这些数据有什么价值,而生产商也不知道,所以新鲜一阵也就过去了。

要知道,数据永远只呈现相关性,而不是结论。

第三, 撒谎的数据源

谷歌的疾病大大数据预测虽然在09年的预测上做出了漂亮的成绩,但是在2013年的2月谷歌流感趋势被媒体大量批评,原因就在于其数据总是偏高于真实的流感数据,并且越来越不准确。

让我们分析下谷歌利用大数据预测疾病的思路,谷歌利用定位系统,分析出用户所在区域,此外谷歌再锁定相关关键词,这样当用户搜索某些与特定疾病的关键词时,谷歌就能准确发现,当某地区的某个关键词搜索升高时,谷歌会发出预警,提示这里可能会有的流感。

很遗憾的是,从09年以来,谷歌在大数据疾病预防上的成绩一路下滑,这里的原因不仅有算法上的,更重要的是还有数据源的问题。

1, 当运营商的地理位置出现问题时,谷歌收集到的信息就是错误的,。

2, 搜索疾病关键词的用户不一定是患病用户。

3, 关键词的搜索的全名匹配和相关性匹配问题会导致谷歌出错。

4, 搜索算法会影响用户搜索习惯,导致数据错误。

于是我们可以总结出,仅仅凭借关键词是无法直接得出真正有效的结论的,facebook也同样如此。

这些数据源都存在一定问题,谷歌在大数据疾病预测的结果上还可以寻求实证,但是本次的facebook的结论就没有任何的实证依据,根据所获得的部分信息去推导一个结论是完全错误的。

数据不会撒谎,是我们无法忍受不确定性而对自己真诚的撒谎并且相信而已。这也是萨特所说的自欺。

第四, 通过更改算法facebook可以做什么?

1, 留住用户。Facebook声称此次的测试是为了留住更多的用户,但我觉得完全是废话,任何一个涉及到信息流的网站都在每天更改大量的算法来为用户寻求最佳的体验。谷歌百度每天都在做,推特,微博,淘宝,相亲网站……

关于用算法留住用户,已经是目前大型网站都必须做的事情了。

2, 做实验。这里的实验应当分为两种,第一种就是本次做的,通过修改算法然后观察用户在网站上所产生的信息结果。第二种就是通过修改算法,去观察现实当中用户所产生的结果,就如同谷歌的大数据疾病预测那样,但谷歌不同的是,谷歌并没有为预测疾病而去更改关键词结果算法,只是不断的修改用户搜索结果后的疾病出现概率的算法,并没有刻意去影响用户行为。

第一种一直是facebook都在做的事情,修改算法观察结果。但是第二种则是需要花极大的精力去做,并且还要为结果负责,期待facebook的表现。

结语:facebook把我们都耍了,这或许是在刷存在感的表现。社交产品朝生暮死,用户永远是追求新鲜追求好玩的,facebook腰斩1/3的股价买下whatsapp就是恐惧的佐证。

数据永远只能告诉你已经发生已经过去,那些确定无疑的信息,但是不确定的未来还是会被我们这一代又一代的人创造出来,而这些,只能依赖直觉。(via 百度百家 作者:承哲)

评论(3)

您可以在评论框内@您的好友一起参与讨论!

    1. 黄小东 当我们过渡倾向于一种结论时,就会将所有数据往自己倾向的结论去倾斜,最后得出一个自以为正确的结论。这种情况已经多次发生过了,实际上就是我们在戴着有色眼镜去看这个世界,这个世界当然就是我们希望看到的颜色了

      回复[0] 2014/07/08 15:44

    1. 钟况况 数据永远只呈现相关性,而不是结论。所以选错了相关性,得出的结论一定不正确,有时还会产生实持上的迷信结果

      回复[0] 2014/07/08 15:37

    1. 童其中 媒体与大众永远是一种操控的关系,所以谁也别说谁了。没有大众的偏好,Facebook会做这个吗?

      回复[0] 2014/07/08 15:31

<--script type="text/javascript">BAIDU_CLB_fillSlot("927898");