文/无所谓
今天,我想聊一下关于大数据算法。为什么想聊这个话题呢?前两天看一个视频是一位美籍up主用中文讲述关于美国最近动乱的观点。
其中一句话特别引我注意,他这样讲:“另外一个问题是,媒体平台用一个算法,只给你看和你的想法一样的东西,这个会让你越来越extreme,因为你没看到objective的东西。”
五年前,我给我妈买了款智能手机。当时,我妈原话是:“手机就打电话来用,买那么好干嘛?”我的回答可能和很多希望父母更多了解世界发展变化的儿女一样,“哎呀,妈,你可以上网啊,下载软件玩,了解你想了解但不知道的东西。”妈妈也“哎呀”,“行吧行吧”不以为然,并不放在心上。如今,我妈的主要日常生活活动可以总结为:“买菜+煮饭+手机”。
当抖音开始流行时,我站在“贬视”的对立队潮中,而更愿意推荐知乎这样的“高大上”平台。鄙视什么呢?流行时间太长,而没有可创新的深度系统体现,容易达到审美的疲劳,甚至厌恶。但直到知乎也开始“流行”推送。你就无法快速找到一个可推荐的平台了。再直到这次“天灾人祸”,无人的街头,网络的热情,平台的内容创新不断扩大,用户数据不断累积迭代。就这样,呈现了一个巅峰式的大平台,算法就更精准,更创新,更优异了。
但也更致命,这是把新双刃剑,而“双刃剑”是需要特别被看待的。
美国抗议活动中,一位未成年的16岁黑人用愤怒,抢劫,暴力来宣泄世界带给他的情绪,他很突出,被路人教育,这样的场面被拍到网上。这样的画面,对话想要让谁来思考呢?思考什么呢?
“给你想看的”,这一句话真的很匪夷所思,用哲学的思辨思维反问:“我们真的知道自己想看什么吗?”当一个人的宽度不广,境界不高,悟性不深,那么就会变得容易固执。“你连世界都没有观过,哪来的世界观”也略能浅显表达该意思。“世界观”、“想看的”都会有,但可能不是真实的、是经挑选的,甚至是坏的,腐烂的。你不知道什么是你想看的,算法帮你,但帮完了之后,它就走了,它恶狠狠地告诉你,“就呆在里面吧,永远都别想出来,你很快乐的”。
那有人会问,世界观不就是应你所见吗?想看的不一定被挑选吧?我觉得这两个问题很有意思,但我不会回答,也可能答不好,需要你自己来悟出答案。但我知道,世界不是只有一个世界。
原来,国外的媒体平台也是这样的算法。看样子我们活在同一个世界。
在不断深度联系的世界,我们乐于为了让自己的每天过得有意义。于是,那些算法就“赋予”了你意义。你跑不开,挣不脱,强行挣脱,也许“皮骨”都要撕裂、扯断。明明更自由的现代网络大世界,但却上了枷锁,这显得很讽刺。但对于营利性公司来说,这是荣耀。强大的流量,丰厚的获利,而这一切最后都要让社会为之买单。想想吧,每个人活在自己狭隘的世界观中,活在自己想看的画面,想体验的情感中,而这样的一些人再经受传播者的蛊惑,于是双刃剑变成了大炮,指哪打哪。
社会就像是平台的平台,它所承担的责任是绝对的,不容任何个体,任何集体去挑衅,因为我们活在其中。
在不断更新的算法,不断裂变的利益面前,先让社会中的用户更自由点,如果用户无法体会自由、悟,那就请提醒他:你需要自由,你需要现实的真相。
多年以后算法始终不能体会人类的悟,但它应由人类的悟去提醒算法使其提醒我们自己去领悟。那时,算法会帮助我们更容易变得优秀,变得优异,而不是混乱,不是战乱,正如我妈的肥胖。
左岸记:1940年科幻作家阿西莫夫为保护人类对机器人做出了三条规定,史称机器人三原则:
第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观;
第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾;
第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。
在大数据不断应用到我们生活中的今天,大数据算法本身就具备了机器人的一些性质,那在算法设计上,应该要完善一条原则,不能让人类因为方便而陷入更加偏执的认知当中。
算法可以知道你喜欢什么,但你喜欢的很可能是错误的,那么算法应该可以做一定的补充修正,以让人的认知更全面,而不是一味地投其所好,让偏见更偏见,让无知更盲目。