News

评论区不能被算法“控制” 今豫网言

  同一视频的评论区,不同的人看到的内容竟截然不同。一些视频中,你点开评论区,全是支持的声音;他看到的,却是满屏反对的留言。

  这不是巧合,更不是系统漏洞,而是平台算法精心设计:精准识别用户偏好,过滤异质信息,投其所好,实现成瘾性内容精准推送,让用户沉浸在“太懂我了”的依赖感里,也悄悄将其困进了看不见的“信息茧房”。

  多位网友曾发过类似视频,将同一视频作品用不同账户打开,评论区不一样。有博主咨询平台客服,给出的解释是,确实会根据职业、性别、偏好等推荐评论,也会对评论区广告投流、不文明用语、煽动暴力等内容进行屏蔽干预。种种规定,导致同一作品下,不同用户看到的评论区可能不一样。

  在互联网信息传播中,人们更容易也更倾向于选择志同道合的言论,排斥与自己意见不合的声音,由此形成较为封闭的认知空间,这也是传播上的“回音壁”效应。

  社交媒体、电商平台设计算法,迎合用户偏好,千人千面推荐信息,实时搜集用户偏好不断调整推荐内容。所谓的赞、踩,转发、评论,都代表着一种态度。平台设置这些按钮,看似是增强互动,客观上也有利于快速实现用户画像,然后再通过精准投喂,正向反馈,让用户觉得“懂我的人都在这”。可以说,这种现象产生的根源在于平台趋利性。

  平台介入评论区管理,确有必要。一些不文明现象,如饭圈粉丝拉踩、骂战,开盒网暴,评论区往往是重灾区。及时规范网络行为,有助于建设清朗网络空间。但是,规范不是屏蔽多元声音,设置单一立场或观点的理由。网友们的疑惑,在于边界和标准是什么。

  加大群体对立情绪。助长信息茧房,只是定制评论区的初步影响。通过评论区的个性化推荐,将反对的评论屏蔽,让持不同意见的人看不到对方,像人为地竖了一道墙,强制把不同观点的人分开,表面上是一种解决对立的方法,但从长远看,也会让人产生错觉——和我持相同观点的是大多数。这种对立并不会消失,而会找到机会再碰撞,激发更大的对抗。

  极化意见影响青少年价值观。青少年对问题的理解往往并不深入,三观尚处于形成期,在没有了解事情全貌的前提下,可能被极化的观点牵着鼻子走。普通人也容易被裹挟其中,不知不觉中成为情绪放大器的一分子。真相变得不重要,情绪、站队主导,“后真相”效应更加凸显,舆论生态变得更加复杂。

  损害平台公信力。平台因社交而起,也因聚拢相同爱好的人而勃兴。分享美好生活是人们初衷,绝不能因为观点不同而互相伤害。不同的人看问题角度不同,观点不同实属正常。但不同群体的网络对骂,看似热闹,却无助事件解决,隐患多多。如,西贝餐饮创始人贾国龙和网络名人罗永浩的线上“隔空约战”,就被微博平台及时叫停,这是平台建设明智之举。

  不是不让表达观点,而是要在平和、理性的状态下各抒己见。评论区亦如此,刻意设置成单一立场观点,对公众知情与表达都是一种侵犯,也实质损害平台公信力。

  从连续开展网络专项治理行动到出台《互联网信息服务算法推荐管理规定》再到发布《网络名人账号行为负面清单》,国家层面治理互联网乱象行为越来越深入,效果显著,制度笼子越织越密,就是为了更好地凝聚共识,创造健康向上互联网空间。

  对社交媒体平台的监督应实时更新。当平台利用算法规则横扫市场时,监管部门的手段也应迭代升级,运用人工智能、大数据追踪平台热点事件,及时将走偏的舆论导向拉回来。监督是全方位的,将平台算法行为及影响纳入社会责任考核,对那些放任群体对立平台要及时约谈,对一刀切粗暴禁声也要叫停,让多元声音观点有碰撞,但不激发对抗。

  平台企业要适度公开算法规则。算法不能变算计,更不能用来作恶,变成黑洞。透明公开是消除质疑最好的策略,平台企业应切实履行责任,综合运用内容去重、打散干预等策略,不极化检索、排序、选择、推送等行为,避免对用户产生不良影响,预防和减少争议纠纷。平台也要切实完善算法,减少用户沉迷,避免信息过载。

  对于个人而言,加强媒体素养是必修课。互联网时代,各种信息泛滥成灾,个人要善于聆听不同的声音,也要善于在对比中提高自己的鉴别力,尽可能在了解事件全貌后下结论,避免被单一信息源误导,尤其不盲从网络名人、明星,“兼听则明、偏听则暗”始终是接近、了解真相的硬道理。个人在网络上表达观点,不仅要遵守法律法规、平台规则,也要注重保护个人隐私。在App隐私选项下,轻易同意平台企业搜集个人偏好,也是一种隐私暴露,无论是安装或是使用状态,个人都要及时取消平台过度搜集隐私行为,这对自身也是一种保护。拒绝算法裹挟,也是一种人间清醒。

  算法不应是制造“回音壁”的工具,打破算法黑箱,推进算法透明,让用户有对“定制”内容说不的选择权,我们才能真正走出“信息茧房”,让网络空间回归多元本真。