互联网快速发展的同期,酬酢媒体信息茧房、群体极化等征象愈发受到关切。一种声息以为算法是形成这些征象的罪魁首恶,事实能够并非如斯。近日,天下巨擘学术期刊《Science》刊载著作《不要责骂算法:酬酢媒体可能天生就存在南北极分化》,先容了来自阿姆斯特丹大学逻辑、说话与贪图琢磨所的最新琢磨论文和后果。论文自满体育游戏app平台,即便莫得算法,酬酢媒体也会存在极化征象,甚而算法能弱化顶点声息。
论文中,琢磨团队搭建了一个莫得个性化算法推选机制的极简版的酬酢平台,只保留发帖、转帖和关切三种最基础的功能,并参加了500个带有“东谈主格设定”的聊天机器东谈主。这些机器东谈主基于大说话模子和AI智能体运转,领有固定的东谈主口学属性,比如年纪、政事态度等,可模拟酬酢媒体中的发布、转发与关切等活动。
斥逐自满,这些聊天机器东谈主经由5万次解放互动后,速即分红了阵营:态度接近的相互关切,不同态度真实莫得交加,中间派被孤单在边际;小部分“大V”账号取得了大部分粉丝和转帖,防护力辨别不平衡;与此同期,态度昭着甚而偏顶点的内容传播得更快更广,越顶点的不雅点越容易扩散。
为了尝试处罚这些问题,琢磨团队测试了六种节略的烦闷纪律,包括仅定本领规定展示帖子,而非基于参与度展示。他们还测试了所谓的反算法,即向用户展示参与度最低而非最高的帖子,或者向用户展示抒发与他们本身相反政事不雅点的帖子。这些要津齐莫得十足收效,有些本质上还加重了极化进程。
这一实考据明,酬酢媒体被诟病的三大乱象——信息茧房、影响力集会于少数、顶点声息被放大——并非算法推选导致,而是根植于东谈主们的相聚酬酢活动。“说真话,我有点失望,”该论文琢磨员之一托恩伯格坦言,“这本来应该是一篇乐不雅的论文。”
实验斥逐驳斥了近期国内一些自媒体中流行的“算法搬弄”“笨蛋共振”等说法。所谓“算法搬弄”,指算法给不同群体推选有偏见的不雅点内容,如男性用户刷到“顶级家庭男东谈主说了算”,女性用户刷到“男东谈主不交工资卡即是不爱家”,制造家庭成员之间的对立。“笨蛋共振”则形色一群东谈主因为伪善的不雅点麇集在全部,在算法的推选下相互招供、相互强化这个不雅点,松弛形成了阻塞的领悟环境,共同传播过甚言论。这些不雅点,一致将算法认定为酬酢媒体极化征象的根源,与实验斥逐违反。
事实上,这一琢磨斥逐并非孤例。来自多所高校的学者,进行了一项针对23377名好意思国成年Facebook用户的琢磨,该琢磨实验通过算法烦闷,将实验组用户来回的同质态度内容(与本身政事倾向一致的信息)披露量镌汰约 1/3,发现实验组与未烦闷的对照组在悉数八项极化倡导上均无统计学权贵互异,评释算法烦闷对极化莫得影响。
另一篇刊发于《Nature》的论文也自满,酬酢媒体的极化进程与用户使用时长无关。论文中,来自多伦多大学贪图机系的琢磨团队,分析了酬酢平台Reddit 14年间推测51亿条挑剔。琢磨发现,2012-2015年,Reddit的政事极化进程沉稳,但在2016大选年,平台政事极化进程骤升,且主要由已往新增用户的极化带动。这评释用户极化进程与平台使用时长无关,极化受外部现实事件驱动,而非平台专家为积存。
为什么会存在酬酢媒体极化征象?中国传播学学者刘海龙在为好意思国杜克大学社会学、政事学与全球战术教练克里斯·贝尔所著的《突破酬酢媒体棱镜》一书所作的序论中暗示,东谈主们会掩盖相反的不雅点和个体,这稳妥经典的领悟不协爱护论所讲解的东谈主类人性。该书还通过实考据明,即便让测试者在酬酢媒体中来回对立不雅点,也并不会使其变得更为良善和感性,反而会促使其讲解我方是正确的,变得愈加顶点。
因此体育游戏app平台,酬酢媒体茧房、极化等问题并非算法形成,而是古已有之,根植于东谈主性与东谈主类社群。实考据明,即便莫得算法,酬酢媒体相似会存在极化征象,偶然还会愈加顶点。正确看待算法,认清酬酢媒体极化征象的骨子,能够进行有用反念念,才是减少酬酢媒体极化的要害。
