碎片化时代,网络平台是民主的推手还是绊脚石?

近年来,社交媒体从曾经的“数字市政广场”逐渐演变成充满噪音的舆论场,各大平台在流量与公共责任之间挣扎前行。而如今,人工智能的兴起让这一趋势愈演愈烈,自动生成的内容泛滥,让真假信息难辨,公共讨论空间的内容更趋碎片化。

相关内容
时事通讯:瑞士媒体里的中国
目前,各大网络平台面临舆论压力,人工智能可能会让互联网内容泛滥,关于构建和谐数字公共空间的宏大理想,是否已然化为泡影?
对于一个粉丝不足5’000的人来说,退出社交媒体平台X,通常不会成为新闻。但如果此人是瑞士内政部长,那情况就大不相同。当伊丽莎白·鲍姆-施奈德(Elisabeth Baume-Schneider)在2024年10月发布最后一条推文,直言X“发生了深刻变化”,她已对平台上的辩论文化感到厌倦时,这番话自然不会无人问津。
这位左翼政治家的退出,实则是在顺应全球趋势。2022年,埃隆·马斯克(Elon Musk)收购X后,曾承诺将其打造为一个“温暖、包容所有人”的“数字城市广场”。然而,到2025年1月,瑞士政府的一个顾问小组却发出警告:X,Facebook、TikTok等大型平台,凭借其强大的商业影响力与舆论塑造能力,正在对民主本身构成威胁。
伊丽莎白·鲍梅-施耐德退守更温和的Instagram
过去两年,X平台上的仇恨言论有所增加,语气也变得粗暴。部分原因在于审核规则的放松,部分则源于文化环境的改变。这一变化再次引发了关于“体面的网络公共空间”究竟该是什么样子的讨论。马斯克的大刀阔斧改革,以及Meta近期决定采取的类似做法,对言论自由的拥护者而言无疑是好消息。但与此同时,许多人却选择“用脚投票”,离开X平台,其中包括许多广告主。
然而,对于那些担忧舆论极端化和反民主言论蔓延的人而言,退出X这样的平台,真的能解决问题吗?正如《新苏黎世报》(Neue Zürcher Zeitung)所言,鲍姆-施奈德的选择-从X转向Meta旗下的Instagram-究竟是寻找更理性的对话空间,还是仅仅退守到一个“数字化的门禁社区”?
艾玛·霍斯:回音室中的回音室
“回音室确实存在,但它到底是多大的问题,还不好说。”苏黎世大学数字技术与网络行为研究员艾玛·霍斯(Emma Hoes)表示。
霍斯认为,人们总是围绕“回音室”大做文章,反而可能让它变得比实际情况更加严重,最终陷入一个“回音室中的回音室”。她说:“归根结底,至少有一些研究表明,我们在社交媒体上看到的内容比线下生活更加多元化。”即便是在像Bluesky这样的小众独立社交平台(霍斯的许多同事已转移至此),用户依然会意外接触到自己并未主动选择去看的信息。
但无论如何,如果真的设计一个系统,不断向用户推送与其立场相左的观点(类似某些言论自由绝对论者眼中的X),这未必能让人的思想更加开放。霍斯指出:“研究最一致的结论之一就是,政治观念具有极强的稳定性。人们在成长过程中就已形成基本立场,而社交媒体上的推送信息,并不能轻易改变他们的看法。”即使身处信息泛滥、观点纷争的时代,“人们的观念依然很难真正改变”。

人们也很容易高估互联网上政治辩论的普遍性。霍斯指出,现实情况是,大多数网民消费的内容多是“无营养的信息”,无论是娱乐,还是各类“文化战争”的素材。如果再加上TikTok、色情、赌博、游戏等内容,互联网的真实图景并非充满两极分化的政策讨论,而更像是一种“新闻匮乏”的状态。
人们也很容易对数字公共空间的前景过于理想化,认为互联网可以成为一个开放讨论的空间,让各种观点汇聚、融合,最终形成某种民主意志的体现。然而,互联网的核心功能,从来不是将分散的信息整合成统一的民众共识,而是让相似的兴趣群体得以相连,尤其是那些原本小众的圈层。无论是和谐交流还是充满敌意,人们总能找到与自己有共同语言的人-有人围坐讨论填字游戏,有人相聚讨论地球的椭球体形态。
这种基于兴趣的社群化趋势,也让政治舆论更加碎片化,形成各不相同的群体,而这些群体很难围绕共同的事业凝聚在一起。在2024年的一篇论文中,霍斯的同事雷娜特·菲舍尔(Renate Fischer)和奥特弗里德·贾伦(Otfried Jarren)指出,互联网的海量信息、传播速度和观点多样性,使得民主社会难以形成真正可转化为政治行动的公共舆论。换句话说,公共领域正逐渐丧失稳定社会、凝聚共识的能力,而将理性讨论转化为实际政治决策的过程,也变得愈发困难。
简而言之:我们都在网上发表观点,在信息的汪洋大海中冲浪。然而,当西方诸多国家的民主信任度日渐下滑,这些无休止的网络喧嚣,究竟能汇聚成什么?还是说这些噪音一点价值都没有?
汉内斯·巴约尔:ChatGPT塑造新的话语体系
“这就是互联网的意义所在-它广阔无垠,庞杂到没有人能够完全掌握。”加州大学伯克利分校的汉内斯·巴约尔(Hannes Bajohr)如此说道。他研究人工智能与大型语言模型(LLM)如何影响文本与写作,并指出,未来的信息洪流可能比现在更加汹涌。
像ChatGPT这样的大型语言模型,使得几乎任何人都能轻松创作文字、视频或音乐,这将进一步加速本已数不胜数的网络内容产出,让获取优质信息变得愈发困难。巴约尔指出,在极端情况下,这甚至可能催生出“人造公共领域”-一个充斥着AI生成内容的空间,在其中,你无法分辨哪些是人写的,哪些是机器生成的。巴霍尔警告说,这种不确定性将让信任、真实性和责任等民主社会赖以维系的核心理念承受前所未有的压力。

大型语言模型还可能从根本上改变人类使用语言的方式。巴约尔指出,ChatGPT等工具虽然声称是中立的,但由于其训练数据和算法选择的偏向性,它们实际上并不具备真正的“客观性”。就像社交媒体一样,这些AI也有其固有的偏见,并按照特定的模式生成内容。而更令人担忧的是,大型语言模型依赖统计建模,因此存在“价值观锁定”的风险-它们可能会被困在某种固定的话语框架中,难以迅速适应现实世界中不断变化的政治语境和语言习惯。
巴约尔认为,如果市面上有数百万种大型语言模型可供选择,这个问题或许不那么严重。然而,目前这一领域主要由少数逐利的企业掌控,这可能会导致语言和话语模式的单一化,最终形成由这些公司主导的话语体系。长远来看,这甚至可能进一步简化思维模式,削弱人类在民主讨论中的表达与思辨能力。
是否该“引导”人们变得更友善?
目前,人工智能和大型平台的监管工作,一般不会关注人们如何说话或在哪里发言,除非涉及到执行禁止仇恨言论的法律。但在一个自由的互联网世界里,即便某些空间设计得再好,也无法强迫人们聚集在同一个空间里。同样,仅仅因为有人言辞稍显冒犯,也无法对其追责。
至于是否可以“引导”人们变得更友善,或以某种方式发表观点,这又是另一个问题。从企业层面来看,这种现象其实已经出现。例如,苹果公司最近推出了一款AI工具,可以让你的电子邮件读起来不那么生硬无礼;而自动补全和拼写检查功能,甚至可以看作这些“善意工具”的前身。巴约尔指出,只要这些功能是用户自主选择的,问题不大。真正令人担忧的,是它们在用户毫不知情的情况下被默认植入通信工具,这才是充满反乌托邦色彩的情境。
总体而言,干涉人们的言论和分享始终是一件棘手的事情,巴约尔和霍斯对此看法一致。不过,在霍斯看来,重要的是不要过于纠结于这些问题。她表示:“虽然网上有很多‘不好’的内容, 但在人们消费的内容中仍然是少数。”她认为,一个健康运作的网络公共领域所需的基本要素-准确且多样化的信息、广泛的参与-其实早已具备。关键在于,人们是否愿意去发现、去寻找,或者帮助他人找到有价值的内容。“人们手里明明握着所有工具,只是他们并不总是去使用,”霍斯如是说。
近年来,人工智能技术的迅猛发展在提升信息传播效率的同时,也加剧了中国社交媒体平台上的网络言论噪音问题。AI技术,特别是生成式人工智能,使得虚假信息的生产和传播更加便捷,导致网络环境中虚假信息泛滥,影响公众认知和社会稳定。
生成式人工智能,如ChatGPT等大型语言模型,能够快速生成高质量的文本、图像和视频内容。这使得不法分子可以利用AI技术大规模制造虚假信息,混淆视听,扰乱舆论。据南方都市报报道,2024年7月,四川警方通报了10起利用AI技术造谣的典型案例,包括伪造自然灾害和社会事件的虚假新闻。
AI生成的内容往往具有高度的逼真性,普通用户难以分辨其真伪。这增加了虚假信息的传播风险,可能引发公众恐慌或误导舆论。例如,2024年1月,社交媒体上流传的“好莱坞山火”视频和图片,实际上是由AI生成的虚假内容,但仍被广泛传播,导致公众误解。
AI技术还被用于操纵公众舆论。通过AI算法,操纵者可以自动生成大量虚假账号和评论,制造虚假的社交媒体活动,影响公众观点。据《纽约时报》报道,2022年北京冬奥会期间,超过3’000个机器人和虚假账户被用于影响海外舆论,试图塑造对中国有利的叙事。
(信息来源:163.com, wikipedia)
(编辑:本杰明·冯·维尔,编译自英语:瑞士资讯中文部/gj)

符合JTI标准
您可以在这里找到读者与我们记者团队正在讨论交流的话题。
请加入我们!如果您想就本文涉及的话题展开新的讨论,或者想向我们反映您发现的事实错误,请发邮件给我们:chinese@swissinfo.ch。