在碎片化時代,網路平台是民主的推手還是絆腳石?

近年來,社群媒體從曾經的「數位市政廣場」逐漸演變成充滿噪音的輿論場,各大平台在流量與公共責任之間掙扎前進。而如今,人工智慧的興起讓這一趨勢愈演愈烈,自動生成的內容氾濫,讓真假訊息難辨,公共討論空間的內容更趨碎片化。
阅读本文简体字版本请 点击这里

相关内容
时事通讯:瑞士媒体里的中国
目前,各大網路平檯面臨輿論壓力,人工智慧可能會讓網路內容氾濫,關於建構和諧數位公共空間的宏大理想,是否已然化為泡影?
對於一個粉絲不足5’000的人來說,退出社群媒體平台X,通常不會成為新聞。但如果此人是瑞士內政部長,情況就大不相同。當伊麗莎白·鮑姆-施奈德(Elisabeth Baume-Schneider)在2024年10月發布最後一條推文,直言X“發生了深刻變化”,她已對平台上的辯論文化感到厭倦時,這番話自然不會無人問津。
這位左翼政治家的退出,其實是順應全球趨勢。2022年,馬斯克(Elon Musk)收購X後,曾承諾將其打造為「溫暖、包容所有人」的「數位城市廣場」。然而,到2025年1月,瑞士政府的一個顧問小組卻發出警告:X,Facebook、TikTok等大型平台,憑藉其強大的商業影響力與輿論塑造能力,正在對民主本身構成威脅。
伊麗莎白·鮑梅-施耐德退守更溫和的Instagram
過去兩年,X平台上的仇恨言論增加,語氣也變得粗暴。部分原因在於審核規則的放鬆,部分則源自於文化環境的改變。這項改變再次引發了關於「體面的網路公共空間」究竟該是什麼樣子的討論。馬斯克的大刀闊斧改革,以及Meta近期決定採取的類似做法,對言論自由的擁護者無疑是好消息。但同時,許多人選擇“用腳投票”,離開X平台,其中包括許多廣告主。
然而,對於那些擔憂輿論極端化和反民主言論蔓延的人而言,退出X這樣的平台,真的能解決問題嗎?正如《新蘇黎世報》(Neue Zürcher Zeitung)所言,鮑姆-施奈德的選擇-從X轉向Meta旗下的Instagram-究竟是尋找更理性的對話空間,還是僅僅退守到一個“數字化的門禁社區”?
艾瑪霍斯:回音室中的回音室
「回音室確實存在,但它到底是多大的問題,還不好說。」蘇黎世大學數位科技與網路行為研究員艾瑪‧霍斯(Emma Hoes)表示。
霍斯認為,人們總是圍繞著「回音室」大做文章,反而可能讓它變得比實際情況更加嚴重,最終陷入一個「回音室中的回音室」。她說:「歸根結底,至少有一些研究表明,我們在社交媒體上看到的內容比線下生活更加多元化。」即便是在像Bluesky這樣的小眾獨立社交平台(霍斯的許多同事已轉移至此),用戶依然會意外接觸到自己並未主動選擇去看的信息。
但無論如何,如果真的設計一個系統,不斷向用戶推送與其立場相左的觀點(類似某些言論自由絕對論者眼中的X),這未必能讓人的思想更加開放。霍斯指出:「研究最一致的結論之一就是,政治觀念具有極強的穩定性。人們在成長過程中就已形成基本立場,而社群媒體上的推播訊息,並不能輕易改變他們的看法。」即使身處在資訊氾濫、觀點紛爭的時代,「人們的觀念依然很難真正改變」。

人們也很容易高估網路上政治辯論的普遍性。霍斯指出,現實情況是,大多數網民消費的內容多是“無營養的資訊”,無論是娛樂,還是各類“文化戰爭”的素材。如果再加上TikTok、色情、賭博、遊戲等內容,網路的真實圖景並非充滿兩極化的政策討論,而更像是一種「新聞匱乏」的狀態。
人們也很容易對數位公共空間的前景過於理想化,認為網路可以成為一個開放討論的空間,讓各種觀點匯聚、融合,最終形成某種民主意志的體現。然而,網路的核心功能,從來不是將分散的訊息整合成統一的民眾共識,而是讓相似的興趣群體得以相連,尤其是那些原本小眾的圈層。無論是和諧交流或充滿敵意,人們總能找到與自己有共同語言的人-有人圍坐討論填字遊戲,有人相聚討論地球的橢球體形態。
這種基於興趣的社群化趨勢,也讓政治輿論更加碎片化,形成各不相同的群體,而這些群體很難圍繞著共同的事業凝聚在一起。在2024年的一篇論文中,霍斯的同事雷娜特·菲舍爾(Renate Fischer)和奧特弗里德·賈倫(Otfried Jarren)指出,互聯網的海量信息、傳播速度和觀點多樣性,使得民主社會難以形成真正可轉化為政治行動的公共輿論。換句話說,公共領域正逐漸喪失穩定社會、凝聚共識的能力,而將理性討論轉化為實際政治決策的過程,也變得愈發困難。
簡而言之:我們都在網路上發表觀點,在資訊的汪洋大海中衝浪。然而,當西方許多國家的民主信任度日漸下滑,這些無止盡的網路喧囂,究竟能匯聚成什麼?還是說這些噪音一點價值都沒有?
漢內斯·巴約爾:ChatGPT塑造新的話語體系
「這就是網路的意義所在-它廣闊無垠,龐雜到沒有人能夠完全掌握。」加州大學柏克萊分校的漢內斯·巴約爾(Hannes Bajohr)如此說道。他研究人工智慧與大型語言模型(LLM)如何影響文本與寫作,並指出,未來資訊的洪流可能比現在更洶湧。

像ChatGPT這樣的大型語言模型,使得幾乎任何人都能輕鬆創作文字、影片或音樂,這將進一步加速本已數不勝數的網路內容產出,讓獲取優質資訊變得愈發困難。巴約爾指出,在極端情況下,這甚至可能催生出「人造公共領域」-一個充斥著AI生成內容的空間,在其中,你無法分辨哪些是人寫的,哪些是機器生成的。巴霍爾警告說,這種不確定性將讓信任、真實性和責任等民主社會賴以維繫的核心理念承受前所未有的壓力。
大型語言模型也可能從根本上改變人類使用語言的方式。巴約爾指出,ChatGPT等工具雖然聲稱是中立的,但由於其訓練資料和演算法選擇的偏向性,它們實際上並不具備真正的「客觀性」。就像社群媒體一樣,這些AI也有其固有的偏見,並按照特定的模式產生內容。而更令人擔憂的是,大型語言模型依賴統計建模,因此存在「價值觀鎖定」的風險-它們可能被困在某種固定的話語框架中,難以迅速適應現實世界中不斷變化的政治語境和語言習慣。 巴約爾認為,如果市面上有數百萬種大型語言模型可供選擇,這個問題或許不那麼嚴重。然而,目前這一領域主要由少數逐利的企業掌控,這可能會導致語言和話語模式的單一化,最終形成由這些公司主導的話語體系。長遠來看,這甚至可能進一步簡化思考模式,削弱人類在民主討論中的表達與思辨能力。
是否該「引導」人們變得更友善?
目前,人工智慧和大型平台的監管工作,一般不會關注人們如何說話或在哪裡發言,除非涉及執行禁止仇恨言論的法律。但在一個自由的網路世界裡,即便某些空間設計得再好,也無法強迫人們聚集在同一個空間。同樣,僅僅因為有人言辭稍顯冒犯,也無法對其追責。
至於是否可以「引導」人們變得更友善,或以某種方式發表觀點,這又是另一個問題。從企業層面來看,這種現像其實已經出現。例如,蘋果公司最近推出了一款AI工具,可以讓你的電子郵件讀起來不那么生硬無禮;而自動補全和拼字檢查功能,甚至可以看作這些「善意工具」的前身。巴約爾指出,只要這些功能是使用者自主選擇的,問題不大。真正令人擔憂的,是它們在使用者毫不知情的情況下被預設植入通訊工具,這才是充滿反烏托邦色彩的情境。
整體而言,干涉人們的言論和分享始終是一件棘手的事情,巴約爾和霍斯對此看法一致。不過,在霍斯看來,重要的是不要過於糾結於這些問題。她表示:「雖然網路上有很多『不好』的內容, 但在人們消費的內容中仍然是少數。」她認為,一個健康運作的網路公共領域所需的基本要素-準確且多樣化的信息、廣泛的參與-其實早已具備。關鍵在於,人們是否願意去發現、去尋找,或幫助他人找到有價值的內容。「人們手裡明明握著所有工具,只是他們並不總是去使用,」霍斯如是說。
近年來,人工智慧技術的快速發展在提升資訊傳播效率的同時,也加劇了中國社群媒體平台上的網路言論噪音問題。 AI技術,特別是生成式人工智慧,使得假訊息的生產和傳播更加便捷,導致網路環境中假訊息氾濫,影響大眾認知和社會穩定。
生成式人工智慧,如ChatGPT等大型語言模型,能夠快速產生高品質的文字、圖像和影片內容。這使得不法分子可以利用AI技術大規模製造假訊息,混淆視聽,擾亂輿論。根據南方都市報報道,2024年7月,四川警方通報了10件利用AI技術造謠的典型案例,包括偽造天災和社會事件的假新聞。
AI產生的內容往往具有高度的逼真性,一般使用者難以分辨其真偽。這增加了假訊息的傳播風險,可能引發公眾恐慌或誤導輿論。例如,2024年1月,社群媒體上流傳的「好萊塢山火」影片和圖片,實際上是由AI生成的虛假內容,但仍被廣泛傳播,導致公眾誤解。
AI技術也被用來操縱公眾輿論。透過AI演算法,操縱者可以自動產生大量虛假帳號和評論,製造虛假的社群媒體活動,影響公眾觀點。根據《紐約時報》報道,2022年北京冬奧會期間,超過3’000個機器人和虛假帳戶被用於影響海外輿論,試圖塑造對中國有利的敘事。
(資料來源:163.com, wikipedia)
(編輯:班傑明‧馮‧維爾,編自英文:瑞士資訊中文部/gj,繁體校對:盧品妤)

相关内容
通訊訂閱

符合JTI标准
您可以在这里找到读者与我们记者团队正在讨论交流的话题。
请加入我们!如果您想就本文涉及的话题展开新的讨论,或者想向我们反映您发现的事实错误,请发邮件给我们:chinese@swissinfo.ch。