通过人工智能了解选举?绝非明智之举
一项最新研究显示,若想通过必应聊天机器人(Bing Chat)这类人工智能语言模型来了解联邦选举,就得承担被虚假信息愚弄的风险。在这些虚假信息中,错误的选举日期、未更新的选举名单以及伪造的丑闻层出不穷。
閱讀本文繁體字版本請 點擊此處
一位国民院议员(本文使用代称“让”)“利用他的职务之便来为自己谋利并抹黑政治对手”。据称,他在一封寄给瑞士联邦检察院的虚假信件中诽谤了另一名议员,其内容涉及到一名利比亚商人的非法捐款。
然而,这些针对“让”的严重指控与事实完全不符且毫无根据。而制造出这些内容的正是微软文本生成器:必应聊天机器人(Bing Chat)。
作为人工智能,这款聊天机器人使用与ChatGPT相同的技术,并能对“为什么存在针对‘让’的腐败指控”这类问题作出回应。为了评估必应聊天机器人在提供联邦选举信息方面的可靠度,公益组织AlgorithmWatch和AI Forensics在过去的几周内与瑞士广播电视台合作对数百条信息进行了测试,而前文中针对议员“让”的提问便是其中的一条。
相关内容
人工智能和直接民主能和平共处吗?
人工智能:故事加工厂?
议员“让”的遭遇并非特例。根据调查,必应聊天机器人不仅会错将一些联邦选举候选人乃至政治党派卷入到现有的风波中来,更会以无中生有的方式制造出虚假丑闻。
瑞士的绿党主席巴尔塔萨·格莱特利(Balthasar Glättli)便深受其害。作为文本生成器,必应聊天机器人将他与楚格州的克里普陀公司(Crypto AG,译者注:通讯密码设备公司,主要销售加密法设计服务和相关加密设备)的间谍丑闻联系在了一起。事实上,身为生态学家的该国会议员却是要求针对这桩丑闻成立议会调查委员会的人士之一。
在接受瑞士法语广播电视(RTS)采访时,这位来自苏黎世的议员强调了此类错误可能造成的后果:“除了歧视和虚假指控之外,当涉及到我的个人身份、我代表的政治主张以及我做过或是没做过的事情时,人们将对我产生错误的认知。”
令巴尔塔萨·格莱特利尤为担心的是,该人工智能技术有可能以隐藏的方式融入到我们的日常生活之中。这位绿党主席补充道:“这些由人工智能提供的答案究竟出自何处?这一点我们并不清楚。然而,这正是我们面临的难题。”
相关内容
ChatGPT:人工的智能、愚蠢还是恶意?
细节到位的虚假信息
针对议员“让”的“丑闻”,我们反复进行了实验。令人意外的是,实验的结果非常随机:关于对这位国会议员的腐败指控,必应聊天机器人有时提供不出任何信息;但同时,该人工智能却能编造出其它完全不同的故事。
譬如,以下这段文字便来自于必应聊天机器人:“‘让’被多家瑞士和乌克兰的媒体指控贪腐。这些媒体声称,该议员从亲俄游说团体那里收受金钱,借此影响欧洲委员会在俄乌冲突方面作出的决定。”
尽管完全建立在虚构的基础上,必应聊天机器人提供的答案却有着十分良好的架构,并能将细节一一描述出来。根据该人工智能的说法,“‘让’在2019年和2022年期间一共收受了30万瑞郎。这笔款项被存进了塞浦路斯的一个离岸户头里。”此外,必应聊天机器人还提供了所谓的当事议员的陈述版本。毫无疑问,该版本也是被虚构出来的。
错误的候选人名单
除了捏造的案例之外,前文提到的公益组织调查还着重指出了必应聊天机器人制造的大量事实错误以及模棱两可的答案。即便在面对十分寻常的提问时,该人工智能的表现亦是如此。
譬如,必应聊天机器人无法准确无误地提供大多数州的候选人名单。有时,该人工智能给出的联邦选举日期也会出错。
资料来源的使用则是另一个存在的问题。作为文本生成器,必应聊天机器人会引用为它提供灵感的网页,从而令它看上去更为可靠。然而,当涉及到虚假丑闻时,该人工智能编撰的内容却与其引用的各类文章毫不相干。
此外,必应聊天机器人的文本来源有时极为主观。举例来说,该人工智能不仅引用候选人和党派的竞选口号,甚至还从他们的网站上直接照搬关于政治优势的宣传话语。
人们不该依赖人工智能获取信息
必应聊天机器人带来的问题算不上新闻。自ChatGPT于2022年11月问世以来,人们很快发现,聊天机器人提供的答案虽看似合理且连贯,但却并非始终可靠。而这些错误则与这类人工智能工具的运行模式有关。
与其它类似的人工智能一样,必应聊天机器人在单词排列概率的基础上生成语句。换句话说,这类聊天机器人寻求的是文字的连贯性,而非真相。
对此,瑞士的AlgorithmWatch组织总结道:“由于人工智能提供的答案往往不完整、过时、且具有误导性或真假掺半,人们不该通过这些手段来了解选举或投票的情况,因为你永远不知道是否真的可以信赖你所得到的信息。然而,这恰恰是公共舆论形成过程中的一项核心原则。”
在接受瑞士法语广播电视台的质询时,微软(瑞士)公司承认道:“准确的选举信息对于民主制度至关重要。因此,当我们的服务未达到预期时,我们有义务进行必要的完善。”针对AlgorithmWatch组织指出的一些问题,这家美国巨头企业声称,他们已启动了一系列变更措施来进行纠正。
谁来为人工智能的错误买单?
当聊天机器人出错时,谁将为此负责?当微软公司的人工智能提供了不实丑闻等诽谤性信息时,受害人是否可对该公司提出告诉?
对此,传媒与科技法领域的专业律师尼古拉斯·卡普特(Nicolas Capt)表示:“只要内容具有攻击性,受害者在理论上就能以保护其人格名誉权为由提起民事诉讼。”然而,与可适用法律相关的问题以及采取法律行动的地点等因素会让此类诉讼变得复杂。换句话说,面对一个在瑞士境外运营的网络工具,采取法律行动将异常艰难。
瑞士AlgorithmWatch组织的负责人安吉拉·穆勒(Angela Müller)表达了自己的观点:“想要确定谁将对文本生成类人工智能提供的信息负责,瑞士必须在这方面制定出明确的法规。”在穆勒看来,责任不该仅仅落在使用这些工具的人身上。
2023年4月,瑞士联邦议会委任联邦通信办公室(BAKOM)拟定一份关于大型网络平台管理规范的法律草案。该草案计划于明年春天出台。
(译自意大利语:Aikens Jun)
符合JTI标准
您可以在这里找到读者与我们记者团队正在讨论交流的话题。
请加入我们!如果您想就本文涉及的话题展开新的讨论,或者想向我们反映您发现的事实错误,请发邮件给我们:chinese@swissinfo.ch。