ChatGPT:人工的智慧、愚蠢還是惡意?
它能回答所有問題,說起話來文鄒鄒。 OpenAI的對話機器人ChatGPT是人工智慧新時代的旗艦產物。但專家警告說,它和人腦比起來還差得很遠,而且極端缺乏法律規範。
阅读本文简体字版本请 点击这里
誰能躲開ChatGPT的重磅來襲?推出只四個月時間,僅在瑞士,平均每天就有10篇紙媒對它進行報導(媒體數據庫smd.ch的統計結果)。如果再加上廣播、電視、網路媒體和社群軟體,可以說,很少有一個產品能受益於如此之多的媒體推廣-而且完全免費。
最初是聲聲讚美,但隨著對話機器人缺陷的逐步暴露,評論很快就變調了:ChatGPT無論是在資訊可靠性,還是在對用戶數據的保護方面均存在漏洞。
3月29日,一千名科技專家以 “對人類的重大風險 “為由,向企業界和各國政府發出請願,要求凍結ChatGPT六個月。
三天後,意大利國家數據保護局決定禁止境內用戶使用該產品。該機構指責ChatGPT在沒有任何法律依據的情況下收集和儲存資訊以訓練完善自身算法。該局要求OpenAI在20天內給出補救這一問題的措施,否則將被處以最高2000萬歐元的罰款。
Unsurprisingly, after the pre-mature release of #ChatGPT外部链接, and the race to the bottom in terms of safety caused by Microsoft, Google or Facebook, GPT-4 is out.
— El Mahdi El Mhamdi | mastodon.social/@elmahdi (@L_badikho) March 14, 2023外部链接
It claims to "solve" a physics @polytechnique外部链接 entry exam. This will make it harder to calm down the hype in France… pic.twitter.com/dG47v4Rr8N外部链接
>> “不出所料,在ChatGPT過早發布以及微軟、谷歌或Facebook在安全層面競爭的背景下,GPT-4出世了。”El Mahdi El Mhamdi說。這位巴黎綜合理工學院的教授,曾在洛桑聯邦理工學院Rachid Guerraoui教授的指導下完成博士論文。他一直在對人工智慧缺乏監管的情況發出警告和批評。
為了更好地理解前因後果,我們需要了解一下ChatGPT是什麼-以及更重要的:它不是什麼。
你是電子的大腦嗎?根本不是。
如果對方開門見山的提出這個問題,ChatGPT毫不掩飾自己的屬性:”作為一個電腦程式,我與人腦根本不同。”它繼續解釋說,它可以比人類更快地處理大量數據,而且不會忘記任何事情,但它缺乏情商、自我意識、靈感、創造性思維和獨立做決定的能力。
這是因為人工智慧的結構與人類大腦的結構完全不同。傑夫·霍金斯團隊的新書《一千種大腦》(又譯:千腦智能)對此作了精彩的解釋。這位美國電腦工程師是20世紀90年代掌上電腦Palm的聯合發明人,而Palm作為袖珍個人數字助理也預示著智慧手機的出現。現在,霍金斯轉而研究神經科學,且成為人工智慧公司Numenta的老闆。
該書的重要觀點之一是:大腦能夠創造很多“參照體系”,把個人所知道的一切“繪製”成數十萬張 “地圖”,建構起個人的“世界模型”,且不斷地用從感官接收到的資訊來修改完善著這一模型。但是人工智慧既沒有眼睛也沒有耳朵,它只會吸收數據,而這些數據是固定的,不會進化。
相关内容
民主监管缺位,人工智能失控
不知道什麼是貓? !
霍金斯用簡單的例子說明了這一觀點。例如,一項識別圖像的人工智慧技術能夠識別一隻貓。但它並不知道貓是一種動物,不知道它有尾巴、腿和肺,不知道有些人喜歡貓多於狗,也不知道貓會打呼或掉毛。換句話說,這台機器對貓的了解遠不及一個五歲小孩。
為什麼呢?因為孩子們見過貓,撫摸過它,聽過它打呼嚕,所有這些資訊都豐富了其大腦中的 “貓地圖”。而像ChatGPT這樣的對話機器人的認知則完全依賴於單詞序列和它們排列組合的可能性。
>> 在下方影片中,El Mahdi El Mhamdi和Rachid Guerraoui著作的聯合作者Lê Nguyên Hoang講述了他眼中ChatGPT的真正危險所在(法):
說得很好,而且往往很有道理
Rachid Guerraoui是瑞士洛桑聯邦理工學院(EPFL)分佈式計算實驗室的負責人。他與合作者Lê Nguyên Hoang(也是Youtube頻道 “Science4All “的主持人)在2020年發表了《海灘上的圖靈-躺椅上的人工智慧》(Turing à la plage, L’intelligence artificielle dans un transat)一書。
“大多數時候,ChatGPT說的都是真的。但它也經常會出大錯。所以不應該盲目依賴它。“ Rachid Guerraoui,洛桑聯邦理工學院
在Guerraoui看來,ChatGPT的主要風險之一是人們對其過度信任。 “大多數時候,ChatGPT說的都是真的。至少寫得像模像樣,看起來似乎完全真實。但它也經常會出大錯。所以不應該盲目依賴它。“
值得小心的是,不是每個人都有足夠的批判思維來質疑機器人的話-特別是當它的言辭條理清晰,且沒有拼寫或語法錯誤時。
“我看到的另一個危險是,它造成人們放棄了責任,”這位教授繼續道,”甚至公司也會使用對話機器人處理資訊。但誰是資訊來源,如果資訊有誤,誰來負責?這些問題卻沒有清楚的答案。“
Guerraoui是否擔心人工智慧會取代記者、作家甚至是教師的工作呢?目前還沒有,但他能想像 “某些工作可能會發生變化。比如,教師或記者的工作將轉向負責查核消息來源,因為即使機器人給出的文本內容看起來可信,且在大多數情況下是真實的,但我們依然要對一切進行核實。
相关内容
政府和企业不会停止人工智能竞赛
亟待規範
El Mahdi El Mhamdi認為:”今天人工智慧的最大挑戰不是性能和績效,而是管理、監督和可靠性。”
“在我看來,ChatGPT不僅被高估了,而且其過早的推出也是不負責任的、很危險的行為。” El Mahdi El Mhamdi,巴黎綜合理工學院
2019年,他出版了(同樣與Lê Nguyên Hoang合作)《奇幻工地-如何從人工智慧中穩固受益》(Le fabuleux chantier – rendre l’intelligence artificielle robustement bénéfique)一書,主要論述所謂推薦算法的危險。
“在我看來,ChatGPT不僅被高估了,而且其過早的推出也是不負責任的、很危險的行為。”這位教授警告說。 “當我看到人們-甚至包括我的一些同事-對這個工具表達出無限熱情時,我真的萬分不解。“他例舉了幾個令人警醒的案例。比如劍橋分析公司數據洩露醜聞,或者像Pegasus這樣可以秘密安裝在手機上的間諜軟體的擴散。
El Mhamdi承認ChatGPT可以成為一個很好的工作輔助工具,但他同時提醒說,ChatGPT所依賴的科學基礎是 “在過去十年間,數千名研究人員發表的學術內容、巨大的工程學積累以及在倫理上頗有爭議的肯亞工人的底薪工作(具體內容請見下方資訊框)。
最後,El Mhamdi說,”OpenAI真正的天賦不在於ChatGPT的科學根據,而在於行銷,因為後者,它受到小工具愛好者的追捧。”
(編譯自法語:郭倢,編輯:Sabrina Weiss)
人工智慧設計師必須教機器工作-後者沒有價值觀、良知或道德-以分辨什麼是允許的,什麼是不允許的。要讓機器做到這一點,必須向它提供有關人類卑劣先例的資訊,以便機器能夠識別和避免同樣情況的發生。
2023年1月,美國《時代》雜誌的一項調查揭露出OpenAI將這一操作外包的真相。從2021年11月開始,該公司將數以萬計的網路有毒文本摘錄發送給加州公司Sama,該公司主要在其位於肯亞奈洛比的分支機構內對這些文本進行解構。在那裡,大約30名員工必須每天花9個小時閱讀和標記性侵、酷刑、戀童癖和戀童癖行為的精確描述。所有這些工作,每小時僅掙兩美元。
由於沒有人能夠在在處理這類恐怖文字中毫髮無損,具有 “倫理”標籤的Sama公司為這些“陰影下的員工”提供了心理支持。但據《時代》周刊匿名採訪的前僱員稱,這些措施遠遠不夠。從那以後,OpenAI中止了和Sama公司的合同。
符合JTI标准
您可以在这里找到读者与我们记者团队正在讨论交流的话题。
请加入我们!如果您想就本文涉及的话题展开新的讨论,或者想向我们反映您发现的事实错误,请发邮件给我们:chinese@swissinfo.ch。