在試圖追上微軟和OpenAI在人工智能方面的先發(fā)優(yōu)勢時,谷歌自己搞砸了。
2月8日,谷歌人工智能聊天機器人Bard在發(fā)布會上對用戶提出的問題給出錯誤回答。8日晚,美股開盤,谷歌大跌超7%,市值蒸發(fā)約1020億美元(約6932.50億元人民幣)。
有分析認為,這正好暴露了類似的人工智能系統(tǒng)實際上并不具備“理解能力”,也很難甄別虛假信息,“一本正經(jīng)的胡說八道”就是AI最受質(zhì)疑的軟肋。
AI犯了一個價值千億美元的錯
2月8日,谷歌在巴黎召開的發(fā)布會上再一次展示了Bard——這款為了對抗ChatGPT推出來的聊天機器人。按照谷歌的宣傳,Bard不僅要和ChatGPT一樣有問必答,還要更“負責任”——暗搓搓地指ChatGPT里摻雜的虛假信息太多,不夠“負責”。
這一宣傳明顯提高了人們對于Bard的期望值。畢竟在最初的驚艷過后,ChatGPT“一本正經(jīng)”的胡說八道,也就是回答里夾雜的不少似是而非的偽信息,已經(jīng)讓很多人對于使用它提高了警惕,里面邏輯和數(shù)學上的錯誤更加驚人。
讓人沒想到的是,谷歌的Flag立得太早。Bard剛一亮相,就出錯了——而且出了個大糗。
在谷歌短短的幾秒展示里,Bard其實只被問了一個問題——“我可以告訴我 9 歲的孩子關于詹姆斯·韋伯太空望遠鏡(James Webb Space Telescope ,簡稱JWST) 的哪些新發(fā)現(xiàn)?”
Bard的回答很精彩——有豐富的信息,而且很形象的比喻,確實深入淺出地給孩子解釋了JWST的發(fā)現(xiàn)。
然而,里面有一個巨大的錯誤:回答里提到“ JWST 拍攝到了太陽系外行星的第一張照片”,也就是下圖灰線部分。
然而,事實上,第一張系外行星照片是由歐洲南方天文臺的Very Large Telescope (VLT) 在 2004 年拍攝的。
最先指出這個錯誤的是天體物理學家 Grant Tremblay。
他在推特上寫道:“我不是要成為一個討厭鬼,我相信 Bard 會令人印象深刻,但鄭重聲明:JWST 并沒有拍下‘我們太陽系外行星的第一張圖片’?!?/p>
天文學家們認為,這一問題可能源于人工智能誤解了“模棱兩可的NASA新聞稿,低估了過去的歷史”。
而在唯一的一次演示里,就犯了這么大的錯誤,谷歌可以說顏面盡失,不得不快速撤下了相關演示的視頻。
但錯誤已經(jīng)犯了,代價就不可避免。消息一傳出,谷歌股票大跌,市值蒸發(fā)約1020億美元(約6932.50億元人民幣)。
可以說,這是AI到目前為止犯下的最昂貴的一個錯誤。
聊天機器人就是“扯淡生成器”
對于谷歌這場翻車的發(fā)布會,《每日電訊報》在報道中直接寫道,Bard的錯誤將進一步引發(fā)人們?nèi)ベ|(zhì)疑搜索引擎和人工智能生成答案的準確性。
其實,對于聊天機器人的準確性,此前已有人工智能分析師警告稱,生成式人工智能(generative AI)仍然存在潛在問題,例如,ChatGPT它的回復中有時會包含虛構事實。研究聊天機器人缺陷的華盛頓大學教授Chirag Shah此前表示,“公司經(jīng)常過快地推出新技術,忽視它們的缺陷,然后又試圖快速修復它們……這會造成真正的傷害。”
正如 Tremblay 所指出的,ChatGPT 和 Bard 等 AI 聊天機器人的一個主要問題是它們傾向于自信地將不正確的信息陳述為事實。這些系統(tǒng)經(jīng)?!爱a(chǎn)生幻覺”,即編造虛假信息,因為他們只是接受大量文本語料庫的訓練,但并不是查詢已經(jīng)過驗證的事實的數(shù)據(jù)庫來回答問題。
也有網(wǎng)友評價說,這也正是如今的AI研究和語言模型共有的問題:它們非常擅長生成“看起來”準確的,但其實并不準確的信息。概括來說,他們就是在一本正經(jīng)的胡說八道。
這導致一位著名的 AI 教授,將這些聊天機器人稱為“扯淡生成器”。
很明顯的一個例子就是,對于Bard犯錯的這個問題,其實Google搜索已經(jīng)給出了正確答案。
如果你在Google上搜索“太陽系外行星的第一張圖片”,Google自己就給出了準確信息——它是在2004年由VLT第一次捕捉成像。
把檢驗真?zhèn)蔚呢熑蝸G給用戶?
另一個巨頭微軟已經(jīng)預見到了這樣的事情發(fā)生。
就在谷歌發(fā)布會的前一天,微軟也召開了一場發(fā)布會,宣布推出搭載了AI技術的搜索引擎必應(Bing)和瀏覽器Edge,新版本中引入了OpenAI旗下ChatGPT的相關技術,升級后,用戶可以直接提出問題,并通過搜索引擎生成答案。
但是,微軟在演示集成了ChatGPT的人工智能Bing搜索引擎時,就試圖通過把責任丟給用戶來避開同樣的這些問題。它在免責聲明里稱,“Bing由AI提供支持,因此可能會出現(xiàn)意外和錯誤。請確保進行事實核查并分享反饋,以便我們學習和改進!”
在周一官宣Bard發(fā)布的博文里,谷歌CEO皮柴曾特別強調(diào),谷歌希望通過這一階段的測試,來提高Bard的質(zhì)量和速度,確保 Bard的回答達到高標準。然而,在這個望遠鏡烏龍事件后,谷歌發(fā)言人不得不強行挽回一點顏面。他們告訴媒體稱:“這凸顯了嚴格測試過程的重要性,我們本周將通過 Trusted Tester 計劃啟動這一過程。我們會將外部反饋與我們自己的內(nèi)部測試相結合,以確保Bard的回應在質(zhì)量、安全性和現(xiàn)實世界信息的基礎性方面達到高標準。”
AI還面臨版權和倫理等諸多爭議
需要強調(diào)的是,越大的公司對聲譽和社會責任的顧慮越多。
去年11月,Meta具有1200億參數(shù)語言模型Galactica,在生成內(nèi)容里引用文獻時,發(fā)生作者真實存在但文獻虛構,以及還存在一本正經(jīng)胡說八道的情況。事態(tài)引起輿論嘩然,短短3天后,飽受爭議的團隊無奈宣布Demo(暫時)下架。
前車之鑒,還有2022年同樣爆火的AI繪畫。當時玩得最開的,當屬Stable Diffusion背后的公司Stability AI。
雖然用戶在用其進行AI繪畫時得按需付費,但它開放源代碼,開發(fā)者可以完全免費下載底層代碼來訓練自己的模型。開放性像一柄雙刃劍,讓Stability AI陷入了版權、監(jiān)管等諸多爭議之中。
另一邊,倫理、版權多重顧慮纏身的OpenAI旗下DALL-E2、谷歌Imagen,在藏著掖著地隔岸觀望后,才下場公測。結果么,兩家都跌了跟頭。
也正因如此,OpenAI才痛定思痛,推出ChatGPT來搶占先機。
但是,有媒體指出,哪怕是接受了兩個多月的外部測試反饋和內(nèi)部調(diào)試,ChatGPT仍然會不受控地口出狂言,發(fā)表一些政治偏向或種族和性別主義歧視言論,也被人們發(fā)現(xiàn)了會提供錯誤信息。盡管OpenAI沒有提供錯誤信息頻率的統(tǒng)計數(shù)據(jù),但這家公司表示,會通過定期更新使該工具變得更好。
而在微軟發(fā)布的必應的例子中,聊天機器人的答案將被降級到頁面的一側,而不是通常搜索結果將保留的前面和中心。機器人的回答還包括腳注和來源材料的鏈接,這在ChatGPT當中是沒有的,但這使得微軟的工具看起來更值得信賴。
反觀谷歌的Bard,回答放在頁面中間、搜索結果上方顯示了單一的摘要答案,并且沒有腳注,這意味著用戶不可能識別來源。
OpenAI等公司試圖通過增加數(shù)十億個參數(shù)來提高語言模型的準確性,但一些研究人員懷疑,隨著模型的增長,準確性的回報會遞減。
對于正在進行AI大戰(zhàn)的科技巨頭們來說,消除這些持續(xù)存在的少數(shù)謊言可能成為一項長期挑戰(zhàn)。
上游新聞綜合自同花順財經(jīng)、投資界、新浪科技、、華爾街見聞
責編:張松濤
審核:馮飛