幻覺即智能:AI落地裡順勢與逆勢的分界線

來源:李智勇

圖片來源:由無界AI工具產生

大模型是有幻覺的,其表現多樣例如與事實衝突,其成因也很多比如缺相關知識或對齊錯誤,不清楚的點就更多。但和應用相關的最關鍵的點還不是這些,而是:看起來幻覺是個短期搞不定的事,即使是OpenAI。這就要求在落地的時候把它當前條件和不變量來思考,一旦把它做前條件和不變量,那就會發現像對人類一樣,幻覺也不全是壞處。

順勢的與逆勢的

我們把幻覺對產品有幫助還是對產品有害作為縱軸,再加上出問題的責任作橫軸,形成一個簡單的坐標系,然後再把各種人工智能體放在在這個坐標系上面,那大概是下面這樣:

也許對不同人工智慧體所處的位置會有爭議,但幾個極端值應該是問題不大。

對元宇宙而言本來就是高級遊戲,那人物行為的出格反倒是會激發遊戲敘事的多樣性,成為豐富世界內容的一部分養料;對於問診就很麻煩,如果在既有醫療知識框架外發揮,然後病人病情變嚴重了,那就不單有害,後果還很嚴重。現實空間和問診類似的其實更多,包括客服、稅務諮詢等。

尋找智慧飛輪:從資料枯竭到多模態再到自生成裡面我們提到過除了AlphaGo還沒有人轉起來智慧飛輪,又因為飛輪一旦轉起來必然會產生特定領域的神靈,所以關心這個人工智慧應用的人都關心到底在那裡可能再出下圖這樣的智慧飛輪:

這在上面的象限圖上也能找到答案的想法:**越偏元宇宙這個方向,越容易些。幻覺可以低責任成本的製造新數據,新數據融入場景,然後反過來就可以作為燃料驅動飛輪。 **

象限中的位置即定位

在像限中的位置對做AI產品落地是非常關鍵的。

**這個位置在相當程度上就決定了你的營運成本乃至於跑的快慢。而它面對的約束非常剛性,不可改變。 **

通常的理解裡,我們都把產品看成一組特性,用能幹什麼不能幹什麼,用功能性能參數等表述,高級一點就用審美偏好衍生的就是品牌。但其實不全面,更深一層產品也是一套權責利系統的匯聚點。這在C端產品上體現的沒有B端明顯。

在過去很少被提及,因為經濟體系裡只有一種智能體:人。整個經濟體係都依照人、法人來決定的權責利。但現在這套體係其實是碰到了新的挑戰,人工智慧體的崛起讓這種權責體係出現了裂痕,並且運轉滯澀。

最簡單的例子是過去常說的自動駕駛,使用者、廠商、自動駕駛服務提供者之間會產生新的複雜權責利再平衡。 (原來事故的責任基本上是用戶的,誰開誰負責,用了自動駕駛後就不行)

**這會非常麻煩,因為人工智慧並非權責利的主體,但似乎又得承擔對應的責任。這就導致潛意識的每家公司都嘗試拿技術來對沖,讓某些壞的事好像可以不發生,但其實這和唐吉訶德戰風車差不多,基本上不可能。 **

而和用戶、甲方權責利的再平衡其實是會像指揮棒一樣決定公司有限資源分配的導向性的。 (事實上形成特定位置的一般性社會成本)

投入產出不好,還不得不做的情形,豈不尷尬?

這種尷尬的核心原因就是用科技沒辦法完全對沖的權責。

對沖不掉的權責

為什麼說科技不可能完全對沖掉權責呢?

這固然是因為科技總是有個成熟過程,但**很可能更關鍵的原因在於但數字和智慧讓問題顯性化的同時,權責被放大了。 **

面對可以清楚表示的數字結果時每個客戶都會希望無限制的解決問題,而這種限度在過去是被抑制了的。

我們可以拿客服舉個例子:

當僱用幾千上百的人做客服的時候,服務本身必然有良率問題。但這時候大家基本上可以接受一定的錯誤,每個人都知道人會出錯,再加上客服人員還不好找,大家對這個良率就保持了一定的容忍度。假如客服人員服務不好丟了單,那最多辭退對應的客服人員或是扣錢。很難向客服追討造成的損失。

當把客服換成人工智慧體後,事情還是那個事情,但權責關係就默默的發生了一些變化。

即使人工智慧體的良率超過了過往的人工,從甲方的角度看,也會有足夠的動力向提供人工智慧體服務的公司追責。而後面的科技公司就得想盡辦法讓人工智慧體不出錯。

這就是用科技對沖權責。

**本質是用科技解決近乎無限的領域問題。越到後來越變成搗糨糊,因為搞不定。人工智慧這個產業從智慧音箱的喚醒開始就不停的反覆這故事。 **

而實際情況是即使是古老的搜尋引擎如果要求不出錯比如某類內容出現一次就滅掉,那谷歌、百度這樣的公司都不知道死多少次了。

這種權責體系的容忍度其實有非常多的成因,有歷史的文化的商業現實的,十分剛性,不太可能改變。而如果它不能改變,那就不太適合純粹的人工智慧體。能想到折中方法就是把人再塞回去,即使這個人甚麼不干,只做做樣子,那也是他在履行工作職責,人工智能體服務於他,他對所有產出負責。

這樣一來,選擇和定位就很關鍵,因為權責系統本身就是成本、方向和客戶滿意度(“想都是問題,幹才是答案”是錯的,雷軍說也不行乾就完了不對的老話題)。在幻覺本是智能的一部分的前提下,真跑到權責系統非常沉重的領域,那其實是事倍功半的。

基於這個視角,我們還可以再拔一點,談一點新技術的應用模型。

新技術的應用模型

在探討應用模型的時候我們先回到人類本身。

人類文明的核心子系統:政治經濟文化其實全是先虛後實,實又促虛這麼反覆倒騰來的。回到3百年前有什麼三權分立、自由民主、社會主義,當然也不會有汽車、高鐵、腳踏車。

這些在想像和某種邏輯合理性的基礎上,加上另一波人找到了想像到物理定律、商業遊戲之間的聯繫,然後想像就會照進現實。火車、電、汽車、手機等差不多都是這麼來到了世界。

然後我們再截取1912年2月12日,溥儀退位這個時間點回溯,看看想像的作用。

今天對我們影響至深的產品很多其實都是1912年以前發明的,產品上包括蒸汽機、汽車、電、青黴素、電話、攝影機、電池等,人物則包括諾貝爾、愛迪生、特斯拉、福特等。這些產品出世後大致是不順的,例如蒸汽的汽車就經常爆炸、愛迪生曾經主力攻擊交流電危險容易電死人,但相對寬容的環境讓這些產品都存續了下來。

**想像下如果都是慈禧等認為火車回幹擾祖先風水的觀點,那就不可能會有這種多樣化。大清朝用文字獄等對思想的箝制其實是有成效的,一定程度上了達成了自身希望的穩定性,但穩定性很好的同時整個系統就效能很差,1912溥儀退位可以看成是這種效能差的結果。 **

這給我們什麼啟示呢?

**新科技在一般性社會成本低的地兒開始更合適。權責系統越寬鬆,試誤成本越低,越有助於新科技驅動的不成熟產品轉起來。 **

整體一般性社會成本的事很複雜,這裡不展開。 (就是怎麼避免在火車出現的時候,堅信它會破壞風水。)

對於創新主體的個人,顯然的要規避複雜權責系統。

因為技術不成熟如果還要用它來對沖複雜權責的風險,那肯定吃力不討好。

回到人工智慧更具體一點會是什麼樣子呢?

**環境本身的寬鬆與否在這個時間點看著也許不關鍵,複雜權責系統也許還更容易形成現金流。但越往後可能會更關鍵。因為潛在智慧飛輪會起作用,所以這真的是1.01的99次方和0.99的99次方的差異。 **

凯文凯利在科技想要什么里表达了这样一个观点,那怕科技带来的好处只多余坏处一点点,那随着它本身的强大,那影响的结果也是非常显著的。

對人工智慧體也是一樣,這一點點差異到後面可能就是智慧飛輪轉不轉的起來的差異。

簡單說就是屬於人工智慧自身的應用模式是:**要找幻覺有益,權責對沖沒那麼複雜的領域,然後由內而外的成長,而不是揠苗助長。 **

小結

**從這個角度來看,確實幻覺就是智能,至少是智能飛輪的原動力。 **很多時候正是幻覺給了我們一種智能的感覺,徹底的去除幻覺還保持智能,就真的是得達成一種超級單一體(克里人的終極智慧),這是很好的理想,但我覺得如果假設人工智慧不可能建成完備的世界模型,那麼去除這種幻覺就是不可能的,所以與其指望用技術解決這問題,就不如根據技術的進展修正應用模型。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)