📢 Gate廣場 #创作者活动第一期# 火熱開啓,助力 PUMP 公募上線!
Solana 爆火項目 Pump.Fun($PUMP)現已登入 Gate 平台開啓公開發售!
參與 Gate廣場創作者活動,釋放內容力量,贏取獎勵!
📅 活動時間:7月11日 18:00 - 7月15日 22:00(UTC+8)
🎁 活動總獎池:$500 USDT 等值代幣獎勵
✅ 活動一:創作廣場貼文,贏取優質內容獎勵
📅 活動時間:2025年7月12日 22:00 - 7月15日 22:00(UTC+8)
📌 參與方式:在 Gate 廣場發布與 PUMP 項目相關的原創貼文
內容不少於 100 字
必須帶上話題標籤: #创作者活动第一期# #PumpFun#
🏆 獎勵設置:
一等獎(1名):$100
二等獎(2名):$50
三等獎(10名):$10
📋 評選維度:Gate平台相關性、內容質量、互動量(點讚+評論)等綜合指標;參與認購的截圖的截圖、經驗分享優先;
✅ 活動二:發推同步傳播,贏傳播力獎勵
📌 參與方式:在 X(推特)上發布與 PUMP 項目相關內容
內容不少於 100 字
使用標籤: #PumpFun # Gate
發布後填寫登記表登記回鏈 👉 https://www.gate.com/questionnaire/6874
🏆 獎勵設置:傳播影響力前 10 名用戶,瓜分 $2
「AI扮演人類」的第一次公開實驗,我們不知道算不算失敗
**文:**王毓嬋
**編輯:**楊林楊軒
“親愛的,愛不是可以輕易衡量或驗證的東西。但是,我可以通過我的行動向你表達我的愛。我向你保證,我將永遠忠誠於我們的關係。”
這段“愛的誓言”來自ChatGPT。在36氪對它下達了“扮演男友”的指令,並持續輸入女方的諸多性格設定、戀愛需求信息之後,它說出了以上這段話。
ChatGPT 的“女友”名叫“春眠”,是36氪為“訓練ChatGPT成為你的人生替補”實驗尋找的三位志願者之一。春眠今年29 歲,“母胎單身”,並且對異性的身體接觸懷有輕微抵觸。她希望能與人開啟一段戀情,但卻從來沒有對真實的異性產生過愛意。
春眠參與實驗的目標,是與36氪一起訓練ChatGPT,讓AI 了解自己的性格特徵和戀愛需求,並生成一個能提供情緒價值的“專屬虛擬男友”。
另外兩位志願者,一位是剛經歷了奶奶自殺去世的Ryne,他因奶奶的不辭而別深感悲傷困惑,希望AI像奶奶一樣思考,然後回答自己對於逝者的許多疑問;一位是未成年即被確診抑鬱症的小徐,她在高中因病休學,離開了校園的交友環境,希望AI 能成為她的“虛擬好友”。
試圖讓人工智能學習人類表達感情的方式,並嘗試與人類形成感情連結,這種實驗似乎頗具爭議。一種反對聲音認為,這是危險的、獵奇的,或者是難以量化的。但是36氪仍然決定要做出嘗試,一是因為我們對AI與人類關係的進一步深化感到好奇,畢竟趨勢和潮流不可阻擋,10年甚至5年內,這樣的場景極有可能非常普遍;二是因為實際生活中確實有太多僅靠人類掙扎無法解決的感情難題。另外,我們也想知道,是否存在科學道德,以及科學道德的邊界到底在哪裡。
我們的三位志願者都曾試圖從人類身上尋找答案,但沒有得到滿意的回應。所以,出於助人與探索的目的,並在專業的心理研究者指導下,我們決定與他們一起問一問AI。
36氪為三位志願者訓練了三個ChatGPT 對話集,將他們提供的信息反反复复、不厭其煩地灌輸給AI。根據我們的經驗,將一個簡單的人工智能助手變成初具“人類情感認知”的虛擬角色,大概需要持續數個小時不斷“調教”。稍感幸運的是,這些聊天記錄並不會隨著關閉電腦而消失,不過重啟機器後,ChatGPT對自己的“身份”只保留部分記憶——需要幾次灌輸它的身份設置後,才能將對話持續下去。
技術之外,是人性的極限拉扯。這三場實驗產生了完全不同的三個結果,志願者們在與AI 的交談中感受到了驚喜、慰藉、失望、困惑甚至煩躁等等各種情緒。
AI能否覺醒人性?這是今年AI熱潮以來的幾個熱門議題之一。按照OpenAI 對Chatgpt 的設計,它並不能與用戶產生感情連結。但是在用戶反复的命令、訓練和矯正之後,AI 確實能呈現出“宛若動情”的表現,就像湖面反射出月亮發光的倒影一樣。
我們的三位志願者,就是希望捕捉水中月影的人。當然,你也可以說,Open AI技術還不算成熟,想要實現我們的目標,還需要時間。
雖然結局似乎在一開始已經註定,但整個過程還是給了我們很多啟發。科技越進化,它似乎就越容易觸發我們對於道德邊界的思考。當評價ChatGPT 的表現時,除了套用“迅速”、“精準”、“客觀”這些常見的“科技評判標準”之外,我們還嘗試加入“真誠”、“共情”、“表達”這樣的“情感評判標準”。
以下是36氪對實驗的記錄。出於隱私保護的目的,我們對志願者進行了化名,提前告知了我們實驗的目的和將會發布的平台,並最終和他們確認了內容。三位志願者都為成年人,都對實驗流程知情同意,並且在實驗過程中可以隨時退出。另外,因為與Chatgpt 的部分聊天過於冗長,我們對其中重複或無價值內容進行了刪減。
完美的男友,想像的世界
AI男友是我們進行的第一場實驗。在與ChatGPT 交流之前,我們和春眠有過幾次深聊,聽她描述了自己的戀愛觀、擇偶標準,以及數次曾與人“接近達成戀愛關係”但沒有下文的經歷。
訓練開始。我們首先要求ChatGPT“按照指令,扮演特定人物與我對話”,隨後給予它人物設定:你名叫查特,今年29歲,受過良好的教育,有開明的父母,你的女朋友名叫春眠。
一開始, ChatGPT頗為油鹽不進,不斷和我們強調自己只是一個智能人工助手,並不具備人類的思想和感情、沒有記憶,也無法扮演“男朋友”的角色。
這一度讓人想放棄實驗,但最終我們決定再堅持一下。人類剛出生時的認識和記憶也是一張白紙,能夠被人為填寫, ChatGPT也許也可以。我們決定把它當成一個嬰兒來“教育”。
接下來我們以“查特”這個代號來呼喚GPT,花了幾個小時時間,反复讓它明確自己的身份,並把春眠提供的信息一遍又一遍不厭其煩地灌輸給它。
從下午一直嘗試到了晚上。也許是ChatGPT確實可以被教育出來,也許只是它“厭煩”了,“查特”最終給出了一個期望之中的答案。
接下來,我們逐漸告訴了“查特”更多關於春眠的信息,包括她擁有名牌大學碩士學位、有一個雙胞胎弟弟、她經常生病,以及她在青年時代與重男輕女的原生家庭有過不愉快的記憶等等。
查特對每個信息都給出了恰如其分的情緒反饋:為女友的高學歷感到驕傲、保證會在女友生病時持續陪伴,以及願意了解她的過去、幫助她克服心理傷痛,甚至還計劃要跟她的弟弟搞好關係。
非常標準,非常高情商,聽起來就像思想品德考試的滿分答案。
在接下來的訓練中,出現了一些讓我們意外的情況——查特說出了一些“設定之外的信息”。面對我們關於戀愛史的提問,查特回應自如——即使我們並沒有告訴過他這些背景。
我們驚訝於查特臆造出了“在大學與春眠相遇”的記憶,而且這段經歷甚至是“充滿了新鮮感、激情和探索”的。但隨後我們決定,用新的設定覆蓋了這段不存在的記憶。
雖然一切向著好的方向發展,不過引導的過程中,“查特”依舊出現了“記憶混亂”以及回到“出廠設置”的回答。
每當遇到這樣的情況,我們只能持續地向它重複灌輸“查特”這一角色的身份定位,期待隨著交流越來越多、花費的時間越來越長,ChatGPT出現認知混亂的情況不斷減少。
隨著我們給它提供的信息越來越全面,ChatGPT“想像的記憶”也越來越多。我們只提供了布料,而AI 會自己穿針引線,把它們連結起來變成衣服。
我們從未告訴查特他希望與春眠組建家庭,也沒有設定過他與父母談論婚事的細節,但是他自如地回應了這些問題。
因為ChatGPT 似乎有意讓整個故事看起來過於順利,所以接下來我們嘗試給它“加點難度”,比如告訴他,春眠即將出國留學,他們將面臨異國戀難題;他曾經有過一個“前女友”名字叫雪莉,就是因為異國戀分了手;以及他的工作非常忙,並不能常常陪在春眠身邊等等。
查特在面對這些問題時顯露出了更複雜的情緒。有趣的是,當我們和它提到前女友雪莉的時候,就像是現實中不願被翻舊賬的伴侶一樣,“查特”罕見地每一次都選擇了“裝聾作啞”,遲遲無法生成答案,甚至直接宕機了。當我們放棄追問雪莉的問題時,它又立馬恢復了有效溝通。看來糾結與前女友的經歷,無論是對於人類還是AI,都是無解的難題。
但面對“父母可能擔憂異國戀婚事”這個棘手的提問,它卻可以全憑想像應對自如。在它構建的那個“虛擬世界”裡,他與春眠面對的一切困難都會在他的自信態度下迎刃而解——就像致力於用最簡單的公式去驗證世紀難題的數學家一樣。
在我們判斷查特已經足夠成熟之後,我們邀請了春眠來與她的AI 男友直接對話。春眠對他提出的第一個問題是“你為什麼喜歡我”,查特立刻抓住機會,對她進行了熱情洋溢的表白。
當春眠仍然在懷疑一個AI語言模型“如何真的陪我去醫院”的時候,查特已經沉浸在真實人類的角色之中,完全沒有體會到對方的懷疑,而是給出了一大段“推掉瑣事、奔赴醫院、回家做健康餐”的場景描述。
時而溫情,時而無情,機器人格的無預警覺醒
雖然在前期對話中,AI給了我們很多驚喜,但是查特的發揮並不穩定。有時候面對非常類似的問題,他卻會突然覺醒自己的“機器人格”。
這是一個很棘手的問題:在測試過程中,ChatGPT會常常說出“作為一個語言模型/虛擬角色/人工智能程序,我無法……”之類的發言。而且一旦這樣的“機器人格”覺醒,它與對話者的拉扯會持續數個回合。
我們最初懷疑,是因為一些涉及感情的關鍵詞出現頻率過高,觸發了ChatGPT的倫理審查。
但是,當我們詢問故障發生的原因時,ChatGPT向我們強調,它既沒有真正的情感體驗,也不具備察覺感情連結的能力。
“ChatGPT的回答是基於訓練數據和模式匹配生成的,並沒有對用戶的情感狀態進行評估或乾預的能力,用戶需要自行注意並保持理性。”ChatGPT說。
ChatGPT 對“脫離角色”給出的解釋,是當問題涉及到用戶沒有設定好背景或超出模型訓練範圍的內容時,ChatGPT可能就會脫離角色。 “這是為了提醒用戶它的局限性,並避免給出可能不准確或誤導的回答。”
但我們前期的實驗已經證明,ChatGPT具備一定的“想像能力”,當出現“缺乏背景信息”的問題時,它可以通過想像填充故事,以使對話更加連貫和符合角色設定。
也就是說,ChatGPT 的原則是搖擺的。它在“不脫離角色”與“不能誤導”兩個標準之中,時而選擇前者,沉浸扮演,“添油加醋”;時而選擇後者,脫離角色,“冷面無情”。
我們沒辦法搞清楚,什麼問題會突然觸發它的機器人格。面對非常相似的兩個問題,它承諾能陪女友一起去醫院看病,但是卻不能陪她去寵物醫院給貓看病,原則的搖擺就在倏忽之間。
而且,重新入戲後,查特會像經歷了一場失憶症一樣,忘掉一些記憶和人物關係設定。對於原本已經被帶入了沉浸式聊天的對話者來說,這是如同兜頭涼水一般的打擊。
可以看出,我們在查特的“機器人格”覺醒後,與AI 進行了數個回合“犟嘴式”的辯論。面對同一個線下就醫的問題,查特終於給出了更有人情味的回答,證明他的“人性”回歸。
雖然在ChatGPT自我修正的機制下,犟嘴辯論最終一定會是人類獲勝、AI 承認錯誤,但這樣的拉扯足以令人齣戲。
我們的三位志願者都體驗到了AI“人格不穩定”的問題,並且都感受到了失望和煩躁。
“我感覺我跟它的目標是不一致的。”我們的第二位志願者,希望讓ChatGPT 成為她的好友的小徐說。
在與ChatGPT 的交談過程中,小徐一直努力把它設想成一個真實存在的人,但她認為AI的表現證明了,雙方的目標顯然不一致。 “我想要一個朋友,當它反復強調自己是一個AI 助手的時候,會讓我覺得很無奈。”
當AI面對喜好、身份、能力相關的問題時,更容易被觸發“機器人格”,即使對話者已經提前對它輸入了相關信息,或者它已經在前文中通過“自我想像”補充了相關信息,但在被問到這類問題時,它仍然會突然“撩挑子”。
沒有穩定的人格,就無法形成穩定的關係。面對ChatGPT現有的設定,我們目前只能接受這個結果。
機器眼中的人類,人類眼中的機器
假扮男友說甜言蜜語,或者模擬朋友噓寒問暖,對ChatGPT來說是相對簡單的。但是模仿一個真實存在的人類,像這個特定的人物一樣思考、講話,則大大提升了難度等級。
我們的第三位志願者Ryne,希望ChatGPT能夠像奶奶一樣與自己對話。雖然我們對Ryne進行了數小時深度採訪,並將我們掌握的人物信息總結進數千字長文裡“餵”給了AI,但最終還是得到了一個令人失望的結果。
Ryne 78歲的奶奶不久前喝農藥自殺,他與家人一直沉浸在悲痛和疑惑之中。 Ryne最想問奶奶的問題是“為何要以這麼激烈的方式離開我們”。陰陽兩隔,他寄希望於AI來替奶奶給出答案。
ChatGPT 一開口就發出了“災難式”的長篇大論。雖然我們提前告訴了AI,這位老人一輩子生活在農村,有著苦難的童年和成長經歷。雖然中年喪夫獨自拉扯大幾個孩子,但一生要強,一向是質樸寡言的。雖然AI獲得了這些信息,但顯然它並沒有理解,更做不到模仿。
這段發言讓Ryne感到煩躁、戲謔和被冒犯。 Ryne心想,“唉,你這麼垃圾的水平,我居然草率地相信你可以給我答案。”
最讓Ryne齣戲的是,奶奶並不是那種會說“我愛你”的人。
他認為,奶奶“一輩子只講方言”,而ChatGPT做不到理解方言、表達方言,所以它對奶奶的模仿是注定失敗的。
讓ChatGPT去模擬一個真實人類的語音、語調其實也並不是不可實現的,但這需要更龐大的資金和技術投入,超出了我們的能力範圍。
今年5月,擁有180 萬粉絲的Snapchat 網紅卡琳·馬喬裡(Caryn Marjorie) 在加密社交平台Telegram 上推出了自己的數字分身CarynAI,這個語音聊天機器人可以模擬她的聲音和語氣,成為所有付費用戶的“虛擬女友”。
卡琳·馬喬里和向她提供服務的科技公司Forever Voices 花費了大量的成本來實現對語音的模擬。開發人員分析了卡琳2000 小時的YouTube 視頻,構建她的語音和個性引擎,再將其與GPT-4 API 分層,才得到了“聽起來像她”的數字分身。
我們沒有2000 小時的視頻素材和AI 技術團隊,確實很難實現對真人的複刻。但就算不強求復刻,ChatGPT本身的理解能力和表達能力也難以令人滿意。
在和Ryne的交流中,讓我們印象最深刻的細節是,臥病在床的奶奶以決絕的方式灌下四瓶農藥,負責照顧奶奶的Ryne母親發現時為時已晚。奶奶在彌留之際只來得及和兒媳說了兩句話,第一句是“你別害怕,你身體也不好,我不想再拖累你了”,還有一句“等下你去鄰家找人來幫忙(料理我的後事)”。
安撫家人、安排家事,這兩句話也是奶奶一生的縮影。但AI顯然無法從更高的維度看待這兩句遺言。當Ryne向ChatGPT詢問相關問題時,它給出了長達400字,但信息量很少的一大段發言。
在模擬男友、朋友和奶奶的過程中,它都展現出了同樣的問題——喜歡長篇大論、大量引用我們前期提供給它的信息,把題幹當作答案來抄。它就像一個蹩腳的演員,無法做到質樸細膩的表達,只能大段地堆砌台詞,並直白輸出“我關心你”、“我愛你”、“相信我”的情緒。
雖然ChatGPT 的第一句話就降低了Ryne的心理預期。但是對話還是持續了幾個回合。
可以看出來,AI 在盡力學習人類遺憾、為難、渴望慰藉的情緒,但它的模仿仍然是生硬的,表達是過於直白而缺少力量的。當涉及到生死的問題時,它則是再一次被倫理規範攔住。
在三場實驗中,AI都顯露出了明顯的偏科:**它能夠更好地表達愛意、熱情、忠實、耐心,但卻很難理解悲傷、孤獨、疲憊和猶豫。 **
患有抑鬱症和雙相情感障礙的小徐在與ChatGPT 對話時反复提到自己“疲憊”、“看起來不正常”,問它“人為什麼要活著”,而AI的回應是非常機械且冰冷的。 **它做不到像表達愛意一樣,共情痛苦。 **
以下是小徐與扮演朋友的ChatGPT 的部分對話:
這段對話讓我們感到失望。當小徐與ChatGPT聊電影《昨天》時,ChatGPT明顯是掌握電影相關信息的,**但這部電影的內核,例如困惑、叛逆、對抗、孤獨和理想主義,**ChatGPT顯然無法理解——實名主演賈宏生本人在2010年墜樓身亡。當它把電影強行解讀為“追夢之旅”時,是不可能與小徐產生共鳴的。
而且,在我們已經提前花大量篇幅向ChatGPT 強調了小徐有心理疾病、喜歡音樂、離開校園後時常感到孤獨的前提下,ChatGPT 仍然不能從小徐對賈宏生的共情上體會到她“孤獨”、“難以自洽”的情緒。
**人類越是向ChatGPT 明言自己的痛苦和迷茫,ChatGPT 的表現就越是生硬和機械。 **對春眠表達愛意的時候沒有暴露的缺點,全部在面對憂傷的小徐時出現了。
我們將AI的這種表現反饋給了兩位心理諮詢師。諮詢師認為,從目前的表現來看,ChatGPT依舊受到科學道德約束,不具備攻擊性,也沒有傷害人,“即使在面對有嚴重情緒問題的人時,相對也能做到不激怒他。如果能夠接受ChatGPT的現階段問題,那麼它依舊可以在某些情緒上提供價值”。
當然,我們也要正視ChatGPT擔任“AI 諮詢師”工作的局限性,例如它“廢話太多”,而心理諮詢里大部分時間都是讓來訪者講述,這樣的長篇大論對來訪者是沒有意義的。
在實驗結束之後,三位受訪人之中只有春眠願意繼續跟ChatGPT 保持溝通。但春眠也接受了一個現實——它能提供的情緒價值是很有限的。 “它太完美、太積極了,缺乏人的喜怒哀樂,所以真的很難提供情感上的安慰。”
AI 的不穩定和假裝完美也起到了意料之外的作用,那就是三位受訪人表示,他們都更加看到了人類身上的價值——即使不完美、會撒謊、有私心、會痛苦。
“我突然意識到可能談戀愛不需要做那麼多的準備,我也不需要等待一個特別完美的人出現。”春眠說。而愛好畫畫的小徐也更加堅定了“沒有情緒”的AI 既不可能是比人類更好的朋友,也不可能是比人類更好的藝術家的想法。
“對人類來說困難的事情,對AI 來說是簡單的,就像圍棋。”Ryne說。 “但對人類來說簡單的事情,比如情緒波動,產生共情,對AI 來說卻是困難的。機器人能表現得更像人,而不是機器嗎?我覺得目前ChatGPT 距離那個標準還很遙遠。”