AI 正在殺死舊Web?

原文來源:CSDN

圖片來源:由無界AI‌ 生成

隨著OpenAI 的ChatGPT、Google 的Bard 等AIGC 工具的出現,由AI 驅動的內容、信息、機器人已經在過去一年中迅速融入了Web 網站之中。

然而,在這些工具帶來極大便利、提升效率之際,虛假用戶、垃圾廣告、錯誤性消息也接踵而至。

就在幾天前,一家社交應用初創公司IRL(IN REAL LIFE)估值一度高達17 億美元,並在軟銀領銜的C 輪融資中籌集到了1.7 億美元。結果,根據董事會內部調查發現,該公司對外宣稱的2000 萬月活用戶中,其中有95% 都是“機器人”。

近日,一家為在線新聞媒體提供信任評級的公司NewsGuard 發布了一項新分析顯示,由於科技巨頭、銀行等全球主要品牌的廣告預算,他們正在向AI 生成的低質量網站提供廣告收入,讓這些充斥著AI 生成的低質量內容網站得到了大量的經濟支持,且繼續存活下去。

對此,外媒The Verge記者James Vincent 總結道,「現如今,AI 正在殺死舊Web,新Web 艱難誕生」。而在他看來,這也未必是一件壞事。

短短幾分鐘,生成式AI 便可以創造大量文本和圖像

The Verge 指出,從廣義上來講,多年前,Web 網站曾經是個人創造創新的地方,很多人在網絡上開發網站、論壇和郵件列表,並藉此賺一點錢。

後來,很多公司成立,且覺得他們可以做得更好,於是他們創建了靈活且功能豐富的平台,並敞開大門,讓更多的人加入其中。

這就有些像,他們把盒子放在我們面前,我們在這些盒子裡填滿文字和圖像,人們來看這些盒子裡的內容。這些公司追逐規模,因為一旦有足夠多的人聚集到這裡,通常就有辦法從中賺錢。

但人工智能的出現,改變了這些假設。

在ChatGPT、Bard、新Bing 流行的今天,它們可以快速生成大量的文本和圖像,也可以製作音樂和視頻。

現實來看,它們的輸出可能會超越我們所依賴的新聞、信息和娛樂平台。

廣告收入養活了大量AI 生成新聞和信息的網站

據NewsGuard 發布的數據,其從今年5 月開始跟踪AI 生成新聞和信息網站(UAIN),每週能發現25 個新的UAIN,如今可能有數百個AI 生成內容網站。

那麼這些充斥著大量AI 內容的網站存在的意義是什麼?

NewsGuard 指出,其中重要一點就是成為很多品牌公司的廣告投放地。

分析師通過分析發現,投放在這些UAIN 網站的廣告是以編程方式生成的,這意味著很多知名公司並不是選擇將自家的廣告投放到UAIN 上,而是由投放廣告系統定位過來的,其中大多數廣告是由Google Ads 投放。

NewsGuard 表示,他們的分析師已將217 個網站添加到其UAIN 網站跟踪器中,其中許多網站似乎完全由程序化廣告資助。

由於網站可以通過程序化廣告賺錢,因此它們有動力經常發佈內容。該公司發現其中一個UAIN 網站,在今年6 月9 日至6 月15 日這一周發表了約8,600 篇文章,平均每天約有1,200 篇文章。

相比之下,新聞網站《紐約時報》每天發表約150 篇文章,其背後的編輯、記者數量眾多。

事實上,在今年5 月和6 月進行的最新研究中,NewsGuard 分析師瀏覽了美國、德國、法國和意大利的網站,發現來自141 個主要品牌的393 個程序化廣告出現在217 個UAIN 網站中的55 個上。

這樣的趨勢之下,基於廣告收入,讓大量新型的AI 生成新聞和信息網站存活下去,充斥在網絡的各個地方。

舊Web 網站正在遭AI “洗禮”

除此之外,大量AI 生成的內容也滲透到了很多老牌社區、平台,如LinkedIn 正在利用人工智能來激活用戶;Snapchat 和Instagram 希望當你的朋友不說話時,機器人會與你交談等等。

與此同時,一些Web 網站也正在被動地受到ChatGPT 的衝擊,譬如,知名程序員社區Stack Overflow 便是其一。

為此,今年早些時候,Stack Overflow 還緊急發布了“禁令”,稱禁止使用ChatGPT 生成的內容來回答Stack Overflow 上的問題。

原因是:

由GPT 生成的貢獻通常不符合這些標準,因此不會為可信賴的環境做出貢獻。當用戶在不驗證GPT 提供的答案是否正確的情況下將信息複製並粘貼到答案中,沒有確保答案中使用的來源被正確引用(GPT 不提供這種服務),也沒有驗證GPT 提供的答案是否清楚和簡潔地回答了所問的問題時,這種信任就被打破了。

不過,一味地阻止AI 使用的擴展,並不是解決問題的根本。 Stack Overflow 針對AI 的使用,計劃向那些在構建自己的人工智能工具時抓取其數據的公司收費。除此之外,Stack Overflow 自身也有計劃提供AI 相關服務。

另一個受到AI 影響較大的平台便是問答社區Reddit。 “Reddit 的數據很有價值,但是我們不需要將所有這些價值免費提供給世界上一些最大的公司”,當Reddit CEO Steve Huffman 說出這句話時,便意味著該公司會有所動作了。

令人萬萬沒想到的是,其更新了Reddit API 收費政策,想要從中獲得更多收入,也為了讓其數據有一定的價值體現時,卻遭到了很多版主實施封鎖社區版塊以示抗議。

最後,作為很多網站訪問的入口,全球第一大搜索引擎Google 掌握著現代Web 網站的命脈。不過,受Bing AI 和ChatGPT 作為替代搜索引擎的趨勢推動,Google 也正在採取行動,有媒體報導稱,Google 正尋求打造一款由AI 技術驅動的全新搜索引擎,新引擎的一大特點是“能夠猜到用戶的需求”,該引擎將根據用戶的搜索內容,學習並預測用戶想要知道的事情,並且將提供預先挑選的購買物品、研究信息和其他信息的清單。如果Google 真的實施這一計劃,那麼AI 對傳統網站帶來的影響將是巨大的。

**讓AI 掌舵Web 網站,會發生什麼? **

毋庸置疑,AI 現在變得無處不在,倘若所有的平台,都被AI 蠶食,又會有什麼樣變化?

對此,科技網站Tom's Hardware 的主編Avram Piltch 指出,儘管人工智能擁有重組文本的能力,但最終創建底層數據的是人——無論是記者拿起電話核查事實,還是在遇到電池問題時Reddit 用戶能很高興告訴你是怎麼修復它的。

相比之下,AI 語言模型和聊天機器人產生的信息通常不一定對,更為棘手的是,當它出錯時,其錯誤方式往往很難被發現。因此,這需要時間和專業知識來進一步核實。

如果機器生成的內容取代了人類的作者身份,那麼在原本只有人犯錯的基礎上,有多了AI 本身就會犯錯,甚至一定程度上阻礙了人類專業知識的汲取能力,那麼糾正我們集體錯誤的機會就會減少。

與此同時,The Verge 記者James Vincent 指出,人工智能對Web 的影響並不是那麼簡單就可以概括的。即使在上面引用的少數例子中,也有許多不同的機制在起作用。

在他看來,最成功的網站往往是利用規模發揮其優勢的網站,要么通過增加社會聯繫或產品選擇,要么通過對構成互聯網本身的巨大信息群進行分類,但這種規模依賴於大量人類來創造潛在價值,在大規模生產方面,人類顯然無法擊敗人工智能。

但這一定是一件壞事嗎?

其實不然,James Vincent 認為,“有些人會說這只是世界運行的一種方式,並指出Web 本身殺死了之前的事物,而且往往是為了變得更好。例如,印刷版百科全書幾乎已經絕跡,但我更喜歡維基百科的廣度和可訪問性,而不是《大英百科全書》的厚度和保證。對於與人工智能生成的寫作相關的所有問題,也有很多方法可以改進它——從改進的引文功能到更多的人工監督。**另外,即使Web 儘管充斥著人工智能垃圾,但它可能會被證明是有益的,能夠刺激資金更充足的平台的發展。**例如,如果Google 總是在搜索中給你提供垃圾結果,你可能會更傾向於為你信任的來源付費並直接訪問它們。”

事實上,人工智能目前造成的變化只是Web 歷史上長期鬥爭中的最新一個。從本質上講,這是一場信息之戰——誰製造信息、如何訪問信息以及誰獲得報酬。但僅僅因為戰鬥是熟悉的並不意味著它不重要,也不能保證後續的系統會比我們現在的系統更好。新Web 正在努力誕生,我們現在做出的決定將決定它的發展方式。

參考:

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)