📢 Gate廣場專屬 #WXTM创作大赛# 正式開啓!
聚焦 CandyDrop 第59期 —— MinoTari (WXTM),總獎池 70,000 枚 WXTM 等你贏!
🎯 關於 MinoTari (WXTM)
Tari 是一個以數字資產爲核心的區塊鏈協議,由 Rust 構建,致力於爲創作者提供設計全新數字體驗的平台。
通過 Tari,數字稀缺資產(如收藏品、遊戲資產等)將成爲創作者拓展商業價值的新方式。
🎨 活動時間:
2025年8月7日 17:00 - 8月12日 24:00(UTC+8)
📌 參與方式:
在 Gate廣場發布與 WXTM 或相關活動(充值 / 交易 / CandyDrop)相關的原創內容
內容不少於 100 字,形式不限(觀點分析、教程分享、圖文創意等)
添加標籤: #WXTM创作大赛# 和 #WXTM#
附本人活動截圖(如充值記錄、交易頁面或 CandyDrop 報名圖)
🏆 獎勵設置(共計 70,000 枚 WXTM):
一等獎(1名):20,000 枚 WXTM
二等獎(3名):10,000 枚 WXTM
三等獎(10名):2,000 枚 WXTM
📋 評選標準:
內容質量(主題相關、邏輯清晰、有深度)
用戶互動熱度(點讚、評論)
附帶參與截圖者優先
📄 活動說明:
內容必須原創,禁止抄襲和小號刷量行爲
獲獎用戶需完成 Gate廣場實名
“ChatGPT之父”劍橋演講遭抵制,學術大佬激戰AI安全
文章來源:鈦媒體
作者:林志佳
編輯:馬金男
本文首發鈦媒體APP
隨著美國政府發佈新的AI法規,關於監管AI大模型一事最近又起爭議。
北京時間11月2日淩晨,「ChatGPT之父」、OpenAI CEO奧特曼(Sam Altman)在英國劍橋參加活動時,遭到了反AI活動的激進分子的強烈抵制,在大禮堂里當面被「砸場子」,少數抗議者要求停止AI競賽。
奧特曼在演講中表示,即便未來AI模型足夠強大,但也需要巨大的算力才能運行。 如果提高了算力門檻,能夠降低蓄意犯罪風險,也能提高問責性。 早前,OpenAI聯合創始人Ilya Sutskever直言,ChatGPT可能是有意識的,AI將有潛在風險。
與此同時,Meta AI首席科學家、2018年「圖靈獎」得主楊立昆(Yann LeCun)近日則多次在社交平臺上痛批Altman、DeepMind CEO 傑米斯·哈薩克斯(Demis Hassabis)、Anthropic CEO等人正向美國政府「進行大規模的企業遊說」,最終可能會導致只有少數大科技巨頭能控制AI技術。
楊立昆直指這些人散佈恐懼活動。 “如果他們成功,你我將不可避免地導致一場災難——少數公司將控制AI。”
在AI大模型競爭日趨白熱化的當下,行業進入“混戰”,圍繞巨頭控制 AI這一話題,所有人都在進行激烈交戰。
AI是人類最大威脅? 馬斯克:AI將比人類更聰明
過去的近12個月內,ChatGPT席捲全球,生成式AI已完全成為今年科技圈的中心話題。
如今,蘋果公司也開始擁抱AI。
北京時間11月3日上午四季度財報會上,蘋果公司CEO蒂姆·庫克(TimCook)談到,蘋果公司已經在生成式AI方面開展各項工作,並正在投入大量的資金負責任的去做。 “隨著時間推移,你會看到以這些技術為核心的蘋果產品將得到進步。”
早前彭博社報導稱,蘋果正在AI領域悄然追趕競爭對手,一方面加大了 AI相關的招聘力度,另一方面還通過併購初創公司的方式,加速AI 技術的成熟和落地,而且內部已著手開發大語言模型,內部稱為AppleGPT。
同時,2200億美金身價的世界科技首富、特斯拉CEO埃隆·馬斯克(Elon Musk)成立的xAI團隊也被傳首批產品資訊,包括與AI資訊檢索相關Grok、提示詞工作站IDE等。 此外,谷歌、微軟、亞馬遜等科技巨頭也參與AI浪潮中。
然而,包括馬斯克、奧特曼等行業領導者,最近卻每周談論宣揚AI 具有潛在殺傷力、AI存在風險等話題。 這似乎成為了一個“小圈子共識”。
11月2日,馬斯克在英國AI峰會期間就表示,AI是人類最大威脅之一,而且AI將會成為歷史上最具顛覆性的力量,並將比人類更加聰明。 他相信,AI終有一天會令所有人失去工作。
馬斯克曾多次警告,AI比核武器(核彈)更危險。
奧特曼也多次表示,政府管控。 10年內,全球將可能擁有一個強大的 AI系統(AI),但現在,人類就需要為此做好準備。
美國政府也對AI安全問題開始監管。 10月30日,美國總統拜登簽署了一項針對AI的新的行政命令,針對AI安全標準方向採取有史以來最全面的行動,保護美國人的隱私,促進公平和公民權利,維護消費者和工人的利益,促進創新和競爭,以及在國外推進美國的領導地位等,管理AI潛在風險。
值得一提的是,在新的行政命令中,加強了對AI巨頭公司的支援力度,如通過研究資金和其他手段支援AI研究、吸引外國人才等。
一石激起千層浪。
隨後,「圖靈三巨頭」等AI學術專家圍繞AI監管展開了激烈討論,主要分成了兩派:以楊立昆和吳恩達為代表的人認為,車還沒造好就想剎什麼車,AI沒到監管的階段; 而包括馬斯克、奧特曼、“深度學習之父”傑弗里·辛頓(Geoffrey Hinton)等人卻認為,AI依然非常危險。
其中,楊立昆直言不諱的表示,如果美國持續支援科技巨頭的AI研究,最終可能會導致只有少數大科技巨頭能控制AI,從而不可避免地導致一場巨大的風險與災難。
“和許多人一樣,我非常支持開放式AI平臺。 但我也相信,未來AI是人們創造力、民主、市場力量和監管等多種力量的結合。 “楊立昆在X平臺寫道。
谷歌大腦開創者、斯坦福大學教授吳恩達也支援楊立昆。 他表示,對AI技術發展進行強監管是一個「陰謀」。。
“這會摧毀創新”,吳恩達指出,“肯定有一些大型科技公司不願意與開源AI競爭,因此他們正在製造對AI導致人類滅絕的恐懼。 這一直是遊說者尋求的立法武器,但對開源社區來說是非常有害的。 隨著許多國家監管的發展方向,我認為沒有監管會比現在的情況更好。 ”
但與此同時,10月25日,圖靈獎得主約書亞·本吉奧(Yoshua Bengio)、“深度學習之父”傑弗里·辛頓(Geoffrey Hinton)、姚期智(Andrew Yao)、張亞勤等AI行業專家也簽署了一封聯名信,信中繼續呼籲加強對於AI技術發展的監管,認為在開發這些系統之前應採取緊急治理措施, 並在AI研發中向安全和道德實踐進行重大轉變。
如今,這場圍繞 AI安全監管的學術大佬間激烈交戰仍在持續。 AI當前已深入從搜尋引擎、社交到金融等各個領域,因此專家們對這場AI軍備競賽、安全風險、深度造假等挑戰提出了嚴重擔憂。
而很多網友擔心大佬們的關係會不會受到論戰的影響。 楊立昆前段時間發了一條與Yoshua Bengio、辛頓之間的合照,似乎很好地回應了這個問題。
11月3日,美國政府表示,其已成立AI安全研究所,希望通過美國商務部等機構的立法身份,制定監管AI未來的標準和規則。
監管加速 未來10年人類或將全面進入智力時代
11月1日,在英國倫敦布萊奇利園舉辦的首屆人工智慧安全峰會上,發佈了《布萊奇利宣言》,宣言稱AI帶來巨大機遇,有潛力增強人類福祉、和平和繁榮,但同時AI也帶來重大風險,而需要通過國際合作的形式解決各種風險。
會上,包括美國、中國及歐盟在內的超過25個國家和地區簽署了該宣言。 英國首相蘇納克表示,「這是一項具有里程碑意義的成就,世界上最強大的 AI強國都認識到」瞭解AI風險『這件事的緊迫性,這有助於確保我們下一代的長遠未來。 作為領導人,我們有責任採取行動,採取措施保護人民,這正是我們正在做的事情。 ”
宣言中指出,AI將帶來重大風險,包括在日常生活領域,“所有問題都至關重要,我們確認解決它們的必要性和緊迫性。 ”
“為了實現這一點,我們申明,為了所有人的利益,AI應該以安全、以人為本、值得信賴和負責任的方式設計、開發、部署和使用。” 宣言稱,AI產生的許多風險本質上是國際性的,因此最好通過國際合作來解決——識別共同關注的AI安全風險以及支援具有國際包容性的前沿AI 安全科學研究網路。
11月3日,在北京大學舉辦的“新一代人工智慧前沿論壇”上,北京大學計算機學院教授,北京智源人工智慧研究院院長黃鐵軍表示,目前這場爭論問題在於,大家對AI的基本認識不同,很多搞科學思維的人不相信通用人工智慧(AGI)會實現,而包括楊立昆在內的另一種技術思維認為AI發展可行。
“這是兩種完全不同的思維方式,誰也說服不了誰。 所以爭論背後,是大家完全是用不同的立場、不同的思維方式來看這一問題。 “黃鐵軍在演講中稱。
在黃鐵軍看來,未來10年,整個世界的經濟社會、科技的形態可能都會發生一個重大的變化,智力將成為社會運行的基本要素,就像今天的電力無處不在一樣,世界就形成了。 而2045年,在AI技術下,人類可以實現即時智能數據,並將反覆運算升級,大腦、後續決策也會發生變化。
“我認為,2045年之前,像我們人類所有的這些靈感創新能力,會在一個非有機體上出現,但如果出現,那就是一個巨大的風險,我們人類要不要做這個選項,還是說可以慢一點,這需要多多討論。” 黃鐵軍在演講結尾表示。