亞馬遜雲推出AI代理功能,讓AI成為助理而不僅是聊天

來源:澎湃新聞

記者邵文

·Amazon Bedrock的Agents(代理)功能將使公司能夠構建可以自動執行特定任務的AI應用程序,例如預訂餐廳,而不僅僅是得到去哪裡吃飯的建議。

·“很多人都如此聚焦於這些模型和模型的大小,但我認為真正重要的是如何利用它們構建應用,這也是今天發布代理(Agents)功能的一個重要原因。”

當地時間7月26日,亞馬遜雲科技數據庫、數據分析和機器學習全球副總裁斯瓦米·西瓦蘇布拉馬尼安在紐約峰會上講話。

在亞馬遜雲科技(AWS)年度峰會之一的紐約峰會上,多項發布都緊緊圍繞生成式人工智能。 “這項技術已經達到了臨界點。” 亞馬遜雲科技數據庫、數據分析和機器學習全球副總裁斯瓦米·西瓦蘇布拉馬尼安(Swami Sivasubramanian)說。

美東時間7月26日,在紐約峰會上,AWS推出生成式AI服務Amazon Bedrock的Agents(代理)功能,助力基礎模型完成複雜任務。 “這將使公司能夠構建可以自動執行特定任務的AI應用程序,例如預訂餐廳,而不僅僅是得到去哪裡吃飯的建議。”西瓦蘇布拉馬尼安表示。

除此之外,AWS還推出了新的人工智能工具,包括編程助手Amazon CodeWhisperer正式可用、用於在患者就診後生成臨床記錄的智慧醫療新服務Amazon HealthScribe以及分析服務Amazon Entity Resolution等。同時其宣布,加速生成式AI和高性能計算應用Amazon EC2 P5實例正式可用。

亞馬遜雲科技生成式AI全球副總裁瓦西·菲羅明(Vasi Philomin)對澎湃科技記者(分享道,在所有的發布中,他最關注和引以為傲的就是代理(Agents)功能。“很多人都如此聚焦於這些模型和模型的大小,但我認為真正重要的是如何利用它們構建應用,這也是今天發布代理(Agents)功能的一個重要原因。”

人工智能代理競賽

像OpenAI的GPT-4或Meta的Llama 2等生成式AI模型功能強大,但在沒有額外幫助(例如插件)的情況下,實際上其無法為用戶自動執行某些任務。

Amazon Bedrock提供了一種通過初創公司以及亞馬遜雲科技本身的預訓練模型來構建生成式AI應用程序的方法,而無需投資服務器。 Amazon Bedrock的代理(Agents)功能讓公司可以使用自己的數據來教授基礎模型,然後構建其他應用程序來完成任務。開發人員可以選擇使用哪個基礎模型,提供一些說明,並選擇模型讀取哪些數據。

這類似於OpenAI最近為GPT-4和ChatGPT推出的插件系統,該系統通過讓模型利用第三方API和數據庫來擴展模型的功能。事實上,最近出現了一種“個性化”生成模型的趨勢,Contextual AI等初創公司構建了工具來利用企業數據增強模型。

舉個例子,如旅遊公司可以使用生成式人工智能來提供旅行建議,然後構建另一個代理(Agents)來接收用戶的旅行歷史和興趣,再利用一個代理來查找航班時刻表,最後構建一個代理來預訂所選航班。

對代理(Agents)有熱情的不止AWS。 4月,Meta首席執行官馬克·扎克伯格(Mark Zuckerberg) 也告訴投資者,他們有機會將人工智能代理(Agents)“以有用且有意義的方式帶給數十億人”。 7月,OpenAI首席執行官山姆·奧特曼(Sam Altman)在接受《大西洋月刊》採訪時深入探討了人工智能代理以及如何最好地實現。

路透社在7月報導稱,“自主”人工智能代理(Agents)的競賽席捲了矽谷。其以一家初創公司為例,Inflection AI在6月底籌集了13億美元資金。據其創始人在播客中透露,該公司正在開發一款私人助理,據稱可以充當導師或處理諸如在旅行延誤後獲得航班積分和酒店等任務。

7月26日,西瓦蘇布拉馬尼安在接受媒體採訪時表示,索尼( SONY )、瑞安航空(Ryanair)、永明(Sun Life)等客戶都已經試用了Amazon Bedrock。西瓦蘇布拉馬尼安表示,Amazon Bedrock將“很快”向所有客戶開放。他拒絕透露具體時間,並補充說公司的目標是首先解決成本分配和企業控制方面的問題。

Amazon Bedrock服務於四月份推出,當時Amazon Bedrock提供Amazon Titan(AWS自己的基礎模型)以及由stable.ai、AI21Labs 和Anthropic創建的模型。

此次在紐約峰會上,AWS宣布新增Cohere作為基礎模型供應商,加入Anthropic和Stability AI的最新基礎模型聊天機器人。 Cohere的命令文本生成模型經過訓練可以遵循用戶提示並返回摘要、副本和對話,該工具還可以提取信息並回答問題。

AWS平台可調用英偉達H100芯片

在紐約峰會上,AWS也推出由英偉達H100芯片提供支持的Amazon EC2 P5實例。某種程度上,這是AWS與英偉達十多年合作的一個重要里程碑。

H100 GPU的顯著特點之一是對Transformer的優化,這是大型語言模型所採用的一項關鍵技術。 Amazon EC2 P5實例提供8個英偉達H100 GPU,具有640 GB高帶寬GPU內存,同時提供第三代AMD EPYC處理器、2TB系統內存和30 TB本地NVMe存儲,用於加速生成式AI和高性能計算應用。

Amazon EC2 P5與上一代基於GPU的實例相比,訓練時間最多可縮短6倍(從幾天縮短到幾小時)。據AWS介紹,與上一代相比,這一性能提升將降低40%的訓練成本。

實際上,從2013年推出首顆Amazon Nitro芯片至今,AWS是最先涉足自研芯片的雲廠商,已擁有網絡芯片、服務器芯片、人工智能機器學習自研芯片3條產品線。 2023年初,專為人工智能打造的Amazon Inferentia 2(可通過芯片之間的直接超高速連接支持分佈式推理)發布,最多可支持1750億個參數,這使其成為大規模模型推理的有力競爭者。

對於是否擔心提供英偉達H100芯片會降低AWS自研芯片的吸引力,菲羅明對澎湃科技(回應道,“我們對競爭持歡迎態度。硬件每隔幾年都會變得更好,這是一種常態。目前一個重要問題是生成式AI的成本相當高,這就是為什麼沒有人真正將其投入到生產工作負載中,每個人都還在試驗階段。一旦將其真正投入生產工作負載中,他們會意識到90%的成本都是由其產生。最好的情況是,每次調用都不會虧錢,而是真正賺錢。為了實現這一點,我認為我們需要競爭。”

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)