1 Với việc Microsoft và Google đang dẫn đầu trong lĩnh vực trí tuệ nhân tạo tổng quát, Amazon cũng đang bắt kịp, có thông tin cho rằng công ty đã bí mật thiết kế hai con chip ở Austin, Texas, để đào tạo và tăng tốc trí tuệ nhân tạo tổng quát. .
2 Hai chip tùy chỉnh do Amazon, Inentia và Trainium phát triển, cung cấp cho khách hàng Amazon Cloud Services AWS một giải pháp thay thế cho việc mua GPU Nvidia ngày càng khó khăn để đào tạo các mô hình ngôn ngữ lớn.
3 Sự thống trị của AWS trong lĩnh vực điện toán đám mây là một lợi thế lớn cho Amazon. AWS là nhà cung cấp điện toán đám mây lớn nhất thế giới, chiếm 40% thị trường vào năm 2022.
4 Các nhà phân tích tin rằng các chip tùy chỉnh của Amazon có thể mang lại lợi thế cho trí tuệ nhân tạo tổng quát về lâu dài.
Trong hai căn phòng nhỏ của một tòa nhà văn phòng không có gì nổi bật ở Austin, Texas, một số nhân viên của Amazon đang thiết kế hai loại vi mạch để đào tạo và tăng tốc trí tuệ nhân tạo. Hai chip tùy chỉnh, có tên mã là Inentia và Trainium, cung cấp cho khách hàng của Amazon Web Services một giải pháp thay thế cho bộ xử lý đồ họa Nvidia để đào tạo các mô hình ngôn ngữ lớn. Ngay bây giờ, việc tìm nguồn cung cấp bộ xử lý đồ họa của Nvidia ngày càng khó khăn và tốn kém hơn.
Giám đốc điều hành AWS Adam Selipsky cho biết trong một cuộc phỏng vấn vào tháng 6: "Cả thế giới muốn có nhiều chip hơn cho trí tuệ nhân tạo, cho dù đó là đơn vị xử lý đồ họa hay thiết kế của chính Amazon". khách hàng của chúng tôi khả năng này mà mọi người đều muốn.”
Tuy nhiên, các công ty khác đã di chuyển nhanh hơn, đổ nhiều tiền hơn và vay mượn từ sự bùng nổ của AI. Khi OpenAI ra mắt ChatGPT vào tháng 11 năm ngoái, Microsoft đã thu hút được rất nhiều sự chú ý khi lưu trữ chatbot AI bùng nổ. Microsoft được cho là đã đầu tư 13 tỷ USD vào OpenAI. Microsoft đã nhanh chóng bổ sung các mô hình trí tuệ nhân tạo tổng quát vào các sản phẩm của mình và tích hợp chúng vào Bing vào tháng Hai.
Cùng tháng đó, Google đã ra mắt mô hình ngôn ngữ lớn của riêng mình, Bard, và sau đó đầu tư 300 triệu USD vào đối thủ cạnh tranh OpenAI là Anthropic.
Mãi đến tháng 4 năm nay, Amazon mới công bố mô hình ngôn ngữ lớn của riêng mình, Titan, đồng thời tung ra dịch vụ có tên Bedrock để giúp các nhà phát triển sử dụng trí tuệ nhân tạo tổng quát để nâng cao khả năng của phần mềm.
Chirag Dekate, phó chủ tịch kiêm nhà phân tích của Gartner, cho biết: "Amazon không quen theo đuổi thị trường mà quen với việc tạo ra chúng. Tôi nghĩ rằng lần đầu tiên sau một thời gian dài, họ thấy tôi ở thế bất lợi và bây giờ tôi đang cố gắng để bắt kịp."
Meta gần đây cũng đã phát hành mô hình ngôn ngữ lớn Llama 2 của riêng mình, một đối thủ cạnh tranh của ChatGPT nguồn mở hiện có sẵn để thử nghiệm trên đám mây công cộng Microsoft Azure.
Chip đại diện cho "Sự khác biệt đích thực"
Decatur cho biết về lâu dài, các chip tùy chỉnh của Amazon có thể mang lại lợi thế cho trí tuệ nhân tạo tổng quát. "Tôi nghĩ rằng sự khác biệt thực sự là khả năng kỹ thuật mà họ có, bởi vì Microsoft không có Trainium hoặc Interentia," ông giải thích.
Ảnh: AWS bắt đầu sản xuất chip Nitro tùy chỉnh vào năm 2013, hiện là chip AWS lớn nhất
Trở lại năm 2013, AWS lặng lẽ bắt đầu sản xuất chip tùy chỉnh với một phần cứng chuyên dụng có tên Nitro. Amazon tiết lộ rằng Nitro hiện là chip AWS có dung lượng lớn nhất và có ít nhất một chiếc trên mỗi máy chủ AWS, với tổng số lần sử dụng là hơn 20 triệu.
Năm 2015, Amazon mua lại Annapurna Labs, một công ty khởi nghiệp về chip của Israel. Sau đó, vào năm 2018, Amazon đã ra mắt Graviton, chip máy chủ dựa trên kiến trúc Arm của nhà thiết kế chip người Anh, đối thủ cạnh tranh với CPU x86 của những gã khổng lồ như AMD và Nvidia.
Stacy Rasgon, nhà phân tích cấp cao tại Bernstein Research cho biết: "Chip cánh tay có thể chiếm tới 10% tổng doanh số máy chủ và một phần đáng kể trong số đó sẽ đến từ Amazon". làm tốt lắm."
Cũng trong năm 2018, Amazon đã tiết lộ chip tập trung vào trí tuệ nhân tạo. Hai năm trước, Google đã phát hành Đơn vị xử lý Tensor (TPU) đầu tiên của mình. Microsoft vẫn chưa công bố Athena, chip trí tuệ nhân tạo mà hãng đang phát triển cùng AMD.
Amazon có một phòng thí nghiệm trên chip ở Austin, Texas, nơi nó phát triển và thử nghiệm Trainium và Inferentia. Matt Wood, phó chủ tịch phụ trách sản phẩm của công ty, đã giải thích chức năng của hai con chip.
Ông nói: "Machine learning được chia thành hai giai đoạn khác nhau. Vì vậy, bạn cần đào tạo các mô hình machine learning, sau đó thực hiện suy luận trên các mô hình được đào tạo này. So với các cách đào tạo mô hình machine learning khác trên AWS, Tradium in The price/ tỷ lệ hiệu suất đã được cải thiện khoảng 50%.
Trainium ra mắt vào năm 2021, sau khi ra mắt Interentia thế hệ thứ hai vào năm 2019. Interentia cho phép khách hàng "cung cấp suy luận máy học với chi phí thấp, thông lượng cao, độ trễ thấp, đó là tất cả những dự đoán bạn nhận được khi đưa một gợi ý vào mô hình AI tổng quát, tất cả những điều đó được xử lý và sau đó bạn nhận được một phản hồi," Wood nói.
Tuy nhiên, hiện tại, GPU của Nvidia vẫn là vị vua không thể tranh cãi khi nói đến các mô hình đào tạo. Vào tháng 7, AWS đã tiết lộ phần cứng tăng tốc AI mới dựa trên H100 của Nvidia.
"Trong 15 năm qua, Nvidia đã xây dựng một hệ sinh thái phần mềm khổng lồ xung quanh chip của mình mà không công ty nào khác có được. Hiện tại, người chiến thắng lớn nhất trong lĩnh vực AI là Nvidia," Rasgon nói.
Ảnh: Các chip tùy chỉnh của Amazon, từ trái qua phải là Inferentia, Trainium và Graviton
Amazon có lợi thế về điện toán đám mây
Tuy nhiên, sự thống trị của AWS trong lĩnh vực điện toán đám mây là một lợi thế lớn cho Amazon.
"Amazon không cần chú ý thêm, công ty đã có một cơ sở cài đặt đám mây rất mạnh. Tất cả những gì họ cần làm là tìm ra cách sử dụng trí tuệ nhân tạo sáng tạo để biến hiện tại Có khách hàng mở rộng thành các phong trào tạo ra giá trị."
Khi chọn trí tuệ nhân tạo chung giữa Amazon, Google và Microsoft, hàng triệu khách hàng của AWS có thể bị thu hút bởi Amazon vì họ đã quen thuộc với Amazon và chạy các ứng dụng khác cũng như lưu trữ dữ liệu ở đó.
Mai-Lan Tomsen Bukovec, phó chủ tịch phụ trách công nghệ của AWS giải thích: "Đó là vấn đề về tốc độ. "Các công ty này có thể phát triển các ứng dụng AI tổng quát này nhanh đến mức nào. Việc bắt đầu với dữ liệu trong AWS trước và thúc đẩy dữ liệu bằng các công cụ máy tính và máy học mà chúng tôi cung cấp."
Theo dữ liệu do Gartner cung cấp, AWS là nhà cung cấp điện toán đám mây lớn nhất thế giới, chiếm 40% thị trường vào năm 2022. Mặc dù lợi nhuận hoạt động của Amazon đã giảm so với cùng kỳ năm ngoái trong ba quý liên tiếp, nhưng AWS vẫn chiếm 70% trong tổng số 7,7 tỷ USD lợi nhuận hoạt động của Amazon trong quý hai. AWS trước đây có biên lợi nhuận hoạt động cao hơn nhiều so với Google Cloud.
Ngoài ra, AWS có danh mục ngày càng tăng các công cụ dành cho nhà phát triển tập trung vào trí tuệ nhân tạo tổng quát. Swami Sivasubramanian, phó chủ tịch phụ trách cơ sở dữ liệu, phân tích và máy học của AWS, cho biết: "Hãy quay ngược đồng hồ, thậm chí quay lại trước ChatGPT. Không phải sau đó, chúng ta đột nhiên vội vàng đưa ra một kế hoạch. bởi vì bạn không thể thiết kế một con chip mới nhanh như vậy chứ đừng nói đến việc xây dựng một dịch vụ cơ bản trong hai đến ba tháng.”
Bedrock cung cấp cho khách hàng AWS quyền truy cập vào các mô hình ngôn ngữ lớn do Anthropic, Stability AI, AI21 Labs và Amazon Titan phát triển. Sivasubramanian cho biết: “Chúng tôi không tin rằng một mẫu sẽ thống trị thế giới, chúng tôi muốn khách hàng của mình có những mẫu hiện đại nhất từ nhiều nhà cung cấp vì họ sẽ chọn đúng công cụ cho đúng công việc”.
Ảnh: Tại AWS Chip Lab ở Austin, Texas, các nhân viên của Amazon đang phát triển chip trí tuệ nhân tạo tùy chỉnh
Một trong những dịch vụ AI mới nhất của Amazon là AWS HealthScribe, một dịch vụ được ra mắt vào tháng 7 để giúp các bác sĩ sử dụng trí tuệ nhân tạo tổng quát để soạn thảo các bản tóm tắt các lần khám bệnh nhân. Amazon cũng có một trung tâm máy học, SageMaker, cung cấp các thuật toán, mô hình và các dịch vụ khác.
Một công cụ quan trọng khác là CodeWhisperer, mà Amazon cho biết cho phép các nhà phát triển hoàn thành nhiệm vụ nhanh hơn trung bình 57%. Năm ngoái, Microsoft cũng báo cáo rằng công cụ mã hóa của họ, GitHub Copilot, đã tăng năng suất.
Vào tháng 6 năm nay, AWS đã công bố thành lập một trung tâm đổi mới trí tuệ nhân tạo tổng quát với giá 100 triệu USD. Giám đốc điều hành AWS Selipsky cho biết: "Chúng tôi có nhiều khách hàng muốn có công nghệ trí tuệ nhân tạo tổng quát, nhưng họ không nhất thiết phải biết điều này có ý nghĩa gì đối với họ trong bối cảnh kinh doanh của chính họ. Do đó, chúng tôi sẽ giới thiệu các giải pháp Kiến trúc sư, kỹ sư, nhà chiến lược giải pháp, và các nhà khoa học dữ liệu, làm việc trực tiếp với họ."
Đích thân CEO Jassy đã lãnh đạo nhóm xây dựng mô hình ngôn ngữ lớn
Mặc dù AWS cho đến nay chủ yếu tập trung vào phát triển công cụ thay vì xây dựng đối thủ cạnh tranh ChatGPT, nhưng một email nội bộ bị rò rỉ gần đây đã tiết lộ rằng Giám đốc điều hành Amazon Andy Jassy đang trực tiếp giám sát một nhóm trung tâm mới, nhóm này cũng đang xây dựng các mô hình ngôn ngữ lớn có thể mở rộng.
Trong cuộc gọi thu nhập quý hai, Jassy đã nói rằng "một phần đáng kể" hoạt động kinh doanh của AWS hiện được thúc đẩy bởi trí tuệ nhân tạo và hơn 20 dịch vụ máy học mà nó hỗ trợ, khách hàng của họ bao gồm Philips, 3M, Old Mutual và HSBC.
Sự bùng nổ của trí tuệ nhân tạo kéo theo hàng loạt mối lo ngại về bảo mật, với việc các công ty lo lắng về việc nhân viên đưa thông tin độc quyền vào dữ liệu đào tạo được sử dụng bởi các mô hình ngôn ngữ lớn công cộng.
Selipsky, Giám đốc điều hành AWS cho biết: "Tôi không thể cho bạn biết có bao nhiêu công ty trong danh sách Fortune 500 mà tôi đã nói chuyện đã vô hiệu hóa ChatGPT. Bất cứ điều gì bạn làm, bất kỳ mô hình nào bạn sử dụng, đều sẽ ở trong môi trường đám mây riêng ảo biệt lập của riêng bạn. Nó sẽ được mã hóa, nó sẽ có cùng các biện pháp kiểm soát truy cập AWS."
Hiện tại, Amazon chỉ đang tăng tốc thúc đẩy AI tổng quát, tuyên bố rằng "hơn 100.000" khách hàng hiện đang sử dụng máy học trên AWS. Mặc dù đó chỉ là một phần nhỏ trong số hàng triệu khách hàng của AWS, nhưng các nhà phân tích cho rằng điều đó có thể thay đổi.
"Chúng tôi không thấy các công ty nói: Chờ đã, Microsoft đã dẫn đầu về trí tuệ nhân tạo, chúng ta hãy ra ngoài đó, hãy thay đổi chiến lược Cơ sở hạ tầng của chúng ta, chuyển mọi thứ sang Microsoft. Nếu bạn đã là khách hàng của Amazon, bạn có thể sẽ khám phá Hệ sinh thái Amazon rộng hơn." (Text / Jinlu)
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Dốc hết sức để xây dựng chip AWS tùy chỉnh Amazon đang theo đuổi Microsoft và Google trong lĩnh vực trí tuệ nhân tạo
Tập trung vào
Trong hai căn phòng nhỏ của một tòa nhà văn phòng không có gì nổi bật ở Austin, Texas, một số nhân viên của Amazon đang thiết kế hai loại vi mạch để đào tạo và tăng tốc trí tuệ nhân tạo. Hai chip tùy chỉnh, có tên mã là Inentia và Trainium, cung cấp cho khách hàng của Amazon Web Services một giải pháp thay thế cho bộ xử lý đồ họa Nvidia để đào tạo các mô hình ngôn ngữ lớn. Ngay bây giờ, việc tìm nguồn cung cấp bộ xử lý đồ họa của Nvidia ngày càng khó khăn và tốn kém hơn.
Giám đốc điều hành AWS Adam Selipsky cho biết trong một cuộc phỏng vấn vào tháng 6: "Cả thế giới muốn có nhiều chip hơn cho trí tuệ nhân tạo, cho dù đó là đơn vị xử lý đồ họa hay thiết kế của chính Amazon". khách hàng của chúng tôi khả năng này mà mọi người đều muốn.”
Tuy nhiên, các công ty khác đã di chuyển nhanh hơn, đổ nhiều tiền hơn và vay mượn từ sự bùng nổ của AI. Khi OpenAI ra mắt ChatGPT vào tháng 11 năm ngoái, Microsoft đã thu hút được rất nhiều sự chú ý khi lưu trữ chatbot AI bùng nổ. Microsoft được cho là đã đầu tư 13 tỷ USD vào OpenAI. Microsoft đã nhanh chóng bổ sung các mô hình trí tuệ nhân tạo tổng quát vào các sản phẩm của mình và tích hợp chúng vào Bing vào tháng Hai.
Cùng tháng đó, Google đã ra mắt mô hình ngôn ngữ lớn của riêng mình, Bard, và sau đó đầu tư 300 triệu USD vào đối thủ cạnh tranh OpenAI là Anthropic.
Mãi đến tháng 4 năm nay, Amazon mới công bố mô hình ngôn ngữ lớn của riêng mình, Titan, đồng thời tung ra dịch vụ có tên Bedrock để giúp các nhà phát triển sử dụng trí tuệ nhân tạo tổng quát để nâng cao khả năng của phần mềm.
Chirag Dekate, phó chủ tịch kiêm nhà phân tích của Gartner, cho biết: "Amazon không quen theo đuổi thị trường mà quen với việc tạo ra chúng. Tôi nghĩ rằng lần đầu tiên sau một thời gian dài, họ thấy tôi ở thế bất lợi và bây giờ tôi đang cố gắng để bắt kịp."
Meta gần đây cũng đã phát hành mô hình ngôn ngữ lớn Llama 2 của riêng mình, một đối thủ cạnh tranh của ChatGPT nguồn mở hiện có sẵn để thử nghiệm trên đám mây công cộng Microsoft Azure.
Chip đại diện cho "Sự khác biệt đích thực"
Decatur cho biết về lâu dài, các chip tùy chỉnh của Amazon có thể mang lại lợi thế cho trí tuệ nhân tạo tổng quát. "Tôi nghĩ rằng sự khác biệt thực sự là khả năng kỹ thuật mà họ có, bởi vì Microsoft không có Trainium hoặc Interentia," ông giải thích.
Trở lại năm 2013, AWS lặng lẽ bắt đầu sản xuất chip tùy chỉnh với một phần cứng chuyên dụng có tên Nitro. Amazon tiết lộ rằng Nitro hiện là chip AWS có dung lượng lớn nhất và có ít nhất một chiếc trên mỗi máy chủ AWS, với tổng số lần sử dụng là hơn 20 triệu.
Năm 2015, Amazon mua lại Annapurna Labs, một công ty khởi nghiệp về chip của Israel. Sau đó, vào năm 2018, Amazon đã ra mắt Graviton, chip máy chủ dựa trên kiến trúc Arm của nhà thiết kế chip người Anh, đối thủ cạnh tranh với CPU x86 của những gã khổng lồ như AMD và Nvidia.
Stacy Rasgon, nhà phân tích cấp cao tại Bernstein Research cho biết: "Chip cánh tay có thể chiếm tới 10% tổng doanh số máy chủ và một phần đáng kể trong số đó sẽ đến từ Amazon". làm tốt lắm."
Cũng trong năm 2018, Amazon đã tiết lộ chip tập trung vào trí tuệ nhân tạo. Hai năm trước, Google đã phát hành Đơn vị xử lý Tensor (TPU) đầu tiên của mình. Microsoft vẫn chưa công bố Athena, chip trí tuệ nhân tạo mà hãng đang phát triển cùng AMD.
Amazon có một phòng thí nghiệm trên chip ở Austin, Texas, nơi nó phát triển và thử nghiệm Trainium và Inferentia. Matt Wood, phó chủ tịch phụ trách sản phẩm của công ty, đã giải thích chức năng của hai con chip.
Ông nói: "Machine learning được chia thành hai giai đoạn khác nhau. Vì vậy, bạn cần đào tạo các mô hình machine learning, sau đó thực hiện suy luận trên các mô hình được đào tạo này. So với các cách đào tạo mô hình machine learning khác trên AWS, Tradium in The price/ tỷ lệ hiệu suất đã được cải thiện khoảng 50%.
Trainium ra mắt vào năm 2021, sau khi ra mắt Interentia thế hệ thứ hai vào năm 2019. Interentia cho phép khách hàng "cung cấp suy luận máy học với chi phí thấp, thông lượng cao, độ trễ thấp, đó là tất cả những dự đoán bạn nhận được khi đưa một gợi ý vào mô hình AI tổng quát, tất cả những điều đó được xử lý và sau đó bạn nhận được một phản hồi," Wood nói.
Tuy nhiên, hiện tại, GPU của Nvidia vẫn là vị vua không thể tranh cãi khi nói đến các mô hình đào tạo. Vào tháng 7, AWS đã tiết lộ phần cứng tăng tốc AI mới dựa trên H100 của Nvidia.
"Trong 15 năm qua, Nvidia đã xây dựng một hệ sinh thái phần mềm khổng lồ xung quanh chip của mình mà không công ty nào khác có được. Hiện tại, người chiến thắng lớn nhất trong lĩnh vực AI là Nvidia," Rasgon nói.
Amazon có lợi thế về điện toán đám mây
Tuy nhiên, sự thống trị của AWS trong lĩnh vực điện toán đám mây là một lợi thế lớn cho Amazon.
"Amazon không cần chú ý thêm, công ty đã có một cơ sở cài đặt đám mây rất mạnh. Tất cả những gì họ cần làm là tìm ra cách sử dụng trí tuệ nhân tạo sáng tạo để biến hiện tại Có khách hàng mở rộng thành các phong trào tạo ra giá trị."
Khi chọn trí tuệ nhân tạo chung giữa Amazon, Google và Microsoft, hàng triệu khách hàng của AWS có thể bị thu hút bởi Amazon vì họ đã quen thuộc với Amazon và chạy các ứng dụng khác cũng như lưu trữ dữ liệu ở đó.
Mai-Lan Tomsen Bukovec, phó chủ tịch phụ trách công nghệ của AWS giải thích: "Đó là vấn đề về tốc độ. "Các công ty này có thể phát triển các ứng dụng AI tổng quát này nhanh đến mức nào. Việc bắt đầu với dữ liệu trong AWS trước và thúc đẩy dữ liệu bằng các công cụ máy tính và máy học mà chúng tôi cung cấp."
Theo dữ liệu do Gartner cung cấp, AWS là nhà cung cấp điện toán đám mây lớn nhất thế giới, chiếm 40% thị trường vào năm 2022. Mặc dù lợi nhuận hoạt động của Amazon đã giảm so với cùng kỳ năm ngoái trong ba quý liên tiếp, nhưng AWS vẫn chiếm 70% trong tổng số 7,7 tỷ USD lợi nhuận hoạt động của Amazon trong quý hai. AWS trước đây có biên lợi nhuận hoạt động cao hơn nhiều so với Google Cloud.
Ngoài ra, AWS có danh mục ngày càng tăng các công cụ dành cho nhà phát triển tập trung vào trí tuệ nhân tạo tổng quát. Swami Sivasubramanian, phó chủ tịch phụ trách cơ sở dữ liệu, phân tích và máy học của AWS, cho biết: "Hãy quay ngược đồng hồ, thậm chí quay lại trước ChatGPT. Không phải sau đó, chúng ta đột nhiên vội vàng đưa ra một kế hoạch. bởi vì bạn không thể thiết kế một con chip mới nhanh như vậy chứ đừng nói đến việc xây dựng một dịch vụ cơ bản trong hai đến ba tháng.”
Bedrock cung cấp cho khách hàng AWS quyền truy cập vào các mô hình ngôn ngữ lớn do Anthropic, Stability AI, AI21 Labs và Amazon Titan phát triển. Sivasubramanian cho biết: “Chúng tôi không tin rằng một mẫu sẽ thống trị thế giới, chúng tôi muốn khách hàng của mình có những mẫu hiện đại nhất từ nhiều nhà cung cấp vì họ sẽ chọn đúng công cụ cho đúng công việc”.
Một trong những dịch vụ AI mới nhất của Amazon là AWS HealthScribe, một dịch vụ được ra mắt vào tháng 7 để giúp các bác sĩ sử dụng trí tuệ nhân tạo tổng quát để soạn thảo các bản tóm tắt các lần khám bệnh nhân. Amazon cũng có một trung tâm máy học, SageMaker, cung cấp các thuật toán, mô hình và các dịch vụ khác.
Một công cụ quan trọng khác là CodeWhisperer, mà Amazon cho biết cho phép các nhà phát triển hoàn thành nhiệm vụ nhanh hơn trung bình 57%. Năm ngoái, Microsoft cũng báo cáo rằng công cụ mã hóa của họ, GitHub Copilot, đã tăng năng suất.
Vào tháng 6 năm nay, AWS đã công bố thành lập một trung tâm đổi mới trí tuệ nhân tạo tổng quát với giá 100 triệu USD. Giám đốc điều hành AWS Selipsky cho biết: "Chúng tôi có nhiều khách hàng muốn có công nghệ trí tuệ nhân tạo tổng quát, nhưng họ không nhất thiết phải biết điều này có ý nghĩa gì đối với họ trong bối cảnh kinh doanh của chính họ. Do đó, chúng tôi sẽ giới thiệu các giải pháp Kiến trúc sư, kỹ sư, nhà chiến lược giải pháp, và các nhà khoa học dữ liệu, làm việc trực tiếp với họ."
Đích thân CEO Jassy đã lãnh đạo nhóm xây dựng mô hình ngôn ngữ lớn
Mặc dù AWS cho đến nay chủ yếu tập trung vào phát triển công cụ thay vì xây dựng đối thủ cạnh tranh ChatGPT, nhưng một email nội bộ bị rò rỉ gần đây đã tiết lộ rằng Giám đốc điều hành Amazon Andy Jassy đang trực tiếp giám sát một nhóm trung tâm mới, nhóm này cũng đang xây dựng các mô hình ngôn ngữ lớn có thể mở rộng.
Trong cuộc gọi thu nhập quý hai, Jassy đã nói rằng "một phần đáng kể" hoạt động kinh doanh của AWS hiện được thúc đẩy bởi trí tuệ nhân tạo và hơn 20 dịch vụ máy học mà nó hỗ trợ, khách hàng của họ bao gồm Philips, 3M, Old Mutual và HSBC.
Sự bùng nổ của trí tuệ nhân tạo kéo theo hàng loạt mối lo ngại về bảo mật, với việc các công ty lo lắng về việc nhân viên đưa thông tin độc quyền vào dữ liệu đào tạo được sử dụng bởi các mô hình ngôn ngữ lớn công cộng.
Selipsky, Giám đốc điều hành AWS cho biết: "Tôi không thể cho bạn biết có bao nhiêu công ty trong danh sách Fortune 500 mà tôi đã nói chuyện đã vô hiệu hóa ChatGPT. Bất cứ điều gì bạn làm, bất kỳ mô hình nào bạn sử dụng, đều sẽ ở trong môi trường đám mây riêng ảo biệt lập của riêng bạn. Nó sẽ được mã hóa, nó sẽ có cùng các biện pháp kiểm soát truy cập AWS."
Hiện tại, Amazon chỉ đang tăng tốc thúc đẩy AI tổng quát, tuyên bố rằng "hơn 100.000" khách hàng hiện đang sử dụng máy học trên AWS. Mặc dù đó chỉ là một phần nhỏ trong số hàng triệu khách hàng của AWS, nhưng các nhà phân tích cho rằng điều đó có thể thay đổi.
"Chúng tôi không thấy các công ty nói: Chờ đã, Microsoft đã dẫn đầu về trí tuệ nhân tạo, chúng ta hãy ra ngoài đó, hãy thay đổi chiến lược Cơ sở hạ tầng của chúng ta, chuyển mọi thứ sang Microsoft. Nếu bạn đã là khách hàng của Amazon, bạn có thể sẽ khám phá Hệ sinh thái Amazon rộng hơn." (Text / Jinlu)