Tính năng Đại lý của Amazon Bedrock sẽ cho phép các công ty xây dựng các ứng dụng AI có thể tự động hóa các tác vụ cụ thể, chẳng hạn như đặt chỗ nhà hàng, thay vì chỉ nhận các đề xuất về địa điểm ăn uống.
"Rất nhiều người quá tập trung vào các mô hình này và kích thước của các mô hình, nhưng tôi nghĩ điều thực sự quan trọng là cách xây dựng các ứng dụng với chúng và đó là lý do chính khiến chúng tôi phát hành tính năng Đại lý ngày hôm nay."
Vào ngày 26 tháng 7 theo giờ địa phương, Swami Sivasubramanian, Phó chủ tịch toàn cầu của Cơ sở dữ liệu công nghệ đám mây Amazon, Phân tích dữ liệu và Máy học, đã phát biểu tại Hội nghị thượng đỉnh ở New York.
Tại Hội nghị thượng đỉnh New York, một trong những hội nghị thượng đỉnh hàng năm của Amazon Web Services (AWS), một số thông báo tập trung vào trí tuệ nhân tạo tổng quát. Swami Sivasubramanian, phó chủ tịch toàn cầu về cơ sở dữ liệu công nghệ đám mây, phân tích dữ liệu và học máy của Amazon cho biết: “Công nghệ này đã đạt đến điểm bùng phát.
Vào ngày 26 tháng 7, Giờ miền Đông, tại Hội nghị thượng đỉnh ở New York, AWS đã ra mắt chức năng Đại lý (agents) của Amazon Bedrock, một dịch vụ AI tổng quát, giúp các mô hình cơ bản hoàn thành các tác vụ phức tạp. Sivasubramanian cho biết: “Điều này sẽ cho phép các công ty xây dựng các ứng dụng AI có thể tự động hóa các tác vụ cụ thể, chẳng hạn như đặt chỗ tại nhà hàng, thay vì chỉ nhận các đề xuất về địa điểm ăn uống”.
Ngoài ra, AWS cũng đã ra mắt các công cụ trí tuệ nhân tạo mới, bao gồm cả việc cung cấp chính thức trợ lý lập trình Amazon CodeWhisperer, Amazon HealthScribe, một dịch vụ y tế thông minh mới để tạo hồ sơ lâm sàng sau khi thăm khám bệnh nhân và Amazon Entity Resolution, một dịch vụ phân tích. Đồng thời, họ cũng thông báo rằng các phiên bản Amazon EC2 P5 dành cho các ứng dụng điện toán hiệu năng cao và AI thế hệ mới đã chính thức được cung cấp.
Vasi Philomin, Phó chủ tịch toàn cầu về AI sáng tạo tại Amazon Cloud Technology, đã chia sẻ với The Paper rằng trong số tất cả các bản phát hành, điều ông quan tâm và tự hào nhất là chức năng Đại lý. kích thước của các mô hình, nhưng tôi nghĩ điều thực sự quan trọng là cách bạn xây dựng các ứng dụng từ chúng và đó là lý do chính khiến chúng tôi phát hành tính năng Đại lý ngày hôm nay."
Cuộc thi đại lý AI
Các mô hình AI sáng tạo như GPT-4 của OpenAI hoặc Llama 2 của Meta rất mạnh, nhưng chúng thực sự không thể tự động hóa một số tác vụ nhất định cho người dùng nếu không có sự trợ giúp bổ sung, chẳng hạn như plugin.
Amazon Bedrock cung cấp một cách để xây dựng các ứng dụng AI tổng quát thông qua các mô hình được đào tạo trước từ các công ty khởi nghiệp cũng như từ chính công nghệ đám mây của Amazon mà không cần đầu tư vào máy chủ. Tính năng Đại lý của Amazon Bedrock cho phép các công ty sử dụng dữ liệu của chính họ để dạy các mô hình cơ bản, sau đó xây dựng các ứng dụng khác để hoàn thành nhiệm vụ. Nhà phát triển có thể chọn mô hình cơ sở để sử dụng, cung cấp một số hướng dẫn và chọn dữ liệu mà mô hình đọc.
Điều này tương tự với hệ thống plugin được giới thiệu gần đây của OpenAI cho GPT-4 và ChatGPT, giúp mở rộng khả năng của các mô hình bằng cách cho phép chúng tận dụng cơ sở dữ liệu và API của bên thứ ba. Trên thực tế, gần đây đã có xu hướng hướng tới các mô hình thế hệ "được cá nhân hóa", với các công ty khởi nghiệp như công cụ xây dựng AI theo ngữ cảnh để tăng cường các mô hình bằng dữ liệu doanh nghiệp.
Ví dụ: một công ty du lịch có thể sử dụng trí tuệ nhân tạo tổng quát để đưa ra các đề xuất du lịch, sau đó xây dựng một đại lý khác (Agents) để nhận lịch sử và sở thích du lịch của người dùng, sau đó sử dụng một đại lý để tìm lịch trình chuyến bay và cuối cùng là xây dựng một đại lý để Đặt chỗ bạn đã chọn chuyến bay.
AWS không phải là người duy nhất hào hứng với Đại lý. Vào tháng 4, Giám đốc điều hành Meta Mark Zuckerberg (Mark Zuckerberg) cũng nói với các nhà đầu tư rằng họ có cơ hội đưa các tác nhân trí tuệ nhân tạo (Agents) “đến với hàng tỷ người một cách hữu ích và có ý nghĩa”. Vào tháng 7, Giám đốc điều hành OpenAI Sam Altman đã đi sâu vào các tác nhân AI và cách chúng có thể được triển khai tốt nhất trong một cuộc phỏng vấn với The Atlantic.
Reuters đưa tin vào tháng 7 rằng cuộc đua giành các tác nhân trí tuệ nhân tạo (Agents) "tự trị" đang càn quét Thung lũng Silicon. Nó trích dẫn một công ty khởi nghiệp, Inflection AI, đã huy động được 1,3 tỷ đô la tài trợ vào cuối tháng Sáu. Theo những người sáng lập trong một podcast, công ty đang phát triển một trợ lý cá nhân có thể hoạt động như một người cố vấn hoặc xử lý các nhiệm vụ như kiếm tín dụng chuyến bay và khách sạn sau khi chuyến đi bị trì hoãn.
Vào ngày 26 tháng 7, Sivasubramanian cho biết trong một cuộc phỏng vấn với giới truyền thông rằng các khách hàng như Sony (SONY), Ryanair (Ryanair) và Sun Life (Sun Life) đã dùng thử Amazon Bedrock. Sivasubramanian cho biết Amazon Bedrock sẽ sớm được cung cấp cho tất cả khách hàng. Ông từ chối cho biết khi nào, và nói thêm rằng công ty đặt mục tiêu giải quyết vấn đề phân bổ chi phí và kiểm soát công ty trước tiên.
Dịch vụ Amazon Bedrock được ra mắt vào tháng 4, khi Amazon Bedrock cung cấp Amazon Titan (mẫu cơ sở riêng của AWS) cũng như các mẫu được tạo bởi stable.ai, AI21Labs và Anthropic.
Tại hội nghị thượng đỉnh ở New York lần này, AWS đã công bố bổ sung Cohere với tư cách là nhà cung cấp mô hình cơ bản, tham gia chatbot mô hình cơ bản mới nhất của Anthropic và Stability AI. Mô hình tạo văn bản lệnh của Cohere được đào tạo để tuân theo lời nhắc của người dùng và trả về tóm tắt, bản ghi và hội thoại, đồng thời công cụ này cũng có thể trích xuất thông tin và trả lời câu hỏi.
Nền tảng AWS có thể gọi chip Nvidia H100
Tại hội nghị thượng đỉnh ở New York, AWS cũng đã công bố các phiên bản Amazon EC2 P5 được cung cấp bởi chip H100 của Nvidia. Theo một cách nào đó, đây là một cột mốc quan trọng trong hơn mười năm hợp tác giữa AWS và Nvidia.
Một trong những tính năng đáng chú ý của GPU H100 là tối ưu hóa Transformer, một công nghệ chính được sử dụng trong các mô hình ngôn ngữ lớn. Các phiên bản Amazon EC2 P5 cung cấp 8 GPU NVIDIA H100 với 640 GB bộ nhớ GPU băng thông cao, bộ xử lý AMD EPYC thế hệ thứ 3, 2 TB bộ nhớ hệ thống và 30 TB dung lượng lưu trữ NVMe cục bộ để tăng tốc các ứng dụng điện toán hiệu năng cao và AI tổng hợp.
Amazon EC2 P5 giảm thời gian đào tạo tới 6 lần (từ vài ngày xuống vài giờ) so với các phiên bản dựa trên GPU thế hệ trước. Theo AWS, việc tăng hiệu suất này sẽ giảm 40% chi phí đào tạo so với thế hệ trước.
Trên thực tế, kể từ khi ra mắt chip Amazon Nitro đầu tiên vào năm 2013, AWS là nhà cung cấp đám mây đầu tiên đặt chân vào lĩnh vực chip tự phát triển và đã có ba dòng sản phẩm chip mạng, chip máy chủ và trí tuệ nhân tạo tự học máy. chip phát triển. Vào đầu năm 2023, Amazon Inferentia 2 được xây dựng có mục đích (có thể hỗ trợ suy luận phân tán thông qua các kết nối tốc độ cực cao trực tiếp giữa các chip) được phát hành, hỗ trợ tới 175 tỷ tham số, khiến nó trở thành ứng cử viên nặng ký cho suy luận mô hình quy mô lớn .
Về việc lo lắng việc cung cấp chip H100 của Nvidia sẽ làm giảm sức hấp dẫn của chip do AWS tự phát triển, Ferromin trả lời Pengpai Technology ("Chúng tôi hoan nghênh sự cạnh tranh. Phần cứng sẽ tốt hơn sau mỗi vài năm. Đây là một tiêu chuẩn. Một vấn đề lớn đúng không? bây giờ là AI sáng tạo khá đắt, đó là lý do tại sao không ai thực sự đưa nó vào khối lượng công việc sản xuất, mọi người vẫn đang trong giai đoạn thử nghiệm. Một khi họ thực sự đưa nó vào khối lượng công việc sản xuất, họ sẽ nhận ra rằng 90% chi phí được tạo ra bằng nó. Trường hợp tốt nhất là bạn không mất tiền cho mỗi cuộc gọi, bạn thực sự kiếm được tiền. Để đạt được điều này, tôi nghĩ chúng ta cần phải cạnh tranh."
Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Đám mây Amazon ra mắt chức năng tác nhân AI, biến AI thành trợ lý thay vì chỉ trò chuyện
Nguồn: The Paper
Phóng viên Thiệu Văn
Tính năng Đại lý của Amazon Bedrock sẽ cho phép các công ty xây dựng các ứng dụng AI có thể tự động hóa các tác vụ cụ thể, chẳng hạn như đặt chỗ nhà hàng, thay vì chỉ nhận các đề xuất về địa điểm ăn uống.
"Rất nhiều người quá tập trung vào các mô hình này và kích thước của các mô hình, nhưng tôi nghĩ điều thực sự quan trọng là cách xây dựng các ứng dụng với chúng và đó là lý do chính khiến chúng tôi phát hành tính năng Đại lý ngày hôm nay."
Tại Hội nghị thượng đỉnh New York, một trong những hội nghị thượng đỉnh hàng năm của Amazon Web Services (AWS), một số thông báo tập trung vào trí tuệ nhân tạo tổng quát. Swami Sivasubramanian, phó chủ tịch toàn cầu về cơ sở dữ liệu công nghệ đám mây, phân tích dữ liệu và học máy của Amazon cho biết: “Công nghệ này đã đạt đến điểm bùng phát.
Vào ngày 26 tháng 7, Giờ miền Đông, tại Hội nghị thượng đỉnh ở New York, AWS đã ra mắt chức năng Đại lý (agents) của Amazon Bedrock, một dịch vụ AI tổng quát, giúp các mô hình cơ bản hoàn thành các tác vụ phức tạp. Sivasubramanian cho biết: “Điều này sẽ cho phép các công ty xây dựng các ứng dụng AI có thể tự động hóa các tác vụ cụ thể, chẳng hạn như đặt chỗ tại nhà hàng, thay vì chỉ nhận các đề xuất về địa điểm ăn uống”.
Ngoài ra, AWS cũng đã ra mắt các công cụ trí tuệ nhân tạo mới, bao gồm cả việc cung cấp chính thức trợ lý lập trình Amazon CodeWhisperer, Amazon HealthScribe, một dịch vụ y tế thông minh mới để tạo hồ sơ lâm sàng sau khi thăm khám bệnh nhân và Amazon Entity Resolution, một dịch vụ phân tích. Đồng thời, họ cũng thông báo rằng các phiên bản Amazon EC2 P5 dành cho các ứng dụng điện toán hiệu năng cao và AI thế hệ mới đã chính thức được cung cấp.
Vasi Philomin, Phó chủ tịch toàn cầu về AI sáng tạo tại Amazon Cloud Technology, đã chia sẻ với The Paper rằng trong số tất cả các bản phát hành, điều ông quan tâm và tự hào nhất là chức năng Đại lý. kích thước của các mô hình, nhưng tôi nghĩ điều thực sự quan trọng là cách bạn xây dựng các ứng dụng từ chúng và đó là lý do chính khiến chúng tôi phát hành tính năng Đại lý ngày hôm nay."
Cuộc thi đại lý AI
Các mô hình AI sáng tạo như GPT-4 của OpenAI hoặc Llama 2 của Meta rất mạnh, nhưng chúng thực sự không thể tự động hóa một số tác vụ nhất định cho người dùng nếu không có sự trợ giúp bổ sung, chẳng hạn như plugin.
Amazon Bedrock cung cấp một cách để xây dựng các ứng dụng AI tổng quát thông qua các mô hình được đào tạo trước từ các công ty khởi nghiệp cũng như từ chính công nghệ đám mây của Amazon mà không cần đầu tư vào máy chủ. Tính năng Đại lý của Amazon Bedrock cho phép các công ty sử dụng dữ liệu của chính họ để dạy các mô hình cơ bản, sau đó xây dựng các ứng dụng khác để hoàn thành nhiệm vụ. Nhà phát triển có thể chọn mô hình cơ sở để sử dụng, cung cấp một số hướng dẫn và chọn dữ liệu mà mô hình đọc.
Điều này tương tự với hệ thống plugin được giới thiệu gần đây của OpenAI cho GPT-4 và ChatGPT, giúp mở rộng khả năng của các mô hình bằng cách cho phép chúng tận dụng cơ sở dữ liệu và API của bên thứ ba. Trên thực tế, gần đây đã có xu hướng hướng tới các mô hình thế hệ "được cá nhân hóa", với các công ty khởi nghiệp như công cụ xây dựng AI theo ngữ cảnh để tăng cường các mô hình bằng dữ liệu doanh nghiệp.
Ví dụ: một công ty du lịch có thể sử dụng trí tuệ nhân tạo tổng quát để đưa ra các đề xuất du lịch, sau đó xây dựng một đại lý khác (Agents) để nhận lịch sử và sở thích du lịch của người dùng, sau đó sử dụng một đại lý để tìm lịch trình chuyến bay và cuối cùng là xây dựng một đại lý để Đặt chỗ bạn đã chọn chuyến bay.
AWS không phải là người duy nhất hào hứng với Đại lý. Vào tháng 4, Giám đốc điều hành Meta Mark Zuckerberg (Mark Zuckerberg) cũng nói với các nhà đầu tư rằng họ có cơ hội đưa các tác nhân trí tuệ nhân tạo (Agents) “đến với hàng tỷ người một cách hữu ích và có ý nghĩa”. Vào tháng 7, Giám đốc điều hành OpenAI Sam Altman đã đi sâu vào các tác nhân AI và cách chúng có thể được triển khai tốt nhất trong một cuộc phỏng vấn với The Atlantic.
Reuters đưa tin vào tháng 7 rằng cuộc đua giành các tác nhân trí tuệ nhân tạo (Agents) "tự trị" đang càn quét Thung lũng Silicon. Nó trích dẫn một công ty khởi nghiệp, Inflection AI, đã huy động được 1,3 tỷ đô la tài trợ vào cuối tháng Sáu. Theo những người sáng lập trong một podcast, công ty đang phát triển một trợ lý cá nhân có thể hoạt động như một người cố vấn hoặc xử lý các nhiệm vụ như kiếm tín dụng chuyến bay và khách sạn sau khi chuyến đi bị trì hoãn.
Vào ngày 26 tháng 7, Sivasubramanian cho biết trong một cuộc phỏng vấn với giới truyền thông rằng các khách hàng như Sony (SONY), Ryanair (Ryanair) và Sun Life (Sun Life) đã dùng thử Amazon Bedrock. Sivasubramanian cho biết Amazon Bedrock sẽ sớm được cung cấp cho tất cả khách hàng. Ông từ chối cho biết khi nào, và nói thêm rằng công ty đặt mục tiêu giải quyết vấn đề phân bổ chi phí và kiểm soát công ty trước tiên.
Dịch vụ Amazon Bedrock được ra mắt vào tháng 4, khi Amazon Bedrock cung cấp Amazon Titan (mẫu cơ sở riêng của AWS) cũng như các mẫu được tạo bởi stable.ai, AI21Labs và Anthropic.
Tại hội nghị thượng đỉnh ở New York lần này, AWS đã công bố bổ sung Cohere với tư cách là nhà cung cấp mô hình cơ bản, tham gia chatbot mô hình cơ bản mới nhất của Anthropic và Stability AI. Mô hình tạo văn bản lệnh của Cohere được đào tạo để tuân theo lời nhắc của người dùng và trả về tóm tắt, bản ghi và hội thoại, đồng thời công cụ này cũng có thể trích xuất thông tin và trả lời câu hỏi.
Nền tảng AWS có thể gọi chip Nvidia H100
Tại hội nghị thượng đỉnh ở New York, AWS cũng đã công bố các phiên bản Amazon EC2 P5 được cung cấp bởi chip H100 của Nvidia. Theo một cách nào đó, đây là một cột mốc quan trọng trong hơn mười năm hợp tác giữa AWS và Nvidia.
Một trong những tính năng đáng chú ý của GPU H100 là tối ưu hóa Transformer, một công nghệ chính được sử dụng trong các mô hình ngôn ngữ lớn. Các phiên bản Amazon EC2 P5 cung cấp 8 GPU NVIDIA H100 với 640 GB bộ nhớ GPU băng thông cao, bộ xử lý AMD EPYC thế hệ thứ 3, 2 TB bộ nhớ hệ thống và 30 TB dung lượng lưu trữ NVMe cục bộ để tăng tốc các ứng dụng điện toán hiệu năng cao và AI tổng hợp.
Amazon EC2 P5 giảm thời gian đào tạo tới 6 lần (từ vài ngày xuống vài giờ) so với các phiên bản dựa trên GPU thế hệ trước. Theo AWS, việc tăng hiệu suất này sẽ giảm 40% chi phí đào tạo so với thế hệ trước.
Trên thực tế, kể từ khi ra mắt chip Amazon Nitro đầu tiên vào năm 2013, AWS là nhà cung cấp đám mây đầu tiên đặt chân vào lĩnh vực chip tự phát triển và đã có ba dòng sản phẩm chip mạng, chip máy chủ và trí tuệ nhân tạo tự học máy. chip phát triển. Vào đầu năm 2023, Amazon Inferentia 2 được xây dựng có mục đích (có thể hỗ trợ suy luận phân tán thông qua các kết nối tốc độ cực cao trực tiếp giữa các chip) được phát hành, hỗ trợ tới 175 tỷ tham số, khiến nó trở thành ứng cử viên nặng ký cho suy luận mô hình quy mô lớn .
Về việc lo lắng việc cung cấp chip H100 của Nvidia sẽ làm giảm sức hấp dẫn của chip do AWS tự phát triển, Ferromin trả lời Pengpai Technology ("Chúng tôi hoan nghênh sự cạnh tranh. Phần cứng sẽ tốt hơn sau mỗi vài năm. Đây là một tiêu chuẩn. Một vấn đề lớn đúng không? bây giờ là AI sáng tạo khá đắt, đó là lý do tại sao không ai thực sự đưa nó vào khối lượng công việc sản xuất, mọi người vẫn đang trong giai đoạn thử nghiệm. Một khi họ thực sự đưa nó vào khối lượng công việc sản xuất, họ sẽ nhận ra rằng 90% chi phí được tạo ra bằng nó. Trường hợp tốt nhất là bạn không mất tiền cho mỗi cuộc gọi, bạn thực sự kiếm được tiền. Để đạt được điều này, tôi nghĩ chúng ta cần phải cạnh tranh."