Vào ngày 26 tháng 10, Microsoft, OpenAI, Google và Anthropic đã đưa ra một tuyên bố chung trên trang web chính thức của họ, bổ nhiệm Chris Meserole làm giám đốc điều hành của "Diễn đàn mô hình biên giới" và đầu tư 10 triệu đô la vào quỹ bảo mật để tăng cường bảo mật cho các sản phẩm AI tạo ra như ChatGPT và Bard.
Tuyên bố này là một hiệu suất quan trọng của bốn công ty công nghệ lớn để phát triển AI tạo ra an toàn, đáng tin cậy và ổn định, và nó cũng là một phần của "Cam kết an toàn AI" đã ký với quan chức, điều này rất quan trọng cho sự phát triển lành mạnh của AI tạo ra toàn cầu.
Giới thiệu về Diễn đàn Mô hình Biên giới
Diễn đàn Mô hình Frontier, do Microsoft, OpenAI, Google và Anthropic đồng sáng lập vào ngày 26 tháng 7 năm nay, chịu trách nhiệm chính trong việc đảm bảo sự phát triển an toàn và có trách nhiệm của các mô hình AI tiên tiến.
4 mục tiêu cốt lõi của diễn đàn:
Thúc đẩy nghiên cứu an toàn AI, thúc đẩy phát triển có trách nhiệm các mô hình tiên tiến, giảm thiểu rủi ro và cho phép đánh giá độc lập, tiêu chuẩn hóa về khả năng và an toàn của AI.
Xác định các phương pháp hay nhất để phát triển và triển khai có trách nhiệm các mô hình tiên tiến hàng đầu để giúp công chúng hiểu bản chất, khả năng, hạn chế và tác động của công nghệ.
Làm việc với các nhà hoạch định chính sách, học giả, xã hội dân sự và các công ty để chia sẻ kiến thức về rủi ro tin cậy và bảo mật.
Hỗ trợ mạnh mẽ cho việc phát triển các ứng dụng AI giúp giải quyết các thách thức xã hội, chẳng hạn như giảm thiểu và thích ứng với biến đổi khí hậu, phát hiện và phòng ngừa ung thư sớm và giải quyết các mối đe dọa mạng.
Chris Meserole Trách nhiệm
Chris có chuyên môn sâu về chính sách công nghệ, với cam kết lâu dài về quản trị và bảo mật các công nghệ mới nổi và các ứng dụng trong tương lai. Gần đây nhất, Chris cũng từng là giám đốc của Sáng kiến AI và Công nghệ mới nổi tại Viện Brookings.
Trong Diễn đàn Người mẫu Biên giới, Chris sẽ thực hiện các nhiệm vụ sau:
Thúc đẩy nghiên cứu an toàn AI, thúc đẩy phát triển các mô hình tiên tiến và giảm thiểu rủi ro tiềm ẩn.
Xác định các phương pháp hay nhất về bảo mật cho các mô hình tiên tiến.
Chia sẻ kiến thức với các nhà hoạch định chính sách, học viện, xã hội và các bên liên quan khác để thúc đẩy phát triển AI có trách nhiệm.
Hỗ trợ nỗ lực sử dụng AI để giải quyết những thách thức lớn nhất của xã hội.
Chris nói rằng các mô hình AI mạnh mẽ nhất hứa hẹn xã hội rất lớn, nhưng để đạt được tiềm năng của chúng, chúng ta cần hiểu rõ hơn về cách phát triển và đánh giá chúng một cách an toàn. Tôi rất vui được làm việc với Diễn đàn Mô hình Biên giới để giải quyết thách thức này.
Quỹ bảo mật AI
Trong năm qua, AI đã đạt được những tiến bộ to lớn, cùng với nhiều rủi ro bảo mật tiềm ẩn. Để giải quyết thách thức này, Microsoft, OpenAI, Google và Anthropic đã thành lập Quỹ bảo mật AI để hỗ trợ các nhà nghiên cứu độc lập từ các tổ chức học thuật, tổ chức nghiên cứu và công ty khởi nghiệp trên khắp thế giới cùng nhau xây dựng một hệ sinh thái bảo mật AI lành mạnh và an toàn.
Đầu năm nay, Microsoft, OpenAI, Google và Anthropic đã ký "Cam kết bảo mật AI", bao gồm cam kết tạo điều kiện cho bên thứ ba khám phá và báo cáo các lỗ hổng AI trong các công ty công nghệ Big Four.
Trọng tâm chính của Quỹ An ninh AI là hỗ trợ phát triển các kỹ thuật đánh giá mô hình mới để giúp phát triển và thử nghiệm các mô hình AI tiên tiến.
Tăng tài trợ cho an toàn AI sẽ giúp cải thiện các tiêu chuẩn an toàn và bảo mật và cung cấp các biện pháp kiểm soát hiệu quả cho các ngành công nghiệp và nhà phát triển để giải quyết những thách thức do các hệ thống AI đặt ra.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Microsoft, OpenAI, v.v. đã đầu tư 10 triệu đô la, "Diễn đàn mô hình biên giới" là gì?
Nguồn gốc: Cộng đồng mở AIGC
Vào ngày 26 tháng 10, Microsoft, OpenAI, Google và Anthropic đã đưa ra một tuyên bố chung trên trang web chính thức của họ, bổ nhiệm Chris Meserole làm giám đốc điều hành của "Diễn đàn mô hình biên giới" và đầu tư 10 triệu đô la vào quỹ bảo mật để tăng cường bảo mật cho các sản phẩm AI tạo ra như ChatGPT và Bard.
Tuyên bố này là một hiệu suất quan trọng của bốn công ty công nghệ lớn để phát triển AI tạo ra an toàn, đáng tin cậy và ổn định, và nó cũng là một phần của "Cam kết an toàn AI" đã ký với quan chức, điều này rất quan trọng cho sự phát triển lành mạnh của AI tạo ra toàn cầu.
Giới thiệu về Diễn đàn Mô hình Biên giới
Diễn đàn Mô hình Frontier, do Microsoft, OpenAI, Google và Anthropic đồng sáng lập vào ngày 26 tháng 7 năm nay, chịu trách nhiệm chính trong việc đảm bảo sự phát triển an toàn và có trách nhiệm của các mô hình AI tiên tiến.
4 mục tiêu cốt lõi của diễn đàn:
Thúc đẩy nghiên cứu an toàn AI, thúc đẩy phát triển có trách nhiệm các mô hình tiên tiến, giảm thiểu rủi ro và cho phép đánh giá độc lập, tiêu chuẩn hóa về khả năng và an toàn của AI.
Xác định các phương pháp hay nhất để phát triển và triển khai có trách nhiệm các mô hình tiên tiến hàng đầu để giúp công chúng hiểu bản chất, khả năng, hạn chế và tác động của công nghệ.
Làm việc với các nhà hoạch định chính sách, học giả, xã hội dân sự và các công ty để chia sẻ kiến thức về rủi ro tin cậy và bảo mật.
Hỗ trợ mạnh mẽ cho việc phát triển các ứng dụng AI giúp giải quyết các thách thức xã hội, chẳng hạn như giảm thiểu và thích ứng với biến đổi khí hậu, phát hiện và phòng ngừa ung thư sớm và giải quyết các mối đe dọa mạng.
Chris Meserole Trách nhiệm
Chris có chuyên môn sâu về chính sách công nghệ, với cam kết lâu dài về quản trị và bảo mật các công nghệ mới nổi và các ứng dụng trong tương lai. Gần đây nhất, Chris cũng từng là giám đốc của Sáng kiến AI và Công nghệ mới nổi tại Viện Brookings.
Trong Diễn đàn Người mẫu Biên giới, Chris sẽ thực hiện các nhiệm vụ sau:
Chris nói rằng các mô hình AI mạnh mẽ nhất hứa hẹn xã hội rất lớn, nhưng để đạt được tiềm năng của chúng, chúng ta cần hiểu rõ hơn về cách phát triển và đánh giá chúng một cách an toàn. Tôi rất vui được làm việc với Diễn đàn Mô hình Biên giới để giải quyết thách thức này.
Quỹ bảo mật AI
Trong năm qua, AI đã đạt được những tiến bộ to lớn, cùng với nhiều rủi ro bảo mật tiềm ẩn. Để giải quyết thách thức này, Microsoft, OpenAI, Google và Anthropic đã thành lập Quỹ bảo mật AI để hỗ trợ các nhà nghiên cứu độc lập từ các tổ chức học thuật, tổ chức nghiên cứu và công ty khởi nghiệp trên khắp thế giới cùng nhau xây dựng một hệ sinh thái bảo mật AI lành mạnh và an toàn.
Trọng tâm chính của Quỹ An ninh AI là hỗ trợ phát triển các kỹ thuật đánh giá mô hình mới để giúp phát triển và thử nghiệm các mô hình AI tiên tiến.
Tăng tài trợ cho an toàn AI sẽ giúp cải thiện các tiêu chuẩn an toàn và bảo mật và cung cấp các biện pháp kiểm soát hiệu quả cho các ngành công nghiệp và nhà phát triển để giải quyết những thách thức do các hệ thống AI đặt ra.