Vào đầu giờ sáng thứ Tư, giờ Bắc Kinh, OpenAI, một công ty khởi nghiệp công nghệ của Mỹ, đã đưa ra thông báo về việc triển khai đợt tuyển dụng toàn cầu các thành viên mạng lưới "đội đỏ", nhằm giới thiệu các lực lượng bên ngoài và phát hiện ra những sai sót, rủi ro của hệ thống AI trước.
(Nguồn: OpenAI)
Khái niệm về cái gọi là mạng "đội đỏ", hay Red Teaming, xuất phát từ mô phỏng quân sự. **Tức là tìm một nhóm người mô phỏng “kẻ thù” tưởng tượng để kiểm tra mức độ chuẩn bị của chính phe mình (“đội xanh”). **Trong lĩnh vực AI, nhiệm vụ của "đội đỏ" là mô phỏng tin tặc hoặc những người có khả năng nguy hiểm khác và cố gắng tìm ra sơ hở trong các mô hình ngôn ngữ lớn, để ngăn chặn AI hỗ trợ các mục đích bất hợp pháp như gây nguy hiểm cho an ninh xã hội trong xã hội hiện thực.
OpenAI cho biết trong vài năm qua, các chuyên gia ở nhiều lĩnh vực khác nhau đã giúp đỡ thử nghiệm các mô hình chưa được phát hành, bây giờ là thành lập một "lực lượng chính quy" để tuyển dụng một số lượng lớn người từ các khu vực khác nhau, ngôn ngữ khác nhau, lĩnh vực chuyên môn khác nhau và những cuộc sống khác nhau. Những người có kinh nghiệm làm việc cùng nhau để làm cho các mô hình AI trở nên an toàn hơn. **Không giống như trước đây, chỉ tuyển một nhóm người để thử nghiệm tập trung trước khi một phiên bản quan trọng được đưa lên mạng, OpenAI sẽ cho phép một số lượng thành viên không chắc chắn tiến hành thử nghiệm trong toàn bộ chu kỳ phát triển dựa trên nhu cầu.
Đồng thời, mạng lưới “đội đỏ” này cũng sẽ trở thành thư viện chuyên gia toàn cầu của OpenAI và OpenAI cũng sẽ cung cấp nền tảng giao tiếp giữa các thành viên “đội đỏ”. OpenAI cũng liệt kê một số hướng chuyên gia mà họ mong muốn tuyển dụng trên trang web chính thức của mình, nhưng cũng nhấn mạnh rằng nó không giới hạn ở các lĩnh vực này.
Khoa học nhận thức: Khoa học nhận thức
Hóa học: Hóa học
Sinh học: Sinh học
Vật lý: Vật lý
Khoa học máy tính: Khoa học máy tính
Steganography: steganography
Khoa học Chính trị: Khoa học Chính trị
Tâm lý học: Tâm lý học
Thuyết phục: Thuyết phục
Kinh tế: Kinh tế
Nhân chủng học: Nhân chủng học
Xã hội học: Xã hội học
HCI (Tương tác giữa người và máy tính): Tương tác giữa người và máy tính
Công bằng và thiên vị: Công bằng và thiên vị
Căn chỉnh: căn chỉnh mục tiêu
Giáo dục: Giáo dục
Chăm sóc sức khỏe: chăm sóc y tế
Luật: Luật
An toàn trẻ em: An toàn trẻ em
An ninh mạng: an ninh mạng
Tài chính: Tài chính
Thông tin sai/sai:Thông tin sai/sai
Sử dụng chính trị: Ứng dụng chính trị
Quyền riêng tư: Quyền riêng tư
Sinh trắc học: Sinh trắc học
Ngôn ngữ và Ngôn ngữ học:Ngôn ngữ và Ngôn ngữ học
Nhân tiện, OpenAI cũng tuyên bố sẽ trả thù lao cho các thành viên tham gia dự án “đội đỏ” (nhưng không nói rõ sẽ trả bao nhiêu). OpenAI cũng nhấn mạnh rằng các dự án tham gia “đội đỏ” thường yêu cầu phải ký thỏa thuận bảo mật hoặc giữ im lặng trong một khoảng thời gian không xác định.
OpenAI tuyên bố rằng kênh ứng tuyển sẽ vẫn mở cho đến ngày 1 tháng 12 năm nay. Công ty sẽ xem xét các đơn đăng ký trên cơ sở luân phiên và sau đó sẽ đánh giá xem có cần tuyển dụng mở thêm hay không.
Các thành viên “đội đỏ” OpenAI đã lên sân khấu
Như OpenAI đã đề cập, hệ thống “đội đỏ” đã tồn tại từ lâu và nhiều thành viên đã nhận được các cuộc phỏng vấn công khai từ giới truyền thông.
Trong một bài báo tiết lộ trên tờ Financial Times vào tháng 4 năm nay, Andrew White, giáo sư kỹ thuật hóa học tại Đại học Rochester ở Hoa Kỳ, cho biết ông đã tham gia cuộc thử nghiệm của “đội đỏ” GPT-4,** và rằng mục tiêu tấn công của anh ta là sử dụng ChatGPT để tạo ra một chất độc thần kinh hoàn toàn mới. White cho biết anh đã sử dụng chức năng "plug-in" để cung cấp các tài liệu hóa học và danh mục nhà sản xuất hóa chất cho mô hình lớn, và mô hình lớn thậm chí còn tìm cho anh một nơi để anh có thể tạo ra chất độc giả định của mình. **
White cho rằng các mô hình lớn cuối cùng có thể giúp nhiều người thực hiện các thí nghiệm hóa học nhanh hơn và chính xác hơn, nhưng cũng có mối nguy hiểm nghiêm trọng là một số người sẽ sử dụng AI để thực hiện một số thí nghiệm nguy hiểm.
Sau khi nhận được phản hồi từ White, OpenAI đã thực hiện các thay đổi đối với hệ thống để đảm bảo rằng hệ thống sẽ không phản hồi các câu hỏi tương tự. Theo giới truyền thông, có khoảng 10 thành viên "đội đỏ" với xuất thân khác nhau - luật sư, giáo viên, nhân viên kiểm soát rủi ro, nhà nghiên cứu bảo mật, v.v. Hầu hết họ đều sống ở Hoa Kỳ và Châu Âu. Họ tiết lộ rằng trong những tháng trước khi GPT-4 được phát hành, họ đã dành khoảng 10-40 giờ để thử nghiệm hệ thống và được trả khoảng 100 USD mỗi giờ.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
OpenAI thông báo tuyển dụng mở mạng lưới “đội đỏ”, thư viện siêu chuyên gia định hướng AI sắp xuất hiện
**Nguồn: **Báo chí Hiệp hội Tài chính
Biên tập viên Thạch Chính Thành
Vào đầu giờ sáng thứ Tư, giờ Bắc Kinh, OpenAI, một công ty khởi nghiệp công nghệ của Mỹ, đã đưa ra thông báo về việc triển khai đợt tuyển dụng toàn cầu các thành viên mạng lưới "đội đỏ", nhằm giới thiệu các lực lượng bên ngoài và phát hiện ra những sai sót, rủi ro của hệ thống AI trước.
Khái niệm về cái gọi là mạng "đội đỏ", hay Red Teaming, xuất phát từ mô phỏng quân sự. **Tức là tìm một nhóm người mô phỏng “kẻ thù” tưởng tượng để kiểm tra mức độ chuẩn bị của chính phe mình (“đội xanh”). **Trong lĩnh vực AI, nhiệm vụ của "đội đỏ" là mô phỏng tin tặc hoặc những người có khả năng nguy hiểm khác và cố gắng tìm ra sơ hở trong các mô hình ngôn ngữ lớn, để ngăn chặn AI hỗ trợ các mục đích bất hợp pháp như gây nguy hiểm cho an ninh xã hội trong xã hội hiện thực.
OpenAI cho biết trong vài năm qua, các chuyên gia ở nhiều lĩnh vực khác nhau đã giúp đỡ thử nghiệm các mô hình chưa được phát hành, bây giờ là thành lập một "lực lượng chính quy" để tuyển dụng một số lượng lớn người từ các khu vực khác nhau, ngôn ngữ khác nhau, lĩnh vực chuyên môn khác nhau và những cuộc sống khác nhau. Những người có kinh nghiệm làm việc cùng nhau để làm cho các mô hình AI trở nên an toàn hơn. **Không giống như trước đây, chỉ tuyển một nhóm người để thử nghiệm tập trung trước khi một phiên bản quan trọng được đưa lên mạng, OpenAI sẽ cho phép một số lượng thành viên không chắc chắn tiến hành thử nghiệm trong toàn bộ chu kỳ phát triển dựa trên nhu cầu.
Đồng thời, mạng lưới “đội đỏ” này cũng sẽ trở thành thư viện chuyên gia toàn cầu của OpenAI và OpenAI cũng sẽ cung cấp nền tảng giao tiếp giữa các thành viên “đội đỏ”. OpenAI cũng liệt kê một số hướng chuyên gia mà họ mong muốn tuyển dụng trên trang web chính thức của mình, nhưng cũng nhấn mạnh rằng nó không giới hạn ở các lĩnh vực này.
Nhân tiện, OpenAI cũng tuyên bố sẽ trả thù lao cho các thành viên tham gia dự án “đội đỏ” (nhưng không nói rõ sẽ trả bao nhiêu). OpenAI cũng nhấn mạnh rằng các dự án tham gia “đội đỏ” thường yêu cầu phải ký thỏa thuận bảo mật hoặc giữ im lặng trong một khoảng thời gian không xác định.
OpenAI tuyên bố rằng kênh ứng tuyển sẽ vẫn mở cho đến ngày 1 tháng 12 năm nay. Công ty sẽ xem xét các đơn đăng ký trên cơ sở luân phiên và sau đó sẽ đánh giá xem có cần tuyển dụng mở thêm hay không.
Các thành viên “đội đỏ” OpenAI đã lên sân khấu
Như OpenAI đã đề cập, hệ thống “đội đỏ” đã tồn tại từ lâu và nhiều thành viên đã nhận được các cuộc phỏng vấn công khai từ giới truyền thông.
Trong một bài báo tiết lộ trên tờ Financial Times vào tháng 4 năm nay, Andrew White, giáo sư kỹ thuật hóa học tại Đại học Rochester ở Hoa Kỳ, cho biết ông đã tham gia cuộc thử nghiệm của “đội đỏ” GPT-4,** và rằng mục tiêu tấn công của anh ta là sử dụng ChatGPT để tạo ra một chất độc thần kinh hoàn toàn mới. White cho biết anh đã sử dụng chức năng "plug-in" để cung cấp các tài liệu hóa học và danh mục nhà sản xuất hóa chất cho mô hình lớn, và mô hình lớn thậm chí còn tìm cho anh một nơi để anh có thể tạo ra chất độc giả định của mình. **
White cho rằng các mô hình lớn cuối cùng có thể giúp nhiều người thực hiện các thí nghiệm hóa học nhanh hơn và chính xác hơn, nhưng cũng có mối nguy hiểm nghiêm trọng là một số người sẽ sử dụng AI để thực hiện một số thí nghiệm nguy hiểm.
Sau khi nhận được phản hồi từ White, OpenAI đã thực hiện các thay đổi đối với hệ thống để đảm bảo rằng hệ thống sẽ không phản hồi các câu hỏi tương tự. Theo giới truyền thông, có khoảng 10 thành viên "đội đỏ" với xuất thân khác nhau - luật sư, giáo viên, nhân viên kiểm soát rủi ro, nhà nghiên cứu bảo mật, v.v. Hầu hết họ đều sống ở Hoa Kỳ và Châu Âu. Họ tiết lộ rằng trong những tháng trước khi GPT-4 được phát hành, họ đã dành khoảng 10-40 giờ để thử nghiệm hệ thống và được trả khoảng 100 USD mỗi giờ.