Nhà phát triển ChatGPT OpenAI cho biết vào thứ Tư (ngày 5) rằng công ty có kế hoạch đầu tư các nguồn lực đáng kể và thành lập một nhóm nghiên cứu mới để đảm bảo rằng trí tuệ nhân tạo (AI) của họ an toàn cho con người và cuối cùng đạt được khả năng tự giám sát của AI.
"Sức mạnh to lớn của một siêu trí tuệ có thể ... dẫn đến sự suy giảm quyền lực của con người, hoặc thậm chí là tuyệt chủng", đồng sáng lập OpenAI Ilya Sutskever và Jan Leike, người đứng đầu nhóm AI Consistency có nhiệm vụ cải thiện bảo mật hệ thống, viết trong một bài đăng trên blog. .
"Hiện tại, chúng tôi không có giải pháp nào để thao túng hoặc kiểm soát AI có khả năng siêu thông minh và ngăn không cho nó vượt khỏi tầm kiểm soát", họ viết.
Căn chỉnh AI đề cập đến nhu cầu hành vi của AI phải phù hợp với sở thích và mong đợi của nhà thiết kế.
20% sức mạnh tính toán được sử dụng để giải quyết vấn đề mất kiểm soát AI
Họ dự đoán rằng AI siêu thông minh (tức là hệ thống thông minh hơn con người) có thể xuất hiện trong thập kỷ này (vào năm 2030) và con người sẽ cần công nghệ tốt hơn hiện tại để kiểm soát AI siêu thông minh, vì vậy họ cần phải ở trong giai đoạn được gọi là bước đột phá. trong Nghiên cứu về tính nhất quán của AI, tập trung vào việc đảm bảo rằng trí tuệ nhân tạo có lợi cho con người.
Theo họ, với sự hỗ trợ của Microsoft (Microsoft), **OpenAI sẽ dành 20% sức mạnh tính toán của mình trong bốn năm tới để giải quyết vấn đề AI ngoài tầm kiểm soát. **Ngoài ra, công ty đang thành lập một nhóm mới để tổ chức công việc này, được gọi là Nhóm siêu nhất quán.
Được biết, mục tiêu của nhóm là tạo ra một nhà nghiên cứu AI "cấp độ con người", sau đó có thể mở rộng bằng một lượng lớn sức mạnh tính toán. OpenAI cho biết điều này có nghĩa là họ sẽ sử dụng phản hồi của con người để đào tạo hệ thống AI, đào tạo hệ thống AI để hỗ trợ đánh giá con người và cuối cùng là đào tạo hệ thống AI để thực hiện nghiên cứu về tính nhất quán thực tế.
Chuyên gia đặt câu hỏi
Tuy nhiên, động thái này đã bị giới chuyên môn đặt dấu hỏi ngay khi được công bố. Connor Leahy, một người ủng hộ sự an toàn của AI, cho biết kế hoạch của OpenAI về cơ bản là thiếu sót vì một phiên bản thô sơ của AI có thể đạt đến "cấp độ con người" có thể vượt khỏi tầm kiểm soát và tàn phá trước khi nó có thể được sử dụng để giải quyết các vấn đề về an toàn của AI. "
"Bạn phải giải quyết vấn đề nhất quán trước khi có thể xây dựng trí thông minh cấp độ con người, nếu không, bạn không thể kiểm soát nó theo mặc định. Cá nhân tôi không nghĩ đó là một kế hoạch đặc biệt tốt hay an toàn", ông nói trong một cuộc phỏng vấn.
Những nguy cơ tiềm tàng của AI từ lâu đã là mối quan tâm hàng đầu của các nhà nghiên cứu AI và công chúng. Vào tháng 4, một nhóm các nhà lãnh đạo và chuyên gia trong ngành AI đã ký một bức thư ngỏ kêu gọi tạm dừng đào tạo các hệ thống AI mạnh hơn mô hình GPT-4 mới của OpenAI trong ít nhất sáu tháng, với lý do những rủi ro tiềm ẩn của chúng đối với xã hội và nhân loại.
Một cuộc thăm dò gần đây cho thấy hơn 2/3 người Mỹ lo ngại về tác động tiêu cực có thể có của AI và 61% tin rằng AI có thể đe dọa nền văn minh nhân loại.
Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Siêu AI sẽ ra mắt trong 7 năm tới, OpenAI dự định đầu tư "khủng" để ngăn chặn tình trạng mất kiểm soát
**Nguồn: **Hiệp hội tài chính
Hoàng Tuấn Chi biên tập
Nhà phát triển ChatGPT OpenAI cho biết vào thứ Tư (ngày 5) rằng công ty có kế hoạch đầu tư các nguồn lực đáng kể và thành lập một nhóm nghiên cứu mới để đảm bảo rằng trí tuệ nhân tạo (AI) của họ an toàn cho con người và cuối cùng đạt được khả năng tự giám sát của AI.
"Hiện tại, chúng tôi không có giải pháp nào để thao túng hoặc kiểm soát AI có khả năng siêu thông minh và ngăn không cho nó vượt khỏi tầm kiểm soát", họ viết.
20% sức mạnh tính toán được sử dụng để giải quyết vấn đề mất kiểm soát AI
Họ dự đoán rằng AI siêu thông minh (tức là hệ thống thông minh hơn con người) có thể xuất hiện trong thập kỷ này (vào năm 2030) và con người sẽ cần công nghệ tốt hơn hiện tại để kiểm soát AI siêu thông minh, vì vậy họ cần phải ở trong giai đoạn được gọi là bước đột phá. trong Nghiên cứu về tính nhất quán của AI, tập trung vào việc đảm bảo rằng trí tuệ nhân tạo có lợi cho con người.
Theo họ, với sự hỗ trợ của Microsoft (Microsoft), **OpenAI sẽ dành 20% sức mạnh tính toán của mình trong bốn năm tới để giải quyết vấn đề AI ngoài tầm kiểm soát. **Ngoài ra, công ty đang thành lập một nhóm mới để tổ chức công việc này, được gọi là Nhóm siêu nhất quán.
Chuyên gia đặt câu hỏi
Tuy nhiên, động thái này đã bị giới chuyên môn đặt dấu hỏi ngay khi được công bố. Connor Leahy, một người ủng hộ sự an toàn của AI, cho biết kế hoạch của OpenAI về cơ bản là thiếu sót vì một phiên bản thô sơ của AI có thể đạt đến "cấp độ con người" có thể vượt khỏi tầm kiểm soát và tàn phá trước khi nó có thể được sử dụng để giải quyết các vấn đề về an toàn của AI. "
"Bạn phải giải quyết vấn đề nhất quán trước khi có thể xây dựng trí thông minh cấp độ con người, nếu không, bạn không thể kiểm soát nó theo mặc định. Cá nhân tôi không nghĩ đó là một kế hoạch đặc biệt tốt hay an toàn", ông nói trong một cuộc phỏng vấn.
Những nguy cơ tiềm tàng của AI từ lâu đã là mối quan tâm hàng đầu của các nhà nghiên cứu AI và công chúng. Vào tháng 4, một nhóm các nhà lãnh đạo và chuyên gia trong ngành AI đã ký một bức thư ngỏ kêu gọi tạm dừng đào tạo các hệ thống AI mạnh hơn mô hình GPT-4 mới của OpenAI trong ít nhất sáu tháng, với lý do những rủi ro tiềm ẩn của chúng đối với xã hội và nhân loại.
Một cuộc thăm dò gần đây cho thấy hơn 2/3 người Mỹ lo ngại về tác động tiêu cực có thể có của AI và 61% tin rằng AI có thể đe dọa nền văn minh nhân loại.