Chỉ ba ngày sau khi Meta công bố mô hình ngôn ngữ lớn mã nguồn mở thế hệ mới Llama 2, các giám đốc điều hành hàng đầu của công ty, Microsoft, OpenAI, Amazon, Anthropic và bảy gã khổng lồ khác trong ngành AI và giám đốc điều hành của các công ty mới thành lập đang hot lại tập trung tại Nhà Trắng ở Hoa Kỳ.
Trong sự kiện này, 7 công ty đã ký “Cam kết tự nguyện” (Voluntary Cam kết), đưa ra “8 cam kết chính” về tính an toàn, minh bạch và rủi ro của công nghệ AI và R&D.
Nguồn hình ảnh: Được tạo bởi Unbounded AI
Màn kịch "tìm kiếm sự giám sát" của công ty AI đã đạt đến một cao trào nhỏ tại đây.
Người phụ trách chuyên mục của NYT, Kevin Roose, đã viết một bài báo, giải thích chi tiết "8 lời hứa lớn" đã nói lên điều gì và những thay đổi mà chúng đã mang lại.
Kết quả của nghiên cứu là 8 cam kết này, chẳng hạn như kiểm tra bảo mật, chia sẻ thông tin bảo mật AI, báo cáo lỗ hổng và "ưu tiên AI để giải quyết các thách thức xã hội", dường như là một số vấn đề lớn và các cam kết tương ứng thiếu chi tiết.
"Thư cam kết tài nguyên" này giống như một "hiển thị kết quả" gián tiếp về một số câu hỏi từ các cơ quan quản lý Hoa Kỳ đối với các công ty AI trong sáu tháng qua và nó có thể không có nhiều ý nghĩa triển khai. Tuy nhiên, các cơ quan quản lý đã nhiều lần bày tỏ lo ngại về AI, cho thấy quan điểm của chính phủ về việc ứng dụng công nghệ AI là ý nghĩa lớn nhất của chương trình này.
Sau đây là diễn giải của Kevin Roose về 8 cam kết trong “Thư cam kết tự nguyện”:
** Cam kết 1: Công ty cam kết kiểm tra an toàn nội bộ và bên ngoài hệ thống AI trước khi phát hành. **
Các công ty AI này đều đã tiến hành các thử nghiệm an toàn trên các mẫu của họ—thường được gọi là “thử nghiệm đội đỏ”—trước khi chúng được tung ra thị trường. Theo một cách nào đó, đây thực sự không phải là một lời hứa mới, nó rất mơ hồ. Không có chi tiết nào được cung cấp về loại thử nghiệm nào sẽ được yêu cầu hoặc do ai thực hiện.
Trong một tuyên bố sau đó, Nhà Trắng chỉ nói rằng việc thử nghiệm các mô hình AI "sẽ được tiến hành một phần bởi các chuyên gia độc lập" và tập trung vào "các rủi ro của AI như an ninh sinh học và an ninh mạng, cũng như tác động xã hội rộng lớn hơn của chúng".
Bạn nên để các công ty AI công khai cam kết tiếp tục thử nghiệm như vậy và khuyến khích sự minh bạch hơn trong quá trình thử nghiệm. Ngoài ra còn có một số loại rủi ro AI—chẳng hạn như nguy cơ các mô hình AI có thể được sử dụng để phát triển vũ khí sinh học—mà các quan chức chính phủ và quân đội có thể dễ dàng đánh giá hơn các công ty.
Tôi rất vui khi thấy ngành công nghiệp AI đồng ý về một loạt các thử nghiệm an toàn tiêu chuẩn, chẳng hạn như các thử nghiệm "tự sao chép" của Trung tâm nghiên cứu Alignment cho các mô hình trước khi phát hành từ OpenAI và Anthropic. Tôi cũng muốn thấy chính phủ liên bang tài trợ cho những thử nghiệm như vậy, có thể tốn kém và yêu cầu các kỹ sư có chuyên môn kỹ thuật quan trọng. Hiện tại, nhiều thử nghiệm bảo mật được tài trợ và giám sát bởi các tập đoàn, điều này làm nảy sinh các vấn đề về xung đột lợi ích rõ ràng.
** Cam kết 2: Công ty cam kết chia sẻ thông tin về quản lý rủi ro AI trong toàn ngành và với chính phủ, xã hội dân sự và học viện. **
Lời hứa này cũng hơi mơ hồ. Một số công ty này đã công bố thông tin về các mô hình AI của họ — thường là trong các bài báo học thuật hoặc bài đăng trên blog của công ty. Một số công ty trong số này, bao gồm OpenAI và Anthropic, cũng đã phát hành tài liệu có tên "Thẻ" phác thảo các bước họ đang thực hiện để làm cho các mô hình này an toàn hơn.
Nhưng đôi khi họ cũng giữ lại thông tin, với lý do lo ngại về bảo mật. Khi OpenAI phát hành mô hình AI mới nhất của mình, GPT-4, vào năm nay, nó đã phá vỡ quy ước của ngành bằng cách chọn không tiết lộ dữ liệu đào tạo của mình là bao nhiêu hoặc mô hình của nó lớn như thế nào (một số liệu được gọi là "tham số"). Công ty cho biết họ từ chối tiết lộ thông tin do lo ngại về cạnh tranh và an toàn. Nó cũng là loại dữ liệu mà các công ty công nghệ muốn tránh xa các đối thủ cạnh tranh.
Theo những cam kết mới này, liệu các công ty AI có buộc phải tiết lộ những thông tin như vậy không? Điều gì sẽ xảy ra nếu làm như vậy có nguy cơ đẩy nhanh một cuộc chạy đua vũ trang AI?
Tôi nghi ngờ rằng mục tiêu của Nhà Trắng không phải là buộc các công ty tiết lộ số tham số của họ, mà là khuyến khích họ trao đổi thông tin với nhau về những rủi ro mà mô hình của họ gây ra (hoặc không).
Nhưng ngay cả việc chia sẻ thông tin này cũng có thể có rủi ro. Nếu nhóm AI của Google, trong quá trình thử nghiệm trước khi phát hành, ngăn không cho các mô hình mới được sử dụng để thiết kế vũ khí sinh học chết người, thì họ có nên chia sẻ thông tin đó ra bên ngoài Google không? Điều này có cung cấp cho những kẻ xấu ý tưởng về cách để một mô hình ít được bảo vệ hơn thực hiện cùng một nhiệm vụ không?
** Cam kết 3: Công ty cam kết đầu tư vào an ninh mạng và các biện pháp bảo vệ khỏi mối đe dọa từ nội bộ để bảo vệ các trọng số mô hình độc quyền và chưa công bố. **
Câu hỏi này rất đơn giản và không gây tranh cãi giữa những người trong cuộc về AI mà tôi đã nói chuyện. "Trọng lượng mô hình" là một thuật ngữ kỹ thuật đề cập đến các hướng dẫn toán học cung cấp cho các mô hình AI khả năng hoạt động. Nếu bạn là đại lý của một chính phủ nước ngoài (hoặc một công ty đối thủ) đang tìm cách xây dựng phiên bản ChatGPT hoặc sản phẩm AI khác của riêng bạn, trọng số là thứ bạn muốn đánh cắp. Các công ty AI có quyền lợi trong việc kiểm soát chặt chẽ điều này.
Vấn đề rò rỉ trọng lượng mô hình đã được biết đến.
Ví dụ: các trọng số cho mô hình ngôn ngữ LLaMA gốc của Meta đã bị rò rỉ trên 4chan và các trang web khác chỉ vài ngày sau khi mô hình được phát hành công khai. Với nguy cơ rò rỉ nhiều hơn và khả năng các quốc gia khác có thể quan tâm đến việc đánh cắp công nghệ từ các công ty Hoa Kỳ, việc yêu cầu các công ty AI đầu tư nhiều hơn vào bảo mật của chính họ dường như là điều dễ hiểu.
** Cam kết 4: Cả hai công ty cam kết hỗ trợ bên thứ ba phát hiện và báo cáo các lỗ hổng trong hệ thống AI của họ. **
Tôi không chắc điều đó có nghĩa là gì. Sau khi mỗi công ty AI phát hành một mô hình, họ sẽ phát hiện ra các lỗ hổng trong mô hình của mình, thường là do người dùng đang cố gắng làm những điều xấu với mô hình đó hoặc phá vỡ quy trình “bẻ khóa” theo cách mà công ty không lường trước được.
Nhà Trắng đã cam kết yêu cầu các công ty tạo ra "cơ chế báo cáo mạnh mẽ" cho các lỗ hổng, nhưng không rõ điều đó có nghĩa là gì.
Nút phản hồi trong ứng dụng, tương tự như nút cho phép người dùng Facebook và Twitter báo cáo các bài đăng vi phạm? Một chương trình tiền thưởng lỗi, giống như chương trình OpenAI đã ra mắt năm nay để thưởng cho những người dùng tìm thấy lỗi trong hệ thống của nó? Có gì khác? Chúng ta sẽ phải chờ thêm chi tiết.
** Cam kết 5: Công ty cam kết phát triển các cơ chế kỹ thuật mạnh mẽ để đảm bảo người dùng biết khi nào nội dung được tạo bởi trí tuệ nhân tạo, chẳng hạn như hệ thống thủy vân. **
Đó là một ý tưởng thú vị, nhưng để lại rất nhiều chỗ để giải thích.
Cho đến nay, các công ty AI đã phải vật lộn để thiết kế các công cụ cho phép mọi người biết liệu họ có đang xem nội dung do AI tạo ra hay không. Có những lý do kỹ thuật hợp lý cho việc này, nhưng đó là một vấn đề thực sự khi mọi người có thể coi các công việc do AI tạo ra là của riêng họ (hãy hỏi bất kỳ giáo viên trung học nào.)
Nhiều công cụ hiện tại được quảng cáo là có thể phát hiện đầu ra của AI thực sự không thể làm như vậy với bất kỳ mức độ chính xác nào.
Tôi không lạc quan rằng vấn đề này sẽ được giải quyết hoàn toàn, nhưng tôi rất vui vì các công ty đang cam kết giải quyết vấn đề này.
**Cam kết 6: Các công ty cam kết báo cáo công khai về các khả năng, hạn chế và các lĩnh vực sử dụng hợp lý và không phù hợp hệ thống AI của họ. **
Một cam kết nghe có vẻ hợp lý khác với nhiều chỗ ngọ nguậy.
Tần suất các công ty cần báo cáo về khả năng và hạn chế của hệ thống của họ là bao lâu? Thông tin này phải chi tiết đến mức nào? Cho rằng nhiều công ty xây dựng hệ thống AI ngạc nhiên trước khả năng của hệ thống của họ sau khi thực tế, họ thực sự có thể mô tả các hệ thống này trước bao xa?
** Cam kết 7: Các công ty cam kết ưu tiên nghiên cứu các rủi ro đối với xã hội mà các hệ thống AI có thể gây ra, bao gồm tránh thiên vị và phân biệt đối xử có hại cũng như bảo vệ quyền riêng tư. **
Cam kết “ưu tiên nghiên cứu” là một cam kết mơ hồ. Tuy nhiên, tôi tin rằng cam kết này sẽ được nhiều người trong cộng đồng đạo đức AI hoan nghênh, những người muốn các công ty AI ưu tiên ngăn chặn tác hại ngắn hạn như thành kiến và phân biệt đối xử, thay vì lo lắng về các viễn cảnh ngày tận thế, như những người đảm bảo an toàn cho AI vẫn làm.
Nếu bạn bối rối về sự khác biệt giữa "đạo đức AI" và "an toàn AI", hãy biết rằng có hai phe đối địch trong cộng đồng nghiên cứu AI, mỗi phe tin rằng phe kia tập trung vào việc ngăn chặn tác hại từ những sai lầm.
** Cam kết 8: Cả hai công ty đều cam kết phát triển và triển khai các hệ thống trí tuệ nhân tạo tiên tiến để giúp giải quyết những thách thức lớn nhất của xã hội. **
Tôi không nghĩ nhiều người sẽ tranh luận rằng AI tiên tiến không nên được sử dụng để giúp giải quyết những thách thức lớn nhất của xã hội. Tôi sẽ không đồng ý với việc Nhà Trắng cho rằng phòng chống ung thư và giảm thiểu biến đổi khí hậu là hai lĩnh vực mà Nhà Trắng muốn các công ty AI tập trung vào.
Tuy nhiên, điều làm mục tiêu này hơi phức tạp là trong nghiên cứu trí tuệ nhân tạo, những thứ ban đầu có vẻ nhàm chán thường có xu hướng gây ra những hậu quả nghiêm trọng hơn.
Một số kỹ thuật được sử dụng bởi DeepMind's AlphaGo, một hệ thống trí tuệ nhân tạo được đào tạo để chơi trò chơi cờ vây, cực kỳ hữu ích trong việc dự đoán cấu trúc ba chiều của protein, một khám phá quan trọng thúc đẩy nghiên cứu khoa học cơ bản.
Nhìn chung, các thỏa thuận của Nhà Trắng với các công ty AI dường như mang tính tượng trưng hơn là thực chất. Không có cơ chế thực thi nào để đảm bảo các công ty tuân thủ các cam kết này, nhiều trong số đó phản ánh các biện pháp phòng ngừa đã được các công ty AI thực hiện.
Tuy nhiên, đó là một bước đầu tiên hợp lý.
Đồng ý tuân thủ các quy tắc này cho thấy các công ty AI đã học được từ những thất bại của các công ty công nghệ sơ khai đã đợi cho đến khi gặp rắc rối mới tham gia với chính phủ. Ở Washington, ít nhất là khi nói đến quy định công nghệ, bạn nên đến sớm.
Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Bảy gã khổng lồ AI đưa ra 8 lời hứa lớn trong Nhà Trắng Họ đã hứa gì?
Chỉ ba ngày sau khi Meta công bố mô hình ngôn ngữ lớn mã nguồn mở thế hệ mới Llama 2, các giám đốc điều hành hàng đầu của công ty, Microsoft, OpenAI, Amazon, Anthropic và bảy gã khổng lồ khác trong ngành AI và giám đốc điều hành của các công ty mới thành lập đang hot lại tập trung tại Nhà Trắng ở Hoa Kỳ.
Trong sự kiện này, 7 công ty đã ký “Cam kết tự nguyện” (Voluntary Cam kết), đưa ra “8 cam kết chính” về tính an toàn, minh bạch và rủi ro của công nghệ AI và R&D.
Màn kịch "tìm kiếm sự giám sát" của công ty AI đã đạt đến một cao trào nhỏ tại đây.
Người phụ trách chuyên mục của NYT, Kevin Roose, đã viết một bài báo, giải thích chi tiết "8 lời hứa lớn" đã nói lên điều gì và những thay đổi mà chúng đã mang lại.
Kết quả của nghiên cứu là 8 cam kết này, chẳng hạn như kiểm tra bảo mật, chia sẻ thông tin bảo mật AI, báo cáo lỗ hổng và "ưu tiên AI để giải quyết các thách thức xã hội", dường như là một số vấn đề lớn và các cam kết tương ứng thiếu chi tiết.
"Thư cam kết tài nguyên" này giống như một "hiển thị kết quả" gián tiếp về một số câu hỏi từ các cơ quan quản lý Hoa Kỳ đối với các công ty AI trong sáu tháng qua và nó có thể không có nhiều ý nghĩa triển khai. Tuy nhiên, các cơ quan quản lý đã nhiều lần bày tỏ lo ngại về AI, cho thấy quan điểm của chính phủ về việc ứng dụng công nghệ AI là ý nghĩa lớn nhất của chương trình này.
Sau đây là diễn giải của Kevin Roose về 8 cam kết trong “Thư cam kết tự nguyện”:
** Cam kết 1: Công ty cam kết kiểm tra an toàn nội bộ và bên ngoài hệ thống AI trước khi phát hành. **
Các công ty AI này đều đã tiến hành các thử nghiệm an toàn trên các mẫu của họ—thường được gọi là “thử nghiệm đội đỏ”—trước khi chúng được tung ra thị trường. Theo một cách nào đó, đây thực sự không phải là một lời hứa mới, nó rất mơ hồ. Không có chi tiết nào được cung cấp về loại thử nghiệm nào sẽ được yêu cầu hoặc do ai thực hiện.
Trong một tuyên bố sau đó, Nhà Trắng chỉ nói rằng việc thử nghiệm các mô hình AI "sẽ được tiến hành một phần bởi các chuyên gia độc lập" và tập trung vào "các rủi ro của AI như an ninh sinh học và an ninh mạng, cũng như tác động xã hội rộng lớn hơn của chúng".
Bạn nên để các công ty AI công khai cam kết tiếp tục thử nghiệm như vậy và khuyến khích sự minh bạch hơn trong quá trình thử nghiệm. Ngoài ra còn có một số loại rủi ro AI—chẳng hạn như nguy cơ các mô hình AI có thể được sử dụng để phát triển vũ khí sinh học—mà các quan chức chính phủ và quân đội có thể dễ dàng đánh giá hơn các công ty.
Tôi rất vui khi thấy ngành công nghiệp AI đồng ý về một loạt các thử nghiệm an toàn tiêu chuẩn, chẳng hạn như các thử nghiệm "tự sao chép" của Trung tâm nghiên cứu Alignment cho các mô hình trước khi phát hành từ OpenAI và Anthropic. Tôi cũng muốn thấy chính phủ liên bang tài trợ cho những thử nghiệm như vậy, có thể tốn kém và yêu cầu các kỹ sư có chuyên môn kỹ thuật quan trọng. Hiện tại, nhiều thử nghiệm bảo mật được tài trợ và giám sát bởi các tập đoàn, điều này làm nảy sinh các vấn đề về xung đột lợi ích rõ ràng.
** Cam kết 2: Công ty cam kết chia sẻ thông tin về quản lý rủi ro AI trong toàn ngành và với chính phủ, xã hội dân sự và học viện. **
Lời hứa này cũng hơi mơ hồ. Một số công ty này đã công bố thông tin về các mô hình AI của họ — thường là trong các bài báo học thuật hoặc bài đăng trên blog của công ty. Một số công ty trong số này, bao gồm OpenAI và Anthropic, cũng đã phát hành tài liệu có tên "Thẻ" phác thảo các bước họ đang thực hiện để làm cho các mô hình này an toàn hơn.
Nhưng đôi khi họ cũng giữ lại thông tin, với lý do lo ngại về bảo mật. Khi OpenAI phát hành mô hình AI mới nhất của mình, GPT-4, vào năm nay, nó đã phá vỡ quy ước của ngành bằng cách chọn không tiết lộ dữ liệu đào tạo của mình là bao nhiêu hoặc mô hình của nó lớn như thế nào (một số liệu được gọi là "tham số"). Công ty cho biết họ từ chối tiết lộ thông tin do lo ngại về cạnh tranh và an toàn. Nó cũng là loại dữ liệu mà các công ty công nghệ muốn tránh xa các đối thủ cạnh tranh.
Theo những cam kết mới này, liệu các công ty AI có buộc phải tiết lộ những thông tin như vậy không? Điều gì sẽ xảy ra nếu làm như vậy có nguy cơ đẩy nhanh một cuộc chạy đua vũ trang AI?
Tôi nghi ngờ rằng mục tiêu của Nhà Trắng không phải là buộc các công ty tiết lộ số tham số của họ, mà là khuyến khích họ trao đổi thông tin với nhau về những rủi ro mà mô hình của họ gây ra (hoặc không).
Nhưng ngay cả việc chia sẻ thông tin này cũng có thể có rủi ro. Nếu nhóm AI của Google, trong quá trình thử nghiệm trước khi phát hành, ngăn không cho các mô hình mới được sử dụng để thiết kế vũ khí sinh học chết người, thì họ có nên chia sẻ thông tin đó ra bên ngoài Google không? Điều này có cung cấp cho những kẻ xấu ý tưởng về cách để một mô hình ít được bảo vệ hơn thực hiện cùng một nhiệm vụ không?
** Cam kết 3: Công ty cam kết đầu tư vào an ninh mạng và các biện pháp bảo vệ khỏi mối đe dọa từ nội bộ để bảo vệ các trọng số mô hình độc quyền và chưa công bố. **
Câu hỏi này rất đơn giản và không gây tranh cãi giữa những người trong cuộc về AI mà tôi đã nói chuyện. "Trọng lượng mô hình" là một thuật ngữ kỹ thuật đề cập đến các hướng dẫn toán học cung cấp cho các mô hình AI khả năng hoạt động. Nếu bạn là đại lý của một chính phủ nước ngoài (hoặc một công ty đối thủ) đang tìm cách xây dựng phiên bản ChatGPT hoặc sản phẩm AI khác của riêng bạn, trọng số là thứ bạn muốn đánh cắp. Các công ty AI có quyền lợi trong việc kiểm soát chặt chẽ điều này.
Vấn đề rò rỉ trọng lượng mô hình đã được biết đến.
Ví dụ: các trọng số cho mô hình ngôn ngữ LLaMA gốc của Meta đã bị rò rỉ trên 4chan và các trang web khác chỉ vài ngày sau khi mô hình được phát hành công khai. Với nguy cơ rò rỉ nhiều hơn và khả năng các quốc gia khác có thể quan tâm đến việc đánh cắp công nghệ từ các công ty Hoa Kỳ, việc yêu cầu các công ty AI đầu tư nhiều hơn vào bảo mật của chính họ dường như là điều dễ hiểu.
** Cam kết 4: Cả hai công ty cam kết hỗ trợ bên thứ ba phát hiện và báo cáo các lỗ hổng trong hệ thống AI của họ. **
Tôi không chắc điều đó có nghĩa là gì. Sau khi mỗi công ty AI phát hành một mô hình, họ sẽ phát hiện ra các lỗ hổng trong mô hình của mình, thường là do người dùng đang cố gắng làm những điều xấu với mô hình đó hoặc phá vỡ quy trình “bẻ khóa” theo cách mà công ty không lường trước được.
Nhà Trắng đã cam kết yêu cầu các công ty tạo ra "cơ chế báo cáo mạnh mẽ" cho các lỗ hổng, nhưng không rõ điều đó có nghĩa là gì.
Nút phản hồi trong ứng dụng, tương tự như nút cho phép người dùng Facebook và Twitter báo cáo các bài đăng vi phạm? Một chương trình tiền thưởng lỗi, giống như chương trình OpenAI đã ra mắt năm nay để thưởng cho những người dùng tìm thấy lỗi trong hệ thống của nó? Có gì khác? Chúng ta sẽ phải chờ thêm chi tiết.
** Cam kết 5: Công ty cam kết phát triển các cơ chế kỹ thuật mạnh mẽ để đảm bảo người dùng biết khi nào nội dung được tạo bởi trí tuệ nhân tạo, chẳng hạn như hệ thống thủy vân. **
Đó là một ý tưởng thú vị, nhưng để lại rất nhiều chỗ để giải thích.
Cho đến nay, các công ty AI đã phải vật lộn để thiết kế các công cụ cho phép mọi người biết liệu họ có đang xem nội dung do AI tạo ra hay không. Có những lý do kỹ thuật hợp lý cho việc này, nhưng đó là một vấn đề thực sự khi mọi người có thể coi các công việc do AI tạo ra là của riêng họ (hãy hỏi bất kỳ giáo viên trung học nào.)
Nhiều công cụ hiện tại được quảng cáo là có thể phát hiện đầu ra của AI thực sự không thể làm như vậy với bất kỳ mức độ chính xác nào.
Tôi không lạc quan rằng vấn đề này sẽ được giải quyết hoàn toàn, nhưng tôi rất vui vì các công ty đang cam kết giải quyết vấn đề này.
**Cam kết 6: Các công ty cam kết báo cáo công khai về các khả năng, hạn chế và các lĩnh vực sử dụng hợp lý và không phù hợp hệ thống AI của họ. **
Một cam kết nghe có vẻ hợp lý khác với nhiều chỗ ngọ nguậy.
Tần suất các công ty cần báo cáo về khả năng và hạn chế của hệ thống của họ là bao lâu? Thông tin này phải chi tiết đến mức nào? Cho rằng nhiều công ty xây dựng hệ thống AI ngạc nhiên trước khả năng của hệ thống của họ sau khi thực tế, họ thực sự có thể mô tả các hệ thống này trước bao xa?
** Cam kết 7: Các công ty cam kết ưu tiên nghiên cứu các rủi ro đối với xã hội mà các hệ thống AI có thể gây ra, bao gồm tránh thiên vị và phân biệt đối xử có hại cũng như bảo vệ quyền riêng tư. **
Cam kết “ưu tiên nghiên cứu” là một cam kết mơ hồ. Tuy nhiên, tôi tin rằng cam kết này sẽ được nhiều người trong cộng đồng đạo đức AI hoan nghênh, những người muốn các công ty AI ưu tiên ngăn chặn tác hại ngắn hạn như thành kiến và phân biệt đối xử, thay vì lo lắng về các viễn cảnh ngày tận thế, như những người đảm bảo an toàn cho AI vẫn làm.
Nếu bạn bối rối về sự khác biệt giữa "đạo đức AI" và "an toàn AI", hãy biết rằng có hai phe đối địch trong cộng đồng nghiên cứu AI, mỗi phe tin rằng phe kia tập trung vào việc ngăn chặn tác hại từ những sai lầm.
** Cam kết 8: Cả hai công ty đều cam kết phát triển và triển khai các hệ thống trí tuệ nhân tạo tiên tiến để giúp giải quyết những thách thức lớn nhất của xã hội. **
Tôi không nghĩ nhiều người sẽ tranh luận rằng AI tiên tiến không nên được sử dụng để giúp giải quyết những thách thức lớn nhất của xã hội. Tôi sẽ không đồng ý với việc Nhà Trắng cho rằng phòng chống ung thư và giảm thiểu biến đổi khí hậu là hai lĩnh vực mà Nhà Trắng muốn các công ty AI tập trung vào.
Tuy nhiên, điều làm mục tiêu này hơi phức tạp là trong nghiên cứu trí tuệ nhân tạo, những thứ ban đầu có vẻ nhàm chán thường có xu hướng gây ra những hậu quả nghiêm trọng hơn.
Một số kỹ thuật được sử dụng bởi DeepMind's AlphaGo, một hệ thống trí tuệ nhân tạo được đào tạo để chơi trò chơi cờ vây, cực kỳ hữu ích trong việc dự đoán cấu trúc ba chiều của protein, một khám phá quan trọng thúc đẩy nghiên cứu khoa học cơ bản.
Nhìn chung, các thỏa thuận của Nhà Trắng với các công ty AI dường như mang tính tượng trưng hơn là thực chất. Không có cơ chế thực thi nào để đảm bảo các công ty tuân thủ các cam kết này, nhiều trong số đó phản ánh các biện pháp phòng ngừa đã được các công ty AI thực hiện.
Tuy nhiên, đó là một bước đầu tiên hợp lý.
Đồng ý tuân thủ các quy tắc này cho thấy các công ty AI đã học được từ những thất bại của các công ty công nghệ sơ khai đã đợi cho đến khi gặp rắc rối mới tham gia với chính phủ. Ở Washington, ít nhất là khi nói đến quy định công nghệ, bạn nên đến sớm.