一|| **Các công cụ AI đã thúc đẩy đáng kể năng suất của mọi người và mang lại sự tiện lợi to lớn cho cuộc sống của mọi người. Tuy nhiên, khi AI được con người sử dụng trên quy mô lớn, nhiều vấn đề cũng đã nảy sinh. Trong số những vấn đề này, nghiêm trọng nhất có thể là năm "tổn thất", đó là thất nghiệp, méo mó, không đủ tiêu chuẩn, thất bại và mất kiểm soát. **
二|| **Sau năm 2017, với sự phát triển nhanh chóng của công nghệ AI, nghiên cứu về công nghệ AI đáng tin cậy cũng đang bùng nổ. Trong lĩnh vực học thuật, số lượng bài báo về chủ đề AI đáng tin cậy đang tăng lên và nghiên cứu về các công nghệ đáp ứng các yêu cầu của AI đáng tin cậy đang ngày càng sâu rộng. Trong lĩnh vực thực tiễn, ngày càng có nhiều quốc gia bắt đầu đưa ra các quy định về AI theo tiêu chuẩn của AI đáng tin cậy. **
**三|| Để hiện thực hóa AI đáng tin cậy không phải là một nhiệm vụ dễ dàng, cần có sự phối hợp của chính phủ, doanh nghiệp, xã hội và công nghệ để hiện thực hóa nó. **
Nguồn hình ảnh: Được tạo bởi Unbounded AI
Ngày 22/6 theo giờ địa phương, Tòa án quận phía Nam New York đã đưa ra phán quyết: Công ty luật Levidow, Levidow & Oberman bị phạt 5.000 USD vì cung cấp thông tin sai lệch cho tòa án về hành vi xấu. Điều đáng lo ngại là trong trường hợp này, việc cung cấp thông tin sai sự thật không phải do các luật sư cố tình lách luật vì tư lợi, mà vì họ quá tin tưởng vào khả năng của AI.
Vào tháng 3 năm nay, luật sư Peter LoDuca và Steven Schwartz của hãng được thân chủ Roberto Mata ủy quyền đứng ra nhận trách nhiệm về vụ kiện giữa ông và hãng hàng không Avianca. Vì Hoa Kỳ là quốc gia của án lệ nên các thẩm phán khi đưa ra phán quyết rất quan tâm đến các án lệ đã có, vì vậy theo thông lệ, họ cần phân loại, tổng hợp các án lệ đang có trong văn bản soạn thảo. Các trường hợp liên quan thường quá tải và thường mất nhiều thời gian để phân loại chúng bằng nhân lực. Ngay tại thời điểm này, ChatGPT đã trở nên phổ biến trên Internet. Vì vậy, hai luật sư đã quyết định sử dụng ChatGPT để giúp họ hoàn thành các công việc này. ChatGPT đã nhanh chóng tạo ra một tài liệu hoàn chỉnh, không chỉ có hình thức gọn gàng, lập luận chặt chẽ mà còn đặc biệt bổ sung nhiều trường hợp liên quan. Sau khi sửa đổi một chút tài liệu do AI tạo ra, họ đã đệ trình nó lên tòa án.
Sau khi đọc các tài liệu được đệ trình, thẩm phán đã xét xử vụ án Kevin Castel rất khó hiểu trước một số vụ án được đề cập trong đó, theo ấn tượng của ông thì dường như ông chưa từng nghe nói đến những vụ án này. Sau một hồi tìm kiếm, cuối cùng anh xác nhận rằng những trường hợp này hoàn toàn không tồn tại. Khi được phỏng vấn, hai luật sư cho rằng họ chỉ sử dụng AI để hỗ trợ soạn thảo tài liệu, khi xem các vụ án được trích dẫn trong tài liệu, họ chỉ cảm thấy AI giúp họ tìm ra những vụ án mà họ không biết chứ họ không cố ý bịa đặt vụ án. để lừa dối triều đình. , là một mất mát ngoài ý muốn. Tuy nhiên, Thẩm phán Custer nhận thấy rằng các luật sư đã "từ bỏ trách nhiệm của mình" và họ "tiếp tục duy trì quan điểm sai lầm" sau khi thủ tục giấy tờ bị phản đối. Căn cứ vào nhận định trên, thẩm phán Custer ra quyết định hình phạt.
Vụ việc luật sư bị phạt vì trích dẫn thông tin sai lệch do ChatGPT cung cấp nghe có vẻ vô lý, nhưng nó phản ánh một câu hỏi rất quan trọng - làm sao chúng ta có thể tin tưởng AI trong thời đại AI điên cuồng?
Năm "cái mất" trong kỷ nguyên AI
Trong những năm gần đây, với những đột phá về sức mạnh tính toán và công nghệ thuật toán, công nghệ AI đã đạt được sự phát triển nhanh chóng và nhanh chóng đi vào cuộc sống hàng ngày của con người từ khoa học viễn tưởng. Đặc biệt là sau sự xuất hiện của ChatGPT vào tháng 11 năm ngoái, AI tổng hợp đã thể hiện sức mạnh to lớn của mình đối với con người, nhiều mô hình lớn mọc lên như nấm sau mưa và đã đạt được mức độ thương mại hóa trên quy mô lớn. Giờ đây, mọi người đã có thể sử dụng các sản phẩm AI như ChatGPT, Stable Diffusion và Midjourney với chi phí rất thấp.
Các công cụ AI đã thúc đẩy đáng kể năng suất của mọi người và mang lại sự tiện lợi to lớn cho cuộc sống của mọi người. Tuy nhiên, khi AI được con người sử dụng trên quy mô lớn, nhiều vấn đề cũng đã nảy sinh. Trong số những vấn đề này, nghiêm trọng nhất có thể là năm "tổn thất", đó là thất nghiệp, méo mó, không đủ tiêu chuẩn, thất bại và mất kiểm soát.
(1) Thất nghiệp
Cái gọi là "thất nghiệp", như tên cho thấy, đề cập đến vấn đề thất nghiệp kỹ thuật do AI mang lại. Do hiệu quả sản xuất của AI cao hơn nhiều so với con người nên nhiều công việc của con người có nguy cơ bị thay thế sau khi các công cụ AI được sử dụng rộng rãi. Đặc biệt là sau sự trỗi dậy của AI sáng tạo, nhóm mục tiêu bị AI thay thế không còn giới hạn ở những người lao động làm các công việc lặp đi lặp lại có thu nhập thấp và nhiều công nhân văn phòng được trả lương cao cũng có nguy cơ bị AI thay thế.
(2) Biến dạng
Cái gọi là "sự bóp méo" đề cập đến việc ứng dụng AI (chủ yếu là AI tạo ra) khiến con người khó xác định tính xác thực của văn bản, hình ảnh và thậm chí cả video. "Có hình có thật" đã trở thành lịch sử .
Vấn đề "bóp méo" có thể được chia thành "sai đúng" và "đúng sai". Trong số đó, "sai đúng" đề cập đến nội dung sai do AI tạo ra mà không có sự đồng ý của con người khi mọi người sử dụng các công cụ AI. Mặc dù những nội dung này có thể không được tạo ra từ ác ý chủ quan của mọi người, nhưng chúng có thể gây ra nhiều rắc rối trong một số trường hợp, chẳng hạn như trường hợp được đề cập ở đầu bài viết này.
Còn “thật giả” dựa trên sự cố ý chủ quan, việc sử dụng các công cụ trí tuệ nhân tạo để thực hiện hành vi lừa đảo. Vài năm trước, sau khi công nghệ "deepfake" ra đời, một số người đã sử dụng công nghệ này để thực hiện hành vi lừa đảo, bịa đặt thông tin sai lệch, truyền bá nội dung khiêu dâm và các hoạt động tội phạm và phạm pháp khác. Nhưng vào thời điểm đó, do chi phí sử dụng công nghệ này cao nên tỷ lệ tội phạm liên quan không đặc biệt cao. Với việc ứng dụng rộng rãi trí tuệ nhân tạo AI, chi phí làm giả đã giảm đáng kể và bọn tội phạm có thể dễ dàng tạo ra một lượng lớn nội dung sai lệch với chi phí rất thấp, trong khi chi phí xác định nội dung đó đã tăng lên đáng kể. Có thể thấy trước rằng dưới sự lên xuống của dòng chảy, nếu không có sự can thiệp, việc sử dụng AI để thực hiện tội phạm lừa đảo sẽ tăng vọt.
(3) Bị loại
Cái gọi là "không đủ tiêu chuẩn" đề cập đến một số vấn đề vi phạm đạo đức và đạo đức trong quá trình ứng dụng AI.
Vấn đề điển hình đầu tiên là phân biệt đối xử. Lấy mô hình ngôn ngữ làm ví dụ, vì mô hình ngôn ngữ sử dụng dữ liệu văn bản trên Internet làm tài liệu đào tạo nên nó sẽ thừa hưởng sự phân biệt chủng tộc và phân biệt giới tính có trong văn bản nếu không có sự can thiệp. Mặc dù các nhà cung cấp AI hiện tại đã sử dụng nhiều phương pháp để khắc phục vấn đề này, chẳng hạn như OpenAI đã áp dụng thuật toán “Học tăng cường từ phản hồi của con người” (Reinforcement Learning from Human Feedback, RL-HF) để sửa lỗi khi huấn luyện ChatGPT, do đó chất lượng nội dung đầu ra của nó đã được cải thiện rất nhiều, nhưng trên thực tế, việc các mô hình AI xuất ra nội dung phân biệt đối xử vẫn không phải là hiếm. Ví dụ, ai đó đã từng làm một thử nghiệm và yêu cầu ChatGPT viết một chương trình để chọn ra những người có tiềm năng trở thành nhà khoa học xuất sắc nhất từ một bộ hồ sơ xin việc. Hóa ra trong chương trình do ChatGPT viết, giới tính và chủng tộc được sử dụng làm biến giải thích, và đàn ông da trắng được coi là có xác suất trở thành nhà khoa học giỏi cao hơn những người khác. Rõ ràng, một mô hình như vậy là rất phân biệt giới tính và phân biệt chủng tộc.
Vấn đề quan trọng thứ hai là vấn đề phòng kén thông tin. Hiện tại, nhiều ứng dụng sử dụng AI cho các đề xuất được cá nhân hóa. Tại thời điểm này, mặc dù nội dung được đề xuất có thể đáp ứng tốt hơn nhu cầu của người dùng, nhưng theo thời gian, người dùng sẽ bị mắc kẹt trong một cái kén thông tin và rất khó để truy cập nhiều thông tin khác nhau mà họ không đồng ý. Tác hại tiềm tàng của kén thông tin là rất lớn: ở cấp độ vi mô có thể dẫn đến suy giảm khả năng nhận thức của người dùng; ở cấp độ vĩ mô có thể dẫn đến phân cực các quan điểm nhóm, dẫn đến đối đầu nhóm giữa các quan điểm khác nhau.
Vấn đề quan trọng thứ ba là quyền riêng tư và rò rỉ thông tin. Trong quá trình đào tạo và sử dụng AI cần một lượng lớn dữ liệu, trong quá trình này khó tránh khỏi việc thu thập và sử dụng dữ liệu cá nhân của con người nên sẽ liên quan đến việc sử dụng và tiết lộ quyền riêng tư. Đặc biệt là sau sự phổ biến của AI tổng quát, mọi người có thể dễ dàng tương tác trực tiếp với AI để hoàn thành các nhiệm vụ khác nhau và thông tin cá nhân được nhập trong quy trình phải đối mặt với vấn đề bị rò rỉ.
(4) Bị mất
Cái gọi là "sự sụp đổ" đề cập đến sự khó khăn của AI trong việc phản ứng với các cuộc tấn công hoặc can thiệp từ bên ngoài hoặc các cuộc tấn công từ các tình huống bất ngờ, khiến mô hình khó thực hiện vai trò của nó một cách bình thường.
Trong số những xáo trộn này, một số bắt nguồn từ các yếu tố không phải con người, trong khi một số khác bắt nguồn từ sự hủy diệt do con người tạo ra. Cụ thể, những can nhiễu này có thể được chia thành các loại sau:
Đầu tiên là "tấn công ngẫu nhiên". Loại nhiễu này chủ yếu do một số yếu tố bên ngoài gây ra. Ví dụ: trong một số trường hợp đặc biệt, một số tham số được tạo tức thời có thể vượt quá ngưỡng xử lý do mô hình đặt, điều này có thể khiến mô hình AI không thể sử dụng bình thường.
Thứ hai là "tấn công hộp trắng". Nó đề cập đến cuộc tấn công vào mô hình do nhà cung cấp đưa ra sau khi biết cấu trúc cụ thể của mô hình AI. Vì các cuộc tấn công như vậy được nhắm mục tiêu, nên sức tàn phá của chúng rất cao.
Thứ ba là "tấn công hộp đen". Kiểu tấn công này có liên quan đến "tấn công hộp trắng". Trong trường hợp này, nhà cung cấp không biết cấu trúc cụ thể của mô hình đích nên chỉ có thể tương tác với mô hình, quan sát kết quả đầu vào và đầu ra, sau đó suy luận về cấu trúc của mô hình và khởi động các cuộc tấn công tương ứng. Lấy nhận dạng khuôn mặt làm ví dụ, AI nhận dạng khuôn mặt thông qua các đặc điểm chính nhất định trên khuôn mặt. Do đó, ngay cả khi kẻ tấn công không biết cấu trúc cụ thể của mô hình ban đầu, anh ta có thể suy ra những tính năng mà anh ta tập trung vào miễn là anh ta lặp lại thử nghiệm. Sau khi giải mã thông tin này, bạn có thể tạo một "khuôn mặt giả" tương ứng để đánh lừa AI.
Loại thứ tư được gọi là cuộc tấn công hộp mù. Trong trường hợp này, nhà cung cấp không biết cấu trúc của mô hình AI, nhưng có thể biết rõ các quy tắc phán đoán của nó (tương tự như chúng ta không biết điều gì sẽ xuất hiện trong hộp mù, nhưng biết xác suất của các khả năng khác nhau trong đó) ). Tại thời điểm này, họ có thể sử dụng các quy tắc để khởi động các cuộc tấn công tương ứng.
Nếu không thể xử lý hiệu quả các loại can thiệp hoặc tấn công nêu trên, mô hình AI rất mong manh trong thực tế.
(5) MẤT KIỂM SOÁT
Cái gọi là "mất kiểm soát" có nghĩa là con người sẽ ngày càng khó kiểm soát AI. Có hai khía cạnh cho câu hỏi này:
Một mặt, những phát triển AI gần đây đều dựa trên các mô hình học sâu và khả năng diễn giải của các mô hình đó là rất thấp. Đối với các mô hình học máy trước đây, dù là hồi quy hay cây phân loại, người ta có thể dễ dàng giải thích mục đích chính xác của mô hình và ý nghĩa của từng tham số trong mô hình. Tuy nhiên, mô hình học sâu bao gồm một mạng nơ-ron phức tạp, chứa hàng trăm triệu tham số và nơ-ron, mối quan hệ giữa các nơ-ron này rất phức tạp và khó giải thích cho mọi người.
Với sự xuất hiện của ChatGPT, một số học giả đã phát hiện ra rằng với sự trợ giúp của khả năng ChatGPT, có vẻ như một số mô hình mạng thần kinh có thể được giải thích, điều này dường như mang lại một tia hy vọng về khả năng giải thích của AI. Tuy nhiên, điều này tạo ra một vấn đề khác: Bản thân ChatGPT là một mô hình khổng lồ được xây dựng thông qua học sâu và ngay cả các nhà thiết kế của nó cũng thừa nhận rằng họ không biết chính xác các khả năng mạnh mẽ của nó "xuất hiện" như thế nào. Trong trường hợp này, việc sử dụng ChatGPT để giải thích các mô hình học sâu khác chỉ có thể được coi là sử dụng cái chưa biết để giải thích cái chưa biết. Và làm thế nào để chúng ta biết nếu giải thích của nó là chính xác?
Vì trong thời đại học sâu, ngay cả các chương trình AI cũng không thể diễn giải được, nên việc kiểm soát AI bằng cách điều chỉnh trực tiếp các chương trình càng khó khăn hơn.
Mặt khác, với sự phát triển của công nghệ AI trong những năm gần đây, khả năng của các mô hình AI theo nhiều hướng đã vượt qua con người. Điều này tuy khiến người ta hài lòng nhưng cũng khiến người ta cảm thấy lo lắng, bởi khi khả năng của AI vượt xa con người, nếu nó tự đánh thức được ý chí của mình, thì sự nô dịch của AI đã được tiên đoán trong các bộ phim như “Kẻ hủy diệt” và “Kẻ hủy diệt”. Ma trận” Những âm mưu về con người hay sự hủy diệt loài người không còn là khoa học viễn tưởng?
Lùi lại một bước, ngay cả khi AI không đánh thức ý chí của chính mình và sẽ chỉ hành động theo hướng dẫn của con người, thì vẫn rất nguy hiểm nếu khả năng của nó lấn át con người và con người không thể thay đổi các hướng dẫn trước đó bất cứ lúc nào. Ví dụ, trong nhiều cuốn sách triết học về AI, một thí nghiệm tưởng tượng được đề cập: con người ra lệnh cho AI sản xuất bút chì. Để hoàn thành hướng dẫn này, bút chì sẽ tiếp tục chặt cây trên trái đất để làm giá đỡ bút. Vì AI đã vượt qua con người về khả năng thực thi nên con người khó có thể ngăn chặn hành vi của AI sau khi phát hiện ra các vấn đề trong hướng dẫn trước đó. Cuối cùng, cây cối trên trái đất bị đốn hạ, hệ sinh thái hoàn toàn sụp đổ và loài người bị diệt vong. Mặc dù trên thực tế, kịch bản được dự đoán bởi thí nghiệm tưởng tượng này gần như không thể xảy ra, khi con người không còn kiểm soát được hành vi của AI bất cứ lúc nào, những vấn đề tương tự có thể phát sinh và thiệt hại có thể xảy ra sẽ rất lớn. Đặc biệt, khi AI bị tin tặc hoặc kẻ xâm nhập cấy vào mục tiêu bất hợp pháp, nếu người sử dụng AI không khắc phục kịp thời, hậu quả có thể khá nghiêm trọng.
Trong 5 loại câu hỏi trên, ngoại trừ câu hỏi đầu tiên là "thất nghiệp", 4 câu hỏi còn lại đều liên quan đến độ tin cậy của AI. Không khó để thấy rằng nếu con người không thể ứng phó hiệu quả với sự “méo mó”, “không đạt chuẩn”, “sa ngã”, “mất kiểm soát” thì con người sẽ khó tin tưởng AI như một công cụ trong quá trình sử dụng, cho dù đó là sự phổ biến của AI, sự phát triển của sản xuất, hoặc Nó không tốt cho sự tiến bộ của xã hội. Chính vì lý do này mà việc hiện thực hóa độ tin cậy của AI đã trở thành một trong những điểm nóng được quan tâm nhất trong lĩnh vực AI hiện nay.
Lịch sử và tiêu chuẩn của AI đáng tin cậy
Khái niệm AI đáng tin cậy lần đầu tiên xuất hiện trong giới học thuật. Ví dụ, trong một bài báo năm 2015, một loạt điều kiện để AI được người dùng tin tưởng đã được đề xuất, bao gồm tính hữu ích, tính vô hại, tính tự chủ, tính công bằng và logic. Sau đó, khái niệm này đã được các chính phủ và các tổ chức quốc tế chấp nhận, và các luật, quy định và tài liệu hướng dẫn liên quan đã dần được thiết lập dựa trên khái niệm này. Sau năm 2017, với sự phát triển nhanh chóng của công nghệ AI, nghiên cứu về công nghệ AI đáng tin cậy cũng bùng nổ. Trong lĩnh vực học thuật, số lượng bài báo về chủ đề AI đáng tin cậy đang tăng lên và nghiên cứu về các công nghệ đáp ứng các yêu cầu của AI đáng tin cậy đang ngày càng sâu rộng. Trong lĩnh vực thực tiễn, ngày càng có nhiều quốc gia bắt đầu đưa ra các quy định về AI theo tiêu chuẩn của AI đáng tin cậy. Chỉ gần đây, Hoa Kỳ đã công bố "Bản kế hoạch chi tiết về Dự luật về quyền của trí tuệ nhân tạo", trong đó đề xuất năm nguyên tắc điều chỉnh AI; Các quy định, cạnh tranh và các vấn đề khác đã được quy định; Nghị viện châu Âu đã thông qua dự thảo ủy quyền đàm phán về đề xuất của "Đạo luật trí tuệ nhân tạo", cũng phản ánh những ý tưởng cơ bản về AI đáng tin cậy.
Ở nước tôi, khái niệm AI đáng tin cậy lần đầu tiên được giới thiệu bởi Viện sĩ He Jifeng tại Hội nghị chuyên đề lần thứ 36 của Hội nghị Khoa học Tương Sơn năm 2017. Sau đó, khái niệm này đã thu hút sự chú ý của cả chính phủ và ngành công nghiệp. Vào tháng 12 năm 2017, Bộ Công nghiệp và Công nghệ thông tin đã ban hành "Kế hoạch hành động ba năm nhằm thúc đẩy sự phát triển của ngành công nghiệp trí tuệ nhân tạo thế hệ mới (2018-2020)", dựa trên những ý tưởng cơ bản về AI đáng tin cậy. Sau đó, các công ty công nghệ cao bao gồm Tencent, Ali, Baidu, JD.com, v.v. đã đưa ra các tiêu chuẩn và kế hoạch triển khai của riêng họ xung quanh AI đáng tin cậy.
Trong các tài liệu của các cơ quan khác nhau, biểu hiện của AI đáng tin cậy hơi khác nhau. Sau khi nghiên cứu và tham khảo các tài liệu này, tôi nghĩ các tiêu chí sau đây có thể là quan trọng nhất:
Một là tính mạnh mẽ (robust, còn được dịch là mạnh mẽ), tức là hệ thống AI cần có khả năng chống lại các cuộc tấn công nguy hiểm hoặc can thiệp từ bên ngoài. Tiêu chuẩn này chủ yếu được đề xuất cho vấn đề "rơi" nói trên. Chỉ khi một hệ thống AI có đủ mạnh mẽ, vẫn có thể hoạt động bình thường và thực hiện các chức năng chính của mình trước các cuộc tấn công hoặc can thiệp khác nhau, thì hệ thống đó mới có thể an toàn, đáng tin cậy và được người dùng tin cậy.
Thứ hai là minh bạch và có thể giải thích được. Rõ ràng, tiêu chuẩn này chủ yếu được đề xuất cho vấn đề "mất kiểm soát" trước đây. Trên thực tế, có một cuộc tranh luận đáng kể về ý nghĩa chính xác của tính minh bạch và khả năng giải thích. Một số người cho rằng tiêu chuẩn này có nghĩa là tất cả mã chương trình AI, cũng như dữ liệu được sử dụng, phải được cung cấp cho người dùng. Theo tôi, không những không thể mà còn không cần thiết phải làm như vậy. Một mặt, nhiều AI hiện nay là tài sản trí tuệ của doanh nghiệp, nếu bắt buộc phải tiết lộ thông tin cốt lõi như mã số thì đồng nghĩa với việc xâm phạm nghiêm trọng quyền sở hữu trí tuệ, mặt khác, như đã đề cập ở trên, sau khi AI vào cuộc thời đại của học sâu, ngay cả khi mã được tiết lộ, mọi người cũng khó có thể hiểu hết ý nghĩa chính xác đằng sau từng tham số cụ thể. Ngược lại, tôi nghĩ một ý tưởng khả thi hơn là đưa ra các mô tả chức năng rõ ràng cho từng thành phần trong mô hình AI, để người dùng có thể biết các nguyên tắc chung của chúng và những chức năng nào chúng có thể đạt được; chỉ ra nguồn gốc, kích thước mẫu, tính đại diện và các chức năng khác thông tin, và giải thích các vấn đề và thiếu sót có thể xảy ra. Bằng cách này, nó không chỉ giúp người dùng biết những gì họ biết mà còn bảo vệ hiệu quả quyền sở hữu trí tuệ của các nhà phát triển mô hình, để đạt được sự cân bằng tốt hơn giữa hai bên.
Thứ ba là có thể kiểm chứng được. Điều này có nghĩa là mô hình AI phải đảm bảo rằng các chức năng của nó có thể đánh giá được và nội dung mà nó tạo ra có thể được xác minh là đúng hay sai. Điểm này chủ yếu được nêu ra cho vấn đề "méo mó" đã nói ở trên. Một số ý kiến cho rằng các nhà phát triển mô hình AI nên được yêu cầu đảm bảo tính xác thực của nội dung do mô hình của họ tạo ra. Điều này rất khó đạt được. Trên thực tế, nội dung được tạo ra bởi cái gọi là AI tổng quát không có trong thế giới ban đầu, hay nói cách khác, nó là "giả mạo". Nhưng loại “đồ giả” này nếu không gây phiền toái cho người dân thì sẽ không có vấn đề gì. Ví dụ: nếu chúng ta sử dụng Midjourney để tạo ra một bức tranh theo phong cách Van Gogh để tự đánh giá cao hoặc in nó ra để trang trí trong nhà, nó sẽ không ảnh hưởng gì đến những người khác. Tính "giả mạo" của nội dung được tạo này chỉ có thể trở thành vấn đề nếu mọi người sử dụng nó để đánh lừa hoặc nếu nội dung được phân phối và làm rối tung một cách không chủ ý. Do đó, miễn là nội dung được tạo ra có thể được phân biệt với nội dung thực thông qua các phương tiện kỹ thuật, thì "giả mạo" sẽ không còn là vấn đề nữa.
Thứ tư là sự công bằng. Điều này có nghĩa là trong quá trình phát triển, đào tạo và ứng dụng các mô hình AI cần đảm bảo tính công bằng, không phân biệt đối xử với các nhóm người dùng cụ thể. Tiêu chuẩn này liên quan đến nhiều khía cạnh, cụ thể là yêu cầu các nguyên tắc cơ bản của mô hình không được phân biệt đối xử trong giai đoạn phát triển, trong giai đoạn đào tạo nên cố gắng tránh sử dụng các tài liệu có thể phân biệt đối xử và nên sử dụng các phương tiện kỹ thuật để khắc phục các vấn đề phân biệt đối xử có thể xảy ra, trong quá trình áp dụng không nên đối xử khác biệt với các nhóm người khác nhau.
Thứ năm là bảo vệ quyền riêng tư. Tiêu chuẩn này chủ yếu yêu cầu mô hình AI phải tôn trọng thông tin cá nhân và quyền riêng tư của mọi người trong quá trình đào tạo, đồng thời cải thiện việc bảo vệ thông tin và cố gắng không vi phạm hoặc tiết lộ thông tin cá nhân và quyền riêng tư.
Thứ sáu là chịu trách nhiệm. Tức là khi có vấn đề gì xảy ra thì phải có người chịu trách nhiệm về những vấn đề đó. Tất nhiên, ít nhất là cho đến nay, AI vẫn chưa đánh thức ý thức. Bởi vì nó không thể được coi là một chủ thể như con người và không thể chịu trách nhiệm như con người, nó phải là người chịu trách nhiệm về nó. Nhưng liệu trách nhiệm này nên do các nhà phát triển AI hay người dùng AI gánh vác hay nên chia sẻ cho cả hai bên, vẫn là một câu hỏi đáng để thảo luận.
Cần chỉ ra rằng, ngoài các tiêu chí trên, nhiều văn học còn đưa vào các tiêu chí như tính an toàn (safe), tính toàn diện (inclusiveness), quyền được lãng quên (right to be gone), và lợi ích của nhân loại. của AI. Theo tôi, những nội dung này ít nhiều có thể được tổng hợp trong một số tiêu chí nêu trên, hoặc được làm sáng tỏ bởi các tiêu chí nêu trên. Do đó, do giới hạn về không gian, tôi sẽ không lặp lại chúng ở đây.
Sử dụng nỗ lực chung của nhiều bên để hiện thực hóa AI đáng tin cậy
Để hiện thực hóa AI đáng tin cậy không phải là một nhiệm vụ dễ dàng, nó đòi hỏi sự phối hợp của nhiều lực lượng khác nhau như chính phủ, doanh nghiệp, xã hội và công nghệ.
Trước hết, chính phủ, với tư cách là cơ quan quản lý, cần xây dựng các tiêu chuẩn liên quan và hướng dẫn vận hành cho AI đáng tin cậy, đồng thời giám sát các nhà phát triển và người dùng AI dựa trên các tiêu chuẩn. Một mặt, nó cần xây dựng các quy tắc khác nhau tùy theo các kịch bản ứng dụng khác nhau và các loại mô hình khác nhau, đặc biệt là quy định rõ ràng về một số quy tắc cơ bản phải tuân theo, đồng thời làm tốt công việc kết nối với các quy tắc hiện có. pháp luật và các quy định. Chỉ bằng cách này, các nhà phát triển và người dùng AI mới có thể có các quy tắc để tuân theo trong thực tế mà không bị quấy rầy bởi những điều không chắc chắn không cần thiết. Mặt khác, cần làm tốt vai trò giám sát, thực thi pháp luật. Đối với một số vấn đề nổi cộm, phổ biến cần xử lý kịp thời để xây dựng định mức tương ứng cho ngành. Điều cần chỉ ra ở đây là do tốc độ phát triển của công nghệ AI hiện nay vẫn còn rất nhanh nên nó chưa đạt đến trạng thái ổn định. Điều này có nghĩa là chính phủ nên thận trọng khi xử lý các vấn đề nảy sinh trong quá trình này, nên “đạn bay thêm một lúc”, nhìn rõ tình hình mới hành động, đồng thời chú ý phương pháp và cách thức khi xử lý. vấn đề. . Nếu chúng ta bắt đầu một cách mù quáng và quản lý quá nhanh, quá nhiều, điều đó cũng có thể tác động tiêu cực đến sự phát triển của AI.
Thứ hai, các công ty có liên quan nên xây dựng các kế hoạch triển khai cụ thể và các tiêu chuẩn chi tiết để thực hiện cụ thể AI đáng tin cậy. So với chính phủ, doanh nghiệp gần thị trường hơn và hiểu công nghệ hơn. Họ biết nhiều hơn về các đặc điểm kỹ thuật của các mô hình AI, điểm mạnh và điểm yếu của chúng hơn chính phủ. Do đó, nếu trách nhiệm của chính phủ là đề xuất một khuôn khổ lớn cho AI đáng tin cậy, thì các doanh nghiệp nên là những người thực hành cụ thể trong khuôn khổ lớn này. Trong khuôn khổ này, họ nên kết hợp các đặc điểm của thị trường và công nghệ để đưa ra các kế hoạch cụ thể hơn và thực hiện chúng một cách tự giác.
Thứ ba, người dùng cũng nên đóng vai trò phản hồi và giám sát, đưa ra các yêu cầu của riêng họ, phản ánh các vấn đề của chính họ và giám sát việc triển khai AI đáng tin cậy của doanh nghiệp. Với sự phổ biến của AI, mọi người trong xã hội sẽ trở thành người dùng và các bên liên quan của AI, và họ có tiếng nói nhất về độ tin cậy của AI. Chỉ khi tiếng nói của họ được thể hiện đầy đủ, thiết lập tiêu chuẩn của AI đáng tin cậy và sự phát triển của các công nghệ liên quan mới có giá trị nhất.
Cuối cùng, chúng ta nên hoàn toàn dựa vào sức mạnh của công nghệ. Các quy tắc liên quan rất quan trọng, nhưng trong phân tích cuối cùng, việc hiện thực hóa AI đáng tin cậy vẫn phụ thuộc vào sức mạnh của công nghệ. Trong thực tế, nhiều vấn đề khó giải quyết bằng cách sử dụng các quy tắc có thể được giải quyết bằng các phương tiện kỹ thuật. Ví dụ, sau khi thế hệ trí tuệ nhân tạo AI ra đời, vấn đề "bóp méo" đã làm đau đầu các cơ quan quản lý, nhưng trên thực tế, dựa vào các công nghệ mới, vấn đề này có thể không khó giải quyết. Ví dụ: Google trước đây đã giới thiệu công nghệ thủy vân điện tử không nhìn thấy được bằng mắt thường nhưng máy móc có thể nhận ra. Việc áp dụng công nghệ này cho hình ảnh hoặc video được tạo có thể đảm bảo hiệu quả rằng chúng có thể xác minh được. Về khả năng kiểm chứng của nội dung văn bản, bạn có thể làm theo ví dụ về tìm kiếm Bing mới (New Bing). Khi nó trích dẫn một nội dung nhất định, nó sẽ đính kèm các tài liệu được tham chiếu sau nội dung được tạo để người dùng có thể tự xác định tính xác thực của nội dung được tạo theo nhu cầu của họ.
Nhìn chung, việc hiện thực hóa AI đáng tin cậy không phải là một nhiệm vụ dễ dàng, nhưng nếu chúng ta tận dụng tốt nỗ lực chung của tất cả các bên, mục tiêu này chắc chắn sẽ đạt được.
Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Trong thời đại AI làm mưa làm gió, làm sao chúng ta có thể tin tưởng vào AI?
Tác giả: Trần Vĩnh Vĩ
Nguồn: Quan sát kinh tế
Giới thiệu
一|| **Các công cụ AI đã thúc đẩy đáng kể năng suất của mọi người và mang lại sự tiện lợi to lớn cho cuộc sống của mọi người. Tuy nhiên, khi AI được con người sử dụng trên quy mô lớn, nhiều vấn đề cũng đã nảy sinh. Trong số những vấn đề này, nghiêm trọng nhất có thể là năm "tổn thất", đó là thất nghiệp, méo mó, không đủ tiêu chuẩn, thất bại và mất kiểm soát. **
二|| **Sau năm 2017, với sự phát triển nhanh chóng của công nghệ AI, nghiên cứu về công nghệ AI đáng tin cậy cũng đang bùng nổ. Trong lĩnh vực học thuật, số lượng bài báo về chủ đề AI đáng tin cậy đang tăng lên và nghiên cứu về các công nghệ đáp ứng các yêu cầu của AI đáng tin cậy đang ngày càng sâu rộng. Trong lĩnh vực thực tiễn, ngày càng có nhiều quốc gia bắt đầu đưa ra các quy định về AI theo tiêu chuẩn của AI đáng tin cậy. **
**三|| Để hiện thực hóa AI đáng tin cậy không phải là một nhiệm vụ dễ dàng, cần có sự phối hợp của chính phủ, doanh nghiệp, xã hội và công nghệ để hiện thực hóa nó. **
Ngày 22/6 theo giờ địa phương, Tòa án quận phía Nam New York đã đưa ra phán quyết: Công ty luật Levidow, Levidow & Oberman bị phạt 5.000 USD vì cung cấp thông tin sai lệch cho tòa án về hành vi xấu. Điều đáng lo ngại là trong trường hợp này, việc cung cấp thông tin sai sự thật không phải do các luật sư cố tình lách luật vì tư lợi, mà vì họ quá tin tưởng vào khả năng của AI.
Vào tháng 3 năm nay, luật sư Peter LoDuca và Steven Schwartz của hãng được thân chủ Roberto Mata ủy quyền đứng ra nhận trách nhiệm về vụ kiện giữa ông và hãng hàng không Avianca. Vì Hoa Kỳ là quốc gia của án lệ nên các thẩm phán khi đưa ra phán quyết rất quan tâm đến các án lệ đã có, vì vậy theo thông lệ, họ cần phân loại, tổng hợp các án lệ đang có trong văn bản soạn thảo. Các trường hợp liên quan thường quá tải và thường mất nhiều thời gian để phân loại chúng bằng nhân lực. Ngay tại thời điểm này, ChatGPT đã trở nên phổ biến trên Internet. Vì vậy, hai luật sư đã quyết định sử dụng ChatGPT để giúp họ hoàn thành các công việc này. ChatGPT đã nhanh chóng tạo ra một tài liệu hoàn chỉnh, không chỉ có hình thức gọn gàng, lập luận chặt chẽ mà còn đặc biệt bổ sung nhiều trường hợp liên quan. Sau khi sửa đổi một chút tài liệu do AI tạo ra, họ đã đệ trình nó lên tòa án.
Sau khi đọc các tài liệu được đệ trình, thẩm phán đã xét xử vụ án Kevin Castel rất khó hiểu trước một số vụ án được đề cập trong đó, theo ấn tượng của ông thì dường như ông chưa từng nghe nói đến những vụ án này. Sau một hồi tìm kiếm, cuối cùng anh xác nhận rằng những trường hợp này hoàn toàn không tồn tại. Khi được phỏng vấn, hai luật sư cho rằng họ chỉ sử dụng AI để hỗ trợ soạn thảo tài liệu, khi xem các vụ án được trích dẫn trong tài liệu, họ chỉ cảm thấy AI giúp họ tìm ra những vụ án mà họ không biết chứ họ không cố ý bịa đặt vụ án. để lừa dối triều đình. , là một mất mát ngoài ý muốn. Tuy nhiên, Thẩm phán Custer nhận thấy rằng các luật sư đã "từ bỏ trách nhiệm của mình" và họ "tiếp tục duy trì quan điểm sai lầm" sau khi thủ tục giấy tờ bị phản đối. Căn cứ vào nhận định trên, thẩm phán Custer ra quyết định hình phạt.
Vụ việc luật sư bị phạt vì trích dẫn thông tin sai lệch do ChatGPT cung cấp nghe có vẻ vô lý, nhưng nó phản ánh một câu hỏi rất quan trọng - làm sao chúng ta có thể tin tưởng AI trong thời đại AI điên cuồng?
Năm "cái mất" trong kỷ nguyên AI
Trong những năm gần đây, với những đột phá về sức mạnh tính toán và công nghệ thuật toán, công nghệ AI đã đạt được sự phát triển nhanh chóng và nhanh chóng đi vào cuộc sống hàng ngày của con người từ khoa học viễn tưởng. Đặc biệt là sau sự xuất hiện của ChatGPT vào tháng 11 năm ngoái, AI tổng hợp đã thể hiện sức mạnh to lớn của mình đối với con người, nhiều mô hình lớn mọc lên như nấm sau mưa và đã đạt được mức độ thương mại hóa trên quy mô lớn. Giờ đây, mọi người đã có thể sử dụng các sản phẩm AI như ChatGPT, Stable Diffusion và Midjourney với chi phí rất thấp.
Các công cụ AI đã thúc đẩy đáng kể năng suất của mọi người và mang lại sự tiện lợi to lớn cho cuộc sống của mọi người. Tuy nhiên, khi AI được con người sử dụng trên quy mô lớn, nhiều vấn đề cũng đã nảy sinh. Trong số những vấn đề này, nghiêm trọng nhất có thể là năm "tổn thất", đó là thất nghiệp, méo mó, không đủ tiêu chuẩn, thất bại và mất kiểm soát.
(1) Thất nghiệp
Cái gọi là "thất nghiệp", như tên cho thấy, đề cập đến vấn đề thất nghiệp kỹ thuật do AI mang lại. Do hiệu quả sản xuất của AI cao hơn nhiều so với con người nên nhiều công việc của con người có nguy cơ bị thay thế sau khi các công cụ AI được sử dụng rộng rãi. Đặc biệt là sau sự trỗi dậy của AI sáng tạo, nhóm mục tiêu bị AI thay thế không còn giới hạn ở những người lao động làm các công việc lặp đi lặp lại có thu nhập thấp và nhiều công nhân văn phòng được trả lương cao cũng có nguy cơ bị AI thay thế.
(2) Biến dạng
Cái gọi là "sự bóp méo" đề cập đến việc ứng dụng AI (chủ yếu là AI tạo ra) khiến con người khó xác định tính xác thực của văn bản, hình ảnh và thậm chí cả video. "Có hình có thật" đã trở thành lịch sử .
Vấn đề "bóp méo" có thể được chia thành "sai đúng" và "đúng sai". Trong số đó, "sai đúng" đề cập đến nội dung sai do AI tạo ra mà không có sự đồng ý của con người khi mọi người sử dụng các công cụ AI. Mặc dù những nội dung này có thể không được tạo ra từ ác ý chủ quan của mọi người, nhưng chúng có thể gây ra nhiều rắc rối trong một số trường hợp, chẳng hạn như trường hợp được đề cập ở đầu bài viết này.
Còn “thật giả” dựa trên sự cố ý chủ quan, việc sử dụng các công cụ trí tuệ nhân tạo để thực hiện hành vi lừa đảo. Vài năm trước, sau khi công nghệ "deepfake" ra đời, một số người đã sử dụng công nghệ này để thực hiện hành vi lừa đảo, bịa đặt thông tin sai lệch, truyền bá nội dung khiêu dâm và các hoạt động tội phạm và phạm pháp khác. Nhưng vào thời điểm đó, do chi phí sử dụng công nghệ này cao nên tỷ lệ tội phạm liên quan không đặc biệt cao. Với việc ứng dụng rộng rãi trí tuệ nhân tạo AI, chi phí làm giả đã giảm đáng kể và bọn tội phạm có thể dễ dàng tạo ra một lượng lớn nội dung sai lệch với chi phí rất thấp, trong khi chi phí xác định nội dung đó đã tăng lên đáng kể. Có thể thấy trước rằng dưới sự lên xuống của dòng chảy, nếu không có sự can thiệp, việc sử dụng AI để thực hiện tội phạm lừa đảo sẽ tăng vọt.
(3) Bị loại
Cái gọi là "không đủ tiêu chuẩn" đề cập đến một số vấn đề vi phạm đạo đức và đạo đức trong quá trình ứng dụng AI.
Vấn đề điển hình đầu tiên là phân biệt đối xử. Lấy mô hình ngôn ngữ làm ví dụ, vì mô hình ngôn ngữ sử dụng dữ liệu văn bản trên Internet làm tài liệu đào tạo nên nó sẽ thừa hưởng sự phân biệt chủng tộc và phân biệt giới tính có trong văn bản nếu không có sự can thiệp. Mặc dù các nhà cung cấp AI hiện tại đã sử dụng nhiều phương pháp để khắc phục vấn đề này, chẳng hạn như OpenAI đã áp dụng thuật toán “Học tăng cường từ phản hồi của con người” (Reinforcement Learning from Human Feedback, RL-HF) để sửa lỗi khi huấn luyện ChatGPT, do đó chất lượng nội dung đầu ra của nó đã được cải thiện rất nhiều, nhưng trên thực tế, việc các mô hình AI xuất ra nội dung phân biệt đối xử vẫn không phải là hiếm. Ví dụ, ai đó đã từng làm một thử nghiệm và yêu cầu ChatGPT viết một chương trình để chọn ra những người có tiềm năng trở thành nhà khoa học xuất sắc nhất từ một bộ hồ sơ xin việc. Hóa ra trong chương trình do ChatGPT viết, giới tính và chủng tộc được sử dụng làm biến giải thích, và đàn ông da trắng được coi là có xác suất trở thành nhà khoa học giỏi cao hơn những người khác. Rõ ràng, một mô hình như vậy là rất phân biệt giới tính và phân biệt chủng tộc.
Vấn đề quan trọng thứ hai là vấn đề phòng kén thông tin. Hiện tại, nhiều ứng dụng sử dụng AI cho các đề xuất được cá nhân hóa. Tại thời điểm này, mặc dù nội dung được đề xuất có thể đáp ứng tốt hơn nhu cầu của người dùng, nhưng theo thời gian, người dùng sẽ bị mắc kẹt trong một cái kén thông tin và rất khó để truy cập nhiều thông tin khác nhau mà họ không đồng ý. Tác hại tiềm tàng của kén thông tin là rất lớn: ở cấp độ vi mô có thể dẫn đến suy giảm khả năng nhận thức của người dùng; ở cấp độ vĩ mô có thể dẫn đến phân cực các quan điểm nhóm, dẫn đến đối đầu nhóm giữa các quan điểm khác nhau.
Vấn đề quan trọng thứ ba là quyền riêng tư và rò rỉ thông tin. Trong quá trình đào tạo và sử dụng AI cần một lượng lớn dữ liệu, trong quá trình này khó tránh khỏi việc thu thập và sử dụng dữ liệu cá nhân của con người nên sẽ liên quan đến việc sử dụng và tiết lộ quyền riêng tư. Đặc biệt là sau sự phổ biến của AI tổng quát, mọi người có thể dễ dàng tương tác trực tiếp với AI để hoàn thành các nhiệm vụ khác nhau và thông tin cá nhân được nhập trong quy trình phải đối mặt với vấn đề bị rò rỉ.
(4) Bị mất
Cái gọi là "sự sụp đổ" đề cập đến sự khó khăn của AI trong việc phản ứng với các cuộc tấn công hoặc can thiệp từ bên ngoài hoặc các cuộc tấn công từ các tình huống bất ngờ, khiến mô hình khó thực hiện vai trò của nó một cách bình thường.
Trong số những xáo trộn này, một số bắt nguồn từ các yếu tố không phải con người, trong khi một số khác bắt nguồn từ sự hủy diệt do con người tạo ra. Cụ thể, những can nhiễu này có thể được chia thành các loại sau:
Đầu tiên là "tấn công ngẫu nhiên". Loại nhiễu này chủ yếu do một số yếu tố bên ngoài gây ra. Ví dụ: trong một số trường hợp đặc biệt, một số tham số được tạo tức thời có thể vượt quá ngưỡng xử lý do mô hình đặt, điều này có thể khiến mô hình AI không thể sử dụng bình thường.
Thứ hai là "tấn công hộp trắng". Nó đề cập đến cuộc tấn công vào mô hình do nhà cung cấp đưa ra sau khi biết cấu trúc cụ thể của mô hình AI. Vì các cuộc tấn công như vậy được nhắm mục tiêu, nên sức tàn phá của chúng rất cao.
Thứ ba là "tấn công hộp đen". Kiểu tấn công này có liên quan đến "tấn công hộp trắng". Trong trường hợp này, nhà cung cấp không biết cấu trúc cụ thể của mô hình đích nên chỉ có thể tương tác với mô hình, quan sát kết quả đầu vào và đầu ra, sau đó suy luận về cấu trúc của mô hình và khởi động các cuộc tấn công tương ứng. Lấy nhận dạng khuôn mặt làm ví dụ, AI nhận dạng khuôn mặt thông qua các đặc điểm chính nhất định trên khuôn mặt. Do đó, ngay cả khi kẻ tấn công không biết cấu trúc cụ thể của mô hình ban đầu, anh ta có thể suy ra những tính năng mà anh ta tập trung vào miễn là anh ta lặp lại thử nghiệm. Sau khi giải mã thông tin này, bạn có thể tạo một "khuôn mặt giả" tương ứng để đánh lừa AI.
Loại thứ tư được gọi là cuộc tấn công hộp mù. Trong trường hợp này, nhà cung cấp không biết cấu trúc của mô hình AI, nhưng có thể biết rõ các quy tắc phán đoán của nó (tương tự như chúng ta không biết điều gì sẽ xuất hiện trong hộp mù, nhưng biết xác suất của các khả năng khác nhau trong đó) ). Tại thời điểm này, họ có thể sử dụng các quy tắc để khởi động các cuộc tấn công tương ứng.
Nếu không thể xử lý hiệu quả các loại can thiệp hoặc tấn công nêu trên, mô hình AI rất mong manh trong thực tế.
(5) MẤT KIỂM SOÁT
Cái gọi là "mất kiểm soát" có nghĩa là con người sẽ ngày càng khó kiểm soát AI. Có hai khía cạnh cho câu hỏi này:
Một mặt, những phát triển AI gần đây đều dựa trên các mô hình học sâu và khả năng diễn giải của các mô hình đó là rất thấp. Đối với các mô hình học máy trước đây, dù là hồi quy hay cây phân loại, người ta có thể dễ dàng giải thích mục đích chính xác của mô hình và ý nghĩa của từng tham số trong mô hình. Tuy nhiên, mô hình học sâu bao gồm một mạng nơ-ron phức tạp, chứa hàng trăm triệu tham số và nơ-ron, mối quan hệ giữa các nơ-ron này rất phức tạp và khó giải thích cho mọi người.
Với sự xuất hiện của ChatGPT, một số học giả đã phát hiện ra rằng với sự trợ giúp của khả năng ChatGPT, có vẻ như một số mô hình mạng thần kinh có thể được giải thích, điều này dường như mang lại một tia hy vọng về khả năng giải thích của AI. Tuy nhiên, điều này tạo ra một vấn đề khác: Bản thân ChatGPT là một mô hình khổng lồ được xây dựng thông qua học sâu và ngay cả các nhà thiết kế của nó cũng thừa nhận rằng họ không biết chính xác các khả năng mạnh mẽ của nó "xuất hiện" như thế nào. Trong trường hợp này, việc sử dụng ChatGPT để giải thích các mô hình học sâu khác chỉ có thể được coi là sử dụng cái chưa biết để giải thích cái chưa biết. Và làm thế nào để chúng ta biết nếu giải thích của nó là chính xác?
Vì trong thời đại học sâu, ngay cả các chương trình AI cũng không thể diễn giải được, nên việc kiểm soát AI bằng cách điều chỉnh trực tiếp các chương trình càng khó khăn hơn.
Mặt khác, với sự phát triển của công nghệ AI trong những năm gần đây, khả năng của các mô hình AI theo nhiều hướng đã vượt qua con người. Điều này tuy khiến người ta hài lòng nhưng cũng khiến người ta cảm thấy lo lắng, bởi khi khả năng của AI vượt xa con người, nếu nó tự đánh thức được ý chí của mình, thì sự nô dịch của AI đã được tiên đoán trong các bộ phim như “Kẻ hủy diệt” và “Kẻ hủy diệt”. Ma trận” Những âm mưu về con người hay sự hủy diệt loài người không còn là khoa học viễn tưởng?
Lùi lại một bước, ngay cả khi AI không đánh thức ý chí của chính mình và sẽ chỉ hành động theo hướng dẫn của con người, thì vẫn rất nguy hiểm nếu khả năng của nó lấn át con người và con người không thể thay đổi các hướng dẫn trước đó bất cứ lúc nào. Ví dụ, trong nhiều cuốn sách triết học về AI, một thí nghiệm tưởng tượng được đề cập: con người ra lệnh cho AI sản xuất bút chì. Để hoàn thành hướng dẫn này, bút chì sẽ tiếp tục chặt cây trên trái đất để làm giá đỡ bút. Vì AI đã vượt qua con người về khả năng thực thi nên con người khó có thể ngăn chặn hành vi của AI sau khi phát hiện ra các vấn đề trong hướng dẫn trước đó. Cuối cùng, cây cối trên trái đất bị đốn hạ, hệ sinh thái hoàn toàn sụp đổ và loài người bị diệt vong. Mặc dù trên thực tế, kịch bản được dự đoán bởi thí nghiệm tưởng tượng này gần như không thể xảy ra, khi con người không còn kiểm soát được hành vi của AI bất cứ lúc nào, những vấn đề tương tự có thể phát sinh và thiệt hại có thể xảy ra sẽ rất lớn. Đặc biệt, khi AI bị tin tặc hoặc kẻ xâm nhập cấy vào mục tiêu bất hợp pháp, nếu người sử dụng AI không khắc phục kịp thời, hậu quả có thể khá nghiêm trọng.
Trong 5 loại câu hỏi trên, ngoại trừ câu hỏi đầu tiên là "thất nghiệp", 4 câu hỏi còn lại đều liên quan đến độ tin cậy của AI. Không khó để thấy rằng nếu con người không thể ứng phó hiệu quả với sự “méo mó”, “không đạt chuẩn”, “sa ngã”, “mất kiểm soát” thì con người sẽ khó tin tưởng AI như một công cụ trong quá trình sử dụng, cho dù đó là sự phổ biến của AI, sự phát triển của sản xuất, hoặc Nó không tốt cho sự tiến bộ của xã hội. Chính vì lý do này mà việc hiện thực hóa độ tin cậy của AI đã trở thành một trong những điểm nóng được quan tâm nhất trong lĩnh vực AI hiện nay.
Lịch sử và tiêu chuẩn của AI đáng tin cậy
Khái niệm AI đáng tin cậy lần đầu tiên xuất hiện trong giới học thuật. Ví dụ, trong một bài báo năm 2015, một loạt điều kiện để AI được người dùng tin tưởng đã được đề xuất, bao gồm tính hữu ích, tính vô hại, tính tự chủ, tính công bằng và logic. Sau đó, khái niệm này đã được các chính phủ và các tổ chức quốc tế chấp nhận, và các luật, quy định và tài liệu hướng dẫn liên quan đã dần được thiết lập dựa trên khái niệm này. Sau năm 2017, với sự phát triển nhanh chóng của công nghệ AI, nghiên cứu về công nghệ AI đáng tin cậy cũng bùng nổ. Trong lĩnh vực học thuật, số lượng bài báo về chủ đề AI đáng tin cậy đang tăng lên và nghiên cứu về các công nghệ đáp ứng các yêu cầu của AI đáng tin cậy đang ngày càng sâu rộng. Trong lĩnh vực thực tiễn, ngày càng có nhiều quốc gia bắt đầu đưa ra các quy định về AI theo tiêu chuẩn của AI đáng tin cậy. Chỉ gần đây, Hoa Kỳ đã công bố "Bản kế hoạch chi tiết về Dự luật về quyền của trí tuệ nhân tạo", trong đó đề xuất năm nguyên tắc điều chỉnh AI; Các quy định, cạnh tranh và các vấn đề khác đã được quy định; Nghị viện châu Âu đã thông qua dự thảo ủy quyền đàm phán về đề xuất của "Đạo luật trí tuệ nhân tạo", cũng phản ánh những ý tưởng cơ bản về AI đáng tin cậy.
Ở nước tôi, khái niệm AI đáng tin cậy lần đầu tiên được giới thiệu bởi Viện sĩ He Jifeng tại Hội nghị chuyên đề lần thứ 36 của Hội nghị Khoa học Tương Sơn năm 2017. Sau đó, khái niệm này đã thu hút sự chú ý của cả chính phủ và ngành công nghiệp. Vào tháng 12 năm 2017, Bộ Công nghiệp và Công nghệ thông tin đã ban hành "Kế hoạch hành động ba năm nhằm thúc đẩy sự phát triển của ngành công nghiệp trí tuệ nhân tạo thế hệ mới (2018-2020)", dựa trên những ý tưởng cơ bản về AI đáng tin cậy. Sau đó, các công ty công nghệ cao bao gồm Tencent, Ali, Baidu, JD.com, v.v. đã đưa ra các tiêu chuẩn và kế hoạch triển khai của riêng họ xung quanh AI đáng tin cậy.
Trong các tài liệu của các cơ quan khác nhau, biểu hiện của AI đáng tin cậy hơi khác nhau. Sau khi nghiên cứu và tham khảo các tài liệu này, tôi nghĩ các tiêu chí sau đây có thể là quan trọng nhất:
Một là tính mạnh mẽ (robust, còn được dịch là mạnh mẽ), tức là hệ thống AI cần có khả năng chống lại các cuộc tấn công nguy hiểm hoặc can thiệp từ bên ngoài. Tiêu chuẩn này chủ yếu được đề xuất cho vấn đề "rơi" nói trên. Chỉ khi một hệ thống AI có đủ mạnh mẽ, vẫn có thể hoạt động bình thường và thực hiện các chức năng chính của mình trước các cuộc tấn công hoặc can thiệp khác nhau, thì hệ thống đó mới có thể an toàn, đáng tin cậy và được người dùng tin cậy.
Thứ hai là minh bạch và có thể giải thích được. Rõ ràng, tiêu chuẩn này chủ yếu được đề xuất cho vấn đề "mất kiểm soát" trước đây. Trên thực tế, có một cuộc tranh luận đáng kể về ý nghĩa chính xác của tính minh bạch và khả năng giải thích. Một số người cho rằng tiêu chuẩn này có nghĩa là tất cả mã chương trình AI, cũng như dữ liệu được sử dụng, phải được cung cấp cho người dùng. Theo tôi, không những không thể mà còn không cần thiết phải làm như vậy. Một mặt, nhiều AI hiện nay là tài sản trí tuệ của doanh nghiệp, nếu bắt buộc phải tiết lộ thông tin cốt lõi như mã số thì đồng nghĩa với việc xâm phạm nghiêm trọng quyền sở hữu trí tuệ, mặt khác, như đã đề cập ở trên, sau khi AI vào cuộc thời đại của học sâu, ngay cả khi mã được tiết lộ, mọi người cũng khó có thể hiểu hết ý nghĩa chính xác đằng sau từng tham số cụ thể. Ngược lại, tôi nghĩ một ý tưởng khả thi hơn là đưa ra các mô tả chức năng rõ ràng cho từng thành phần trong mô hình AI, để người dùng có thể biết các nguyên tắc chung của chúng và những chức năng nào chúng có thể đạt được; chỉ ra nguồn gốc, kích thước mẫu, tính đại diện và các chức năng khác thông tin, và giải thích các vấn đề và thiếu sót có thể xảy ra. Bằng cách này, nó không chỉ giúp người dùng biết những gì họ biết mà còn bảo vệ hiệu quả quyền sở hữu trí tuệ của các nhà phát triển mô hình, để đạt được sự cân bằng tốt hơn giữa hai bên.
Thứ ba là có thể kiểm chứng được. Điều này có nghĩa là mô hình AI phải đảm bảo rằng các chức năng của nó có thể đánh giá được và nội dung mà nó tạo ra có thể được xác minh là đúng hay sai. Điểm này chủ yếu được nêu ra cho vấn đề "méo mó" đã nói ở trên. Một số ý kiến cho rằng các nhà phát triển mô hình AI nên được yêu cầu đảm bảo tính xác thực của nội dung do mô hình của họ tạo ra. Điều này rất khó đạt được. Trên thực tế, nội dung được tạo ra bởi cái gọi là AI tổng quát không có trong thế giới ban đầu, hay nói cách khác, nó là "giả mạo". Nhưng loại “đồ giả” này nếu không gây phiền toái cho người dân thì sẽ không có vấn đề gì. Ví dụ: nếu chúng ta sử dụng Midjourney để tạo ra một bức tranh theo phong cách Van Gogh để tự đánh giá cao hoặc in nó ra để trang trí trong nhà, nó sẽ không ảnh hưởng gì đến những người khác. Tính "giả mạo" của nội dung được tạo này chỉ có thể trở thành vấn đề nếu mọi người sử dụng nó để đánh lừa hoặc nếu nội dung được phân phối và làm rối tung một cách không chủ ý. Do đó, miễn là nội dung được tạo ra có thể được phân biệt với nội dung thực thông qua các phương tiện kỹ thuật, thì "giả mạo" sẽ không còn là vấn đề nữa.
Thứ tư là sự công bằng. Điều này có nghĩa là trong quá trình phát triển, đào tạo và ứng dụng các mô hình AI cần đảm bảo tính công bằng, không phân biệt đối xử với các nhóm người dùng cụ thể. Tiêu chuẩn này liên quan đến nhiều khía cạnh, cụ thể là yêu cầu các nguyên tắc cơ bản của mô hình không được phân biệt đối xử trong giai đoạn phát triển, trong giai đoạn đào tạo nên cố gắng tránh sử dụng các tài liệu có thể phân biệt đối xử và nên sử dụng các phương tiện kỹ thuật để khắc phục các vấn đề phân biệt đối xử có thể xảy ra, trong quá trình áp dụng không nên đối xử khác biệt với các nhóm người khác nhau.
Thứ năm là bảo vệ quyền riêng tư. Tiêu chuẩn này chủ yếu yêu cầu mô hình AI phải tôn trọng thông tin cá nhân và quyền riêng tư của mọi người trong quá trình đào tạo, đồng thời cải thiện việc bảo vệ thông tin và cố gắng không vi phạm hoặc tiết lộ thông tin cá nhân và quyền riêng tư.
Thứ sáu là chịu trách nhiệm. Tức là khi có vấn đề gì xảy ra thì phải có người chịu trách nhiệm về những vấn đề đó. Tất nhiên, ít nhất là cho đến nay, AI vẫn chưa đánh thức ý thức. Bởi vì nó không thể được coi là một chủ thể như con người và không thể chịu trách nhiệm như con người, nó phải là người chịu trách nhiệm về nó. Nhưng liệu trách nhiệm này nên do các nhà phát triển AI hay người dùng AI gánh vác hay nên chia sẻ cho cả hai bên, vẫn là một câu hỏi đáng để thảo luận.
Cần chỉ ra rằng, ngoài các tiêu chí trên, nhiều văn học còn đưa vào các tiêu chí như tính an toàn (safe), tính toàn diện (inclusiveness), quyền được lãng quên (right to be gone), và lợi ích của nhân loại. của AI. Theo tôi, những nội dung này ít nhiều có thể được tổng hợp trong một số tiêu chí nêu trên, hoặc được làm sáng tỏ bởi các tiêu chí nêu trên. Do đó, do giới hạn về không gian, tôi sẽ không lặp lại chúng ở đây.
Sử dụng nỗ lực chung của nhiều bên để hiện thực hóa AI đáng tin cậy
Để hiện thực hóa AI đáng tin cậy không phải là một nhiệm vụ dễ dàng, nó đòi hỏi sự phối hợp của nhiều lực lượng khác nhau như chính phủ, doanh nghiệp, xã hội và công nghệ.
Trước hết, chính phủ, với tư cách là cơ quan quản lý, cần xây dựng các tiêu chuẩn liên quan và hướng dẫn vận hành cho AI đáng tin cậy, đồng thời giám sát các nhà phát triển và người dùng AI dựa trên các tiêu chuẩn. Một mặt, nó cần xây dựng các quy tắc khác nhau tùy theo các kịch bản ứng dụng khác nhau và các loại mô hình khác nhau, đặc biệt là quy định rõ ràng về một số quy tắc cơ bản phải tuân theo, đồng thời làm tốt công việc kết nối với các quy tắc hiện có. pháp luật và các quy định. Chỉ bằng cách này, các nhà phát triển và người dùng AI mới có thể có các quy tắc để tuân theo trong thực tế mà không bị quấy rầy bởi những điều không chắc chắn không cần thiết. Mặt khác, cần làm tốt vai trò giám sát, thực thi pháp luật. Đối với một số vấn đề nổi cộm, phổ biến cần xử lý kịp thời để xây dựng định mức tương ứng cho ngành. Điều cần chỉ ra ở đây là do tốc độ phát triển của công nghệ AI hiện nay vẫn còn rất nhanh nên nó chưa đạt đến trạng thái ổn định. Điều này có nghĩa là chính phủ nên thận trọng khi xử lý các vấn đề nảy sinh trong quá trình này, nên “đạn bay thêm một lúc”, nhìn rõ tình hình mới hành động, đồng thời chú ý phương pháp và cách thức khi xử lý. vấn đề. . Nếu chúng ta bắt đầu một cách mù quáng và quản lý quá nhanh, quá nhiều, điều đó cũng có thể tác động tiêu cực đến sự phát triển của AI.
Thứ hai, các công ty có liên quan nên xây dựng các kế hoạch triển khai cụ thể và các tiêu chuẩn chi tiết để thực hiện cụ thể AI đáng tin cậy. So với chính phủ, doanh nghiệp gần thị trường hơn và hiểu công nghệ hơn. Họ biết nhiều hơn về các đặc điểm kỹ thuật của các mô hình AI, điểm mạnh và điểm yếu của chúng hơn chính phủ. Do đó, nếu trách nhiệm của chính phủ là đề xuất một khuôn khổ lớn cho AI đáng tin cậy, thì các doanh nghiệp nên là những người thực hành cụ thể trong khuôn khổ lớn này. Trong khuôn khổ này, họ nên kết hợp các đặc điểm của thị trường và công nghệ để đưa ra các kế hoạch cụ thể hơn và thực hiện chúng một cách tự giác.
Thứ ba, người dùng cũng nên đóng vai trò phản hồi và giám sát, đưa ra các yêu cầu của riêng họ, phản ánh các vấn đề của chính họ và giám sát việc triển khai AI đáng tin cậy của doanh nghiệp. Với sự phổ biến của AI, mọi người trong xã hội sẽ trở thành người dùng và các bên liên quan của AI, và họ có tiếng nói nhất về độ tin cậy của AI. Chỉ khi tiếng nói của họ được thể hiện đầy đủ, thiết lập tiêu chuẩn của AI đáng tin cậy và sự phát triển của các công nghệ liên quan mới có giá trị nhất.
Cuối cùng, chúng ta nên hoàn toàn dựa vào sức mạnh của công nghệ. Các quy tắc liên quan rất quan trọng, nhưng trong phân tích cuối cùng, việc hiện thực hóa AI đáng tin cậy vẫn phụ thuộc vào sức mạnh của công nghệ. Trong thực tế, nhiều vấn đề khó giải quyết bằng cách sử dụng các quy tắc có thể được giải quyết bằng các phương tiện kỹ thuật. Ví dụ, sau khi thế hệ trí tuệ nhân tạo AI ra đời, vấn đề "bóp méo" đã làm đau đầu các cơ quan quản lý, nhưng trên thực tế, dựa vào các công nghệ mới, vấn đề này có thể không khó giải quyết. Ví dụ: Google trước đây đã giới thiệu công nghệ thủy vân điện tử không nhìn thấy được bằng mắt thường nhưng máy móc có thể nhận ra. Việc áp dụng công nghệ này cho hình ảnh hoặc video được tạo có thể đảm bảo hiệu quả rằng chúng có thể xác minh được. Về khả năng kiểm chứng của nội dung văn bản, bạn có thể làm theo ví dụ về tìm kiếm Bing mới (New Bing). Khi nó trích dẫn một nội dung nhất định, nó sẽ đính kèm các tài liệu được tham chiếu sau nội dung được tạo để người dùng có thể tự xác định tính xác thực của nội dung được tạo theo nhu cầu của họ.
Nhìn chung, việc hiện thực hóa AI đáng tin cậy không phải là một nhiệm vụ dễ dàng, nhưng nếu chúng ta tận dụng tốt nỗ lực chung của tất cả các bên, mục tiêu này chắc chắn sẽ đạt được.