Bài đăng trên blog mới nhất của Bill Gates: Rủi ro của AI tồn tại nhưng có thể kiểm soát được

Tác giả: Kim Quỳnh

ChatGPT đã phổ biến hơn nửa năm, ngoài việc phát triển nhanh chóng, ngoài việc giải quyết các vấn đề kỹ thuật, thì việc tuân thủ có thể là vấn đề lớn tiếp theo-sau khi Quốc hội triệu tập Sam Altman, giờ đây FTC (Ủy ban Thương mại Liên bang) cũng chính thức tiến hành ChatGPT cuộc điều tra.

Điều này lặp lại những gì Bill Gates đã nói vài ngày trước. Trong bài đăng trên blog mới nhất của mình, anh ấy nói: AI là sự đổi mới mang tính biến đổi nhất. Đúng là có rủi ro, nhưng rủi ro cũng có thể kiểm soát được.

Trong bài đăng trên blog, Bill Gates chủ yếu thảo luận về những rủi ro và thách thức của trí tuệ nhân tạo và cách đối phó với chúng, đồng thời đưa ra một số ví dụ và gợi ý.

Bill Gates lần đầu tiên bày tỏ sự khẳng định về mối quan tâm của mọi người đối với AI ngày nay - hiện nay chúng ta đang ở trong thời đại trí tuệ nhân tạo có những thay đổi sâu sắc, đó là thời đại không chắc chắn. Nhưng ông lạc quan rằng những rủi ro này có thể kiểm soát được.

Thứ hai, Bill Gates cũng liệt kê những rủi ro do AI hiện tại gây ra, bao gồm giả mạo sâu và thông tin sai lệch do trí tuệ nhân tạo tạo ra, có thể phá hoại các cuộc bầu cử và nền dân chủ, giúp các cá nhân và chính phủ dễ dàng thực hiện các cuộc tấn công và lấy đi việc làm của mọi người. kế thừa thành kiến của con người và bịa ra mọi thứ, học sinh sẽ không học viết vì AI sẽ làm việc đó cho họ, v.v.

Cuối cùng, Bill Gates cũng đưa ra một loạt đề xuất để điều chỉnh AI. Ở cấp chính phủ quốc gia, các chính phủ cần tích lũy kiến thức chuyên môn về trí tuệ nhân tạo để xây dựng luật và quy định đối phó với AI, đối phó với thông tin sai lệch và tin giả sâu, các mối đe dọa an ninh, những thay đổi trong thị trường việc làm và tác động đến giáo dục.

Về giải pháp, các nhà lãnh đạo chính phủ cần hợp tác với các quốc gia khác chứ không phải một mình và khả năng đối thoại với người dân một cách thấu đáo và thấu đáo.

Ngoài ra, đối với các doanh nghiệp, các công ty AI phải có thái độ trách nhiệm và phải thực hiện công việc để đảm bảo an ninh, bao gồm bảo vệ quyền riêng tư của mọi người, v.v.

Sau đây là toàn văn, được dịch từ GPT-4, do 36 Krypton biên tập:

Những rủi ro do AI gây ra dường như quá lớn. Thế còn những người mất việc để bị thay thế bởi máy móc thông minh thì sao? AI sẽ ảnh hưởng đến kết quả bầu cử? Điều gì sẽ xảy ra nếu AI trong tương lai quyết định rằng con người không còn cần thiết nữa và muốn loại bỏ chúng ta?

Đây là những câu hỏi chính đáng và chúng ta cần xem xét nghiêm túc những lo ngại mà chúng nêu ra. Nhưng chúng tôi có mọi lý do để tin rằng chúng tôi có thể đối phó với chúng: đây không phải là lần đầu tiên một cải tiến lớn đưa ra các mối đe dọa mới cần phải được ngăn chặn và chúng tôi đã gặp phải chúng trước đây.

Cho dù đó là sự ra đời của ô tô hay sự trỗi dậy của máy tính cá nhân và internet, con người đã sống qua những thời khắc biến đổi khác, bất chấp nhiều biến động, cuối cùng lại trở nên tốt đẹp hơn. Ngay sau khi những chiếc xe đầu tiên lên đường, những vụ tai nạn đầu tiên đã xảy ra. Nhưng thay vì cấm ô tô, chúng tôi đã áp dụng giới hạn tốc độ, tiêu chuẩn an toàn, yêu cầu về giấy phép lái xe, luật uống rượu khi lái xe và các quy tắc khác trên đường.

Hiện chúng ta đang ở giai đoạn đầu của một sự chuyển đổi sâu sắc khác, thời đại của AI, tương tự như thời đại của sự không chắc chắn trước giới hạn tốc độ và dây an toàn. AI đang thay đổi nhanh đến mức không rõ điều gì sẽ xảy ra tiếp theo. Chúng ta đang đối mặt với những câu hỏi lớn về cách thức hoạt động của công nghệ hiện tại, cách mọi người sử dụng nó cho mục đích xấu và cách trí tuệ nhân tạo có thể thay đổi chúng ta với tư cách là thành viên của xã hội và cá nhân.

Trong những khoảnh khắc như thế này, thật tự nhiên khi cảm thấy khó chịu. Nhưng lịch sử cho thấy rằng có thể giải quyết những thách thức do công nghệ mới đặt ra.

Tôi đã viết về cách trí tuệ nhân tạo sẽ cách mạng hóa cuộc sống của chúng ta, giúp giải quyết các vấn đề về y tế, giáo dục, biến đổi khí hậu, v.v. Quỹ Gates đang ưu tiên vấn đề này và Giám đốc điều hành của chúng tôi, Mark Suzman, gần đây đã chia sẻ suy nghĩ của mình về vai trò của AI trong việc giảm bất bình đẳng.

Tôi sẽ nói nhiều hơn về lợi ích của AI trong tương lai, nhưng trong bài đăng này, tôi muốn nói về những mối quan tâm phổ biến nhất mà tôi nghe và đọc, nhiều trong số đó tôi chia sẻ và giải thích cảm giác lo lắng của tôi về chúng.

Từ tất cả các bài viết cho đến nay về rủi ro của trí tuệ nhân tạo, có một điều rõ ràng, đó là không một người nào có tất cả các câu trả lời. Một điểm nữa rõ ràng với tôi là tương lai của trí tuệ nhân tạo không nghiệt ngã như một số người tưởng tượng, cũng không màu hồng như những người khác tưởng tượng. Những rủi ro là có thật, nhưng tôi lạc quan rằng chúng có thể được quản lý. Khi thảo luận từng vấn đề một, tôi sẽ quay lại một vài chủ đề:

  • Nhiều vấn đề do trí tuệ nhân tạo đặt ra đã có tiền lệ trong lịch sử. Ví dụ, nó sẽ có tác động rất lớn đến giáo dục, nhưng máy tính xách tay cách đây nhiều thập kỷ và gần đây hơn là cho phép máy tính vào lớp học, chúng ta có thể học hỏi từ những thành công trong quá khứ.
  • Nhiều vấn đề do trí tuệ nhân tạo mang lại cũng có thể được giải quyết với sự trợ giúp của trí tuệ nhân tạo.
  • Chúng ta cần điều chỉnh luật cũ và ban hành luật mới - giống như luật chống gian lận hiện tại phải thích ứng với thế giới trực tuyến.

Trong bài viết này, tôi sẽ tập trung vào những rủi ro đang tồn tại hoặc sắp xảy ra. Tôi sẽ không thảo luận về điều gì sẽ xảy ra khi chúng ta phát triển một AI có khả năng học bất kỳ môn học hoặc nhiệm vụ nào. Thay vào đó, hôm nay tôi đang nói về AI được xây dựng có mục đích.

Cho dù chúng ta đạt được điểm này trong một thập kỷ hay một thế kỷ, xã hội sẽ cần phải đối mặt với một số câu hỏi sâu sắc. Điều gì sẽ xảy ra nếu một siêu AI thiết lập mục tiêu của riêng mình? Nếu chúng xung đột với các mục tiêu của con người thì sao? Chúng ta có nên xây dựng siêu AI không?

Tuy nhiên, không nên bỏ qua những rủi ro trước mắt khi xem xét những rủi ro dài hạn này. Bây giờ tôi chuyển sang những rủi ro ngắn hạn này.

Nội dung giả mạo và thông tin sai lệch do AI tạo ra có thể phá hủy các cuộc bầu cử và nền dân chủ

Việc sử dụng công nghệ để truyền bá những lời dối trá và thông tin sai lệch không có gì mới. Mọi người đã lan truyền những lời dối trá qua sách và tờ rơi trong nhiều thế kỷ. Thực hành này đã trở nên dễ dàng hơn với sự ra đời của bộ xử lý văn bản, máy in laser, email và mạng xã hội.

Trí tuệ nhân tạo đã khuếch đại vấn đề văn bản giả mạo này, giúp hầu hết mọi người có thể tạo âm thanh và video giả mạo, được gọi là deepfakes. Nếu bạn nhận được một tin nhắn thoại giống như con bạn nói rằng "Tôi đã bị bắt cóc, vui lòng gửi 1.000 đô la vào tài khoản ngân hàng này trong vòng 10 phút tới và đừng gọi cảnh sát", nó sẽ tạo ra nhiều nội dung hơn là cùng một nội dung. Tác động cảm xúc đáng sợ của thư.

Ở quy mô lớn hơn, deepfakes do AI tạo ra có thể được sử dụng để cố gắng tác động đến kết quả bầu cử. Tất nhiên, không cần đến công nghệ tinh vi để gây nghi ngờ về người chiến thắng hợp pháp trong cuộc bầu cử, nhưng trí tuệ nhân tạo sẽ giúp quá trình này dễ dàng hơn nhiều.

Hiện tại, các video giả mạo đã xuất hiện chứa cảnh quay bịa đặt của các chính trị gia nổi tiếng. Hãy tưởng tượng rằng vào buổi sáng của một cuộc bầu cử quan trọng, một video quay cảnh một ứng cử viên cướp ngân hàng lan truyền chóng mặt. Mặc dù điều đó là sai, nhưng các tổ chức tin tức và chiến dịch đã phải mất hàng giờ để chứng minh điều đó. Có bao nhiêu người sẽ xem video này và thay đổi phiếu bầu của họ vào phút cuối? Điều đó có thể thay đổi kết quả của cuộc đua, đặc biệt nếu cuộc đua gần kề.

Gần đây, khi người đồng sáng lập Open AI, Sam Altman, làm chứng trước ủy ban Thượng viện Hoa Kỳ, các thượng nghị sĩ của cả hai đảng đã nêu lên mối lo ngại về tác động của AI đối với các cuộc bầu cử và dân chủ. Tôi hy vọng chủ đề này tiếp tục được mọi người quan tâm. Chúng tôi thực sự chưa giải quyết được vấn đề thông tin sai lệch và deepfakes. Nhưng có hai điều khiến tôi lạc quan một cách thận trọng. Một là mọi người có khả năng học cách không tin tưởng mọi thứ. Trong nhiều năm, người dùng email đã bị lừa bởi một người đóng giả là hoàng tử Nigeria, hứa hẹn những phần thưởng khổng lồ nếu chia sẻ số thẻ tín dụng. Nhưng cuối cùng, hầu hết mọi người học cách kiểm tra lại những email đó. Khi các hành vi lừa dối ngày càng tinh vi hơn và nhiều mục tiêu ranh mãnh hơn, chúng ta cần tạo ra nhận thức tương tự đối với các hành vi giả mạo sâu.

Một điều khác khiến tôi hy vọng là AI không chỉ có thể tạo ra các tác phẩm sâu mà còn giúp xác định chúng. Ví dụ: Intel đã phát triển một công cụ phát hiện deepfake, trong khi cơ quan chính phủ DARPA đang nghiên cứu cách xác định xem một video hoặc âm thanh đã được chỉnh sửa hay chưa.

Nó sẽ là một quá trình vòng tròn: Ai đó tìm cách phát hiện hàng giả, người khác tìm ra cách chống lại nó, ai đó phát triển biện pháp đối phó, v.v. Nó sẽ không phải là một thành công hoàn hảo, nhưng chúng tôi cũng sẽ không bị ràng buộc.

AI giúp con người và chính phủ dễ dàng thực hiện các cuộc tấn công hơn

Ngày nay, khi tin tặc muốn tìm một lỗi trong phần mềm, chúng viết mã bằng vũ lực, tấn công các điểm yếu tiềm ẩn cho đến khi chúng tìm thấy lỗi. Điều này liên quan đến nhiều đường vòng, vì vậy cần có thời gian và sự kiên nhẫn.

Các chuyên gia bảo mật muốn chống lại tin tặc cũng phải làm như vậy. Mỗi bản vá phần mềm bạn cài đặt trên điện thoại hoặc máy tính xách tay của mình đều tiêu tốn rất nhiều thời gian để tìm kiếm nó bởi một người lành tính hoặc độc hại.

Các mô hình AI sẽ tăng tốc quá trình này bằng cách giúp tin tặc viết mã hiệu quả hơn. Họ cũng sẽ có thể sử dụng thông tin công khai về các cá nhân, chẳng hạn như nơi họ làm việc và bạn bè của họ là ai, để phát triển các cuộc tấn công lừa đảo tiên tiến hơn những gì chúng ta đang thấy ngày nay.

Tin tốt là AI có thể được sử dụng cho cả mục đích tốt và xấu. Các nhóm bảo mật trong chính phủ và khu vực tư nhân cần có các công cụ mới nhất để tìm và khắc phục các lỗ hổng bảo mật trước khi bọn tội phạm khai thác chúng. Tôi hy vọng ngành công nghiệp bảo mật phần mềm sẽ mở rộng dựa trên công việc họ đã làm trong lĩnh vực này, đó phải là mối quan tâm số một của họ.

Đây là lý do tại sao chúng ta không nên cố gắng tạm thời ngăn cản mọi người thực hiện những phát triển mới trong trí tuệ nhân tạo, như một số người đã gợi ý. Tội phạm mạng sẽ không ngừng tạo ra các công cụ mới và những người muốn sử dụng AI để thiết kế vũ khí hạt nhân và các cuộc tấn công khủng bố sinh học cũng vậy, và việc ngăn chặn chúng cần phải tiếp tục với tốc độ như vậy.

Ngoài ra còn có những rủi ro liên quan ở cấp độ toàn cầu: một cuộc chạy đua vũ trang AI có thể được sử dụng để thiết kế và khởi động các cuộc tấn công mạng chống lại các quốc gia khác. Chính phủ của mọi quốc gia đều muốn có công nghệ mạnh nhất hiện có để ngăn chặn các cuộc tấn công của kẻ thù. Động cơ "không bỏ ai trước" này có thể châm ngòi cho một cuộc chạy đua chế tạo vũ khí mạng ngày càng nguy hiểm. Bằng cách này, mọi người sẽ trở nên tồi tệ hơn.

Đó là một ý tưởng đáng sợ, nhưng chúng ta có lịch sử như một bài học. Bất chấp những sai sót của nó, chế độ không phổ biến vũ khí hạt nhân của thế giới đã ngăn chặn cuộc chiến tranh hạt nhân tổng lực mà thế hệ tôi lớn lên kinh hãi. Các chính phủ nên xem xét việc thành lập một cơ quan AI toàn cầu tương tự như Cơ quan Năng lượng Nguyên tử Quốc tế.

AI sẽ nhận việc từ con người

Tác động chính của trí tuệ nhân tạo đối với công việc trong những năm tới sẽ là giúp mọi người thực hiện công việc của họ hiệu quả hơn. Điều này đúng cho dù bạn đang làm việc trong nhà máy hay trong văn phòng xử lý các cuộc gọi bán hàng và các khoản phải trả. Cuối cùng, kỹ năng thể hiện suy nghĩ của AI sẽ đủ tốt để nó có thể viết email và quản lý hộp thư đến cho bạn. Bạn sẽ có thể viết yêu cầu bằng tiếng Anh đơn giản hoặc bất kỳ ngôn ngữ nào khác và tạo một báo cáo công việc đầy đủ thông tin.

Như tôi đã nói trong bài báo tháng Hai của mình, tăng năng suất là điều tốt cho xã hội. Điều này giúp mọi người có nhiều thời gian hơn để làm những việc khác, dù ở cơ quan hay ở nhà. Và, nhu cầu có người giúp ích như dạy học, chăm sóc người bệnh, chăm sóc người già sẽ không bao giờ vơi đi.

Nhưng một số công nhân cần được hỗ trợ và đào tạo lại khi chúng ta chuyển sang nơi làm việc do AI điều khiển. Đó là công việc của các chính phủ và tập đoàn để quản lý nó thật tốt để người lao động không bị bỏ lại phía sau, không bị gián đoạn cuộc sống của người dân như đã xảy ra khi các công việc sản xuất của Hoa Kỳ bị mất.

Ngoài ra, hãy nhớ rằng đây không phải là lần đầu tiên các công nghệ mới dẫn đến những thay đổi đáng kể trong thị trường lao động. Tôi không nghĩ tác động của trí tuệ nhân tạo sẽ lớn như cuộc cách mạng công nghiệp, nhưng nó chắc chắn sẽ to lớn như sự ra đời của máy tính cá nhân. Các ứng dụng xử lý văn bản không loại bỏ công việc văn phòng, nhưng chúng đã thay đổi nó mãi mãi. Người sử dụng lao động và nhân viên phải thích nghi, và họ đã làm được. Sự chuyển đổi do AI mang lại sẽ là một quá trình chuyển đổi gập ghềnh, nhưng có mọi lý do để tin rằng chúng ta có thể giảm thiểu sự gián đoạn đối với cuộc sống và sinh kế của mọi người.

AI kế thừa những thành kiến của chúng ta và tạo nên chúng

Ảo giác, đó là khi AI tự tin đưa ra một số tuyên bố đơn giản là không đúng sự thật và thường xảy ra do máy không hiểu ngữ cảnh yêu cầu của bạn. Nếu bạn yêu cầu một AI viết một câu chuyện ngắn về kỳ nghỉ lên mặt trăng, nó có thể cho bạn một câu trả lời rất giàu trí tưởng tượng. Nhưng nếu bạn để nó giúp bạn lên kế hoạch cho một chuyến đi đến Tanzania, nó có thể cố gắng đưa bạn đến một khách sạn không tồn tại.

Một rủi ro khác của AI là nó phản ánh hoặc thậm chí làm trầm trọng thêm những thành kiến hiện có về bản sắc giới tính, chủng tộc, sắc tộc, v.v.

Để hiểu tại sao những ảo tưởng và thành kiến như vậy lại nảy sinh, điều quan trọng là phải hiểu cách thức hoạt động của các mô hình AI phổ biến nhất hiện nay. Về cơ bản, chúng là các phiên bản mã rất phức tạp cho phép ứng dụng email của bạn dự đoán từ tiếp theo bạn sẽ nhập: trong một số trường hợp, gần như tất cả văn bản có sẵn trên web và chúng quét một lượng lớn văn bản, phân tích nó, Tìm mô hình trong ngôn ngữ của con người.

Khi bạn đặt câu hỏi cho AI, nó sẽ xem xét các từ bạn sử dụng và sau đó tìm kiếm văn bản thường được liên kết với các từ đó. Nếu bạn viết "liệt kê nguyên liệu làm bánh kếp", bạn có thể nhận thấy rằng các từ "bột mì, đường, muối, bột nở, sữa và trứng" thường xuyên xuất hiện cùng với cụm từ. Sau đó, dựa trên những gì nó biết về thứ tự các từ đó thường xuất hiện, nó tạo ra câu trả lời (các mô hình AI hoạt động theo cách này sử dụng cái gọi là máy biến áp và GPT-4 là một trong những mô hình như vậy).

Quá trình này giải thích tại sao AI có thể bị ảo giác hoặc sai lệch mà không có bất kỳ hiểu biết ngữ cảnh nào về các câu hỏi bạn hỏi hoặc những điều bạn nói với nó. Nếu bạn nói với nó rằng bạn đã mắc lỗi đánh máy, nó có thể sẽ nói "xin lỗi, tôi đã mắc lỗi đánh máy". Nhưng đó chỉ là ảo giác, nó không gõ nhầm gì cả, nó nói rằng vì nó đã quét đủ văn bản để biết rằng "xin lỗi, tôi đã gõ nhầm" là một trong những điều mọi người thường viết sau khi được sửa câu.

Tương tự như vậy, các mô hình AI kế thừa những thành kiến vốn có trong văn bản mà chúng được đào tạo. Nếu một người đọc nhiều bài viết về bác sĩ, và các bài báo chủ yếu đề cập đến bác sĩ nam, thì câu trả lời sẽ cho rằng hầu hết bác sĩ là nam giới.

Mặc dù một số nhà nghiên cứu cho rằng ảo giác là một vấn đề cố hữu, nhưng tôi không đồng ý. Tôi lạc quan rằng, theo thời gian, chúng ta có thể dạy các mô hình AI phân biệt thực tế với hư cấu. Ví dụ, Open AI đã thực hiện công việc đầy hứa hẹn về điều này.

Các tổ chức khác, bao gồm Viện Alan Turing và Viện Tiêu chuẩn và Công nghệ Quốc gia, đang giải quyết vấn đề thiên vị. Một cách tiếp cận là kết hợp các giá trị con người và lý luận cấp cao hơn vào AI. Nó tương tự như cách con người tự nhận thức làm việc: có thể bạn nghĩ rằng hầu hết các bác sĩ là nam giới, nhưng bạn đủ ý thức về giả định đó để biết rằng bạn phải chiến đấu với nó một cách có ý thức. Trí tuệ nhân tạo có thể hoạt động theo cách tương tự, đặc biệt nếu các mô hình được thiết kế bởi những người có xuất thân khác nhau.

Cuối cùng, tất cả mọi người sử dụng AI cần nhận thức được vấn đề sai lệch và là người dùng có hiểu biết. Một bài báo mà bạn yêu cầu AI soạn thảo có thể chứa đầy thành kiến cũng như sai sót thực tế. Bạn cần kiểm tra thành kiến của AI cũng như của chính bạn.

Học sinh sẽ không học viết vì AI sẽ làm việc đó cho các em

Nhiều giáo viên lo lắng rằng AI sẽ làm gián đoạn công việc của họ với học sinh. Trong thời đại mà bất kỳ ai có kết nối internet đều có thể sử dụng trí tuệ nhân tạo để viết bản thảo luận văn đầu tiên đáng kính, điều gì có thể ngăn cản một sinh viên nộp bản thảo đó như của chính họ?

Hiện đã có một số công cụ AI đang học cách phân biệt bài luận được viết bởi con người hay máy tính, vì vậy giáo viên có thể biết liệu học sinh của họ có đang làm bài hay không. Nhưng thay vì cố gắng ngăn cản học sinh sử dụng AI trong bài viết, một số giáo viên lại khuyến khích điều đó.

Vào tháng 1, một giáo viên tiếng Anh kỳ cựu tên là Cherie Shields đã đăng một bài báo trên tờ Education Week. đã xuất bản một bài viết về cách cô ấy sử dụng Trò chuyện GPT trong lớp học của mình. Trò chuyện GPT giúp học sinh của cô ấy từ khi bắt đầu một bài luận đến viết dàn ý và thậm chí cung cấp phản hồi về bài tập của họ.

Cô viết: "Giáo viên phải sử dụng công nghệ AI như một công cụ khác mà học sinh có thể sử dụng. Giống như chúng ta đã từng dạy học sinh cách thực hiện tìm kiếm tốt trên Google, giáo viên nên thiết kế rõ ràng về cách bot Chat GPT có thể hỗ trợ viết luận". sự tồn tại của AI và giúp học sinh sử dụng nó có thể cách mạng hóa cách chúng ta giảng dạy.” .

Điều này làm tôi nhớ đến thời kỳ máy tính điện tử trở nên phổ biến vào những năm 1970 và 1980. Một số giáo viên toán lo lắng rằng học sinh sẽ ngừng học số học cơ bản, nhưng những giáo viên khác lại đón nhận công nghệ mới và tập trung vào tư duy đằng sau phép tính số học.

AI cũng có thể giúp viết lách và tư duy phản biện. Đặc biệt là trong những ngày đầu, khi ảo giác và thành kiến vẫn còn là một vấn đề, các nhà giáo dục có thể nhờ AI tạo các bài luận và sau đó kiểm tra tính xác thực của chúng với học sinh. Các tổ chức giáo dục phi lợi nhuận như Học viện Khan và Dự án OER cung cấp cho giáo viên và học sinh các công cụ trực tuyến miễn phí đặt trọng tâm lớn vào việc kiểm tra các tuyên bố và không có kỹ năng nào quan trọng hơn việc biết cách phân biệt sự thật với điều giả mạo.

Chúng tôi thực sự cần đảm bảo rằng phần mềm giáo dục giúp thu hẹp khoảng cách thành tích chứ không làm cho nó tồi tệ hơn. Phần mềm ngày nay chủ yếu hướng tới những sinh viên đã có động cơ học tập. Nó có thể tạo một kế hoạch học tập cho bạn, kết nối bạn với các nguồn tài nguyên tốt và kiểm tra kiến thức của bạn. Tuy nhiên, nó vẫn chưa biết cách thu hút bạn vào những chủ đề mà bạn chưa quan tâm. Đây là một vấn đề mà các nhà phát triển cần giải quyết để tất cả các loại sinh viên đều có thể hưởng lợi từ AI.

**Phải làm gì tiếp theo? **

Tôi tin rằng chúng ta có nhiều lý do hơn để lạc quan rằng chúng ta có thể quản lý rủi ro của AI đồng thời tối đa hóa lợi ích của nó, nhưng chúng ta cần phải tiến nhanh.

Các chính phủ cần phát triển chuyên môn về AI để xây dựng luật và quy định đối phó với công nghệ mới này. Họ cần phải đối phó với thông tin sai lệch và deepfakes, các mối đe dọa bảo mật, những thay đổi trong thị trường việc làm và tác động đến giáo dục. Chỉ một ví dụ: luật pháp cần làm rõ việc sử dụng deepfake nào là hợp pháp và cách deepfake nên được gắn nhãn để mọi người hiểu rằng những gì họ nhìn thấy hoặc nghe thấy là giả mạo.

Các nhà lãnh đạo chính trị cần có khả năng tham gia vào cuộc đối thoại sâu sắc, đầy đủ thông tin với các cử tri. Họ cũng cần quyết định mức độ hợp tác với các quốc gia khác về những vấn đề này, thay vì hành động một mình.

Trong khu vực tư nhân, các công ty AI cần thực hiện công việc của họ một cách an toàn và có trách nhiệm. Điều này bao gồm bảo vệ quyền riêng tư của mọi người, đảm bảo các mô hình AI của họ phản ánh các giá trị cơ bản của con người, giảm thiểu sự thiên vị để mang lại lợi ích cho nhiều người nhất có thể và ngăn chặn công nghệ bị bọn tội phạm hoặc khủng bố khai thác. Các công ty trên nhiều lĩnh vực của nền kinh tế sẽ cần giúp nhân viên của họ chuyển sang nơi làm việc tập trung vào AI để không ai bị bỏ lại phía sau. Và, khách hàng phải luôn biết liệu họ đang tương tác với AI hay con người.

Cuối cùng, tôi khuyến khích mọi người chú ý nhiều nhất có thể đến sự phát triển của trí tuệ nhân tạo. Đây là sự đổi mới mang tính biến đổi nhất mà chúng ta sẽ thấy trong đời và một cuộc tranh luận công khai lành mạnh sẽ phụ thuộc vào sự hiểu biết của mọi người về bản thân công nghệ, lợi ích và rủi ro của nó. Lợi ích của trí tuệ nhân tạo sẽ rất to lớn và lý do tốt nhất để tin rằng chúng ta có thể kiểm soát rủi ro là chúng ta đã có thể làm được.

Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)