Quá trình xây dựng luật AI toàn cầu đã tăng tốc đáng kể và các quy định trên khắp thế giới đang bắt kịp với sự phát triển của AI.
Ngày 14/6, theo giờ địa phương, Nghị viện châu Âu đã bỏ phiếu thuận với 499 phiếu thuận, 28 phiếu chống và 93 phiếu trắng, đồng thời thông qua dự thảo ủy quyền đàm phán cho Đạo luật Trí tuệ nhân tạo (Đạo luật AI). Theo quy trình lập pháp của EU, Nghị viện châu Âu, các nước thành viên EU và Ủy ban châu Âu sẽ bắt đầu "đàm phán ba bên" để xác định các điều khoản cuối cùng của dự luật.
Nghị viện châu Âu cho biết họ "sẵn sàng đàm phán" để ban hành dự luật trí tuệ nhân tạo đầu tiên. Tổng thống Hoa Kỳ Biden đã đưa ra tín hiệu kiểm soát AI và một số thành viên của Quốc hội Hoa Kỳ đã đệ trình các đề xuất về luật quản lý AI. Lãnh đạo đảng Dân chủ Thượng viện Hoa Kỳ Chuck Schumer đã tiết lộ "Khuôn khổ đổi mới an toàn AI" của mình và có kế hoạch ban hành dự luật AI liên bang chỉ trong "vài tháng".
luật liên quan của đất nước tôi cũng đã được đưa vào chương trình nghị sự và dự thảo luật trí tuệ nhân tạo sẽ được đệ trình lên Ủy ban Thường vụ Đại hội Đại biểu Nhân dân Toàn quốc để thảo luận trong năm nay. Vào ngày 20 tháng 6, loạt danh sách hồ sơ thuật toán dịch vụ tổng hợp chuyên sâu đầu tiên trong nước cũng đã được phát hành, với 26 công ty bao gồm Baidu, Alibaba và Tencent, và tổng cộng 41 thuật toán trong danh sách.
Mặc dù Trung Quốc, Hoa Kỳ và Liên minh Châu Âu đều ủng hộ các khái niệm quản lý AI nguyên tắc như độ chính xác, an toàn và minh bạch, nhưng có nhiều khác biệt trong các ý tưởng và phương pháp cụ thể. Việc ban hành các luật AI toàn diện nằm sau kết quả của các quy tắc của chính nó và nó muốn nắm bắt những lợi thế của các quy tắc.
Một số chuyên gia trong nước kêu gọi cần nhanh chóng xây dựng các quy định pháp luật về trí tuệ nhân tạo, nhưng không thể bỏ qua những vấn đề thực tế hiện nay. Ngoài ra, có một cân nhắc quan trọng khác: điều chỉnh hoặc phát triển. Đây không phải là một lựa chọn nhị phân, nhưng trong lĩnh vực kỹ thuật số, việc cân bằng cả hai là không dễ dàng.
EU chạy nước rút, Trung Quốc và Mỹ tăng tốc
Nếu mọi việc suôn sẻ, Dự luật Trí tuệ nhân tạo được Nghị viện châu Âu thông qua dự kiến sẽ được thông qua vào cuối năm nay. Luật điều chỉnh trí tuệ nhân tạo toàn diện đầu tiên trên thế giới có khả năng sẽ áp dụng tại EU.
"Dự thảo này sẽ ảnh hưởng đến các quốc gia khác đang đứng bên lề để đẩy nhanh việc ban hành luật. Lâu nay, việc có nên đưa công nghệ trí tuệ nhân tạo vào phạm vi giám sát pháp lý hay không vẫn luôn gây tranh cãi. Nhìn vào hiện tại, sau "Đạo luật Trí tuệ nhân tạo" " được triển khai, các nền tảng mạng có liên quan, chẳng hạn như nội dung kinh doanh và người dùng. Các nền tảng tập trung vào việc tạo thông tin buộc phải đảm nhận các nghĩa vụ kiểm toán cao hơn." Zhao Jingwu, phó giáo sư tại Trường Luật của Đại học Beihang, nói với China News Weekly.
Là một phần của chiến lược kỹ thuật số, Liên minh Châu Âu hy vọng sẽ điều chỉnh toàn diện trí tuệ nhân tạo thông qua "Đạo luật Trí tuệ Nhân tạo" và bố cục chiến lược đằng sau nó cũng đã được đưa ra bàn thảo.
Peng Xiaoyan, giám đốc điều hành của Công ty luật Beijing Wanshang Tianqin (Hàng Châu), nói với China News Weekly rằng "Đạo luật Trí tuệ nhân tạo" không chỉ áp dụng cho EU mà còn điều chỉnh các nhà cung cấp hệ thống ở bên ngoài EU nhưng có dữ liệu đầu ra của hệ thống được sử dụng trong EU hoặc người dùng. Phạm vi quyền tài phán và áp dụng của Đạo luật đã được mở rộng đáng kể và cũng có thể thoáng thấy manh mối về quyền ưu tiên quyền tài phán đối với các yếu tố dữ liệu.
Jin Ling, phó giám đốc và nhà nghiên cứu của Viện Châu Âu thuộc Viện Nghiên cứu Quốc tế Trung Quốc, cũng đã viết trong bài báo "Luật trí tuệ nhân tạo đầu tiên trên thế giới: Sự cân bằng khó khăn giữa đổi mới và quy định" rằng "Đạo luật trí tuệ nhân tạo" nêu bật đạo đức lợi thế của quản trị AI của EU , là một nỗ lực khác của EU nhằm phát huy hết sức mạnh quy chuẩn của mình và bù đắp những thiếu sót kỹ thuật thông qua lợi thế của các quy tắc. Nó phản ánh ý định chiến lược của EU trong việc nắm bắt vị trí đạo đức cao trong lĩnh vực trí tuệ nhân tạo.
Đạo luật Trí tuệ Nhân tạo đã được hai năm chuẩn bị. Vào tháng 4 năm 2021, Ủy ban Châu Âu đã đưa ra một đề xuất về luật trí tuệ nhân tạo dựa trên khung "phân loại rủi ro", đã được thảo luận và sửa đổi sau nhiều vòng. Sau sự phổ biến của AI thế hệ mới như ChatGPT, các nhà lập pháp EU đã khẩn trương bổ sung các "bản vá lỗi".
Một thay đổi mới là dự thảo mới nhất của "Đạo luật trí tuệ nhân tạo" đã tăng cường các yêu cầu minh bạch đối với AI mục đích chung. Ví dụ: AI tổng quát dựa trên mô hình cơ bản phải gắn nhãn cho nội dung được tạo, giúp người dùng phân biệt thông tin giả sâu với thông tin thật và đảm bảo rằng nội dung bất hợp pháp không được tạo ra. Các nhà cung cấp mô hình cơ bản như OpenAI và Google cũng cần tiết lộ chi tiết dữ liệu đào tạo nếu họ sử dụng dữ liệu có bản quyền trong quá trình đào tạo mô hình.
Ngoài ra, công nghệ sinh trắc học từ xa theo thời gian thực ở những nơi công cộng đã được điều chỉnh từ mức "rủi ro cao" sang mức "bị cấm", nghĩa là không được sử dụng công nghệ AI để nhận dạng khuôn mặt ở những nơi công cộng ở các nước EU.
Dự thảo mới nhất cũng tăng thêm số tiền phạt đối với các vi phạm, thay đổi mức tối đa 30 triệu euro hoặc 6% doanh thu toàn cầu của công ty vi phạm trong năm tài chính trước đó lên tối đa 40 triệu euro hoặc 7% doanh thu toàn cầu hàng năm. doanh thu của công ty vi phạm trong năm trước đó. Con số này cao hơn đáng kể so với Quy định bảo vệ dữ liệu chung, luật bảo mật dữ liệu chữ ký của châu Âu, có thể phạt tới 4% doanh thu toàn cầu, tương đương 20 triệu euro.
Peng Xiaoyan nói với China News Weekly rằng việc tăng số lượng hình phạt phản ánh quyết tâm và sức mạnh của chính quyền EU trong việc giám sát trí tuệ nhân tạo. Với những ông lớn công nghệ như Google, Microsoft, Apple với doanh thu hàng trăm tỷ USD, nếu vi phạm các quy định của "Đạo luật trí tuệ nhân tạo" thì số tiền phạt có thể lên tới hàng chục tỷ USD.
Tại nước Mỹ bên kia bờ đại dương, trong khi Washington đang bận rộn hưởng ứng lời kêu gọi kiểm soát AI mạnh mẽ hơn của Musk và những người khác, ngày 20/6, Tổng thống Mỹ Biden đã gặp gỡ một nhóm chuyên gia và nhà nghiên cứu trí tuệ nhân tạo tại San Francisco để thảo luận. cách quản lý rủi ro của công nghệ mới này. Biden cho biết vào thời điểm đó rằng trong khi nắm bắt tiềm năng to lớn của AI, cần phải quản lý những rủi ro mà nó gây ra cho xã hội, nền kinh tế và an ninh quốc gia.
Nền tảng của việc quản lý và kiểm soát rủi ro trở thành chủ đề nóng trong AI là do Hoa Kỳ chưa áp dụng các biện pháp chống độc quyền nghiêm ngặt đối với công nghệ AI và chưa đưa ra luật quản lý AI toàn diện ở cấp liên bang.
Bước đột phá chính thức đầu tiên của chính phủ liên bang Hoa Kỳ vào lĩnh vực quản lý trí tuệ nhân tạo là vào tháng 1 năm 2020, khi họ phát hành "Hướng dẫn quy định về ứng dụng trí tuệ nhân tạo" để cung cấp hướng dẫn về các biện pháp quản lý và không theo quy định đối với các vấn đề trí tuệ nhân tạo mới nổi. "Đạo luật Sáng kiến Trí tuệ Nhân tạo Quốc gia 2020" được giới thiệu vào năm 2021 mang tính chất bố cục chính sách hơn trong lĩnh vực AI, và vẫn còn một khoảng cách nhất định đối với quản trị trí tuệ nhân tạo và giám sát chặt chẽ. Một năm sau, Kế hoạch chi tiết cho Dự luật về Quyền AI ("Bản kế hoạch chi tiết") do Nhà Trắng công bố vào tháng 10 năm 2022 cung cấp một khuôn khổ hỗ trợ cho việc quản trị AI, nhưng đó không phải là chính sách chính thức của Hoa Kỳ và không có tính ràng buộc.
Có rất ít tiến bộ trong luật AI ở Hoa Kỳ, điều này đã gây ra nhiều sự không hài lòng. Nhiều người đã chỉ trích rằng Hoa Kỳ đã tụt hậu so với Liên minh Châu Âu và Trung Quốc trong việc xây dựng các quy tắc cho nền kinh tế kỹ thuật số. Tuy nhiên, có lẽ nhận thấy "Đạo luật Trí tuệ nhân tạo" của Liên minh châu Âu sắp vượt qua "rào cản" cuối cùng, Quốc hội Mỹ mới đây đã có dấu hiệu tăng tốc thông qua luật.
Vào ngày diễn ra hội nghị về AI của Biden, các Hạ nghị sĩ Đảng Dân chủ Ted W. Lieu và Anna Eshoo, cùng với Hạ nghị sĩ Đảng Cộng hòa Ken Buck, đã đệ trình lên Hội đồng Quốc gia về Đạo luật "Trí tuệ nhân tạo" đề xuất. Trong khi đó, Thượng nghị sĩ đảng Dân chủ Brian Schatz sẽ giới thiệu luật đồng hành tại Thượng viện sẽ tập trung vào quy định về AI.
Theo nội dung của dự luật, Ủy ban Trí tuệ Nhân tạo sẽ bao gồm 20 chuyên gia từ chính phủ, ngành công nghiệp, xã hội dân sự và khoa học máy tính, họ sẽ xem xét các phương pháp quản lý trí tuệ nhân tạo hiện tại ở Hoa Kỳ và cùng nhau xây dựng khung pháp lý toàn diện. .
"AI đang làm những điều đáng kinh ngạc trong xã hội. Nếu không được kiểm soát và quản lý, nó có thể gây ra tác hại đáng kể. Quốc hội không được đứng yên," Ted Liu nói trong một tuyên bố.
Một ngày sau, vào ngày 21 tháng 6, lãnh đạo Đảng Dân chủ tại Thượng viện Chuck Schumer đã có bài phát biểu tại Trung tâm Nghiên cứu Chiến lược và Quốc tế (CSIS), tiết lộ "Khuôn khổ Đổi mới An ninh Trí tuệ Nhân tạo" ("Khuôn khổ AI")— — Khuyến khích đổi mới trong khi thúc đẩy an toàn, trách nhiệm giải trình, nền tảng và khả năng diễn giải, lặp lại kế hoạch lớn bao gồm Kế hoạch chi tiết. Anh ấy đã đề xuất khuôn khổ vào tháng 4, nhưng đã đưa ra một vài chi tiết vào thời điểm đó.
Đằng sau khuôn khổ AI là một chiến lược lập pháp của Chuck Schumer. Trong bài phát biểu này, ông nói rằng dự luật trí tuệ nhân tạo liên bang sẽ được ban hành chỉ trong "vài tháng nữa". Tuy nhiên, quy trình lập pháp của Mỹ rườm rà, không chỉ cần Thượng viện và Hạ viện biểu quyết mà còn phải trải qua nhiều vòng điều trần, mất nhiều thời gian.
Để đẩy nhanh tiến độ, như một phần của khuôn khổ AI, Chuck Schumer dự định tổ chức một loạt các diễn đàn chuyên sâu về trí tuệ nhân tạo từ tháng 9 năm nay, bao gồm 10 chủ đề bao gồm đổi mới, sở hữu trí tuệ, an ninh quốc gia và quyền riêng tư. Ông nói với thế giới bên ngoài rằng Diễn đàn Insight sẽ không thay thế các phiên điều trần của quốc hội về trí tuệ nhân tạo, nhưng sẽ được tổ chức song song để cơ quan lập pháp có thể đưa ra chính sách về công nghệ trong vài tháng chứ không phải vài năm. Ông dự đoán rằng có thể phải đến mùa thu "mới bắt đầu thấy một số điều cụ thể" trong luật AI của Hoa Kỳ.
Mặc dù tiến độ chưa bắt kịp với Liên minh Châu Âu, luật pháp liên quan ở đất nước tôi cũng đã được đưa vào chương trình nghị sự. Vào đầu tháng 6, Văn phòng Tổng hợp của Quốc vụ viện đã ban hành "Kế hoạch công tác lập pháp của Quốc vụ viện năm 2023", trong đó đề cập rằng dự thảo luật trí tuệ nhân tạo đã được chuẩn bị để trình Ủy ban Thường vụ Quốc hội xem xét. .
Theo quy định của "Luật lập pháp" của nước tôi, sau khi Hội đồng Nhà nước đề xuất dự thảo luật lên Ủy ban Thường vụ Đại hội Đại biểu Nhân dân Toàn quốc, cuộc họp của chủ tọa quyết định đưa nó vào chương trình họp của Ủy ban Thường vụ hoặc đệ trình trước. đến ủy ban đặc biệt có liên quan để thảo luận và đệ trình một báo cáo, sau đó quyết định đưa nó vào Ủy ban Thường vụ Chương trình nghị sự của cuộc họp thường cần phải trải qua ba lần thảo luận trước khi được biểu quyết.
Kể từ đầu năm nay, nhiều quốc gia đã đẩy mạnh luật AI, Peng Xiaoyan tin rằng đây là kết quả của cả cạnh tranh và phát triển công nghệ.
"Các yếu tố dữ liệu đang ngày càng trở thành các yếu tố chiến lược quốc gia và các quốc gia cũng hy vọng thiết lập quyền tài phán thông qua luật pháp và giành quyền lên tiếng về trí tuệ nhân tạo. Đồng thời, việc cập nhật lặp đi lặp lại các công nghệ trí tuệ nhân tạo như ChatGPT đã cho phép xã hội nhìn thấy hy vọng mới cho sự phát triển mạnh mẽ của trí tuệ nhân tạo. Mới Sự phát triển của công nghệ chắc chắn sẽ dẫn đến những vấn đề xã hội và mâu thuẫn xã hội mới, đòi hỏi sự can thiệp và điều chỉnh của cơ quan quản lý, và sự phát triển của công nghệ đã thúc đẩy việc cập nhật luật pháp ở một mức độ nào đó." Peng Tiểu Yến nói.
Sự phân kỳ vượt xa sự hội tụ
Trung Quốc, Hoa Kỳ và Liên minh Châu Âu là những động lực chính cho sự phát triển AI toàn cầu, nhưng cũng có một số khác biệt về luật AI giữa ba quốc gia này.
"Đạo luật trí tuệ nhân tạo" của Liên minh châu Âu chia rủi ro của các ứng dụng trí tuệ nhân tạo thành bốn cấp độ từ góc độ sử dụng và chức năng. Cho dù dự thảo đã trải qua bao nhiêu vòng sửa đổi, "phân loại rủi ro" vẫn là khái niệm cốt lõi của EU quản trị AI.
Đỉnh của kim tự tháp nên tiềm ẩn rủi ro "không thể chấp nhận được" đối với an ninh con người. Ví dụ, các hệ thống tính điểm phân loại con người dựa trên hành vi xã hội hoặc đặc điểm cá nhân của họ, v.v., sẽ bị cấm hoàn toàn.
Trong dự thảo mới nhất, Nghị viện châu Âu đã mở rộng danh sách "những rủi ro không thể chấp nhận được" để ngăn chặn các hệ thống AI xâm nhập và phân biệt đối xử. Sáu loại hệ thống trí tuệ nhân tạo, chẳng hạn như nhận dạng sinh trắc học trong không gian công cộng, nhận dạng cảm xúc, chính sách dự đoán (dựa trên hồ sơ, vị trí hoặc hành vi tội phạm trong quá khứ) và lấy ngẫu nhiên hình ảnh khuôn mặt từ Internet, đều bị cấm hoàn toàn.
Loại thứ hai là các hệ thống AI tác động tiêu cực đến an ninh con người hoặc các quyền cơ bản và được coi là "rủi ro cao". Ví dụ: hệ thống AI được sử dụng trong các sản phẩm như hàng không, ô tô và thiết bị y tế, cũng như tám lĩnh vực cụ thể phải được đăng ký trong cơ sở dữ liệu của EU, bao gồm cơ sở hạ tầng quan trọng, giáo dục, đào tạo, thực thi pháp luật, v.v. Theo các quy định về AI và đánh giá tuân thủ trước đó, các hệ thống AI “rủi ro cao” khác nhau sẽ được phép thâm nhập thị trường EU tuân theo một loạt các yêu cầu và nghĩa vụ.
Ngoài ra, các hệ thống trí tuệ nhân tạo có ảnh hưởng đến cử tri và kết quả bầu cử, cũng như các hệ thống khuyến nghị được sử dụng bởi các nền tảng truyền thông xã hội với hơn 45 triệu người dùng, chẳng hạn như Facebook, Twitter và Instagram, cũng sẽ được đưa vào danh sách rủi ro cao theo quy định. Luật Dịch vụ Kỹ thuật số của EU. .
Ở dưới cùng của kim tự tháp là các hệ thống AI có rủi ro hạn chế, ít hoặc không có. Cái trước có nghĩa vụ minh bạch cụ thể và cần thông báo cho người dùng rằng họ đang tương tác với hệ thống AI, trong khi cái sau không có quy định bắt buộc và về cơ bản không được kiểm soát, chẳng hạn như các ứng dụng như bộ lọc thư rác.
Do các điều khoản quy định nghiêm ngặt của nó, "Đạo luật trí tuệ nhân tạo" được nhiều người trong ngành đánh giá là có nhiều "răng nhọn". Tuy nhiên, dự luật cũng cố gắng đạt được sự cân bằng giữa quy định chặt chẽ và đổi mới.
Ví dụ: dự thảo mới nhất yêu cầu các quốc gia thành viên thiết lập ít nhất một "hộp cát quy định" có thể được sử dụng miễn phí bởi các doanh nghiệp vừa và nhỏ và các công ty mới thành lập, trong một kịch bản được giám sát, an toàn và có thể kiểm soát được, để thử nghiệm nhân tạo đổi mới. hệ thống tình báo trước khi chúng được đưa vào sử dụng, cho đến khi các yêu cầu tuân thủ được đáp ứng. EU thường tin rằng đề xuất này sẽ không chỉ cho phép các cơ quan chức năng chú ý đến những thay đổi công nghệ trong thời gian thực mà còn giúp các công ty AI tiếp tục đổi mới đồng thời giảm áp lực pháp lý.
Jin Ling cho biết trong bài báo nói trên rằng một mặt, phương thức quản trị thượng nguồn của EU yêu cầu các công ty phải chịu nhiều chi phí trả trước hơn, mặt khác, sự không chắc chắn trong đánh giá rủi ro cũng ảnh hưởng đến sự nhiệt tình đầu tư của các công ty. Do đó, trong khi Ủy ban đã nhiều lần nhấn mạnh rằng pháp luật AI sẽ hỗ trợ đổi mới và tăng trưởng trong nền kinh tế kỹ thuật số châu Âu, phân tích kinh tế thực tế dường như không ủng hộ kết luận này. Dự luật phản ánh xung đột cố hữu của EU giữa việc thúc đẩy đổi mới và bảo vệ các quyền khó có thể cân bằng một cách hiệu quả.
Giống như Liên minh Châu Âu và Trung Quốc, Hoa Kỳ ủng hộ cách tiếp cận quản lý AI dựa trên rủi ro, ủng hộ tính chính xác, bảo mật và minh bạch. Tuy nhiên, theo quan điểm của Zhao Jingwu, tư duy quản lý của Hoa Kỳ tập trung hơn vào việc sử dụng AI để thúc đẩy sự đổi mới và phát triển của ngành AI, và cuối cùng là để duy trì vị trí lãnh đạo và khả năng cạnh tranh của Hoa Kỳ.
"Khác với khái niệm quy định 'ngăn ngừa rủi ro và an ninh công nghệ' do Trung Quốc và EU nắm giữ, Hoa Kỳ tập trung vào phát triển thương mại. Cả Trung Quốc và EU đều tập trung vào an ninh của các ứng dụng công nghệ trí tuệ nhân tạo để ngăn chặn việc lạm dụng công nghệ trí tuệ nhân tạo khỏi vi phạm quyền cá nhân, trong khi Hoa Kỳ tập trung vào Phát triển công nghiệp là trọng tâm của sự giám sát." Zhao Jingwu nói.
Các nghiên cứu đã phát hiện ra rằng luật pháp của Quốc hội Hoa Kỳ chủ yếu tập trung vào việc khuyến khích và hướng dẫn chính phủ sử dụng trí tuệ nhân tạo. Ví dụ: Thượng viện Hoa Kỳ đã đưa ra Đạo luật đổi mới trí tuệ nhân tạo vào năm 2021, yêu cầu Bộ Quốc phòng Hoa Kỳ triển khai một chương trình thử nghiệm để đảm bảo cơ quan này có quyền truy cập vào các khả năng phần mềm học máy và trí tuệ nhân tạo tốt nhất.
Trong bài phát biểu nói trên, Chuck Schumer coi đổi mới là Ngôi sao phương Bắc và khuôn khổ AI của ông là nhằm giải phóng tiềm năng to lớn của trí tuệ nhân tạo và hỗ trợ sự đổi mới do Hoa Kỳ dẫn đầu trong công nghệ trí tuệ nhân tạo. Khi bắt đầu "Hướng dẫn giám sát ứng dụng trí tuệ nhân tạo", rõ ràng cần tiếp tục thúc đẩy sự tiến bộ của công nghệ và đổi mới. Mục tiêu cuối cùng của Đạo luật Sáng kiến Trí tuệ Nhân tạo Quốc gia năm 2020 cũng là đảm bảo rằng Hoa Kỳ duy trì vị trí hàng đầu trong lĩnh vực công nghệ AI toàn cầu bằng cách tăng cường đầu tư nghiên cứu và thiết lập hệ thống lực lượng lao động.
Peng Xiaoyan cho biết, từ góc độ hướng dẫn thiết kế đặc điểm kỹ thuật, sự phát triển của trí tuệ nhân tạo ở Hoa Kỳ vẫn đang trong tình trạng giám sát yếu ở cấp lập pháp và thể chế, và xã hội tích cực khuyến khích đổi mới và mở rộng công nghệ trí tuệ nhân tạo với một thái độ cởi mở.
So với Liên minh Châu Âu, nơi có quyền điều tra rõ ràng hơn và phạm vi quản lý toàn diện, Hoa Kỳ đã áp dụng cách tiếp cận phi tập trung đối với quy định về AI, với một số tiểu bang và tổ chức thúc đẩy quản trị AI ở mức độ thấp hơn. Do đó, các sáng kiến quản lý AI quốc gia rất rộng rãi và có nguyên tắc.
Ví dụ: "Kế hoạch chi tiết" là một sự kiện quan trọng trong chính sách quản lý trí tuệ nhân tạo của Hoa Kỳ. Nó đã xây dựng 5 nguyên tắc cơ bản bao gồm hệ thống an toàn và hiệu quả, ngăn chặn phân biệt đối xử theo thuật toán, bảo vệ quyền riêng tư của dữ liệu, thông báo và giải thích cũng như sự tham gia của con người vào quyết định -làm.Không có quy định chi tiết hơn.
Peng Xiaoyan tin rằng "Kế hoạch chi tiết" không đưa ra các biện pháp thực hiện cụ thể mà xây dựng một khuôn khổ cơ bản để phát triển trí tuệ nhân tạo một cách có nguyên tắc, nhằm hướng dẫn việc thiết kế, sử dụng và triển khai các hệ thống trí tuệ nhân tạo.
"Các tiêu chuẩn như thế này không bắt buộc. Đó là bởi vì Hoa Kỳ cân nhắc việc hỗ trợ sự phát triển của ngành trí tuệ nhân tạo. Hiện tại, trí tuệ nhân tạo vẫn đang trong giai đoạn phát triển mới nổi và sự giám sát cường độ cao nhất định sẽ hạn chế sự phát triển của ngành và đổi mới ở một mức độ nhất định. Do đó, Hoa Kỳ duy trì thái độ tương đối khiêm tốn trong luật pháp", Peng Xiaoyan nói.
"Nếu luật không trao cho các cơ quan quyền hạn mới, họ chỉ có thể điều chỉnh việc sử dụng trí tuệ nhân tạo theo quyền hạn mà họ đã có. Mặt khác, các nguyên tắc đạo đức liên quan đến trí tuệ nhân tạo vẫn ít được quy định hơn và các cơ quan có thể tự quyết định cách điều chỉnh cho mình Theo nhà phân tích Hadrien Pouget của Carnegie, điều này khiến các cơ quan liên bang do Nhà Trắng lãnh đạo vừa bị hạn chế vừa được tự do.
Khái niệm quản trị AI bị chi phối bởi việc sử dụng và đổi mới được định sẵn sẽ không quá khó đối với "nắm đấm" của Hoa Kỳ. Alex Engler, một nhà nghiên cứu tại Viện Brookings, một tổ chức tư vấn nổi tiếng của Mỹ, đã chỉ ra rằng Liên minh Châu Âu và Hoa Kỳ đang áp dụng các cách tiếp cận pháp lý khác nhau đối với trí tuệ nhân tạo có tác động xã hội như giáo dục, tài chính và việc làm.
Về các ứng dụng AI cụ thể, "Đạo luật trí tuệ nhân tạo" của Liên minh châu Âu có các yêu cầu về tính minh bạch đối với rô bốt trò chuyện, trong khi không có quy định liên bang nào ở Hoa Kỳ. Nhận dạng khuôn mặt được Liên minh Châu Âu coi là "rủi ro không thể chấp nhận được" và Hoa Kỳ cung cấp thông tin công khai thông qua chương trình thử nghiệm nhà cung cấp dịch vụ nhận dạng khuôn mặt của Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST), nhưng không bắt buộc áp dụng các quy tắc.
"Phạm vi quản lý của EU không chỉ bao gồm phạm vi ứng dụng rộng hơn mà còn đặt ra nhiều quy tắc hơn cho các ứng dụng AI này. Trong khi cách tiếp cận của Hoa Kỳ bị giới hạn hẹp hơn trong việc điều chỉnh các cơ quan quản lý thể chế hiện tại để cố gắng quản lý AI, thì phạm vi của AI cũng rất lớn hạn chế hơn.” Alex Engler nói rằng có nhiều sự khác biệt hơn nhiều so với sự hội tụ trong quản lý rủi ro AI, mặc dù các nguyên tắc giống hệt nhau.
Zhao Jingwu đã tóm tắt các mô hình quản lý AI của Trung Quốc, Liên minh Châu Âu và Hoa Kỳ và nhận thấy rằng Trung Quốc bị giới hạn trong các kịch bản ứng dụng của công nghệ trí tuệ nhân tạo và đã xây dựng các quy tắc quản lý đặc biệt cho các kịch bản ứng dụng như công nghệ nhận dạng khuôn mặt , tổng hợp sâu và đề xuất tự động. EU được hướng dẫn bởi mức độ rủi ro, tùy thuộc vào việc mức độ rủi ro của các ứng dụng trí tuệ nhân tạo có phải là mức chấp nhận được hay không. Hoa Kỳ xét xử tính hợp pháp của việc ứng dụng công nghệ trí tuệ nhân tạo trong khuôn khổ hệ thống pháp luật truyền thống hiện hành.
Ngoài ra, Hoa Kỳ cũng tập trung nhiều hơn vào nghiên cứu trí tuệ nhân tạo và đầu tư nhiều kinh phí hơn cho nó. Mới đầu tháng 5, Nhà Trắng đã công bố khoản đầu tư khoảng 140 triệu đô la Mỹ để thành lập 7 viện nghiên cứu trí tuệ nhân tạo quốc gia mới. Một số nhà nghiên cứu cho rằng động thái này của Mỹ hy vọng sẽ hiểu rõ hơn về AI, từ đó giảm bớt những lo ngại phát sinh từ quy trình quản lý.
Peng Xiaoyan nói rằng đất nước tôi đã áp dụng các biện pháp khuyến khích phát triển công nghệ trí tuệ nhân tạo đồng thời điều tiết quản lý các lĩnh vực liên quan một cách hạn chế và hướng dẫn sự phát triển của công nghệ trí tuệ nhân tạo bằng các chính sách và yêu cầu quản lý phối hợp.
luật pháp của đất nước tôi phải đối mặt với nhiều vấn đề thực tế
Zhao Jingwu nói với China News Weekly rằng các biện pháp quản lý trí tuệ nhân tạo "hệ thống mức độ rủi ro" của Liên minh châu Âu, khái niệm quy định "mô hình chung" được đề xuất trong "Đạo luật Trí tuệ nhân tạo" và các quy định cụ thể cho ChatGPT Nghĩa vụ tiết lộ và nghĩa vụ tuân thủ bản quyền dữ liệu của các ứng dụng trí tuệ nhân tạo tổng quát có giá trị tham khảo đối với luật trí tuệ nhân tạo của quốc gia tôi.
Trên thực tế, luật pháp về trí tuệ nhân tạo của đất nước tôi đã bắt đầu, vào năm 2017, Quốc vụ viện đã ban hành "Kế hoạch phát triển trí tuệ nhân tạo thế hệ mới", trong đó đề xuất rằng đến năm 2025, các luật và quy định, chuẩn mực đạo đức và hệ thống chính sách về trí tuệ nhân tạo phải được thông qua. ban đầu được thiết lập, và các chính sách và đánh giá an ninh trí tuệ nhân tạo nên được hình thành.
Tại địa phương, vào năm 2022, thành phố Thâm Quyến đã ban hành "Quy định thúc đẩy ngành công nghiệp trí tuệ nhân tạo của Đặc khu kinh tế Thâm Quyến", đây được coi là luật đặc biệt đầu tiên của đất nước tôi đối với ngành trí tuệ nhân tạo. "Quy định" đề cập rằng cơ chế giám sát trong lĩnh vực trí tuệ nhân tạo cần được cải thiện để ngăn chặn các rủi ro an ninh đạo đức và rủi ro tuân thủ có thể phát sinh trong các sản phẩm và dịch vụ trí tuệ nhân tạo.
Hiện tại, quy định về trí tuệ nhân tạo của đất nước tôi chủ yếu được thúc đẩy bởi một số bộ và ủy ban lớn, nhằm thúc đẩy quy định và phát triển trí tuệ nhân tạo trong các lĩnh vực khác nhau. Các tài liệu quy phạm như "Quy định về Quản lý Đề xuất thuật toán cho Dịch vụ Thông tin Internet", "Quy định về Quản lý Tổng hợp sâu các Dịch vụ Thông tin Internet" và "Các biện pháp quản lý đối với Dịch vụ trí tuệ nhân tạo sáng tạo (Dự thảo để lấy ý kiến)" cũng đã đã được cấp.
"Từ góc độ định mức quản lý lịch sử, các quy định của nước tôi về lĩnh vực trí tuệ nhân tạo áp dụng các biện pháp để phân biệt lĩnh vực kinh doanh và định hướng kỹ thuật, và các định mức quản lý có xu hướng phân cấp. Khi các định mức được đưa ra, chúng thường có đặc điểm là kịp thời "Sau khi các công nghệ cụ thể xuất hiện. Đưa ra các quy định quản lý đặc biệt. Các quy định do cơ quan hành chính ban hành, tập trung vào giám sát và chưa được nâng cấp thành luật ở cấp độ quy định". Peng Xiaoyan nói.
Điều đáng chú ý là vào ngày 20 tháng 6, đợt đầu tiên của danh sách hồ sơ thuật toán dịch vụ tổng hợp chuyên sâu trong nước đã được công bố, 26 công ty bao gồm Baidu, Alibaba, Tencent, ByteDance và Meituan, và tổng cộng 41 thuật toán đã có trong danh sách.
Khi sức nóng của pháp luật AI nóng lên, các chuyên gia trong nước đã bắt đầu kêu gọi sự phát triển nhanh chóng của các quy định pháp lý về trí tuệ nhân tạo. Tuy nhiên, theo quan điểm của Zhao Jingwu, luật đặc biệt về trí tuệ nhân tạo của đất nước tôi là khả thi, nhưng nó cũng gặp phải nhiều vấn đề thực tế.
"Thứ nhất là vấn đề về tính liên thông hệ thống giữa các văn bản quy phạm pháp luật. Mối quan hệ áp dụng giữa luật đặc thù về trí tuệ nhân tạo với các văn bản quy phạm khác chưa được giải quyết, nhất là nội dung chồng chéo của luật đặc khu và luật hiện hành cần phải khẩn trương giải quyết. Thứ hai là công nghệ trí tuệ nhân tạo, tốc độ cập nhật và lặp lại ngày càng nhanh, khó đảm bảo sự phát triển đồng thời của pháp luật và công nghệ, thứ ba, các quy định pháp lý về trí tuệ nhân tạo thiếu tính toàn vẹn, các quy định pháp lý đối với ba yếu tố cốt lõi của dữ liệu, thuật toán và sức mạnh tính toán vẫn đang trong giai đoạn khám phá; thứ tư, pháp luật về trí tuệ nhân tạo Việc nên tập trung vào quản lý rủi ro bảo mật hay phát triển công nghiệp còn gây tranh cãi hơn," Zhao Jingwu nói.
Cho dù đó là "Đạo luật Trí tuệ Nhân tạo" của Liên minh Châu Âu hay các quy định, sáng kiến và kế hoạch về AI của Trung Quốc, Hoa Kỳ và các quốc gia khác, họ đang cố gắng xây dựng một khung pháp lý toàn diện không chỉ đảm bảo an toàn mà còn tạo ra điều kiện tốt hơn cho AI.
Dựa trên nguyên tắc phổ quát này, Peng Xiaoyan nói với China News Weekly rằng việc thiết lập luật trí tuệ nhân tạo ở nước tôi trước tiên phải dựa trên việc tích cực khuyến khích phát triển và đổi mới, để trí tuệ nhân tạo có thể được điều chỉnh và phát triển trong một không gian tương đối mở. vạch kẻ màu đỏ.
“Ngoài ra, các vấn đề pháp lý trong lĩnh vực trí tuệ nhân tạo mà mọi người đang quan tâm hiện nay cần được giải quyết, bao gồm nhưng không giới hạn ở việc cấm nội dung bất hợp pháp trong trí tuệ nhân tạo, bảo mật dữ liệu trí tuệ nhân tạo, bảo vệ trí tuệ nhân tạo đạo đức và an ninh, ngăn chặn vi phạm sở hữu trí tuệ, v.v." Peng Xiaoyan nói.
Zhao Jingwu tin rằng đất nước của tôi nên thiết lập luật trí tuệ nhân tạo nhằm bảo vệ sự phát triển công nghiệp.
"Ở một mức độ nào đó, pháp luật hiện hành về cơ bản có thể đáp ứng nhu cầu giám sát ứng dụng công nghệ trí tuệ nhân tạo. Phòng ngừa rủi ro công nghệ, đảm bảo an ninh công nghệ chỉ là quá trình quản trị, mục tiêu cuối cùng vẫn cần là trở lại trình độ phát triển của trí tuệ nhân tạo ngành. Xét cho cùng, luật trí tuệ nhân tạo không hạn chế sự phát triển của các ngành, mà là định hướng và đảm bảo sự phát triển lành mạnh của các ngành liên quan." Zhao Jingwu nói.
Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Bài toán hóc búa về quy định AI: Làm thế nào để 'đánh bại ma thuật'
Nguồn gốc: China News Weekly
Tác giả: Hallick
Quá trình xây dựng luật AI toàn cầu đã tăng tốc đáng kể và các quy định trên khắp thế giới đang bắt kịp với sự phát triển của AI.
Ngày 14/6, theo giờ địa phương, Nghị viện châu Âu đã bỏ phiếu thuận với 499 phiếu thuận, 28 phiếu chống và 93 phiếu trắng, đồng thời thông qua dự thảo ủy quyền đàm phán cho Đạo luật Trí tuệ nhân tạo (Đạo luật AI). Theo quy trình lập pháp của EU, Nghị viện châu Âu, các nước thành viên EU và Ủy ban châu Âu sẽ bắt đầu "đàm phán ba bên" để xác định các điều khoản cuối cùng của dự luật.
Nghị viện châu Âu cho biết họ "sẵn sàng đàm phán" để ban hành dự luật trí tuệ nhân tạo đầu tiên. Tổng thống Hoa Kỳ Biden đã đưa ra tín hiệu kiểm soát AI và một số thành viên của Quốc hội Hoa Kỳ đã đệ trình các đề xuất về luật quản lý AI. Lãnh đạo đảng Dân chủ Thượng viện Hoa Kỳ Chuck Schumer đã tiết lộ "Khuôn khổ đổi mới an toàn AI" của mình và có kế hoạch ban hành dự luật AI liên bang chỉ trong "vài tháng".
luật liên quan của đất nước tôi cũng đã được đưa vào chương trình nghị sự và dự thảo luật trí tuệ nhân tạo sẽ được đệ trình lên Ủy ban Thường vụ Đại hội Đại biểu Nhân dân Toàn quốc để thảo luận trong năm nay. Vào ngày 20 tháng 6, loạt danh sách hồ sơ thuật toán dịch vụ tổng hợp chuyên sâu đầu tiên trong nước cũng đã được phát hành, với 26 công ty bao gồm Baidu, Alibaba và Tencent, và tổng cộng 41 thuật toán trong danh sách.
Mặc dù Trung Quốc, Hoa Kỳ và Liên minh Châu Âu đều ủng hộ các khái niệm quản lý AI nguyên tắc như độ chính xác, an toàn và minh bạch, nhưng có nhiều khác biệt trong các ý tưởng và phương pháp cụ thể. Việc ban hành các luật AI toàn diện nằm sau kết quả của các quy tắc của chính nó và nó muốn nắm bắt những lợi thế của các quy tắc.
Một số chuyên gia trong nước kêu gọi cần nhanh chóng xây dựng các quy định pháp luật về trí tuệ nhân tạo, nhưng không thể bỏ qua những vấn đề thực tế hiện nay. Ngoài ra, có một cân nhắc quan trọng khác: điều chỉnh hoặc phát triển. Đây không phải là một lựa chọn nhị phân, nhưng trong lĩnh vực kỹ thuật số, việc cân bằng cả hai là không dễ dàng.
EU chạy nước rút, Trung Quốc và Mỹ tăng tốc
Nếu mọi việc suôn sẻ, Dự luật Trí tuệ nhân tạo được Nghị viện châu Âu thông qua dự kiến sẽ được thông qua vào cuối năm nay. Luật điều chỉnh trí tuệ nhân tạo toàn diện đầu tiên trên thế giới có khả năng sẽ áp dụng tại EU.
"Dự thảo này sẽ ảnh hưởng đến các quốc gia khác đang đứng bên lề để đẩy nhanh việc ban hành luật. Lâu nay, việc có nên đưa công nghệ trí tuệ nhân tạo vào phạm vi giám sát pháp lý hay không vẫn luôn gây tranh cãi. Nhìn vào hiện tại, sau "Đạo luật Trí tuệ nhân tạo" " được triển khai, các nền tảng mạng có liên quan, chẳng hạn như nội dung kinh doanh và người dùng. Các nền tảng tập trung vào việc tạo thông tin buộc phải đảm nhận các nghĩa vụ kiểm toán cao hơn." Zhao Jingwu, phó giáo sư tại Trường Luật của Đại học Beihang, nói với China News Weekly.
Là một phần của chiến lược kỹ thuật số, Liên minh Châu Âu hy vọng sẽ điều chỉnh toàn diện trí tuệ nhân tạo thông qua "Đạo luật Trí tuệ Nhân tạo" và bố cục chiến lược đằng sau nó cũng đã được đưa ra bàn thảo.
Peng Xiaoyan, giám đốc điều hành của Công ty luật Beijing Wanshang Tianqin (Hàng Châu), nói với China News Weekly rằng "Đạo luật Trí tuệ nhân tạo" không chỉ áp dụng cho EU mà còn điều chỉnh các nhà cung cấp hệ thống ở bên ngoài EU nhưng có dữ liệu đầu ra của hệ thống được sử dụng trong EU hoặc người dùng. Phạm vi quyền tài phán và áp dụng của Đạo luật đã được mở rộng đáng kể và cũng có thể thoáng thấy manh mối về quyền ưu tiên quyền tài phán đối với các yếu tố dữ liệu.
Jin Ling, phó giám đốc và nhà nghiên cứu của Viện Châu Âu thuộc Viện Nghiên cứu Quốc tế Trung Quốc, cũng đã viết trong bài báo "Luật trí tuệ nhân tạo đầu tiên trên thế giới: Sự cân bằng khó khăn giữa đổi mới và quy định" rằng "Đạo luật trí tuệ nhân tạo" nêu bật đạo đức lợi thế của quản trị AI của EU , là một nỗ lực khác của EU nhằm phát huy hết sức mạnh quy chuẩn của mình và bù đắp những thiếu sót kỹ thuật thông qua lợi thế của các quy tắc. Nó phản ánh ý định chiến lược của EU trong việc nắm bắt vị trí đạo đức cao trong lĩnh vực trí tuệ nhân tạo.
Đạo luật Trí tuệ Nhân tạo đã được hai năm chuẩn bị. Vào tháng 4 năm 2021, Ủy ban Châu Âu đã đưa ra một đề xuất về luật trí tuệ nhân tạo dựa trên khung "phân loại rủi ro", đã được thảo luận và sửa đổi sau nhiều vòng. Sau sự phổ biến của AI thế hệ mới như ChatGPT, các nhà lập pháp EU đã khẩn trương bổ sung các "bản vá lỗi".
Một thay đổi mới là dự thảo mới nhất của "Đạo luật trí tuệ nhân tạo" đã tăng cường các yêu cầu minh bạch đối với AI mục đích chung. Ví dụ: AI tổng quát dựa trên mô hình cơ bản phải gắn nhãn cho nội dung được tạo, giúp người dùng phân biệt thông tin giả sâu với thông tin thật và đảm bảo rằng nội dung bất hợp pháp không được tạo ra. Các nhà cung cấp mô hình cơ bản như OpenAI và Google cũng cần tiết lộ chi tiết dữ liệu đào tạo nếu họ sử dụng dữ liệu có bản quyền trong quá trình đào tạo mô hình.
Ngoài ra, công nghệ sinh trắc học từ xa theo thời gian thực ở những nơi công cộng đã được điều chỉnh từ mức "rủi ro cao" sang mức "bị cấm", nghĩa là không được sử dụng công nghệ AI để nhận dạng khuôn mặt ở những nơi công cộng ở các nước EU.
Dự thảo mới nhất cũng tăng thêm số tiền phạt đối với các vi phạm, thay đổi mức tối đa 30 triệu euro hoặc 6% doanh thu toàn cầu của công ty vi phạm trong năm tài chính trước đó lên tối đa 40 triệu euro hoặc 7% doanh thu toàn cầu hàng năm. doanh thu của công ty vi phạm trong năm trước đó. Con số này cao hơn đáng kể so với Quy định bảo vệ dữ liệu chung, luật bảo mật dữ liệu chữ ký của châu Âu, có thể phạt tới 4% doanh thu toàn cầu, tương đương 20 triệu euro.
Peng Xiaoyan nói với China News Weekly rằng việc tăng số lượng hình phạt phản ánh quyết tâm và sức mạnh của chính quyền EU trong việc giám sát trí tuệ nhân tạo. Với những ông lớn công nghệ như Google, Microsoft, Apple với doanh thu hàng trăm tỷ USD, nếu vi phạm các quy định của "Đạo luật trí tuệ nhân tạo" thì số tiền phạt có thể lên tới hàng chục tỷ USD.
Tại nước Mỹ bên kia bờ đại dương, trong khi Washington đang bận rộn hưởng ứng lời kêu gọi kiểm soát AI mạnh mẽ hơn của Musk và những người khác, ngày 20/6, Tổng thống Mỹ Biden đã gặp gỡ một nhóm chuyên gia và nhà nghiên cứu trí tuệ nhân tạo tại San Francisco để thảo luận. cách quản lý rủi ro của công nghệ mới này. Biden cho biết vào thời điểm đó rằng trong khi nắm bắt tiềm năng to lớn của AI, cần phải quản lý những rủi ro mà nó gây ra cho xã hội, nền kinh tế và an ninh quốc gia.
Nền tảng của việc quản lý và kiểm soát rủi ro trở thành chủ đề nóng trong AI là do Hoa Kỳ chưa áp dụng các biện pháp chống độc quyền nghiêm ngặt đối với công nghệ AI và chưa đưa ra luật quản lý AI toàn diện ở cấp liên bang.
Bước đột phá chính thức đầu tiên của chính phủ liên bang Hoa Kỳ vào lĩnh vực quản lý trí tuệ nhân tạo là vào tháng 1 năm 2020, khi họ phát hành "Hướng dẫn quy định về ứng dụng trí tuệ nhân tạo" để cung cấp hướng dẫn về các biện pháp quản lý và không theo quy định đối với các vấn đề trí tuệ nhân tạo mới nổi. "Đạo luật Sáng kiến Trí tuệ Nhân tạo Quốc gia 2020" được giới thiệu vào năm 2021 mang tính chất bố cục chính sách hơn trong lĩnh vực AI, và vẫn còn một khoảng cách nhất định đối với quản trị trí tuệ nhân tạo và giám sát chặt chẽ. Một năm sau, Kế hoạch chi tiết cho Dự luật về Quyền AI ("Bản kế hoạch chi tiết") do Nhà Trắng công bố vào tháng 10 năm 2022 cung cấp một khuôn khổ hỗ trợ cho việc quản trị AI, nhưng đó không phải là chính sách chính thức của Hoa Kỳ và không có tính ràng buộc.
Có rất ít tiến bộ trong luật AI ở Hoa Kỳ, điều này đã gây ra nhiều sự không hài lòng. Nhiều người đã chỉ trích rằng Hoa Kỳ đã tụt hậu so với Liên minh Châu Âu và Trung Quốc trong việc xây dựng các quy tắc cho nền kinh tế kỹ thuật số. Tuy nhiên, có lẽ nhận thấy "Đạo luật Trí tuệ nhân tạo" của Liên minh châu Âu sắp vượt qua "rào cản" cuối cùng, Quốc hội Mỹ mới đây đã có dấu hiệu tăng tốc thông qua luật.
Vào ngày diễn ra hội nghị về AI của Biden, các Hạ nghị sĩ Đảng Dân chủ Ted W. Lieu và Anna Eshoo, cùng với Hạ nghị sĩ Đảng Cộng hòa Ken Buck, đã đệ trình lên Hội đồng Quốc gia về Đạo luật "Trí tuệ nhân tạo" đề xuất. Trong khi đó, Thượng nghị sĩ đảng Dân chủ Brian Schatz sẽ giới thiệu luật đồng hành tại Thượng viện sẽ tập trung vào quy định về AI.
Theo nội dung của dự luật, Ủy ban Trí tuệ Nhân tạo sẽ bao gồm 20 chuyên gia từ chính phủ, ngành công nghiệp, xã hội dân sự và khoa học máy tính, họ sẽ xem xét các phương pháp quản lý trí tuệ nhân tạo hiện tại ở Hoa Kỳ và cùng nhau xây dựng khung pháp lý toàn diện. .
"AI đang làm những điều đáng kinh ngạc trong xã hội. Nếu không được kiểm soát và quản lý, nó có thể gây ra tác hại đáng kể. Quốc hội không được đứng yên," Ted Liu nói trong một tuyên bố.
Một ngày sau, vào ngày 21 tháng 6, lãnh đạo Đảng Dân chủ tại Thượng viện Chuck Schumer đã có bài phát biểu tại Trung tâm Nghiên cứu Chiến lược và Quốc tế (CSIS), tiết lộ "Khuôn khổ Đổi mới An ninh Trí tuệ Nhân tạo" ("Khuôn khổ AI")— — Khuyến khích đổi mới trong khi thúc đẩy an toàn, trách nhiệm giải trình, nền tảng và khả năng diễn giải, lặp lại kế hoạch lớn bao gồm Kế hoạch chi tiết. Anh ấy đã đề xuất khuôn khổ vào tháng 4, nhưng đã đưa ra một vài chi tiết vào thời điểm đó.
Đằng sau khuôn khổ AI là một chiến lược lập pháp của Chuck Schumer. Trong bài phát biểu này, ông nói rằng dự luật trí tuệ nhân tạo liên bang sẽ được ban hành chỉ trong "vài tháng nữa". Tuy nhiên, quy trình lập pháp của Mỹ rườm rà, không chỉ cần Thượng viện và Hạ viện biểu quyết mà còn phải trải qua nhiều vòng điều trần, mất nhiều thời gian.
Để đẩy nhanh tiến độ, như một phần của khuôn khổ AI, Chuck Schumer dự định tổ chức một loạt các diễn đàn chuyên sâu về trí tuệ nhân tạo từ tháng 9 năm nay, bao gồm 10 chủ đề bao gồm đổi mới, sở hữu trí tuệ, an ninh quốc gia và quyền riêng tư. Ông nói với thế giới bên ngoài rằng Diễn đàn Insight sẽ không thay thế các phiên điều trần của quốc hội về trí tuệ nhân tạo, nhưng sẽ được tổ chức song song để cơ quan lập pháp có thể đưa ra chính sách về công nghệ trong vài tháng chứ không phải vài năm. Ông dự đoán rằng có thể phải đến mùa thu "mới bắt đầu thấy một số điều cụ thể" trong luật AI của Hoa Kỳ.
Mặc dù tiến độ chưa bắt kịp với Liên minh Châu Âu, luật pháp liên quan ở đất nước tôi cũng đã được đưa vào chương trình nghị sự. Vào đầu tháng 6, Văn phòng Tổng hợp của Quốc vụ viện đã ban hành "Kế hoạch công tác lập pháp của Quốc vụ viện năm 2023", trong đó đề cập rằng dự thảo luật trí tuệ nhân tạo đã được chuẩn bị để trình Ủy ban Thường vụ Quốc hội xem xét. .
Theo quy định của "Luật lập pháp" của nước tôi, sau khi Hội đồng Nhà nước đề xuất dự thảo luật lên Ủy ban Thường vụ Đại hội Đại biểu Nhân dân Toàn quốc, cuộc họp của chủ tọa quyết định đưa nó vào chương trình họp của Ủy ban Thường vụ hoặc đệ trình trước. đến ủy ban đặc biệt có liên quan để thảo luận và đệ trình một báo cáo, sau đó quyết định đưa nó vào Ủy ban Thường vụ Chương trình nghị sự của cuộc họp thường cần phải trải qua ba lần thảo luận trước khi được biểu quyết.
Kể từ đầu năm nay, nhiều quốc gia đã đẩy mạnh luật AI, Peng Xiaoyan tin rằng đây là kết quả của cả cạnh tranh và phát triển công nghệ.
"Các yếu tố dữ liệu đang ngày càng trở thành các yếu tố chiến lược quốc gia và các quốc gia cũng hy vọng thiết lập quyền tài phán thông qua luật pháp và giành quyền lên tiếng về trí tuệ nhân tạo. Đồng thời, việc cập nhật lặp đi lặp lại các công nghệ trí tuệ nhân tạo như ChatGPT đã cho phép xã hội nhìn thấy hy vọng mới cho sự phát triển mạnh mẽ của trí tuệ nhân tạo. Mới Sự phát triển của công nghệ chắc chắn sẽ dẫn đến những vấn đề xã hội và mâu thuẫn xã hội mới, đòi hỏi sự can thiệp và điều chỉnh của cơ quan quản lý, và sự phát triển của công nghệ đã thúc đẩy việc cập nhật luật pháp ở một mức độ nào đó." Peng Tiểu Yến nói.
Sự phân kỳ vượt xa sự hội tụ
Trung Quốc, Hoa Kỳ và Liên minh Châu Âu là những động lực chính cho sự phát triển AI toàn cầu, nhưng cũng có một số khác biệt về luật AI giữa ba quốc gia này.
"Đạo luật trí tuệ nhân tạo" của Liên minh châu Âu chia rủi ro của các ứng dụng trí tuệ nhân tạo thành bốn cấp độ từ góc độ sử dụng và chức năng. Cho dù dự thảo đã trải qua bao nhiêu vòng sửa đổi, "phân loại rủi ro" vẫn là khái niệm cốt lõi của EU quản trị AI.
Trong dự thảo mới nhất, Nghị viện châu Âu đã mở rộng danh sách "những rủi ro không thể chấp nhận được" để ngăn chặn các hệ thống AI xâm nhập và phân biệt đối xử. Sáu loại hệ thống trí tuệ nhân tạo, chẳng hạn như nhận dạng sinh trắc học trong không gian công cộng, nhận dạng cảm xúc, chính sách dự đoán (dựa trên hồ sơ, vị trí hoặc hành vi tội phạm trong quá khứ) và lấy ngẫu nhiên hình ảnh khuôn mặt từ Internet, đều bị cấm hoàn toàn.
Loại thứ hai là các hệ thống AI tác động tiêu cực đến an ninh con người hoặc các quyền cơ bản và được coi là "rủi ro cao". Ví dụ: hệ thống AI được sử dụng trong các sản phẩm như hàng không, ô tô và thiết bị y tế, cũng như tám lĩnh vực cụ thể phải được đăng ký trong cơ sở dữ liệu của EU, bao gồm cơ sở hạ tầng quan trọng, giáo dục, đào tạo, thực thi pháp luật, v.v. Theo các quy định về AI và đánh giá tuân thủ trước đó, các hệ thống AI “rủi ro cao” khác nhau sẽ được phép thâm nhập thị trường EU tuân theo một loạt các yêu cầu và nghĩa vụ.
Ngoài ra, các hệ thống trí tuệ nhân tạo có ảnh hưởng đến cử tri và kết quả bầu cử, cũng như các hệ thống khuyến nghị được sử dụng bởi các nền tảng truyền thông xã hội với hơn 45 triệu người dùng, chẳng hạn như Facebook, Twitter và Instagram, cũng sẽ được đưa vào danh sách rủi ro cao theo quy định. Luật Dịch vụ Kỹ thuật số của EU. .
Ở dưới cùng của kim tự tháp là các hệ thống AI có rủi ro hạn chế, ít hoặc không có. Cái trước có nghĩa vụ minh bạch cụ thể và cần thông báo cho người dùng rằng họ đang tương tác với hệ thống AI, trong khi cái sau không có quy định bắt buộc và về cơ bản không được kiểm soát, chẳng hạn như các ứng dụng như bộ lọc thư rác.
Do các điều khoản quy định nghiêm ngặt của nó, "Đạo luật trí tuệ nhân tạo" được nhiều người trong ngành đánh giá là có nhiều "răng nhọn". Tuy nhiên, dự luật cũng cố gắng đạt được sự cân bằng giữa quy định chặt chẽ và đổi mới.
Ví dụ: dự thảo mới nhất yêu cầu các quốc gia thành viên thiết lập ít nhất một "hộp cát quy định" có thể được sử dụng miễn phí bởi các doanh nghiệp vừa và nhỏ và các công ty mới thành lập, trong một kịch bản được giám sát, an toàn và có thể kiểm soát được, để thử nghiệm nhân tạo đổi mới. hệ thống tình báo trước khi chúng được đưa vào sử dụng, cho đến khi các yêu cầu tuân thủ được đáp ứng. EU thường tin rằng đề xuất này sẽ không chỉ cho phép các cơ quan chức năng chú ý đến những thay đổi công nghệ trong thời gian thực mà còn giúp các công ty AI tiếp tục đổi mới đồng thời giảm áp lực pháp lý.
Jin Ling cho biết trong bài báo nói trên rằng một mặt, phương thức quản trị thượng nguồn của EU yêu cầu các công ty phải chịu nhiều chi phí trả trước hơn, mặt khác, sự không chắc chắn trong đánh giá rủi ro cũng ảnh hưởng đến sự nhiệt tình đầu tư của các công ty. Do đó, trong khi Ủy ban đã nhiều lần nhấn mạnh rằng pháp luật AI sẽ hỗ trợ đổi mới và tăng trưởng trong nền kinh tế kỹ thuật số châu Âu, phân tích kinh tế thực tế dường như không ủng hộ kết luận này. Dự luật phản ánh xung đột cố hữu của EU giữa việc thúc đẩy đổi mới và bảo vệ các quyền khó có thể cân bằng một cách hiệu quả.
Giống như Liên minh Châu Âu và Trung Quốc, Hoa Kỳ ủng hộ cách tiếp cận quản lý AI dựa trên rủi ro, ủng hộ tính chính xác, bảo mật và minh bạch. Tuy nhiên, theo quan điểm của Zhao Jingwu, tư duy quản lý của Hoa Kỳ tập trung hơn vào việc sử dụng AI để thúc đẩy sự đổi mới và phát triển của ngành AI, và cuối cùng là để duy trì vị trí lãnh đạo và khả năng cạnh tranh của Hoa Kỳ.
"Khác với khái niệm quy định 'ngăn ngừa rủi ro và an ninh công nghệ' do Trung Quốc và EU nắm giữ, Hoa Kỳ tập trung vào phát triển thương mại. Cả Trung Quốc và EU đều tập trung vào an ninh của các ứng dụng công nghệ trí tuệ nhân tạo để ngăn chặn việc lạm dụng công nghệ trí tuệ nhân tạo khỏi vi phạm quyền cá nhân, trong khi Hoa Kỳ tập trung vào Phát triển công nghiệp là trọng tâm của sự giám sát." Zhao Jingwu nói.
Các nghiên cứu đã phát hiện ra rằng luật pháp của Quốc hội Hoa Kỳ chủ yếu tập trung vào việc khuyến khích và hướng dẫn chính phủ sử dụng trí tuệ nhân tạo. Ví dụ: Thượng viện Hoa Kỳ đã đưa ra Đạo luật đổi mới trí tuệ nhân tạo vào năm 2021, yêu cầu Bộ Quốc phòng Hoa Kỳ triển khai một chương trình thử nghiệm để đảm bảo cơ quan này có quyền truy cập vào các khả năng phần mềm học máy và trí tuệ nhân tạo tốt nhất.
Trong bài phát biểu nói trên, Chuck Schumer coi đổi mới là Ngôi sao phương Bắc và khuôn khổ AI của ông là nhằm giải phóng tiềm năng to lớn của trí tuệ nhân tạo và hỗ trợ sự đổi mới do Hoa Kỳ dẫn đầu trong công nghệ trí tuệ nhân tạo. Khi bắt đầu "Hướng dẫn giám sát ứng dụng trí tuệ nhân tạo", rõ ràng cần tiếp tục thúc đẩy sự tiến bộ của công nghệ và đổi mới. Mục tiêu cuối cùng của Đạo luật Sáng kiến Trí tuệ Nhân tạo Quốc gia năm 2020 cũng là đảm bảo rằng Hoa Kỳ duy trì vị trí hàng đầu trong lĩnh vực công nghệ AI toàn cầu bằng cách tăng cường đầu tư nghiên cứu và thiết lập hệ thống lực lượng lao động.
Peng Xiaoyan cho biết, từ góc độ hướng dẫn thiết kế đặc điểm kỹ thuật, sự phát triển của trí tuệ nhân tạo ở Hoa Kỳ vẫn đang trong tình trạng giám sát yếu ở cấp lập pháp và thể chế, và xã hội tích cực khuyến khích đổi mới và mở rộng công nghệ trí tuệ nhân tạo với một thái độ cởi mở.
So với Liên minh Châu Âu, nơi có quyền điều tra rõ ràng hơn và phạm vi quản lý toàn diện, Hoa Kỳ đã áp dụng cách tiếp cận phi tập trung đối với quy định về AI, với một số tiểu bang và tổ chức thúc đẩy quản trị AI ở mức độ thấp hơn. Do đó, các sáng kiến quản lý AI quốc gia rất rộng rãi và có nguyên tắc.
Ví dụ: "Kế hoạch chi tiết" là một sự kiện quan trọng trong chính sách quản lý trí tuệ nhân tạo của Hoa Kỳ. Nó đã xây dựng 5 nguyên tắc cơ bản bao gồm hệ thống an toàn và hiệu quả, ngăn chặn phân biệt đối xử theo thuật toán, bảo vệ quyền riêng tư của dữ liệu, thông báo và giải thích cũng như sự tham gia của con người vào quyết định -làm.Không có quy định chi tiết hơn.
Peng Xiaoyan tin rằng "Kế hoạch chi tiết" không đưa ra các biện pháp thực hiện cụ thể mà xây dựng một khuôn khổ cơ bản để phát triển trí tuệ nhân tạo một cách có nguyên tắc, nhằm hướng dẫn việc thiết kế, sử dụng và triển khai các hệ thống trí tuệ nhân tạo.
"Các tiêu chuẩn như thế này không bắt buộc. Đó là bởi vì Hoa Kỳ cân nhắc việc hỗ trợ sự phát triển của ngành trí tuệ nhân tạo. Hiện tại, trí tuệ nhân tạo vẫn đang trong giai đoạn phát triển mới nổi và sự giám sát cường độ cao nhất định sẽ hạn chế sự phát triển của ngành và đổi mới ở một mức độ nhất định. Do đó, Hoa Kỳ duy trì thái độ tương đối khiêm tốn trong luật pháp", Peng Xiaoyan nói.
"Nếu luật không trao cho các cơ quan quyền hạn mới, họ chỉ có thể điều chỉnh việc sử dụng trí tuệ nhân tạo theo quyền hạn mà họ đã có. Mặt khác, các nguyên tắc đạo đức liên quan đến trí tuệ nhân tạo vẫn ít được quy định hơn và các cơ quan có thể tự quyết định cách điều chỉnh cho mình Theo nhà phân tích Hadrien Pouget của Carnegie, điều này khiến các cơ quan liên bang do Nhà Trắng lãnh đạo vừa bị hạn chế vừa được tự do.
Khái niệm quản trị AI bị chi phối bởi việc sử dụng và đổi mới được định sẵn sẽ không quá khó đối với "nắm đấm" của Hoa Kỳ. Alex Engler, một nhà nghiên cứu tại Viện Brookings, một tổ chức tư vấn nổi tiếng của Mỹ, đã chỉ ra rằng Liên minh Châu Âu và Hoa Kỳ đang áp dụng các cách tiếp cận pháp lý khác nhau đối với trí tuệ nhân tạo có tác động xã hội như giáo dục, tài chính và việc làm.
Về các ứng dụng AI cụ thể, "Đạo luật trí tuệ nhân tạo" của Liên minh châu Âu có các yêu cầu về tính minh bạch đối với rô bốt trò chuyện, trong khi không có quy định liên bang nào ở Hoa Kỳ. Nhận dạng khuôn mặt được Liên minh Châu Âu coi là "rủi ro không thể chấp nhận được" và Hoa Kỳ cung cấp thông tin công khai thông qua chương trình thử nghiệm nhà cung cấp dịch vụ nhận dạng khuôn mặt của Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST), nhưng không bắt buộc áp dụng các quy tắc.
"Phạm vi quản lý của EU không chỉ bao gồm phạm vi ứng dụng rộng hơn mà còn đặt ra nhiều quy tắc hơn cho các ứng dụng AI này. Trong khi cách tiếp cận của Hoa Kỳ bị giới hạn hẹp hơn trong việc điều chỉnh các cơ quan quản lý thể chế hiện tại để cố gắng quản lý AI, thì phạm vi của AI cũng rất lớn hạn chế hơn.” Alex Engler nói rằng có nhiều sự khác biệt hơn nhiều so với sự hội tụ trong quản lý rủi ro AI, mặc dù các nguyên tắc giống hệt nhau.
Zhao Jingwu đã tóm tắt các mô hình quản lý AI của Trung Quốc, Liên minh Châu Âu và Hoa Kỳ và nhận thấy rằng Trung Quốc bị giới hạn trong các kịch bản ứng dụng của công nghệ trí tuệ nhân tạo và đã xây dựng các quy tắc quản lý đặc biệt cho các kịch bản ứng dụng như công nghệ nhận dạng khuôn mặt , tổng hợp sâu và đề xuất tự động. EU được hướng dẫn bởi mức độ rủi ro, tùy thuộc vào việc mức độ rủi ro của các ứng dụng trí tuệ nhân tạo có phải là mức chấp nhận được hay không. Hoa Kỳ xét xử tính hợp pháp của việc ứng dụng công nghệ trí tuệ nhân tạo trong khuôn khổ hệ thống pháp luật truyền thống hiện hành.
Ngoài ra, Hoa Kỳ cũng tập trung nhiều hơn vào nghiên cứu trí tuệ nhân tạo và đầu tư nhiều kinh phí hơn cho nó. Mới đầu tháng 5, Nhà Trắng đã công bố khoản đầu tư khoảng 140 triệu đô la Mỹ để thành lập 7 viện nghiên cứu trí tuệ nhân tạo quốc gia mới. Một số nhà nghiên cứu cho rằng động thái này của Mỹ hy vọng sẽ hiểu rõ hơn về AI, từ đó giảm bớt những lo ngại phát sinh từ quy trình quản lý.
Peng Xiaoyan nói rằng đất nước tôi đã áp dụng các biện pháp khuyến khích phát triển công nghệ trí tuệ nhân tạo đồng thời điều tiết quản lý các lĩnh vực liên quan một cách hạn chế và hướng dẫn sự phát triển của công nghệ trí tuệ nhân tạo bằng các chính sách và yêu cầu quản lý phối hợp.
luật pháp của đất nước tôi phải đối mặt với nhiều vấn đề thực tế
Zhao Jingwu nói với China News Weekly rằng các biện pháp quản lý trí tuệ nhân tạo "hệ thống mức độ rủi ro" của Liên minh châu Âu, khái niệm quy định "mô hình chung" được đề xuất trong "Đạo luật Trí tuệ nhân tạo" và các quy định cụ thể cho ChatGPT Nghĩa vụ tiết lộ và nghĩa vụ tuân thủ bản quyền dữ liệu của các ứng dụng trí tuệ nhân tạo tổng quát có giá trị tham khảo đối với luật trí tuệ nhân tạo của quốc gia tôi.
Trên thực tế, luật pháp về trí tuệ nhân tạo của đất nước tôi đã bắt đầu, vào năm 2017, Quốc vụ viện đã ban hành "Kế hoạch phát triển trí tuệ nhân tạo thế hệ mới", trong đó đề xuất rằng đến năm 2025, các luật và quy định, chuẩn mực đạo đức và hệ thống chính sách về trí tuệ nhân tạo phải được thông qua. ban đầu được thiết lập, và các chính sách và đánh giá an ninh trí tuệ nhân tạo nên được hình thành.
Tại địa phương, vào năm 2022, thành phố Thâm Quyến đã ban hành "Quy định thúc đẩy ngành công nghiệp trí tuệ nhân tạo của Đặc khu kinh tế Thâm Quyến", đây được coi là luật đặc biệt đầu tiên của đất nước tôi đối với ngành trí tuệ nhân tạo. "Quy định" đề cập rằng cơ chế giám sát trong lĩnh vực trí tuệ nhân tạo cần được cải thiện để ngăn chặn các rủi ro an ninh đạo đức và rủi ro tuân thủ có thể phát sinh trong các sản phẩm và dịch vụ trí tuệ nhân tạo.
Hiện tại, quy định về trí tuệ nhân tạo của đất nước tôi chủ yếu được thúc đẩy bởi một số bộ và ủy ban lớn, nhằm thúc đẩy quy định và phát triển trí tuệ nhân tạo trong các lĩnh vực khác nhau. Các tài liệu quy phạm như "Quy định về Quản lý Đề xuất thuật toán cho Dịch vụ Thông tin Internet", "Quy định về Quản lý Tổng hợp sâu các Dịch vụ Thông tin Internet" và "Các biện pháp quản lý đối với Dịch vụ trí tuệ nhân tạo sáng tạo (Dự thảo để lấy ý kiến)" cũng đã đã được cấp.
"Từ góc độ định mức quản lý lịch sử, các quy định của nước tôi về lĩnh vực trí tuệ nhân tạo áp dụng các biện pháp để phân biệt lĩnh vực kinh doanh và định hướng kỹ thuật, và các định mức quản lý có xu hướng phân cấp. Khi các định mức được đưa ra, chúng thường có đặc điểm là kịp thời "Sau khi các công nghệ cụ thể xuất hiện. Đưa ra các quy định quản lý đặc biệt. Các quy định do cơ quan hành chính ban hành, tập trung vào giám sát và chưa được nâng cấp thành luật ở cấp độ quy định". Peng Xiaoyan nói.
Điều đáng chú ý là vào ngày 20 tháng 6, đợt đầu tiên của danh sách hồ sơ thuật toán dịch vụ tổng hợp chuyên sâu trong nước đã được công bố, 26 công ty bao gồm Baidu, Alibaba, Tencent, ByteDance và Meituan, và tổng cộng 41 thuật toán đã có trong danh sách.
Khi sức nóng của pháp luật AI nóng lên, các chuyên gia trong nước đã bắt đầu kêu gọi sự phát triển nhanh chóng của các quy định pháp lý về trí tuệ nhân tạo. Tuy nhiên, theo quan điểm của Zhao Jingwu, luật đặc biệt về trí tuệ nhân tạo của đất nước tôi là khả thi, nhưng nó cũng gặp phải nhiều vấn đề thực tế.
"Thứ nhất là vấn đề về tính liên thông hệ thống giữa các văn bản quy phạm pháp luật. Mối quan hệ áp dụng giữa luật đặc thù về trí tuệ nhân tạo với các văn bản quy phạm khác chưa được giải quyết, nhất là nội dung chồng chéo của luật đặc khu và luật hiện hành cần phải khẩn trương giải quyết. Thứ hai là công nghệ trí tuệ nhân tạo, tốc độ cập nhật và lặp lại ngày càng nhanh, khó đảm bảo sự phát triển đồng thời của pháp luật và công nghệ, thứ ba, các quy định pháp lý về trí tuệ nhân tạo thiếu tính toàn vẹn, các quy định pháp lý đối với ba yếu tố cốt lõi của dữ liệu, thuật toán và sức mạnh tính toán vẫn đang trong giai đoạn khám phá; thứ tư, pháp luật về trí tuệ nhân tạo Việc nên tập trung vào quản lý rủi ro bảo mật hay phát triển công nghiệp còn gây tranh cãi hơn," Zhao Jingwu nói.
Cho dù đó là "Đạo luật Trí tuệ Nhân tạo" của Liên minh Châu Âu hay các quy định, sáng kiến và kế hoạch về AI của Trung Quốc, Hoa Kỳ và các quốc gia khác, họ đang cố gắng xây dựng một khung pháp lý toàn diện không chỉ đảm bảo an toàn mà còn tạo ra điều kiện tốt hơn cho AI.
Dựa trên nguyên tắc phổ quát này, Peng Xiaoyan nói với China News Weekly rằng việc thiết lập luật trí tuệ nhân tạo ở nước tôi trước tiên phải dựa trên việc tích cực khuyến khích phát triển và đổi mới, để trí tuệ nhân tạo có thể được điều chỉnh và phát triển trong một không gian tương đối mở. vạch kẻ màu đỏ.
“Ngoài ra, các vấn đề pháp lý trong lĩnh vực trí tuệ nhân tạo mà mọi người đang quan tâm hiện nay cần được giải quyết, bao gồm nhưng không giới hạn ở việc cấm nội dung bất hợp pháp trong trí tuệ nhân tạo, bảo mật dữ liệu trí tuệ nhân tạo, bảo vệ trí tuệ nhân tạo đạo đức và an ninh, ngăn chặn vi phạm sở hữu trí tuệ, v.v." Peng Xiaoyan nói.
Zhao Jingwu tin rằng đất nước của tôi nên thiết lập luật trí tuệ nhân tạo nhằm bảo vệ sự phát triển công nghiệp.
"Ở một mức độ nào đó, pháp luật hiện hành về cơ bản có thể đáp ứng nhu cầu giám sát ứng dụng công nghệ trí tuệ nhân tạo. Phòng ngừa rủi ro công nghệ, đảm bảo an ninh công nghệ chỉ là quá trình quản trị, mục tiêu cuối cùng vẫn cần là trở lại trình độ phát triển của trí tuệ nhân tạo ngành. Xét cho cùng, luật trí tuệ nhân tạo không hạn chế sự phát triển của các ngành, mà là định hướng và đảm bảo sự phát triển lành mạnh của các ngành liên quan." Zhao Jingwu nói.