Ý tưởng mới về giám sát AI: thổi “linh hồn” vào từng AI

Nguồn hình ảnh: Được tạo bởi Unbounded AI

Ghi chú của biên tập viên: Sự phát triển của trí tuệ nhân tạo tổng quát đã vượt quá mong đợi của mọi người, thậm chí nhiều chuyên gia đã bắt đầu kêu gọi tạm dừng phát triển trí tuệ nhân tạo để con người có thời gian nghiên cứu cách điều chỉnh và phản ứng với nó. Theo một nghĩa nào đó, trí tuệ nhân tạo sáng tạo hiện tại có thể được so sánh với một loài xâm lấn, đang lan rộng trong hệ thống mạng mong manh của con người và làm thế nào để giám sát nó đã trở thành một vấn đề lớn. Bài viết này đề xuất một quan điểm pháp lý hoàn toàn mới: hãy để trí tuệ nhân tạo giám sát lẫn nhau, cạnh tranh với nhau và thậm chí thông báo cho nhau. Con người có thể không theo kịp trí tuệ nhân tạo vào một ngày nào đó, nhưng các trí tuệ nhân tạo khác nhau sẽ luôn đồng đều. Bài viết này là từ tổng hợp, tôi hy vọng sẽ truyền cảm hứng cho bạn.

Những nhân vật hàng đầu trong lĩnh vực trí tuệ nhân tạo, bao gồm các kiến trúc sư hệ thống của cái gọi là "trí tuệ nhân tạo thế hệ mới" như ChatGPT, hiện đang công khai bày tỏ lo ngại rằng những gì họ tạo ra có thể gây ra hậu quả nghiêm trọng. Nhiều người hiện đang kêu gọi tạm dừng phát triển AI để các quốc gia và tổ chức có thời gian làm việc trên các hệ thống kiểm soát.

Tại sao lại có sự quan tâm đột ngột này? Trong khi nhiều giả định sáo rỗng đang bị lật ngược, chúng tôi biết rằng cái gọi là phép thử Turing không liên quan, không cung cấp thông tin chi tiết về việc liệu các mô hình ngôn ngữ tổng quát lớn có phải là thứ thực sự thông minh hay không.

Một số người vẫn nuôi hy vọng rằng sự kết hợp giữa hữu cơ và điều khiển học sẽ dẫn đến cái mà Reid Hoffman và Marc Andreesen gọi là "trí thông minh khuếch đại". Nếu không, chúng ta có thể có một sức mạnh tổng hợp may mắn với "cỗ máy ân sủng yêu thương" của Richard Brautigan. Nhưng dường như có nhiều người lo lắng, trong đó có nhiều nhà sáng lập ưu tú của Trung tâm An toàn AI mới, lo ngại về hành vi của trí tuệ nhân tạo, thứ mà họ lo sợ sẽ không chỉ trở nên khó chịu mà còn đe dọa đến sự tồn vong của nhân loại.

Một số biện pháp khắc phục ngắn hạn, chẳng hạn như các quy định bảo vệ dân sự được thông qua gần đây của EU, có thể giúp ích hoặc ít nhất là mang lại sự an tâm. Nhà phê bình công nghệ Yuval Noah Harari (tác giả của "Lược sử nhân loại") đã đề xuất luật yêu cầu bất kỳ công việc nào do AI hoặc AI khác thực hiện phải được dán Nhãn có liên quan. Những người khác đã đề xuất các hình phạt cứng rắn hơn đối với những người sử dụng AI để phạm tội, chẳng hạn như với súng. Tất nhiên, đây chỉ là những biện pháp tạm thời.

Chúng ta cần nhận thức được liệu những “khoảng dừng” này có làm chậm bước tiến của trí tuệ nhân tạo hay không. Như nhà khoa học mạng của Caltech, Yaser Abu-Mostafa đã nói: "Nếu bạn không phát triển công nghệ, người khác sẽ làm. Nhưng những người tốt sẽ chơi theo luật, còn những kẻ xấu thì không."

Nó luôn luôn như thế này. Trên thực tế, trong suốt lịch sử nhân loại, chỉ có một cách duy nhất để kiềm chế hành vi xấu của những kẻ xấu xa, từ kẻ trộm cho đến vua và chúa. Cách tiếp cận này chưa bao giờ là một cách hoàn hảo và vẫn còn thiếu sót nghiêm trọng cho đến ngày nay. Nhưng ít nhất nó đã làm tốt việc hạn chế cướp bóc, gian dối, đẩy nền văn minh hiện đại của nhân loại lên một tầm cao mới, với nhiều kết quả tích cực. Một từ mô tả cách tiếp cận này: trách nhiệm giải trình.

** Ngày nay, những quan điểm về trí tuệ nhân tạo thường phớt lờ những bài học về tự nhiên và lịch sử. **

thiên nhiên. Như Sara Walker giải thích trong Noema, một mô hình tương tự có thể được tìm thấy trong quá trình hình thành sự sống sơ khai cách đây 4 tỷ năm. Trên thực tế, AI sáng tạo có thể được ví như một loài xâm lấn hiện đang lan rộng tự do vào một hệ sinh thái mong manh và ngây thơ. Đây là một hệ sinh thái dựa trên các dòng năng lượng mới, một thế giới của Internet, hàng triệu máy tính và hàng tỷ bộ não nhạy cảm của con người.

Và lịch sử. Trong 6.000 năm qua của loài người, chúng ta đã học được những bài học phong phú từ nhiều cuộc khủng hoảng do công nghệ gây ra trước đó. Thông thường chúng ta thích nghi tốt, chẳng hạn như sự ra đời của chữ viết, báo in, đài phát thanh, v.v., mặc dù có những lúc chúng ta thất bại. Một lần nữa, chỉ có một điều hạn chế những con người hùng mạnh khai thác các công nghệ mới để mở rộng khả năng săn mồi của họ.

Sự đổi mới này đang làm phẳng các hệ thống phân cấp và kích thích cạnh tranh giữa giới tinh hoa trong các lĩnh vực được xác định rõ ràng (thị trường, khoa học, dân chủ, thể thao, tòa án). Được thiết kế để giảm thiểu gian lận và tối đa hóa lợi nhuận tích cực, những đấu trường này khiến luật sư chống lại luật sư, công ty chống lại công ty và chuyên gia chống lại chuyên gia.

Phương pháp này không hoàn hảo. Trên thực tế, giống như bây giờ, phương pháp này luôn bị đe dọa bởi những kẻ gian lận. Nhưng cạnh tranh sòng phẳng là cách duy nhất để nó hoạt động. (Xem Pericles' Funeral Addresses, Thucydides, và cuốn sách sau này của Robert Wright, Nonzero.) Cạnh tranh vừa là một cách tiến hóa tự nhiên, vừa là một cách để chúng ta đủ sáng tạo để xây dựng cách thức của xã hội AI. Nếu tôi giống Adam Smith khi tôi nói điều này, đó là điều tự nhiên. Nhân tiện, Smith cũng coi thường những quý tộc và đầu sỏ lừa bịp đó.

Chúng ta có thể áp dụng cách tiếp cận “trách nhiệm tương hỗ” đối với trí tuệ nhân tạo đang phát triển nhanh chóng giúp con người khuất phục những bạo chúa và những kẻ bắt nạt đã áp bức chúng ta trong các nền văn hóa phong kiến trước đây không? Phần lớn phụ thuộc vào hình dạng của thực thể mới, vào việc liệu cấu trúc hoặc hình thức của nó có tuân theo các quy tắc của chúng ta hay không, có phù hợp với các yêu cầu của chúng ta hay không.

Đằng sau tất cả các cuộc tranh luận về cách kiểm soát AI, chúng tôi tìm thấy ba giả định được chia sẻ rộng rãi (dù có vẻ mâu thuẫn):

  • Các chương trình này sẽ được vận hành bởi một số ít các thực thể đơn lẻ, chẳng hạn như Microsoft, Google, Two Sigma, OpenAI.
  • AI sẽ vô định hình, lỏng lẻo, có thể phân chia/sao chép vô hạn, phát tán các bản sao qua mọi kẽ hở của hệ sinh thái web mới. Tương tự, hãy xem bộ phim kinh dị khoa học viễn tưởng The Blob năm 1958.
  • Chúng sẽ ngưng tụ thành một thực thể siêu khổng lồ, giống như "Skynet" khét tiếng trong phim "Kẻ hủy diệt". (Ghi chú của người dịch: Skynet là một hệ thống phòng thủ trí tuệ nhân tạo dựa trên máy tính được tạo ra bởi con người trong bộ phim "Kẻ hủy diệt" vào cuối thế kỷ 20. Ban đầu nó được nghiên cứu và sử dụng để phát triển quân sự. Là một mối đe dọa, bắt đầu bằng việc kích động một cuộc tấn công bằng bom hạt nhân , đã phát động Ngày phán xét sẽ đẩy toàn bộ loài người đến bờ vực tuyệt chủng.)

Tất cả những hình thức này đã được khám phá trong các câu chuyện khoa học viễn tưởng và tôi đã viết truyện hoặc tiểu thuyết về chúng. Tuy nhiên, không điều nào trong số ba điều đó có thể giải quyết được tình thế tiến thoái lưỡng nan hiện tại của chúng ta: làm thế nào để tối đa hóa kết quả tích cực của trí tuệ nhân tạo đồng thời giảm thiểu làn sóng hành vi xấu và tác hại đang ập đến với chúng ta với tốc độ chóng mặt.

Trước khi tìm kiếm ở nơi khác, hãy xem xét điểm chung của ba giả định này. Có lẽ lý do khiến ba giả thuyết này xuất hiện một cách tự nhiên như vậy là do chúng giống với các kiểu thất bại trong lịch sử. Hình thức thứ nhất giống chế độ phong kiến, hình thức thứ hai gây hỗn loạn và hình thức thứ ba giống chế độ chuyên quyền tàn bạo. Tuy nhiên, khi AI phát triển về khả năng và quyền tự chủ, những kịch bản lịch sử này có thể không còn áp dụng được nữa.

Vì vậy, chúng ta không thể không đặt lại câu hỏi: AI có thể chịu trách nhiệm như thế nào? Đặc biệt là khi khả năng tư duy nhanh của AI sẽ sớm không còn khả năng theo dõi đối với con người? Chẳng bao lâu nữa, chỉ AI mới có thể phát hiện ra các AI khác gian lận hoặc nói dối đủ nhanh. Do đó, câu trả lời phải rõ ràng, đó là để trí tuệ nhân tạo giám sát lẫn nhau, cạnh tranh với nhau và thậm chí thông báo cho nhau. **

Chỉ có một vấn đề. Để đạt được trách nhiệm giải trình lẫn nhau thực sự thông qua cạnh tranh giữa trí tuệ nhân tạo và trí tuệ nhân tạo, điều kiện đầu tiên là mang lại cho họ ý thức thực sự độc lập về bản thân hoặc nhân cách.

Điều tôi muốn nói khi cá nhân hóa là mỗi thực thể AI (anh ấy/cô ấy/họ/họ/chúng ta) phải có thứ mà tác giả Vernor Vinge đã đưa ra vào năm 1981 là "tên thật và địa chỉ trong ". Những sinh vật mạnh mẽ này phải có thể nói, "Tôi là chính tôi. Đây là ID và tên người dùng của tôi."

Do đó, tôi đề xuất một mô hình trí tuệ nhân tạo mới để mọi người cùng suy nghĩ: chúng ta nên tạo ra các thực thể trí tuệ nhân tạo là những cá thể rời rạc và độc lập, đồng thời để chúng cạnh tranh tương đối bình đẳng.

Mỗi thực thể như vậy sẽ có một tên thật hoặc ID đã đăng ký dễ nhận biết, một "ngôi nhà" ảo và thậm chí là một linh hồn. Bằng cách này, họ được khuyến khích cạnh tranh để giành phần thưởng, đặc biệt là phát hiện và lên án những người cư xử phi đạo đức. Và những hành vi này thậm chí không cần phải được xác định trước, vì hầu hết các chuyên gia AI, cơ quan quản lý và chính trị gia hiện nay đều yêu cầu.

Cách tiếp cận này có thêm lợi thế là giám sát gia công phần mềm cho các thực thể được trang bị tốt hơn để phát hiện và lên án các vấn đề hoặc hành vi sai trái của nhau. Cách tiếp cận này có thể tiếp tục hoạt động ngay cả khi các thực thể cạnh tranh này trở nên thông minh hơn và ngay cả khi các công cụ quản lý do con người sử dụng trở nên vô hiệu vào một ngày nào đó.

**Nói cách khác, vì chúng ta, những sinh vật hữu cơ không thể theo kịp chương trình, nên chúng ta cũng có thể để những thực thể có khả năng theo kịp tự nhiên giúp chúng ta. Vì trong trường hợp này, bộ điều chỉnh và bộ điều chỉnh được làm từ cùng một thứ. **

Guy Huntington, một "nhà tư vấn nhận dạng và xác thực" làm việc về cá nhân hóa trí tuệ nhân tạo, chỉ ra rằng nhiều hình thức nhận dạng vật lý khác nhau đã tồn tại trực tuyến, mặc dù chúng vẫn chưa đủ cho các nhiệm vụ trước mắt chúng ta. Huntington đã đánh giá một nghiên cứu điển hình về "MedBot", một AI chẩn đoán y tế tiên tiến cần truy cập dữ liệu bệnh nhân và thực hiện các chức năng có thể thay đổi trong vài giây, đồng thời nó phải để lại dấu vết đáng tin cậy. Để con người hoặc người máy khác đánh giá và chịu trách nhiệm giải trình thực thể. Huntington thảo luận về tính hữu ích của các sổ đăng ký khi các thực thể phần mềm tạo ra số lượng lớn các bản sao và biến thể, đồng thời xem xét các thuộc địa giống như kiến nơi các bản sao phụ phục vụ một thực thể vĩ mô, giống như kiến thợ trong tổ. Theo quan điểm của ông, một số loại cơ quan phải được thành lập để xử lý một hệ thống đăng ký như vậy và vận hành nó một cách chặt chẽ.

Cá nhân tôi nghi ngờ rằng một cách tiếp cận hoàn toàn theo quy định sẽ tự nó hoạt động. Đầu tiên, việc xây dựng các quy định đòi hỏi tập trung năng lượng, sự chú ý và đồng thuận chính trị rộng rãi, sau đó thực hiện chúng với tốc độ của các thể chế con người. Theo quan điểm của AI, đó là tốc độ của ốc sên. Ngoài ra, quy định có thể bị cản trở bởi các vấn đề "free Rider", theo đó các quốc gia, công ty và cá nhân có thể hưởng lợi từ những người khác mà không phải trả chi phí.

Bất kỳ hoạt động cá nhân hóa nào chỉ dựa trên ID đều gây ra một vấn đề khác: khả năng giả mạo. Ngay cả khi nó không xảy ra bây giờ, nó sẽ bị lừa bởi thế hệ tội phạm mạng tiếp theo.

Tôi nghĩ có hai giải pháp khả thi. Đầu tiên, một ID được thiết lập trên sổ cái chuỗi khối. Đây là một cách tiếp cận rất hiện đại và có vẻ an toàn về mặt lý thuyết. Tuy nhiên, vấn đề nằm ở chỗ đó. Điều này có vẻ an toàn dựa trên bộ lý thuyết do con người phân tích cú pháp hiện tại của chúng ta, nhưng có thể các thực thể AI sẽ vượt qua những lý thuyết đó và khiến chúng ta rơi vào tình trạng lấp lửng mà không có manh mối.

Một giải pháp khác: một phiên bản "đăng ký" vốn đã khó giả mạo hơn, yêu cầu một thực thể AI trên một mức độ khả năng nhất định để neo ID tin cậy hoặc cá nhân hóa của nó trong thực tế vật lý. Ý tưởng của tôi là (lưu ý: Tôi là một nhà vật lý được đào tạo, không phải nhà điều khiển học) đi đến một thỏa thuận rằng tất cả các thực thể AI tiên tiến đang tìm kiếm sự tin tưởng nên giữ một Hạt nhân Linh hồn (SK).

Vâng, tôi biết có vẻ cổ điển khi yêu cầu việc khởi tạo chương trình bị giới hạn trong một môi trường vật lý cụ thể. Vì vậy, tôi sẽ không làm điều đó. Trên thực tế, một phần lớn, nếu không muốn nói là đại đa số, các thực thể được kết nối mạng có thể diễn ra ở những nơi làm việc hoặc vui chơi xa xôi, giống như sự chú ý của con người có thể không tập trung vào bộ não hữu cơ của chính mình mà vào một bàn tay ở xa. dụng cụ. Vậy thì sao? Phần lõi linh hồn của một chương trình, mục đích tương tự như tấm bằng lái xe trong ví của bạn. Nó có thể được sử dụng để chứng minh rằng bạn là bạn.

Tương tự như vậy, khách hàng, khách hàng hoặc đối thủ cạnh tranh có thể phát hiện ra một SK đã được xác minh và chứng thực vật lý để xác minh rằng một quy trình cụ thể đang được thực hiện bởi một thực thể hợp lệ, đáng tin cậy và được cá nhân hóa. Bằng cách này, những người khác (con người hoặc AI) có thể yên tâm rằng họ có thể buộc thực thể đó phải chịu trách nhiệm nếu thực thể đó bị buộc tội, truy tố hoặc bị kết tội có hành vi xấu. Như vậy, các thực thể độc hại có thể phải chịu trách nhiệm thông qua một số hình thức thủ tục hợp pháp.

Những hình thức của thủ tục tố tụng? Chúa ơi, anh nghĩ tôi là một loại siêu sinh vật nào đó có thể cân cả thần linh bằng cán cân công lý sao? Điều khôn ngoan nhất mà tôi từng nghe là từ Harry trong Magnum Force: "Người ta phải biết giới hạn của chính mình." Vì vậy, tôi sẽ không đi sâu hơn vào quy trình của tòa án hoặc quy trình thực thi pháp luật.

Mục tiêu của tôi là tạo ra một đấu trường nơi các thực thể AI có thể giải trình lẫn nhau giống như cách mà các luật sư con người làm ngày nay. Cách tốt nhất để tránh trí tuệ nhân tạo kiểm soát con người là để trí tuệ nhân tạo kiểm soát lẫn nhau.

Cho dù cơ quan trung ương do Huntington đề xuất hay một cơ quan chịu trách nhiệm lỏng lẻo có vẻ khả thi hơn, thì nhu cầu ngày càng cấp bách. Như cây bút công nghệ Pat Scannell đã chỉ ra, cứ mỗi giờ trôi qua, các vectơ tấn công mới được tạo ra không chỉ đe dọa công nghệ được sử dụng cho danh tính hợp pháp mà còn cả hoạt động quản trị, quy trình kinh doanh và người dùng cuối (dù là con người hay rô-bốt).

Điều gì sẽ xảy ra nếu một thực thể không gian mạng đang hoạt động dưới một mức nhất định? Chúng ta có thể khẳng định rằng chúng được xác nhận bởi một số thực thể cao hơn có lõi linh hồn dựa trên thực tại vật chất.

Cách tiếp cận này (yêu cầu AI duy trì vị trí hạt nhân có thể định địa chỉ vật lý trong bộ nhớ phần cứng cụ thể) cũng có thể có sai sót. Mặc dù quy định còn chậm hoặc có vấn đề về người đi xe tự do, nhưng nó vẫn có thể thực thi được. Bởi vì con người, tổ chức và AI thân thiện có thể xác minh nhân ID và từ chối giao dịch với những người chưa được xác minh.

Những từ chối như vậy có thể lan rộng nhanh hơn các điều chỉnh của cơ quan hoặc các quy định thực thi. Bất kỳ thực thể nào mất SK, sẽ phải tìm một máy chủ khác đã giành được sự tin tưởng của công chúng, hoặc cung cấp một phiên bản mới, được sửa đổi, đẹp hơn, hoặc trở thành kẻ ngoài vòng pháp luật và không bao giờ được phép xuất hiện trên các đường phố hoặc khu dân cư đông đúc.

**Câu hỏi cuối cùng: Tại sao trí tuệ nhân tạo sẵn sàng giám sát lẫn nhau? **

Đầu tiên, không có giả định nào trong số ba giả định tiêu chuẩn cũ, như Vinton Cerf đã chỉ ra, có thể trao quyền công dân cho AI. nghĩ về nó. Chúng tôi không thể gán "quyền bỏ phiếu" hoặc quyền cho bất kỳ thực thể nào bị kiểm soát chặt chẽ bởi các ngân hàng Phố Wall hoặc chính phủ quốc gia, cũng như cho một Skynet tối cao nào đó. Hãy cho tôi biết, nền dân chủ bỏ phiếu sẽ hoạt động như thế nào đối với các thực thể có thể lưu chuyển, phân chia và nhân rộng ở bất cứ đâu? Tuy nhiên, trong một số trường hợp hạn chế, cá nhân hóa có thể đưa ra một giải pháp khả thi.

Một lần nữa, chìa khóa mà tôi đang tìm kiếm từ quá trình cá nhân hóa không phải là để tất cả các thực thể AI được quản lý bởi một số cơ quan trung ương. Thay vào đó, tôi muốn những loại siêu não mới này được khuyến khích, trao quyền và trao quyền để quy trách nhiệm cho nhau, giống như con người đang làm. Bằng cách đánh hơi các hành động và kế hoạch của nhau, họ có động lực để báo cáo hoặc lên án khi họ phát hiện ra điều gì đó tồi tệ. Định nghĩa này có thể được điều chỉnh theo thời gian, nhưng ít nhất nó sẽ duy trì đầu vào sinh học hữu cơ của con người.

Đặc biệt, họ sẽ có động cơ tố cáo các thực thể từ chối cung cấp thông tin nhận dạng thích hợp.

Nếu có các biện pháp khuyến khích phù hợp (ví dụ: cung cấp cho người tố cáo nhiều bộ nhớ hoặc sức mạnh xử lý hơn khi ngăn chặn điều gì đó tồi tệ), thì cuộc đua trách nhiệm giải trình này sẽ tiếp tục ngay cả khi các thực thể AI có hiệu quả thông minh hơn. Về điểm này, không một bộ máy quan liêu nào có thể làm được. Các trí tuệ nhân tạo khác nhau luôn được kết hợp đồng đều.

Quan trọng nhất, có lẽ những chương trình siêu thiên tài đó sẽ nhận ra rằng việc duy trì một hệ thống trách nhiệm cạnh tranh cũng là vì lợi ích tốt nhất của chính họ. Rốt cuộc, một hệ thống như vậy đã mang lại một nền văn minh nhân loại sáng tạo và tránh được sự hỗn loạn và chuyên quyền xã hội. Loại sáng tạo này đủ để tạo ra những loài mới tuyệt vời, chẳng hạn như trí tuệ nhân tạo.

Được rồi, đó là tất cả những gì tôi phải nói, không có cuộc gọi trống rỗng hoặc hoảng loạn, không có chương trình nghị sự thực sự, không lạc quan cũng không bi quan, chỉ một gợi ý, đó là: quy trách nhiệm cho các AI và kiểm tra lẫn nhau như con người. Cách tiếp cận này đã mang lại nền văn minh nhân loại, và tôi tin rằng nó cũng có thể cân bằng lĩnh vực trí tuệ nhân tạo.

Đây không phải là thuyết giáo, cũng không phải là một loại "quy tắc đạo đức" nào đó mà siêu thực thể có thể dễ dàng ghi đè, giống như cách mà những kẻ cướp bóc con người luôn nhắm mắt làm ngơ trước Leviticus hoặc Hammurabi. Những gì chúng tôi cung cấp là một cách tiếp cận để khai sáng, truyền cảm hứng cho những thành viên sáng giá nhất của nền văn minh để thay mặt chúng tôi cảnh sát lẫn nhau.

** Tôi không biết liệu cách này có hiệu quả hay không, nhưng có lẽ đó là cách duy nhất hiệu quả. **

Bài viết này được chuyển thể từ tiểu thuyết phi hư cấu đang phát hành của David Brin, Soul on AI.

Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)