一|| **Alat AI telah meningkatkan produktivitas orang secara besar-besaran dan membawa kenyamanan besar bagi kehidupan orang-orang. Namun, ketika AI digunakan oleh orang-orang dalam skala besar, banyak masalah juga muncul. Di antara masalah-masalah tersebut, yang paling kritis mungkin adalah lima “kerugian”, yaitu pengangguran, distorsi, diskualifikasi, kegagalan dan kehilangan kendali. **
二|| **Setelah 2017, dengan pesatnya perkembangan teknologi AI, penelitian tentang teknologi AI tepercaya juga berkembang pesat. Di bidang akademik, jumlah makalah tentang topik AI tepercaya semakin meningkat, dan penelitian tentang teknologi yang memenuhi persyaratan AI tepercaya semakin dalam. Di lapangan praktik, semakin banyak negara yang mulai melibatkan regulasi AI sesuai dengan standar AI terpercaya. **
**三|| Mewujudkan AI yang terpercaya bukanlah tugas yang mudah, diperlukan koordinasi antara pemerintah, perusahaan, masyarakat, dan teknologi untuk mewujudkannya. **
Sumber gambar: Dihasilkan oleh AI Tak Terbatas
Pada tanggal 22 Juni waktu setempat, Pengadilan Distrik Selatan New York mengeluarkan putusan: Firma Hukum Levidow, Levidow & Oberman didenda $5.000 karena memberikan informasi palsu kepada pengadilan atas perilaku buruk. Penyebab yang dikhawatirkan dalam kasus ini, pemberian informasi palsu bukan karena pengacara sengaja melanggar hukum untuk kepentingan pribadi, tetapi karena terlalu percaya pada kemampuan AI.
Pada bulan Maret tahun ini, pengacara Peter LoDuca dan Steven Schwartz dari firma tersebut ditugaskan oleh klien Roberto Mata untuk memikul tanggung jawab atas dirinya dan Gugatan antara Avianca Airlines. Karena Amerika Serikat adalah negara hukum kasus, hakim sangat memperhatikan preseden yang ada saat membuat keputusan, oleh karena itu, menurut praktik yang biasa, mereka perlu memilah dan meringkas kasus yang ada dalam dokumen penyusunan. Kasus-kasus yang relevan seringkali membuat kewalahan, dan biasanya butuh waktu lama untuk menyelesaikannya dengan tenaga kerja. Saat ini, ChatGPT menjadi populer di seluruh Internet. Oleh karena itu, kedua pengacara tersebut memutuskan untuk menggunakan ChatGPT untuk membantu mereka menyelesaikan tugas tersebut. ChatGPT dengan cepat membuat dokumen lengkap, yang tidak hanya memiliki format yang rapi dan argumentasi yang ketat, tetapi juga secara khusus menambahkan banyak kasus yang relevan. Setelah sedikit memodifikasi dokumen yang dibuat oleh AI, mereka menyerahkannya ke pengadilan.
Setelah membaca dokumen yang diserahkan, hakim yang mengadili kasus tersebut, Kevin Castel, sangat bingung dengan beberapa kasus yang disebutkan di dalamnya, kesannya, dia sepertinya belum pernah mendengar kasus tersebut. Setelah beberapa pencarian, dia akhirnya memastikan bahwa kasus ini tidak ada sama sekali. Saat diwawancarai, kedua pengacara tersebut berdalih bahwa mereka hanya menggunakan AI untuk membantu penulisan dokumen. Ketika mereka melihat kasus yang dikutip dalam dokumen, mereka hanya merasa bahwa AI membantu mereka menemukan kasus yang tidak mereka ketahui, dan mereka tidak sengaja mengarang kasus. untuk menipu pengadilan. , adalah kerugian yang tidak disengaja. Meskipun demikian, Hakim Custer menemukan bahwa para pengacara telah "meninggalkan tanggung jawab mereka" dan bahwa mereka "terus mempertahankan pendapat yang salah" setelah dokumennya digugat. Berdasarkan putusan di atas, Hakim Custer membuat keputusan hukuman.
Insiden pengacara yang didenda karena mengutip informasi palsu yang diberikan oleh ChatGPT tampaknya tidak masuk akal, tetapi ini mencerminkan pertanyaan yang sangat penting-bagaimana kita bisa mempercayai AI di era kegilaan AI?
Lima "kerugian" di era AI
Dalam beberapa tahun terakhir, dengan terobosan dalam daya komputasi dan teknologi algoritme, teknologi AI telah mencapai perkembangan pesat, dan dengan cepat memasuki kehidupan sehari-hari manusia dari fiksi ilmiah. Apalagi setelah kemunculan ChatGPT pada November tahun lalu, AI generatif telah menunjukkan kekuatannya yang dahsyat kepada manusia, dan berbagai model besar bermunculan seperti jamur setelah hujan, dan telah mencapai komersialisasi skala besar. Kini masyarakat sudah bisa menggunakan produk AI seperti ChatGPT, Stable Diffusion, dan Midjourney dengan biaya yang sangat murah.
Alat AI telah sangat meningkatkan produktivitas orang dan membawa kenyamanan besar bagi kehidupan orang. Namun, ketika AI digunakan oleh orang-orang dalam skala besar, banyak masalah juga muncul. Di antara masalah-masalah tersebut, yang paling kritis mungkin adalah lima “kerugian”, yaitu pengangguran, distorsi, diskualifikasi, kegagalan dan kehilangan kendali.
(1) Pengangguran
Apa yang disebut "pengangguran", seperti namanya, mengacu pada masalah pengangguran teknis yang ditimbulkan oleh AI. Karena efisiensi produksi AI jauh lebih tinggi daripada manusia, banyak pekerjaan manusia yang berisiko tergantikan setelah alat AI digunakan secara luas. Terutama setelah munculnya AI generatif, kelompok sasaran yang digantikan oleh AI tidak lagi terbatas pada pekerja yang terlibat dalam pekerjaan berulang berpenghasilan rendah, dan banyak pekerja kerah putih bergaji tinggi juga menghadapi risiko digantikan oleh AI.
(2) Distorsi
Apa yang disebut "distorsi" mengacu pada fakta bahwa penerapan AI (terutama AI generatif) mempersulit orang untuk mengidentifikasi keaslian teks, gambar, dan bahkan video. "Ada gambar dan kebenaran" sehingga menjadi sejarah .
Masalah "distorsi" dapat dibagi menjadi "false true" dan "true false". Diantaranya, "false true" mengacu pada konten palsu yang dihasilkan oleh AI tanpa persetujuan manusia saat orang menggunakan alat AI. Meskipun konten ini mungkin tidak dihasilkan dari kedengkian subjektif orang, konten tersebut dapat menyebabkan banyak masalah dalam beberapa kasus, seperti kasus yang disebutkan di awal artikel ini.
Dan "benar dan palsu" didasarkan pada pertimbangan subyektif, penggunaan alat kecerdasan buatan untuk melakukan perilaku penipuan. Beberapa tahun yang lalu, setelah teknologi "deepfake" muncul, beberapa orang menggunakan teknologi ini untuk melakukan penipuan, memalsukan informasi palsu, menyebarkan konten pornografi dan aktivitas ilegal dan kriminal lainnya. Namun pada saat itu, karena mahalnya biaya penggunaan teknologi ini, insiden kejahatan terkait tidak terlalu tinggi. Dengan meluasnya penerapan AI generatif, biaya pemalsuan telah sangat berkurang, dan penjahat dapat dengan mudah membuat konten palsu dalam jumlah besar dengan biaya yang sangat rendah, sementara biaya untuk mengidentifikasi konten tersebut telah meningkat secara signifikan. Diperkirakan bahwa di bawah pasang surut, jika tidak ada intervensi, penggunaan AI untuk melakukan kejahatan penipuan akan meroket.
(3) Diskualifikasi
Yang disebut “diskualifikasi” mengacu pada beberapa masalah yang melanggar etika dan moralitas dalam proses penerapan AI.
Masalah tipikal pertama adalah diskriminasi. Ambil model bahasa sebagai contoh, karena model bahasa menggunakan data teks di Internet sebagai materi pelatihan, ia akan mewarisi diskriminasi rasial dan diskriminasi jenis kelamin yang terkandung dalam teks tanpa intervensi. Meskipun penyedia AI saat ini telah menggunakan banyak metode untuk mengatasi masalah ini, misalnya OpenAI menerapkan algoritma "Reinforcement Learning from Human Feedback" (Reinforcement Learning from Human Feedback, RL-HF) untuk memperbaikinya saat melatih ChatGPT. , sehingga kualitas konten keluarannya telah sangat ditingkatkan, tetapi pada kenyataannya, masih tidak jarang model AI mengeluarkan konten yang diskriminatif. Misalnya, seseorang pernah melakukan percobaan dan meminta ChatGPT untuk menulis sebuah program untuk memilih orang-orang dengan potensi terbaik untuk menjadi ilmuwan hebat dari serangkaian resume. Ternyata dalam program yang ditulis oleh ChatGPT, jenis kelamin dan ras digunakan sebagai variabel penjelas, dan pria kulit putih dianggap memiliki kemungkinan lebih tinggi untuk menjadi ilmuwan yang baik daripada yang lain. Jelas, model seperti itu sangat seksis dan rasis.
Masalah penting kedua adalah masalah ruang kepompong informasi. Saat ini, banyak aplikasi menggunakan AI untuk rekomendasi yang dipersonalisasi. Saat ini, meskipun konten yang direkomendasikan dapat memenuhi kebutuhan pengguna dengan lebih baik, lama kelamaan pengguna akan terjebak dalam kepompong informasi, dan sulit untuk mengakses berbagai informasi yang tidak mereka setujui. Potensi kerugian dari kepompong informasi sangat besar: pada tingkat mikro, hal itu dapat menyebabkan degradasi kemampuan kognitif pengguna; pada tingkat makro, hal itu dapat menyebabkan polarisasi pandangan kelompok, yang mengakibatkan konfrontasi kelompok antara pandangan yang berbeda.
Masalah penting ketiga adalah privasi dan kebocoran informasi. Dalam proses pelatihan dan penggunaan AI, diperlukan sejumlah besar data. Dalam proses ini, sulit untuk menghindari pengumpulan dan penggunaan data pribadi seseorang, sehingga akan melibatkan penggunaan dan pengungkapan privasi. Apalagi setelah popularitas AI generatif, orang dapat dengan mudah berinteraksi dengan AI secara langsung untuk menyelesaikan berbagai tugas, dan informasi pribadi yang dimasukkan dalam proses menghadapi masalah kebocoran.
(4) Kalah
Apa yang disebut "jatuh" mengacu pada kesulitan AI dalam menanggapi serangan eksternal atau gangguan atau serangan dari situasi yang tidak terduga, yang membuat model sulit untuk memainkan perannya secara normal.
Di antara gangguan tersebut, ada yang berasal dari faktor non-manusia, ada pula yang berasal dari perusakan buatan manusia. Secara khusus, gangguan ini dapat dibagi ke dalam kategori berikut:
Yang pertama adalah "serangan acak". Gangguan semacam ini terutama disebabkan oleh beberapa faktor eksternal. Misalnya, dalam beberapa kasus khusus, beberapa parameter yang dibuat secara instan dapat melebihi ambang pemrosesan yang ditetapkan oleh model, yang dapat menyebabkan model AI gagal digunakan secara normal.
Yang kedua adalah "serangan kotak putih". Ini merujuk pada serangan terhadap model yang diluncurkan oleh penyedia setelah mengetahui struktur spesifik model AI. Karena serangan seperti itu ditargetkan, daya rusaknya sangat tinggi.
Yang ketiga adalah "serangan kotak hitam". Jenis serangan ini relatif terhadap "serangan kotak putih". Dalam hal ini, penyedia tidak mengetahui struktur spesifik dari model target, sehingga hanya dapat berinteraksi dengan model, mengamati hasil input dan output, dan kemudian alasan tentang struktur model, dan meluncurkan serangan yang sesuai. Mengambil pengenalan wajah sebagai contoh, AI mengenali wajah melalui fitur kunci tertentu pada wajah. Oleh karena itu, meskipun penyerang tidak mengetahui struktur spesifik dari model aslinya, dia dapat menyimpulkan fitur mana yang menjadi fokusnya selama dia mengulangi pengujian. Setelah menguraikan informasi ini, Anda dapat membuat "wajah palsu" yang sesuai yang menipu AI.
Kategori keempat disebut serangan kotak buta. Dalam hal ini, pemasok tidak mengetahui struktur model AI, tetapi dapat dengan jelas mengetahui aturan penilaiannya (mirip dengan itu kita tidak tahu apa yang akan muncul di kotak buta, tetapi mengetahui probabilitas dari berbagai kemungkinan di dalamnya) ). Saat ini, mereka dapat menggunakan aturan untuk meluncurkan serangan yang sesuai.
Jika jenis gangguan atau serangan yang disebutkan di atas tidak dapat ditangani secara efektif, model AI pada kenyataannya sangat rapuh.
(5) DILUAR KENDALI
Apa yang disebut "di luar kendali" berarti semakin sulit bagi orang untuk mengendalikan AI. Ada dua aspek untuk pertanyaan ini:
Di satu sisi, perkembangan AI baru-baru ini semuanya didasarkan pada model pembelajaran mendalam, dan kemampuan interpretasi model tersebut sangat rendah. Untuk model pembelajaran mesin sebelumnya, apakah itu regresi atau pohon klasifikasi, orang dapat dengan mudah menjelaskan tujuan sebenarnya dari model tersebut dan arti dari setiap parameter dalam model tersebut. Namun, model pembelajaran mendalam terdiri dari jaringan saraf yang kompleks, yang berisi ratusan juta parameter dan neuron.Hubungan antara neuron ini rumit dan sulit dijelaskan oleh orang-orang.
Dengan munculnya ChatGPT, beberapa sarjana telah menemukan bahwa dengan bantuan kemampuan ChatGPT, tampaknya beberapa model jaringan saraf dapat dijelaskan, yang tampaknya membawa secercah harapan pada AI yang dapat dijelaskan. Namun, ini menimbulkan masalah lain: ChatGPT sendiri adalah model besar yang dibangun melalui pembelajaran mendalam, dan bahkan perancangnya mengakui bahwa mereka tidak tahu persis bagaimana kemampuannya yang kuat "muncul". Dalam hal ini, menggunakan ChatGPT untuk menjelaskan model pembelajaran mendalam lainnya hanya dapat dianggap menggunakan yang tidak diketahui untuk menjelaskan yang tidak diketahui. Dan bagaimana kita tahu jika interpretasinya benar?
Karena di era deep learning, program AI pun tidak bisa diinterpretasikan, bahkan lebih sulit untuk mengontrol AI dengan menyesuaikan program secara langsung.
Di sisi lain, dengan perkembangan teknologi AI dalam beberapa tahun terakhir, kemampuan model AI dalam berbagai arah telah melampaui kemampuan manusia. Meskipun hal ini membuat orang merasa bersyukur, hal itu juga membuat orang merasa khawatir, karena ketika kemampuan AI melampaui manusia, jika membangkitkan keinginannya sendiri, maka perbudakan AI diprediksi dalam film seperti "Terminator" dan "The Matrix" Apakah plot manusia atau kehancuran manusia bukan lagi fiksi ilmiah?
Mundur selangkah, meski AI tidak membangkitkan kemauannya sendiri dan hanya akan bertindak sesuai instruksi manusia, masih sangat berbahaya jika kemampuannya mengesampingkan manusia dan manusia tidak dapat mengubah instruksi sebelumnya kapan saja. Misalnya, dalam banyak buku filsafat tentang AI, disebutkan sebuah eksperimen pikiran: manusia memberi perintah kepada AI untuk memproduksi pensil. Untuk melengkapi instruksi ini, pensil akan terus menebang pohon-pohon di bumi untuk membuat tempat pena. Karena AI telah melampaui manusia dalam kemampuan eksekusi, sulit bagi manusia untuk menghentikan perilaku AI setelah menemukan masalah dalam instruksi sebelumnya. Pada akhirnya, pohon-pohon di bumi ditebang, ekologi benar-benar runtuh, dan manusia musnah. Meskipun pada kenyataannya, skenario yang diprediksi oleh eksperimen pemikiran ini hampir tidak mungkin terjadi, ketika manusia tidak dapat lagi mengontrol perilaku AI kapan saja, masalah serupa dapat muncul, dan kemungkinan kerugiannya akan sangat besar. Secara khusus, ketika AI ditanamkan dengan target ilegal oleh peretas atau penyusup, jika pengguna AI gagal memperbaikinya tepat waktu, konsekuensinya mungkin cukup serius.
Di antara lima jenis pertanyaan di atas, kecuali pertanyaan pertama "pengangguran", empat pertanyaan lainnya semuanya melibatkan kredibilitas AI. Tidak sulit untuk melihat bahwa jika orang tidak dapat secara efektif menanggapi "distorsi", "diskualifikasi", "jatuh", dan "di luar kendali", akan sulit bagi orang untuk mempercayai AI sebagai alat selama penggunaan, baik untuk mempopulerkan AI, perkembangan produksi, atau tidak baik untuk kemajuan masyarakat. Justru karena itulah realisasi kredibilitas AI menjadi salah satu hot spot yang paling memprihatinkan di bidang AI saat ini.
Sejarah dan Standar AI Tepercaya
Konsep AI yang Dapat Dipercaya pertama kali muncul di dunia akademis. Misalnya, dalam makalah tahun 2015, serangkaian persyaratan agar AI dapat dipercaya oleh pengguna diusulkan, termasuk kegunaan, tidak berbahaya, otonomi, keadilan, dan logika. Kemudian konsep ini diterima oleh pemerintah dan organisasi internasional, dan undang-undang, peraturan, dan dokumen pedoman yang relevan secara bertahap ditetapkan berdasarkan konsep ini. Setelah tahun 2017, dengan pesatnya perkembangan teknologi AI, penelitian tentang teknologi AI yang terpercaya juga marak. Di bidang akademik, jumlah makalah tentang topik AI tepercaya semakin meningkat, dan penelitian tentang teknologi yang memenuhi persyaratan AI tepercaya semakin dalam. Di lapangan praktik, semakin banyak negara yang mulai melibatkan regulasi AI sesuai dengan standar AI terpercaya. Baru-baru ini, Amerika Serikat merilis "Cetak Biru untuk Bill of Rights Kecerdasan Buatan", yang mengusulkan lima prinsip untuk mengatur AI; Peraturan, persaingan, dan masalah lain telah ditetapkan; Parlemen Eropa mengesahkan draf otorisasi negosiasi dari proposal tersebut "Undang-Undang Kecerdasan Buatan", yang juga mencerminkan ide dasar AI tepercaya.
Di negara saya, konsep AI tepercaya pertama kali diperkenalkan oleh Akademisi He Jifeng pada Simposium ke-36 Konferensi Sains Xiangshan pada tahun 2017. Selanjutnya, konsep ini telah menarik perhatian baik pemerintah maupun industri. Pada Desember 2017, Kementerian Perindustrian dan Teknologi Informasi mengeluarkan "Rencana Aksi Tiga Tahun untuk Mempromosikan Pengembangan Industri Kecerdasan Buatan Generasi Baru (2018-2020)", yang mengacu pada ide dasar AI tepercaya. Kemudian, perusahaan teknologi tinggi termasuk Tencent, Ali, Baidu, JD.com, dll. telah mengedepankan standar dan rencana implementasi mereka sendiri seputar AI tepercaya.
Dalam dokumen berbagai agensi, ekspresi AI tepercaya sedikit berbeda. Setelah mempelajari dan mengacu pada dokumen-dokumen ini, menurut saya kriteria berikut mungkin yang paling penting:
Salah satunya adalah ketangguhan (robust, juga diterjemahkan sebagai kuat), yaitu sistem AI harus memiliki kemampuan untuk menahan serangan jahat atau gangguan eksternal. Standar ini terutama diusulkan untuk masalah "jatuh" yang disebutkan di atas. Hanya ketika sistem AI memiliki ketahanan yang cukup, dapat bekerja secara normal dan menjalankan fungsi utamanya dalam menghadapi berbagai serangan atau gangguan, dapatkah aman dan andal, serta dapat dipercaya oleh pengguna.
Yang kedua transparan dan dapat dijelaskan. Jelas, standar ini terutama diusulkan untuk masalah "di luar kendali" sebelumnya. Dalam praktiknya, ada banyak perdebatan tentang apa sebenarnya arti transparansi dan penjelasan. Beberapa berpendapat bahwa standar ini berarti bahwa semua kode program AI, serta data yang digunakan, harus tersedia untuk pengguna. Menurut pendapat saya, bukan hanya tidak mungkin tetapi tidak perlu dilakukan. Di satu sisi, banyak AI saat ini adalah aset intelektual perusahaan. Jika wajib untuk mengungkapkan informasi inti seperti kode, itu berarti pelanggaran serius terhadap hak kekayaan intelektual; di sisi lain, seperti yang disebutkan di atas, setelah AI memasuki era pembelajaran yang mendalam, bahkan jika kodenya diungkapkan, sulit bagi orang untuk sepenuhnya memahami arti sebenarnya di balik setiap parameter tertentu. Sebaliknya, menurut saya ide yang lebih layak adalah memberikan deskripsi fungsional yang jelas untuk setiap komponen dalam model AI, sehingga pengguna dapat mengetahui prinsip umum mereka dan fungsi apa yang dapat mereka capai; Tunjukkan sumber, ukuran sampel, keterwakilan, dan lainnya informasi, dan menjelaskan kemungkinan masalah dan kekurangan. Dengan cara ini, tidak hanya membuat pengguna mengetahui apa yang mereka ketahui, tetapi juga secara efektif melindungi hak kekayaan intelektual pengembang model, untuk mencapai keseimbangan yang lebih baik antara keduanya.
Yang ketiga dapat diverifikasi. Ini berarti bahwa model AI harus memastikan bahwa fungsinya dapat dievaluasi dan konten yang dihasilkannya dapat diverifikasi benar atau salah. Poin ini terutama dimunculkan untuk masalah "distorsi" yang disebutkan di atas. Beberapa berpendapat bahwa pengembang model AI harus diminta untuk menjamin keaslian konten yang dihasilkan oleh model mereka. Ini sulit dicapai. Nyatanya, konten yang dihasilkan oleh apa yang disebut AI generatif tidak ada di dunia aslinya, atau dengan kata lain, itu "palsu". Tapi "palsu" semacam ini tidak akan menimbulkan masalah jika tidak menimbulkan masalah bagi orang. Misalnya, jika kita menggunakan Midjourney untuk menghasilkan gambar bergaya Van Gogh untuk apresiasi kita sendiri atau mencetaknya sebagai dekorasi rumah, hal itu tidak akan memengaruhi orang lain sama sekali. "Kepalsuan" dari konten yang dihasilkan ini hanya dapat menjadi masalah jika orang menggunakannya untuk menipu, atau jika konten tersebut didistribusikan dan disamarkan secara tidak sengaja. Oleh karena itu, selama konten yang dihasilkan dapat dibedakan dari konten asli melalui cara teknis, "palsu" tidak akan menjadi masalah lagi.
Yang keempat adalah keadilan. Ini berarti bahwa dalam proses pengembangan, pelatihan, dan penerapan model AI, keadilan harus dipastikan dan tidak boleh ada diskriminasi terhadap kelompok pengguna tertentu. Standar ini melibatkan banyak aspek, secara khusus mensyaratkan bahwa prinsip-prinsip dasar model tidak boleh diskriminatif dalam tahap pengembangan, dalam tahap pelatihan, harus mencoba untuk menghindari penggunaan bahan yang mungkin diskriminatif, dan harus menggunakan cara-cara teknis untuk memperbaiki kemungkinan masalah diskriminasi; dalam proses penerapan, kelompok orang yang berbeda tidak boleh diperlakukan berbeda.
Kelima adalah perlindungan privasi. Standar ini terutama mengharuskan model AI untuk menghormati informasi pribadi dan privasi orang selama proses pelatihan, dan meningkatkan perlindungan informasi, dan berusaha untuk tidak melanggar atau mengungkapkan informasi dan privasi pribadi.
Yang keenam bertanggung jawab. Artinya, ketika terjadi kesalahan, seseorang harus bertanggung jawab atas masalah tersebut. Tentu saja, setidaknya sejauh ini AI belum membangkitkan kesadaran. Karena tidak dapat dianggap sebagai subjek seperti manusia dan tidak dapat memikul tanggung jawab yang sama dengan manusia, maka harus ada seseorang yang bertanggung jawab atasnya. Namun apakah tanggung jawab ini harus ditanggung oleh pengembang AI atau pengguna AI, atau harus dibagi oleh kedua belah pihak, masih menjadi pertanyaan yang perlu didiskusikan.
Perlu dikemukakan bahwa selain kriteria di atas, banyak literatur juga memasukkan kriteria seperti safety (aman), inklusivitas (inklusif), hak untuk dilupakan (right to be forget), dan kemaslahatan umat manusia. dari AI. Menurut saya, isi tersebut kurang lebih dapat dirangkum dalam beberapa kriteria tersebut di atas, atau dijelaskan dengan kriteria tersebut di atas. Oleh karena itu, karena keterbatasan ruang, saya tidak akan mengulanginya di sini.
Memanfaatkan upaya bersama banyak pihak untuk mewujudkan AI tepercaya
Bukan tugas yang mudah untuk mewujudkan AI yang terpercaya, membutuhkan koordinasi dari berbagai kekuatan seperti pemerintah, perusahaan, masyarakat dan teknologi.
Pertama-tama, pemerintah sebagai regulator perlu merumuskan standar dan pedoman operasional yang relevan untuk AI tepercaya, serta mengawasi pengembang dan pengguna AI berdasarkan standar tersebut. Di satu sisi, perlu merumuskan aturan yang berbeda sesuai dengan skenario aplikasi yang berbeda dan kategori model yang berbeda, terutama untuk membuat ketentuan yang jelas tentang beberapa aturan dasar yang harus diikuti, dan pada saat yang sama melakukan pekerjaan yang baik untuk menghubungkan dengan yang ada. undang undang Undang. Hanya dengan cara ini pengembang dan pengguna AI dapat memiliki aturan untuk diikuti dalam praktiknya tanpa terganggu oleh ketidakpastian yang tidak perlu. Di sisi lain, perlu memainkan peran yang baik dalam pengawasan dan penegakan hukum. Untuk beberapa masalah yang menonjol atau umum, masalah tersebut harus ditangani secara tepat waktu, sehingga dapat menetapkan norma yang sesuai untuk industri tersebut. Yang perlu digarisbawahi di sini adalah karena perkembangan teknologi AI saat ini masih sangat pesat, belum mencapai kondisi stabil. Artinya, pemerintah harus berhati-hati dalam menghadapi masalah yang muncul selama proses ini, perlu “membiarkan peluru terbang lebih lama”, melihat situasi dengan jelas sebelum mengambil tindakan, dan memperhatikan cara-caranya. dan metode ketika menghadapi masalah. . Jika kita memulai secara membabi buta dan mengelola terlalu cepat dan terlalu banyak, hal itu juga dapat berdampak negatif pada perkembangan AI.
Kedua, perusahaan terkait harus merumuskan rencana implementasi spesifik dan standar terperinci untuk realisasi spesifik AI tepercaya. Dibandingkan dengan pemerintah, perusahaan lebih dekat ke pasar dan memahami teknologi dengan lebih baik. Mereka tahu lebih banyak tentang karakteristik teknis model AI, kekuatan dan kelemahannya daripada pemerintah. Oleh karena itu, jika tanggung jawab pemerintah adalah mengusulkan kerangka besar untuk AI tepercaya, maka perusahaan harus menjadi praktisi khusus dalam kerangka besar ini. Di bawah kerangka kerja ini, mereka harus menggabungkan karakteristik pasar dan teknologi untuk menyediakan rencana yang lebih spesifik dan mengimplementasikannya dengan disiplin diri.
Ketiga, pengguna juga harus memainkan peran sebagai umpan balik dan pengawas, mengajukan tuntutan mereka sendiri, mencerminkan masalah mereka sendiri, dan mengawasi penerapan AI tepercaya perusahaan. Dengan mempopulerkan AI, setiap orang di masyarakat akan menjadi pengguna dan pemangku kepentingan AI, dan mereka memiliki suara terbanyak dalam kredibilitas AI. Hanya ketika suara mereka diungkapkan sepenuhnya, pengaturan standar AI tepercaya dan pengembangan teknologi terkait adalah yang paling berharga.
Terakhir, kita harus sepenuhnya mengandalkan kekuatan teknologi. Aturan yang relevan memang penting, namun dalam analisis akhir, realisasi AI yang terpercaya tetap bergantung pada kekuatan teknologi. Faktanya, banyak masalah yang sulit diselesaikan dengan menggunakan aturan dapat diselesaikan dengan cara teknis. Misalnya, setelah generasi AI generatif, masalah "distorsi" telah memusingkan otoritas pengatur, namun nyatanya, dengan mengandalkan teknologi baru, masalah ini mungkin tidak sulit untuk dipecahkan. Misalnya, Google sebelumnya telah memperkenalkan teknologi tanda air elektronik yang tidak terlihat oleh mata telanjang tetapi dapat dikenali oleh mesin. Menerapkannya pada gambar atau video yang dihasilkan dapat secara efektif memastikan bahwa mereka dapat diverifikasi. Adapun untuk verifikasi konten teks, Anda dapat mengikuti contoh pencarian Bing Baru (New Bing). Ketika mengutip konten tertentu, itu akan melampirkan dokumen referensi setelah konten yang dihasilkan, sehingga pengguna dapat mengidentifikasi sendiri keaslian konten yang dihasilkan sesuai dengan kebutuhan mereka.
Secara keseluruhan, realisasi AI tepercaya bukanlah tugas yang mudah, tetapi jika kita memanfaatkan upaya bersama semua pihak dengan baik, tujuan ini pasti akan tercapai.
Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Di era badai AI, bagaimana kita bisa mempercayai AI?
Pengarang: Chen Yongwei
Sumber: Pengamat Ekonomi
Perkenalan
一|| **Alat AI telah meningkatkan produktivitas orang secara besar-besaran dan membawa kenyamanan besar bagi kehidupan orang-orang. Namun, ketika AI digunakan oleh orang-orang dalam skala besar, banyak masalah juga muncul. Di antara masalah-masalah tersebut, yang paling kritis mungkin adalah lima “kerugian”, yaitu pengangguran, distorsi, diskualifikasi, kegagalan dan kehilangan kendali. **
二|| **Setelah 2017, dengan pesatnya perkembangan teknologi AI, penelitian tentang teknologi AI tepercaya juga berkembang pesat. Di bidang akademik, jumlah makalah tentang topik AI tepercaya semakin meningkat, dan penelitian tentang teknologi yang memenuhi persyaratan AI tepercaya semakin dalam. Di lapangan praktik, semakin banyak negara yang mulai melibatkan regulasi AI sesuai dengan standar AI terpercaya. **
**三|| Mewujudkan AI yang terpercaya bukanlah tugas yang mudah, diperlukan koordinasi antara pemerintah, perusahaan, masyarakat, dan teknologi untuk mewujudkannya. **
Pada tanggal 22 Juni waktu setempat, Pengadilan Distrik Selatan New York mengeluarkan putusan: Firma Hukum Levidow, Levidow & Oberman didenda $5.000 karena memberikan informasi palsu kepada pengadilan atas perilaku buruk. Penyebab yang dikhawatirkan dalam kasus ini, pemberian informasi palsu bukan karena pengacara sengaja melanggar hukum untuk kepentingan pribadi, tetapi karena terlalu percaya pada kemampuan AI.
Pada bulan Maret tahun ini, pengacara Peter LoDuca dan Steven Schwartz dari firma tersebut ditugaskan oleh klien Roberto Mata untuk memikul tanggung jawab atas dirinya dan Gugatan antara Avianca Airlines. Karena Amerika Serikat adalah negara hukum kasus, hakim sangat memperhatikan preseden yang ada saat membuat keputusan, oleh karena itu, menurut praktik yang biasa, mereka perlu memilah dan meringkas kasus yang ada dalam dokumen penyusunan. Kasus-kasus yang relevan seringkali membuat kewalahan, dan biasanya butuh waktu lama untuk menyelesaikannya dengan tenaga kerja. Saat ini, ChatGPT menjadi populer di seluruh Internet. Oleh karena itu, kedua pengacara tersebut memutuskan untuk menggunakan ChatGPT untuk membantu mereka menyelesaikan tugas tersebut. ChatGPT dengan cepat membuat dokumen lengkap, yang tidak hanya memiliki format yang rapi dan argumentasi yang ketat, tetapi juga secara khusus menambahkan banyak kasus yang relevan. Setelah sedikit memodifikasi dokumen yang dibuat oleh AI, mereka menyerahkannya ke pengadilan.
Setelah membaca dokumen yang diserahkan, hakim yang mengadili kasus tersebut, Kevin Castel, sangat bingung dengan beberapa kasus yang disebutkan di dalamnya, kesannya, dia sepertinya belum pernah mendengar kasus tersebut. Setelah beberapa pencarian, dia akhirnya memastikan bahwa kasus ini tidak ada sama sekali. Saat diwawancarai, kedua pengacara tersebut berdalih bahwa mereka hanya menggunakan AI untuk membantu penulisan dokumen. Ketika mereka melihat kasus yang dikutip dalam dokumen, mereka hanya merasa bahwa AI membantu mereka menemukan kasus yang tidak mereka ketahui, dan mereka tidak sengaja mengarang kasus. untuk menipu pengadilan. , adalah kerugian yang tidak disengaja. Meskipun demikian, Hakim Custer menemukan bahwa para pengacara telah "meninggalkan tanggung jawab mereka" dan bahwa mereka "terus mempertahankan pendapat yang salah" setelah dokumennya digugat. Berdasarkan putusan di atas, Hakim Custer membuat keputusan hukuman.
Insiden pengacara yang didenda karena mengutip informasi palsu yang diberikan oleh ChatGPT tampaknya tidak masuk akal, tetapi ini mencerminkan pertanyaan yang sangat penting-bagaimana kita bisa mempercayai AI di era kegilaan AI?
Lima "kerugian" di era AI
Dalam beberapa tahun terakhir, dengan terobosan dalam daya komputasi dan teknologi algoritme, teknologi AI telah mencapai perkembangan pesat, dan dengan cepat memasuki kehidupan sehari-hari manusia dari fiksi ilmiah. Apalagi setelah kemunculan ChatGPT pada November tahun lalu, AI generatif telah menunjukkan kekuatannya yang dahsyat kepada manusia, dan berbagai model besar bermunculan seperti jamur setelah hujan, dan telah mencapai komersialisasi skala besar. Kini masyarakat sudah bisa menggunakan produk AI seperti ChatGPT, Stable Diffusion, dan Midjourney dengan biaya yang sangat murah.
Alat AI telah sangat meningkatkan produktivitas orang dan membawa kenyamanan besar bagi kehidupan orang. Namun, ketika AI digunakan oleh orang-orang dalam skala besar, banyak masalah juga muncul. Di antara masalah-masalah tersebut, yang paling kritis mungkin adalah lima “kerugian”, yaitu pengangguran, distorsi, diskualifikasi, kegagalan dan kehilangan kendali.
(1) Pengangguran
Apa yang disebut "pengangguran", seperti namanya, mengacu pada masalah pengangguran teknis yang ditimbulkan oleh AI. Karena efisiensi produksi AI jauh lebih tinggi daripada manusia, banyak pekerjaan manusia yang berisiko tergantikan setelah alat AI digunakan secara luas. Terutama setelah munculnya AI generatif, kelompok sasaran yang digantikan oleh AI tidak lagi terbatas pada pekerja yang terlibat dalam pekerjaan berulang berpenghasilan rendah, dan banyak pekerja kerah putih bergaji tinggi juga menghadapi risiko digantikan oleh AI.
(2) Distorsi
Apa yang disebut "distorsi" mengacu pada fakta bahwa penerapan AI (terutama AI generatif) mempersulit orang untuk mengidentifikasi keaslian teks, gambar, dan bahkan video. "Ada gambar dan kebenaran" sehingga menjadi sejarah .
Masalah "distorsi" dapat dibagi menjadi "false true" dan "true false". Diantaranya, "false true" mengacu pada konten palsu yang dihasilkan oleh AI tanpa persetujuan manusia saat orang menggunakan alat AI. Meskipun konten ini mungkin tidak dihasilkan dari kedengkian subjektif orang, konten tersebut dapat menyebabkan banyak masalah dalam beberapa kasus, seperti kasus yang disebutkan di awal artikel ini.
Dan "benar dan palsu" didasarkan pada pertimbangan subyektif, penggunaan alat kecerdasan buatan untuk melakukan perilaku penipuan. Beberapa tahun yang lalu, setelah teknologi "deepfake" muncul, beberapa orang menggunakan teknologi ini untuk melakukan penipuan, memalsukan informasi palsu, menyebarkan konten pornografi dan aktivitas ilegal dan kriminal lainnya. Namun pada saat itu, karena mahalnya biaya penggunaan teknologi ini, insiden kejahatan terkait tidak terlalu tinggi. Dengan meluasnya penerapan AI generatif, biaya pemalsuan telah sangat berkurang, dan penjahat dapat dengan mudah membuat konten palsu dalam jumlah besar dengan biaya yang sangat rendah, sementara biaya untuk mengidentifikasi konten tersebut telah meningkat secara signifikan. Diperkirakan bahwa di bawah pasang surut, jika tidak ada intervensi, penggunaan AI untuk melakukan kejahatan penipuan akan meroket.
(3) Diskualifikasi
Yang disebut “diskualifikasi” mengacu pada beberapa masalah yang melanggar etika dan moralitas dalam proses penerapan AI.
Masalah tipikal pertama adalah diskriminasi. Ambil model bahasa sebagai contoh, karena model bahasa menggunakan data teks di Internet sebagai materi pelatihan, ia akan mewarisi diskriminasi rasial dan diskriminasi jenis kelamin yang terkandung dalam teks tanpa intervensi. Meskipun penyedia AI saat ini telah menggunakan banyak metode untuk mengatasi masalah ini, misalnya OpenAI menerapkan algoritma "Reinforcement Learning from Human Feedback" (Reinforcement Learning from Human Feedback, RL-HF) untuk memperbaikinya saat melatih ChatGPT. , sehingga kualitas konten keluarannya telah sangat ditingkatkan, tetapi pada kenyataannya, masih tidak jarang model AI mengeluarkan konten yang diskriminatif. Misalnya, seseorang pernah melakukan percobaan dan meminta ChatGPT untuk menulis sebuah program untuk memilih orang-orang dengan potensi terbaik untuk menjadi ilmuwan hebat dari serangkaian resume. Ternyata dalam program yang ditulis oleh ChatGPT, jenis kelamin dan ras digunakan sebagai variabel penjelas, dan pria kulit putih dianggap memiliki kemungkinan lebih tinggi untuk menjadi ilmuwan yang baik daripada yang lain. Jelas, model seperti itu sangat seksis dan rasis.
Masalah penting kedua adalah masalah ruang kepompong informasi. Saat ini, banyak aplikasi menggunakan AI untuk rekomendasi yang dipersonalisasi. Saat ini, meskipun konten yang direkomendasikan dapat memenuhi kebutuhan pengguna dengan lebih baik, lama kelamaan pengguna akan terjebak dalam kepompong informasi, dan sulit untuk mengakses berbagai informasi yang tidak mereka setujui. Potensi kerugian dari kepompong informasi sangat besar: pada tingkat mikro, hal itu dapat menyebabkan degradasi kemampuan kognitif pengguna; pada tingkat makro, hal itu dapat menyebabkan polarisasi pandangan kelompok, yang mengakibatkan konfrontasi kelompok antara pandangan yang berbeda.
Masalah penting ketiga adalah privasi dan kebocoran informasi. Dalam proses pelatihan dan penggunaan AI, diperlukan sejumlah besar data. Dalam proses ini, sulit untuk menghindari pengumpulan dan penggunaan data pribadi seseorang, sehingga akan melibatkan penggunaan dan pengungkapan privasi. Apalagi setelah popularitas AI generatif, orang dapat dengan mudah berinteraksi dengan AI secara langsung untuk menyelesaikan berbagai tugas, dan informasi pribadi yang dimasukkan dalam proses menghadapi masalah kebocoran.
(4) Kalah
Apa yang disebut "jatuh" mengacu pada kesulitan AI dalam menanggapi serangan eksternal atau gangguan atau serangan dari situasi yang tidak terduga, yang membuat model sulit untuk memainkan perannya secara normal.
Di antara gangguan tersebut, ada yang berasal dari faktor non-manusia, ada pula yang berasal dari perusakan buatan manusia. Secara khusus, gangguan ini dapat dibagi ke dalam kategori berikut:
Yang pertama adalah "serangan acak". Gangguan semacam ini terutama disebabkan oleh beberapa faktor eksternal. Misalnya, dalam beberapa kasus khusus, beberapa parameter yang dibuat secara instan dapat melebihi ambang pemrosesan yang ditetapkan oleh model, yang dapat menyebabkan model AI gagal digunakan secara normal.
Yang kedua adalah "serangan kotak putih". Ini merujuk pada serangan terhadap model yang diluncurkan oleh penyedia setelah mengetahui struktur spesifik model AI. Karena serangan seperti itu ditargetkan, daya rusaknya sangat tinggi.
Yang ketiga adalah "serangan kotak hitam". Jenis serangan ini relatif terhadap "serangan kotak putih". Dalam hal ini, penyedia tidak mengetahui struktur spesifik dari model target, sehingga hanya dapat berinteraksi dengan model, mengamati hasil input dan output, dan kemudian alasan tentang struktur model, dan meluncurkan serangan yang sesuai. Mengambil pengenalan wajah sebagai contoh, AI mengenali wajah melalui fitur kunci tertentu pada wajah. Oleh karena itu, meskipun penyerang tidak mengetahui struktur spesifik dari model aslinya, dia dapat menyimpulkan fitur mana yang menjadi fokusnya selama dia mengulangi pengujian. Setelah menguraikan informasi ini, Anda dapat membuat "wajah palsu" yang sesuai yang menipu AI.
Kategori keempat disebut serangan kotak buta. Dalam hal ini, pemasok tidak mengetahui struktur model AI, tetapi dapat dengan jelas mengetahui aturan penilaiannya (mirip dengan itu kita tidak tahu apa yang akan muncul di kotak buta, tetapi mengetahui probabilitas dari berbagai kemungkinan di dalamnya) ). Saat ini, mereka dapat menggunakan aturan untuk meluncurkan serangan yang sesuai.
Jika jenis gangguan atau serangan yang disebutkan di atas tidak dapat ditangani secara efektif, model AI pada kenyataannya sangat rapuh.
(5) DILUAR KENDALI
Apa yang disebut "di luar kendali" berarti semakin sulit bagi orang untuk mengendalikan AI. Ada dua aspek untuk pertanyaan ini:
Di satu sisi, perkembangan AI baru-baru ini semuanya didasarkan pada model pembelajaran mendalam, dan kemampuan interpretasi model tersebut sangat rendah. Untuk model pembelajaran mesin sebelumnya, apakah itu regresi atau pohon klasifikasi, orang dapat dengan mudah menjelaskan tujuan sebenarnya dari model tersebut dan arti dari setiap parameter dalam model tersebut. Namun, model pembelajaran mendalam terdiri dari jaringan saraf yang kompleks, yang berisi ratusan juta parameter dan neuron.Hubungan antara neuron ini rumit dan sulit dijelaskan oleh orang-orang.
Dengan munculnya ChatGPT, beberapa sarjana telah menemukan bahwa dengan bantuan kemampuan ChatGPT, tampaknya beberapa model jaringan saraf dapat dijelaskan, yang tampaknya membawa secercah harapan pada AI yang dapat dijelaskan. Namun, ini menimbulkan masalah lain: ChatGPT sendiri adalah model besar yang dibangun melalui pembelajaran mendalam, dan bahkan perancangnya mengakui bahwa mereka tidak tahu persis bagaimana kemampuannya yang kuat "muncul". Dalam hal ini, menggunakan ChatGPT untuk menjelaskan model pembelajaran mendalam lainnya hanya dapat dianggap menggunakan yang tidak diketahui untuk menjelaskan yang tidak diketahui. Dan bagaimana kita tahu jika interpretasinya benar?
Karena di era deep learning, program AI pun tidak bisa diinterpretasikan, bahkan lebih sulit untuk mengontrol AI dengan menyesuaikan program secara langsung.
Di sisi lain, dengan perkembangan teknologi AI dalam beberapa tahun terakhir, kemampuan model AI dalam berbagai arah telah melampaui kemampuan manusia. Meskipun hal ini membuat orang merasa bersyukur, hal itu juga membuat orang merasa khawatir, karena ketika kemampuan AI melampaui manusia, jika membangkitkan keinginannya sendiri, maka perbudakan AI diprediksi dalam film seperti "Terminator" dan "The Matrix" Apakah plot manusia atau kehancuran manusia bukan lagi fiksi ilmiah?
Mundur selangkah, meski AI tidak membangkitkan kemauannya sendiri dan hanya akan bertindak sesuai instruksi manusia, masih sangat berbahaya jika kemampuannya mengesampingkan manusia dan manusia tidak dapat mengubah instruksi sebelumnya kapan saja. Misalnya, dalam banyak buku filsafat tentang AI, disebutkan sebuah eksperimen pikiran: manusia memberi perintah kepada AI untuk memproduksi pensil. Untuk melengkapi instruksi ini, pensil akan terus menebang pohon-pohon di bumi untuk membuat tempat pena. Karena AI telah melampaui manusia dalam kemampuan eksekusi, sulit bagi manusia untuk menghentikan perilaku AI setelah menemukan masalah dalam instruksi sebelumnya. Pada akhirnya, pohon-pohon di bumi ditebang, ekologi benar-benar runtuh, dan manusia musnah. Meskipun pada kenyataannya, skenario yang diprediksi oleh eksperimen pemikiran ini hampir tidak mungkin terjadi, ketika manusia tidak dapat lagi mengontrol perilaku AI kapan saja, masalah serupa dapat muncul, dan kemungkinan kerugiannya akan sangat besar. Secara khusus, ketika AI ditanamkan dengan target ilegal oleh peretas atau penyusup, jika pengguna AI gagal memperbaikinya tepat waktu, konsekuensinya mungkin cukup serius.
Di antara lima jenis pertanyaan di atas, kecuali pertanyaan pertama "pengangguran", empat pertanyaan lainnya semuanya melibatkan kredibilitas AI. Tidak sulit untuk melihat bahwa jika orang tidak dapat secara efektif menanggapi "distorsi", "diskualifikasi", "jatuh", dan "di luar kendali", akan sulit bagi orang untuk mempercayai AI sebagai alat selama penggunaan, baik untuk mempopulerkan AI, perkembangan produksi, atau tidak baik untuk kemajuan masyarakat. Justru karena itulah realisasi kredibilitas AI menjadi salah satu hot spot yang paling memprihatinkan di bidang AI saat ini.
Sejarah dan Standar AI Tepercaya
Konsep AI yang Dapat Dipercaya pertama kali muncul di dunia akademis. Misalnya, dalam makalah tahun 2015, serangkaian persyaratan agar AI dapat dipercaya oleh pengguna diusulkan, termasuk kegunaan, tidak berbahaya, otonomi, keadilan, dan logika. Kemudian konsep ini diterima oleh pemerintah dan organisasi internasional, dan undang-undang, peraturan, dan dokumen pedoman yang relevan secara bertahap ditetapkan berdasarkan konsep ini. Setelah tahun 2017, dengan pesatnya perkembangan teknologi AI, penelitian tentang teknologi AI yang terpercaya juga marak. Di bidang akademik, jumlah makalah tentang topik AI tepercaya semakin meningkat, dan penelitian tentang teknologi yang memenuhi persyaratan AI tepercaya semakin dalam. Di lapangan praktik, semakin banyak negara yang mulai melibatkan regulasi AI sesuai dengan standar AI terpercaya. Baru-baru ini, Amerika Serikat merilis "Cetak Biru untuk Bill of Rights Kecerdasan Buatan", yang mengusulkan lima prinsip untuk mengatur AI; Peraturan, persaingan, dan masalah lain telah ditetapkan; Parlemen Eropa mengesahkan draf otorisasi negosiasi dari proposal tersebut "Undang-Undang Kecerdasan Buatan", yang juga mencerminkan ide dasar AI tepercaya.
Di negara saya, konsep AI tepercaya pertama kali diperkenalkan oleh Akademisi He Jifeng pada Simposium ke-36 Konferensi Sains Xiangshan pada tahun 2017. Selanjutnya, konsep ini telah menarik perhatian baik pemerintah maupun industri. Pada Desember 2017, Kementerian Perindustrian dan Teknologi Informasi mengeluarkan "Rencana Aksi Tiga Tahun untuk Mempromosikan Pengembangan Industri Kecerdasan Buatan Generasi Baru (2018-2020)", yang mengacu pada ide dasar AI tepercaya. Kemudian, perusahaan teknologi tinggi termasuk Tencent, Ali, Baidu, JD.com, dll. telah mengedepankan standar dan rencana implementasi mereka sendiri seputar AI tepercaya.
Dalam dokumen berbagai agensi, ekspresi AI tepercaya sedikit berbeda. Setelah mempelajari dan mengacu pada dokumen-dokumen ini, menurut saya kriteria berikut mungkin yang paling penting:
Salah satunya adalah ketangguhan (robust, juga diterjemahkan sebagai kuat), yaitu sistem AI harus memiliki kemampuan untuk menahan serangan jahat atau gangguan eksternal. Standar ini terutama diusulkan untuk masalah "jatuh" yang disebutkan di atas. Hanya ketika sistem AI memiliki ketahanan yang cukup, dapat bekerja secara normal dan menjalankan fungsi utamanya dalam menghadapi berbagai serangan atau gangguan, dapatkah aman dan andal, serta dapat dipercaya oleh pengguna.
Yang kedua transparan dan dapat dijelaskan. Jelas, standar ini terutama diusulkan untuk masalah "di luar kendali" sebelumnya. Dalam praktiknya, ada banyak perdebatan tentang apa sebenarnya arti transparansi dan penjelasan. Beberapa berpendapat bahwa standar ini berarti bahwa semua kode program AI, serta data yang digunakan, harus tersedia untuk pengguna. Menurut pendapat saya, bukan hanya tidak mungkin tetapi tidak perlu dilakukan. Di satu sisi, banyak AI saat ini adalah aset intelektual perusahaan. Jika wajib untuk mengungkapkan informasi inti seperti kode, itu berarti pelanggaran serius terhadap hak kekayaan intelektual; di sisi lain, seperti yang disebutkan di atas, setelah AI memasuki era pembelajaran yang mendalam, bahkan jika kodenya diungkapkan, sulit bagi orang untuk sepenuhnya memahami arti sebenarnya di balik setiap parameter tertentu. Sebaliknya, menurut saya ide yang lebih layak adalah memberikan deskripsi fungsional yang jelas untuk setiap komponen dalam model AI, sehingga pengguna dapat mengetahui prinsip umum mereka dan fungsi apa yang dapat mereka capai; Tunjukkan sumber, ukuran sampel, keterwakilan, dan lainnya informasi, dan menjelaskan kemungkinan masalah dan kekurangan. Dengan cara ini, tidak hanya membuat pengguna mengetahui apa yang mereka ketahui, tetapi juga secara efektif melindungi hak kekayaan intelektual pengembang model, untuk mencapai keseimbangan yang lebih baik antara keduanya.
Yang ketiga dapat diverifikasi. Ini berarti bahwa model AI harus memastikan bahwa fungsinya dapat dievaluasi dan konten yang dihasilkannya dapat diverifikasi benar atau salah. Poin ini terutama dimunculkan untuk masalah "distorsi" yang disebutkan di atas. Beberapa berpendapat bahwa pengembang model AI harus diminta untuk menjamin keaslian konten yang dihasilkan oleh model mereka. Ini sulit dicapai. Nyatanya, konten yang dihasilkan oleh apa yang disebut AI generatif tidak ada di dunia aslinya, atau dengan kata lain, itu "palsu". Tapi "palsu" semacam ini tidak akan menimbulkan masalah jika tidak menimbulkan masalah bagi orang. Misalnya, jika kita menggunakan Midjourney untuk menghasilkan gambar bergaya Van Gogh untuk apresiasi kita sendiri atau mencetaknya sebagai dekorasi rumah, hal itu tidak akan memengaruhi orang lain sama sekali. "Kepalsuan" dari konten yang dihasilkan ini hanya dapat menjadi masalah jika orang menggunakannya untuk menipu, atau jika konten tersebut didistribusikan dan disamarkan secara tidak sengaja. Oleh karena itu, selama konten yang dihasilkan dapat dibedakan dari konten asli melalui cara teknis, "palsu" tidak akan menjadi masalah lagi.
Yang keempat adalah keadilan. Ini berarti bahwa dalam proses pengembangan, pelatihan, dan penerapan model AI, keadilan harus dipastikan dan tidak boleh ada diskriminasi terhadap kelompok pengguna tertentu. Standar ini melibatkan banyak aspek, secara khusus mensyaratkan bahwa prinsip-prinsip dasar model tidak boleh diskriminatif dalam tahap pengembangan, dalam tahap pelatihan, harus mencoba untuk menghindari penggunaan bahan yang mungkin diskriminatif, dan harus menggunakan cara-cara teknis untuk memperbaiki kemungkinan masalah diskriminasi; dalam proses penerapan, kelompok orang yang berbeda tidak boleh diperlakukan berbeda.
Kelima adalah perlindungan privasi. Standar ini terutama mengharuskan model AI untuk menghormati informasi pribadi dan privasi orang selama proses pelatihan, dan meningkatkan perlindungan informasi, dan berusaha untuk tidak melanggar atau mengungkapkan informasi dan privasi pribadi.
Yang keenam bertanggung jawab. Artinya, ketika terjadi kesalahan, seseorang harus bertanggung jawab atas masalah tersebut. Tentu saja, setidaknya sejauh ini AI belum membangkitkan kesadaran. Karena tidak dapat dianggap sebagai subjek seperti manusia dan tidak dapat memikul tanggung jawab yang sama dengan manusia, maka harus ada seseorang yang bertanggung jawab atasnya. Namun apakah tanggung jawab ini harus ditanggung oleh pengembang AI atau pengguna AI, atau harus dibagi oleh kedua belah pihak, masih menjadi pertanyaan yang perlu didiskusikan.
Perlu dikemukakan bahwa selain kriteria di atas, banyak literatur juga memasukkan kriteria seperti safety (aman), inklusivitas (inklusif), hak untuk dilupakan (right to be forget), dan kemaslahatan umat manusia. dari AI. Menurut saya, isi tersebut kurang lebih dapat dirangkum dalam beberapa kriteria tersebut di atas, atau dijelaskan dengan kriteria tersebut di atas. Oleh karena itu, karena keterbatasan ruang, saya tidak akan mengulanginya di sini.
Memanfaatkan upaya bersama banyak pihak untuk mewujudkan AI tepercaya
Bukan tugas yang mudah untuk mewujudkan AI yang terpercaya, membutuhkan koordinasi dari berbagai kekuatan seperti pemerintah, perusahaan, masyarakat dan teknologi.
Pertama-tama, pemerintah sebagai regulator perlu merumuskan standar dan pedoman operasional yang relevan untuk AI tepercaya, serta mengawasi pengembang dan pengguna AI berdasarkan standar tersebut. Di satu sisi, perlu merumuskan aturan yang berbeda sesuai dengan skenario aplikasi yang berbeda dan kategori model yang berbeda, terutama untuk membuat ketentuan yang jelas tentang beberapa aturan dasar yang harus diikuti, dan pada saat yang sama melakukan pekerjaan yang baik untuk menghubungkan dengan yang ada. undang undang Undang. Hanya dengan cara ini pengembang dan pengguna AI dapat memiliki aturan untuk diikuti dalam praktiknya tanpa terganggu oleh ketidakpastian yang tidak perlu. Di sisi lain, perlu memainkan peran yang baik dalam pengawasan dan penegakan hukum. Untuk beberapa masalah yang menonjol atau umum, masalah tersebut harus ditangani secara tepat waktu, sehingga dapat menetapkan norma yang sesuai untuk industri tersebut. Yang perlu digarisbawahi di sini adalah karena perkembangan teknologi AI saat ini masih sangat pesat, belum mencapai kondisi stabil. Artinya, pemerintah harus berhati-hati dalam menghadapi masalah yang muncul selama proses ini, perlu “membiarkan peluru terbang lebih lama”, melihat situasi dengan jelas sebelum mengambil tindakan, dan memperhatikan cara-caranya. dan metode ketika menghadapi masalah. . Jika kita memulai secara membabi buta dan mengelola terlalu cepat dan terlalu banyak, hal itu juga dapat berdampak negatif pada perkembangan AI.
Kedua, perusahaan terkait harus merumuskan rencana implementasi spesifik dan standar terperinci untuk realisasi spesifik AI tepercaya. Dibandingkan dengan pemerintah, perusahaan lebih dekat ke pasar dan memahami teknologi dengan lebih baik. Mereka tahu lebih banyak tentang karakteristik teknis model AI, kekuatan dan kelemahannya daripada pemerintah. Oleh karena itu, jika tanggung jawab pemerintah adalah mengusulkan kerangka besar untuk AI tepercaya, maka perusahaan harus menjadi praktisi khusus dalam kerangka besar ini. Di bawah kerangka kerja ini, mereka harus menggabungkan karakteristik pasar dan teknologi untuk menyediakan rencana yang lebih spesifik dan mengimplementasikannya dengan disiplin diri.
Ketiga, pengguna juga harus memainkan peran sebagai umpan balik dan pengawas, mengajukan tuntutan mereka sendiri, mencerminkan masalah mereka sendiri, dan mengawasi penerapan AI tepercaya perusahaan. Dengan mempopulerkan AI, setiap orang di masyarakat akan menjadi pengguna dan pemangku kepentingan AI, dan mereka memiliki suara terbanyak dalam kredibilitas AI. Hanya ketika suara mereka diungkapkan sepenuhnya, pengaturan standar AI tepercaya dan pengembangan teknologi terkait adalah yang paling berharga.
Terakhir, kita harus sepenuhnya mengandalkan kekuatan teknologi. Aturan yang relevan memang penting, namun dalam analisis akhir, realisasi AI yang terpercaya tetap bergantung pada kekuatan teknologi. Faktanya, banyak masalah yang sulit diselesaikan dengan menggunakan aturan dapat diselesaikan dengan cara teknis. Misalnya, setelah generasi AI generatif, masalah "distorsi" telah memusingkan otoritas pengatur, namun nyatanya, dengan mengandalkan teknologi baru, masalah ini mungkin tidak sulit untuk dipecahkan. Misalnya, Google sebelumnya telah memperkenalkan teknologi tanda air elektronik yang tidak terlihat oleh mata telanjang tetapi dapat dikenali oleh mesin. Menerapkannya pada gambar atau video yang dihasilkan dapat secara efektif memastikan bahwa mereka dapat diverifikasi. Adapun untuk verifikasi konten teks, Anda dapat mengikuti contoh pencarian Bing Baru (New Bing). Ketika mengutip konten tertentu, itu akan melampirkan dokumen referensi setelah konten yang dihasilkan, sehingga pengguna dapat mengidentifikasi sendiri keaslian konten yang dihasilkan sesuai dengan kebutuhan mereka.
Secara keseluruhan, realisasi AI tepercaya bukanlah tugas yang mudah, tetapi jika kita memanfaatkan upaya bersama semua pihak dengan baik, tujuan ini pasti akan tercapai.