Tujuh raksasa AI membuat 8 janji besar di Gedung Putih, apa yang mereka janjikan?

Hanya tiga hari setelah Meta mengumumkan generasi baru model bahasa besar open source Llama 2, eksekutif puncak perusahaan, Microsoft, OpenAI, Amazon, Anthropic, dan tujuh raksasa lainnya di industri AI dan eksekutif perusahaan start-up panas berkumpul lagi di Gedung Putih di Amerika Serikat.

Dalam acara ini, tujuh perusahaan menandatangani "Komitmen Sukarela" (Voluntary Commitments), membuat "8 komitmen utama" pada keamanan, transparansi, dan risiko teknologi AI dan R&D.

Sumber gambar: Dihasilkan oleh AI Tak Terbatas

Drama "mencari pengawasan" perusahaan AI telah mencapai klimaks kecil di sini.

Kolumnis NYT Kevin Roose menulis sebuah artikel, menjelaskan secara rinci apa yang dikatakan "8 janji utama", dan perubahan yang mereka hasilkan.

Hasil penelitian adalah bahwa 8 komitmen ini, seperti pengujian keamanan, berbagi informasi keamanan AI, melaporkan kerentanan, dan "memprioritaskan AI untuk menyelesaikan tantangan sosial", tampaknya menjadi beberapa masalah besar, dan komitmen terkait kurang detail. Banyak masalah itu sendiri telah "dipublikasikan" ke publik oleh perusahaan AI.

"Surat Komitmen Sumber Daya" ini lebih seperti "tampilan hasil" tidak langsung dari beberapa pertanyaan dari regulator AS kepada perusahaan AI dalam enam bulan terakhir, dan mungkin tidak memiliki signifikansi penerapan yang signifikan. Namun, regulator telah menyatakan keprihatinan tentang AI beberapa kali, yang menunjukkan bahwa posisi pemerintah dalam penerapan teknologi AI adalah yang paling penting dari pertunjukan ini.

Berikut interpretasi Kevin Roose terhadap 8 komitmen dalam “Voluntary Commitment Letter” tersebut:

** Komitmen 1: Perusahaan berkomitmen untuk melakukan pengujian keamanan internal dan eksternal sistem AI sebelum merilisnya. **

Semua perusahaan AI ini telah melakukan uji keamanan pada model mereka—sering disebut sebagai "pengujian tim merah"—sebelum dirilis. Di satu sisi, ** ini sebenarnya bukan janji baru, ini tidak jelas. Tidak ada perincian yang diberikan tentang jenis pengujian apa yang diperlukan atau oleh siapa**.

Dalam pernyataan selanjutnya, Gedung Putih hanya mengatakan bahwa pengujian model AI "sebagian akan dilakukan oleh pakar independen" dan berfokus pada "risiko AI seperti keamanan hayati dan keamanan siber, serta implikasi sosialnya yang lebih luas".

Sebaiknya perusahaan AI secara terbuka berkomitmen untuk melanjutkan pengujian semacam itu, dan untuk mendorong lebih banyak transparansi dalam proses pengujian. Ada juga beberapa jenis risiko AI—seperti bahaya bahwa model AI dapat digunakan untuk mengembangkan senjata biologis—yang mungkin lebih baik dinilai oleh pejabat pemerintah dan militer daripada perusahaan.

Saya senang melihat industri AI menyetujui serangkaian tes keamanan standar, seperti tes "replikasi diri" Alignment Research Center untuk model pra-rilis dari OpenAI dan Anthropic. Saya juga ingin melihat pemerintah federal mendanai tes semacam itu, yang mungkin mahal dan membutuhkan insinyur dengan keahlian teknis yang signifikan. Saat ini, banyak pengujian keamanan didanai dan diawasi oleh perusahaan, yang menimbulkan masalah konflik kepentingan.

** Komitmen 2: Perusahaan berkomitmen untuk berbagi informasi tentang pengelolaan risiko AI di seluruh industri dan dengan pemerintah, masyarakat sipil, dan akademisi. **

Janji ini juga agak kabur. Beberapa dari perusahaan ini telah menerbitkan informasi tentang model AI mereka — seringkali dalam makalah akademis atau posting blog perusahaan. Beberapa dari perusahaan ini, termasuk OpenAI dan Anthropic, juga telah menerbitkan dokumen yang disebut "Kartu" yang menguraikan langkah-langkah yang mereka ambil untuk membuat model ini lebih aman.

Tetapi mereka juga terkadang menahan informasi, dengan alasan masalah keamanan. Saat OpenAI merilis model AI terbarunya, GPT-4, tahun ini, OpenAI melanggar konvensi industri dengan memilih untuk tidak mengungkapkan berapa banyak data pelatihannya atau seberapa besar modelnya (metrik yang disebut "parameter"). Perusahaan mengatakan menolak untuk mengungkapkan informasi karena masalah persaingan dan keamanan. Itu juga merupakan jenis data yang ingin dijauhkan oleh perusahaan teknologi dari pesaing.

Di bawah komitmen baru ini, apakah perusahaan AI akan dipaksa untuk mengungkapkan informasi tersebut? Bagaimana jika melakukannya berisiko mempercepat perlombaan senjata AI?

Saya menduga bahwa tujuan Gedung Putih bukan untuk memaksa perusahaan mengungkapkan nomor parameter mereka, melainkan untuk mendorong mereka bertukar informasi satu sama lain tentang risiko yang dilakukan (atau tidak) ditimbulkan oleh model mereka.

Tetapi bahkan berbagi informasi ini bisa berisiko. Jika tim AI Google, selama pengujian pra-rilis, mencegah model baru digunakan untuk merancang senjata biologis yang mematikan, haruskah tim tersebut membagikan informasi tersebut di luar Google? Apakah ini memberikan ide kepada aktor jahat tentang cara mendapatkan model yang kurang terlindungi untuk melakukan tugas yang sama?

** Komitmen 3: Perusahaan berkomitmen untuk berinvestasi dalam keamanan siber dan tindakan perlindungan ancaman orang dalam untuk melindungi bobot model yang dimiliki dan tidak dipublikasikan. **

Pertanyaan ini sangat sederhana dan tidak kontroversial di antara orang dalam AI yang saya ajak bicara. "Bobot Model" adalah istilah teknis yang mengacu pada instruksi matematis yang memberi model AI kemampuan untuk berfungsi. Jika Anda adalah agen pemerintah asing (atau perusahaan saingan) yang ingin membuat ChatGPT versi Anda sendiri atau produk AI lainnya, bobot adalah yang ingin Anda curi. Perusahaan AI memiliki kepentingan untuk mengendalikan ini secara ketat.

Masalah kebocoran berat model sudah diketahui dengan baik.

Misalnya, bobot untuk model bahasa LLaMA asli Meta bocor di 4chan dan situs lain hanya beberapa hari setelah model dirilis ke publik. Mengingat risiko lebih banyak kebocoran, dan kemungkinan bahwa negara lain mungkin tertarik untuk mencuri teknologi dari perusahaan A.S., mengharuskan perusahaan AI untuk berinvestasi lebih banyak dalam keamanan mereka sendiri tampaknya tidak perlu dipikirkan lagi.

** Komitmen 4: Kedua perusahaan berkomitmen untuk memfasilitasi penemuan dan pelaporan kerentanan pihak ketiga dalam sistem AI mereka. **

Saya tidak begitu yakin apa artinya itu. Setelah setiap perusahaan AI merilis model, ia menemukan lubang pada modelnya, biasanya karena pengguna mencoba melakukan hal-hal buruk dengan model tersebut, atau menghindari "jailbreaking" dengan cara yang tidak terduga oleh perusahaan.

Gedung Putih telah berjanji untuk meminta perusahaan membuat "mekanisme pelaporan yang kuat" untuk kerentanan, tetapi tidak jelas apa artinya itu.

Tombol umpan balik dalam aplikasi, mirip dengan yang memungkinkan pengguna Facebook dan Twitter melaporkan posting yang menyinggung? Program hadiah bug, seperti yang diluncurkan OpenAI tahun ini untuk memberi penghargaan kepada pengguna yang menemukan bug di sistemnya? Apakah ada hal lain? Kami harus menunggu detail lebih lanjut.

** Komitmen 5: Perusahaan berkomitmen untuk mengembangkan mekanisme teknis yang kuat untuk memastikan pengguna mengetahui kapan konten dihasilkan oleh kecerdasan buatan, seperti sistem watermarking. **

Itu ide yang menarik, tetapi menyisakan banyak ruang untuk interpretasi.

Sejauh ini, perusahaan AI telah kesulitan merancang alat yang memungkinkan orang mengetahui apakah mereka sedang melihat konten buatan AI. Ada alasan teknis yang bagus untuk ini, tetapi ini adalah masalah nyata ketika orang dapat menganggap pekerjaan yang dihasilkan AI sebagai milik mereka (tanyakan pada guru sekolah menengah mana pun.)

Banyak alat saat ini yang diiklankan mampu mendeteksi keluaran AI sebenarnya tidak dapat melakukannya dengan tingkat akurasi apa pun.

Saya tidak optimis masalah ini akan terselesaikan sepenuhnya, tetapi saya senang perusahaan berkomitmen untuk mengatasinya.

**Komitmen 6: Perusahaan berkomitmen untuk melaporkan secara publik tentang kemampuan, batasan, dan area penggunaan sistem AI mereka yang sesuai dan tidak tepat. **

Komitmen lain yang terdengar masuk akal dengan banyak ruang gerak.

Seberapa sering perusahaan perlu melaporkan kemampuan dan keterbatasan sistem mereka? Seberapa detailkah informasi ini? Mengingat banyak perusahaan yang membangun sistem AI terkejut dengan kemampuan sistem mereka setelah fakta, seberapa jauh mereka dapat benar-benar menjelaskan sistem ini sebelumnya?

** Komitmen 7: Perusahaan berkomitmen untuk memprioritaskan penelitian tentang risiko terhadap masyarakat yang mungkin ditimbulkan oleh sistem AI, termasuk menghindari bias dan diskriminasi yang berbahaya serta melindungi privasi. **

Komitmen untuk "memprioritaskan penelitian" adalah komitmen yang tidak jelas. Tetap saja, saya yakin komitmen ini akan disambut baik oleh banyak komunitas etika AI, yang ingin perusahaan AI memprioritaskan pencegahan bahaya jangka pendek seperti bias dan diskriminasi, daripada mengkhawatirkan skenario hari kiamat, seperti yang dilakukan oleh orang-orang keamanan AI.

Jika Anda bingung tentang perbedaan antara "etika AI" dan "keamanan AI", ketahuilah bahwa ada dua faksi yang bersaing dalam komunitas riset AI, yang masing-masing percaya satu sama lain berfokus untuk mencegah bahaya dari kesalahan.

** Komitmen 8: Kedua perusahaan berkomitmen untuk mengembangkan dan menggunakan sistem kecerdasan buatan canggih untuk membantu memecahkan tantangan terbesar masyarakat. **

Saya tidak berpikir banyak orang akan berpendapat bahwa AI tingkat lanjut tidak boleh digunakan untuk membantu memecahkan tantangan terbesar masyarakat. Saya tidak akan setuju dengan Gedung Putih yang mengutip pencegahan kanker dan mitigasi perubahan iklim sebagai dua area yang ingin menjadi fokus perusahaan AI.

Namun, yang agak memperumit tujuan ini adalah bahwa dalam penelitian kecerdasan buatan, hal-hal yang tampak membosankan pada awalnya cenderung memiliki konsekuensi yang lebih serius.

Beberapa teknik yang digunakan oleh DeepMind's AlphaGo, sistem kecerdasan buatan yang dilatih untuk memainkan permainan papan Go, sangat berguna dalam memprediksi struktur tiga dimensi protein, penemuan besar yang memajukan penelitian ilmiah dasar.

Secara keseluruhan, kesepakatan Gedung Putih dengan perusahaan AI tampaknya lebih simbolis daripada substantif. Tidak ada mekanisme penegakan untuk memastikan perusahaan mematuhi komitmen ini, banyak di antaranya mencerminkan tindakan pencegahan yang telah dilakukan oleh perusahaan AI.

Tetap saja, ini adalah langkah pertama yang masuk akal.

Setuju untuk mematuhi peraturan ini menunjukkan bahwa perusahaan AI telah belajar dari kegagalan perusahaan teknologi awal yang menunggu hingga mendapat masalah sebelum terlibat dengan pemerintah. Di Washington, setidaknya dalam hal regulasi teknologi, membayar untuk datang lebih awal.

Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)