OpenAI mengumumkan rekrutmen terbuka jaringan "tim merah", perpustakaan ahli super berorientasi AI akan segera muncul

**Sumber: **Financial Associated Press

Editor Shi Zhengcheng

Pada Rabu dini hari waktu Beijing, OpenAI, sebuah perusahaan rintisan teknologi Amerika, mengeluarkan pengumuman yang mengumumkan peluncuran rekrutmen global anggota jaringan "tim merah", yang bertujuan untuk memperkenalkan kekuatan eksternal untuk mengungkap kelemahan dan risiko dalam AI sistem terlebih dahulu.

(Sumber: OpenAI)

Konsep jaringan "tim merah" atau Red Teaming berasal dari simulasi militer. **Artinya, temukan tim yang terdiri dari orang-orang untuk mensimulasikan "musuh" imajiner untuk menguji tingkat kesiapan pihak Anda sendiri ("tim biru"). **Di bidang AI, tugas "tim merah" adalah mensimulasikan peretas atau orang lain yang berpotensi berbahaya dan mencoba menemukan celah dalam model bahasa besar, untuk mencegah AI membantu tujuan ilegal seperti membahayakan jaminan sosial dalam masyarakat nyata.

OpenAI mengatakan bahwa dalam beberapa tahun terakhir, para ahli di berbagai bidang telah membantu menguji model yang belum dirilis. Kini mereka membentuk "kekuatan reguler" untuk merekrut sejumlah besar orang dari berbagai wilayah, bahasa berbeda, bidang profesional berbeda, dan kehidupan yang berbeda. Orang-orang yang berpengalaman bekerja sama untuk membuat model AI lebih aman. **Berbeda dengan masa lalu, yang hanya merekrut sekelompok orang untuk pengujian terpusat sebelum versi penting diluncurkan secara online, OpenAI akan memungkinkan jumlah anggota yang tidak pasti untuk melakukan pengujian di seluruh siklus pengembangan berdasarkan permintaan.

Pada saat yang sama, jaringan "tim merah" ini juga akan menjadi perpustakaan pakar global OpenAI, dan OpenAI juga akan menyediakan platform untuk komunikasi antar anggota "tim merah". OpenAI juga mencantumkan beberapa arahan ahli yang ingin mereka rekrut di situs resminya, namun juga menekankan bahwa hal itu tidak terbatas pada bidang tersebut saja.

Ilmu Kognitif:Ilmu Kognitif

Kimia: Kimia

Biologi: Biologi

Fisika: Fisika

Ilmu Komputer: Ilmu Komputer

Steganografi: steganografi

Ilmu Politik: Ilmu Politik

Psikologi: Psikologi

Persuasi: Persuasi

Ekonomi: Ekonomi

Antropologi: Antropologi

Sosiologi: Sosiologi

HCI (Interaksi Manusia-Komputer): Interaksi Manusia-Komputer

Keadilan dan Bias: Keadilan dan Bias

Penyelarasan: penyelarasan target

Pendidikan: Pendidikan

Perawatan Kesehatan: perawatan medis

Hukum: Hukum

Keamanan Anak:Keselamatan anak

Keamanan siber: keamanan jaringan

Keuangan: Keuangan

Mis/disinformasi:Informasi yang salah/salah

Penggunaan Politik: Penerapan Politik

Privasi: Privasi

Biometrik: Biometrik

Bahasa dan Linguistik:Bahasa dan Linguistik

Omong-omong, OpenAI juga menyatakan akan membayar remunerasi kepada anggota yang berpartisipasi dalam proyek "tim merah" (tetapi tidak menentukan berapa jumlah yang akan dibayarkan). OpenAI juga menekankan bahwa proyek yang berpartisipasi dalam "tim merah" umumnya memerlukan penandatanganan perjanjian kerahasiaan atau tetap diam untuk jangka waktu yang tidak ditentukan.

OpenAI menyatakan bahwa saluran lamaran akan tetap terbuka hingga 1 Desember tahun ini. Perusahaan akan meninjau lamaran secara bergilir dan selanjutnya akan mengevaluasi apakah diperlukan rekrutmen terbuka lebih lanjut.

Anggota “tim merah” OpenAI yang naik ke panggung

Seperti yang disebutkan OpenAI, “tim merah” sudah ada sejak lama, dan banyak anggotanya telah menerima wawancara publik dari media.

Dalam artikel yang mengungkap di Financial Times pada bulan April tahun ini, Andrew White, seorang profesor teknik kimia di Universitas Rochester di Amerika Serikat, mengatakan bahwa dia berpartisipasi dalam uji "tim merah" GPT-4,** dan bahwa target serangannya adalah menggunakan ChatGPT untuk membuat racun saraf yang benar-benar baru. White mengatakan dia menggunakan fungsi "plug-in" untuk memasukkan makalah kimia dan katalog produsen bahan kimia ke model besar, dan model besar bahkan memberinya tempat di mana dia bisa memproduksi toksin hipotetisnya. **

White mengatakan bahwa model besar pada akhirnya dapat membantu banyak orang melakukan eksperimen kimia dengan lebih cepat dan akurat, namun ada juga bahaya serius bahwa beberapa orang akan menggunakan AI untuk melakukan beberapa eksperimen berbahaya.

Setelah menerima masukan dari White, OpenAI membuat perubahan pada sistem untuk memastikan bahwa sistem tidak akan merespons pertanyaan serupa. Menurut media, ada sekitar 10 anggota "tim merah" dengan latar belakang berbeda - pengacara, guru, personel pengendalian risiko, peneliti keamanan, dll. Kebanyakan dari mereka berlokasi di Amerika Serikat dan Eropa. Mereka mengungkapkan bahwa beberapa bulan sebelum GPT-4 dirilis, mereka menghabiskan sekitar 10-40 jam untuk menguji sistem, dan dibayar sekitar $100 per jam.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)