Pada tanggal 26 Oktober, Microsoft, OpenAI, Google dan Anthropic mengeluarkan pernyataan bersama di situs web resmi mereka, menunjuk Chris Meserole sebagai direktur eksekutif "Frontier Model Forum" dan menginvestasikan $ 10 juta dalam dana keamanan untuk meningkatkan keamanan produk AI generatif seperti ChatGPT dan Bard.
Pernyataan ini merupakan kinerja penting dari empat perusahaan teknologi besar untuk mengembangkan AI generatif yang aman, andal, dan stabil, dan juga merupakan bagian dari "Komitmen Keamanan AI" yang ditandatangani dengan pejabat tersebut, yang sangat penting untuk pengembangan AI generatif global yang sehat.
Pengantar Forum Model Frontier
Frontier Model Forum, yang didirikan bersama oleh Microsoft, OpenAI, Google dan Anthropic pada 26 Juli tahun ini, terutama bertanggung jawab untuk memastikan pengembangan model AI mutakhir yang aman dan bertanggung jawab.
4 Tujuan Inti Forum:
Mempromosikan penelitian keamanan AI, mempromosikan pengembangan model mutakhir yang bertanggung jawab, meminimalkan risiko, dan memungkinkan penilaian kemampuan dan keselamatan AI yang independen dan terstandarisasi.
Mengidentifikasi praktik terbaik untuk mengembangkan dan menerapkan model terdepan secara bertanggung jawab untuk membantu publik memahami sifat, kemampuan, keterbatasan, dan dampak teknologi.
Bekerja dengan pembuat kebijakan, akademisi, masyarakat sipil dan perusahaan untuk berbagi pengetahuan tentang risiko kepercayaan dan keamanan.
Dukungan kuat untuk pengembangan aplikasi AI yang membantu mengatasi tantangan sosial, seperti mitigasi dan adaptasi perubahan iklim, deteksi dan pencegahan dini kanker, dan mengatasi ancaman dunia maya.
Chris Meserole Tanggung Jawab
Chris memiliki keahlian mendalam dalam kebijakan teknologi, dengan komitmen jangka panjang terhadap tata kelola dan keamanan teknologi baru dan aplikasi masa depan. Baru-baru ini, Chris juga menjabat sebagai direktur AI dan Emerging Technologies Initiative di Brookings Institution.
Di Frontier Model Forum, Chris akan melakukan tugas-tugas berikut:
Mempromosikan penelitian keamanan AI, mempromosikan pengembangan model mutakhir, dan meminimalkan potensi risiko.
Identifikasi praktik terbaik keamanan untuk model terdepan.
Berbagi pengetahuan dengan pembuat kebijakan, akademisi, masyarakat dan pemangku kepentingan lainnya untuk mendorong pengembangan AI yang bertanggung jawab.
Mendukung upaya untuk menggunakan AI untuk memecahkan tantangan terbesar masyarakat.
Chris mengatakan model AI yang paling kuat memiliki janji sosial yang sangat besar, tetapi untuk mencapai potensi mereka, kita perlu lebih memahami cara mengembangkan dan mengevaluasinya dengan aman. Saya senang bekerja dengan Frontier Model Forum untuk mengatasi tantangan ini.
Dana Keamanan AI
Selama setahun terakhir, AI generatif telah membuat kemajuan luar biasa, bersama dengan banyak potensi risiko keamanan. Untuk mengatasi tantangan ini, Microsoft, OpenAI, Google, dan Anthropic telah membentuk Dana Keamanan AI untuk mendukung peneliti independen dari lembaga akademik, lembaga penelitian, dan startup di seluruh dunia untuk bekerja sama membangun ekosistem keamanan AI yang sehat dan aman.
Awal tahun ini, Microsoft, OpenAI, Google, dan Anthropic menandatangani "AI Security Pledge," yang mencakup komitmen untuk memfasilitasi penemuan pihak ketiga dan pelaporan kerentanan AI di perusahaan teknologi Big Four.
Fokus utama dari AI Security Fund adalah untuk mendukung pengembangan teknik evaluasi model baru untuk membantu mengembangkan dan menguji model AI mutakhir.
Peningkatan pendanaan untuk keamanan AI akan membantu meningkatkan standar keselamatan dan keamanan dan memberikan kontrol yang efektif bagi industri dan pengembang untuk mengatasi tantangan yang ditimbulkan oleh sistem AI.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Microsoft, OpenAI, dll. menginvestasikan $ 10 juta, apa itu "Forum Model Perbatasan"?
Sumber asli: AIGC Open Community
Pada tanggal 26 Oktober, Microsoft, OpenAI, Google dan Anthropic mengeluarkan pernyataan bersama di situs web resmi mereka, menunjuk Chris Meserole sebagai direktur eksekutif "Frontier Model Forum" dan menginvestasikan $ 10 juta dalam dana keamanan untuk meningkatkan keamanan produk AI generatif seperti ChatGPT dan Bard.
Pernyataan ini merupakan kinerja penting dari empat perusahaan teknologi besar untuk mengembangkan AI generatif yang aman, andal, dan stabil, dan juga merupakan bagian dari "Komitmen Keamanan AI" yang ditandatangani dengan pejabat tersebut, yang sangat penting untuk pengembangan AI generatif global yang sehat.
Pengantar Forum Model Frontier
Frontier Model Forum, yang didirikan bersama oleh Microsoft, OpenAI, Google dan Anthropic pada 26 Juli tahun ini, terutama bertanggung jawab untuk memastikan pengembangan model AI mutakhir yang aman dan bertanggung jawab.
4 Tujuan Inti Forum:
Mempromosikan penelitian keamanan AI, mempromosikan pengembangan model mutakhir yang bertanggung jawab, meminimalkan risiko, dan memungkinkan penilaian kemampuan dan keselamatan AI yang independen dan terstandarisasi.
Mengidentifikasi praktik terbaik untuk mengembangkan dan menerapkan model terdepan secara bertanggung jawab untuk membantu publik memahami sifat, kemampuan, keterbatasan, dan dampak teknologi.
Bekerja dengan pembuat kebijakan, akademisi, masyarakat sipil dan perusahaan untuk berbagi pengetahuan tentang risiko kepercayaan dan keamanan.
Dukungan kuat untuk pengembangan aplikasi AI yang membantu mengatasi tantangan sosial, seperti mitigasi dan adaptasi perubahan iklim, deteksi dan pencegahan dini kanker, dan mengatasi ancaman dunia maya.
Chris Meserole Tanggung Jawab
Chris memiliki keahlian mendalam dalam kebijakan teknologi, dengan komitmen jangka panjang terhadap tata kelola dan keamanan teknologi baru dan aplikasi masa depan. Baru-baru ini, Chris juga menjabat sebagai direktur AI dan Emerging Technologies Initiative di Brookings Institution.
Di Frontier Model Forum, Chris akan melakukan tugas-tugas berikut:
Chris mengatakan model AI yang paling kuat memiliki janji sosial yang sangat besar, tetapi untuk mencapai potensi mereka, kita perlu lebih memahami cara mengembangkan dan mengevaluasinya dengan aman. Saya senang bekerja dengan Frontier Model Forum untuk mengatasi tantangan ini.
Dana Keamanan AI
Selama setahun terakhir, AI generatif telah membuat kemajuan luar biasa, bersama dengan banyak potensi risiko keamanan. Untuk mengatasi tantangan ini, Microsoft, OpenAI, Google, dan Anthropic telah membentuk Dana Keamanan AI untuk mendukung peneliti independen dari lembaga akademik, lembaga penelitian, dan startup di seluruh dunia untuk bekerja sama membangun ekosistem keamanan AI yang sehat dan aman.
Fokus utama dari AI Security Fund adalah untuk mendukung pengembangan teknik evaluasi model baru untuk membantu mengembangkan dan menguji model AI mutakhir.
Peningkatan pendanaan untuk keamanan AI akan membantu meningkatkan standar keselamatan dan keamanan dan memberikan kontrol yang efektif bagi industri dan pengembang untuk mengatasi tantangan yang ditimbulkan oleh sistem AI.