Posting blog terbaru Bill Gates: Risiko AI memang ada tetapi dapat dikontrol

Pengarang: Jin Qiong

ChatGPT telah populer selama lebih dari setengah tahun.Selain perkembangan pesat, selain untuk memecahkan masalah teknis, kepatuhan mungkin menjadi masalah besar berikutnya-setelah Kongres memanggil Sam Altman, kini FTC (Komisi Perdagangan Federal) juga secara resmi melakukan ChatGPT penyelidikan.

Ini menggemakan apa yang dikatakan Bill Gates beberapa hari yang lalu. Dalam posting blog terbarunya, dia berkata: AI adalah inovasi yang paling transformatif Memang ada risikonya, tetapi risikonya juga bisa dikendalikan.

Dalam posting blog, Bill Gates terutama membahas risiko dan tantangan kecerdasan buatan dan cara menghadapinya, dan juga memberikan beberapa contoh dan saran.

Bill Gates pertama kali menyatakan penegasannya tentang kekhawatiran orang-orang tentang AI hari ini-sekarang kita berada di era perubahan besar dalam kecerdasan buatan, yang merupakan era yang tidak pasti. Namun dia optimistis risiko tersebut bisa dikelola.

Kedua, Bill Gates juga membuat daftar risiko yang disebabkan oleh AI saat ini, termasuk pemalsuan mendalam dan misinformasi yang dihasilkan oleh kecerdasan buatan, yang dapat menghancurkan pemilu dan demokrasi, memudahkan individu dan pemerintah untuk melancarkan serangan, dan merampas pekerjaan orang. mewarisi bias manusia dan mengada-ada, siswa tidak akan belajar menulis karena AI akan melakukannya untuk mereka, dll.

Terakhir, Bill Gates pun mengajukan sederet proposal untuk mengatur AI. Di tingkat pemerintah nasional, pemerintah perlu mengumpulkan keahlian dalam kecerdasan buatan untuk merumuskan undang-undang dan peraturan untuk menangani AI, untuk menangani disinformasi dan pemalsuan mendalam, ancaman keamanan, perubahan pasar kerja, dan dampaknya terhadap pendidikan.

Dalam hal solusi, para pemimpin pemerintah perlu bekerja sama dengan negara lain, tidak sendirian, dan kemampuan untuk berdialog dengan orang-orang yang terinformasi dan bijaksana.

Selain itu, untuk perusahaan, perusahaan AI harus memiliki sikap bertanggung jawab, dan pekerjaan harus dilakukan untuk memastikan keamanan, termasuk melindungi privasi orang dan sebagainya.

Berikut ini adalah teks lengkapnya, diterjemahkan dari GPT-4, diedit oleh 36 Krypton:

Risiko yang ditimbulkan oleh AI tampak luar biasa. Bagaimana dengan mereka yang kehilangan pekerjaan untuk digantikan oleh mesin cerdas? Akankah AI Mempengaruhi Hasil Pemilu? Bagaimana jika AI masa depan memutuskan bahwa manusia tidak lagi dibutuhkan dan ingin menyingkirkan kita?

Ini adalah pertanyaan yang sah, dan kita perlu menganggap serius kekhawatiran yang mereka ajukan. Namun kami memiliki banyak alasan untuk percaya bahwa kami dapat menghadapinya: ini bukan pertama kalinya sebuah inovasi besar memperkenalkan ancaman baru yang harus diatasi, dan kami telah menghadapinya sebelumnya.

Apakah itu munculnya mobil atau munculnya komputer pribadi dan internet, orang telah hidup melalui momen transformatif lainnya yang, meskipun banyak pergolakan, berakhir menjadi lebih baik. Tak lama setelah mobil pertama menabrak jalan, tabrakan pertama terjadi. Namun alih-alih melarang mobil, kami telah mengadopsi batas kecepatan, standar keselamatan, persyaratan surat izin mengemudi, undang-undang mengemudi dalam keadaan mabuk, dan aturan jalan lainnya.

Kita sekarang berada di tahap awal transformasi mendalam lainnya, era AI, mirip dengan era ketidakpastian sebelum batas kecepatan dan sabuk pengaman. AI berubah begitu cepat sehingga tidak jelas apa yang akan terjadi selanjutnya. Kami menghadapi pertanyaan besar tentang cara kerja teknologi saat ini, bagaimana orang menggunakannya untuk tujuan jahat, dan bagaimana kecerdasan buatan dapat mengubah kita sebagai anggota masyarakat dan sebagai individu.

Di saat-saat seperti ini, wajar jika merasa tidak nyaman. Tetapi sejarah menunjukkan bahwa adalah mungkin untuk mengatasi tantangan yang ditimbulkan oleh teknologi baru.

Saya telah menulis tentang bagaimana kecerdasan buatan akan merevolusi hidup kita, membantu memecahkan masalah di bidang kesehatan, pendidikan, perubahan iklim, dan banyak lagi yang tampaknya sulit diselesaikan di masa lalu. The Gates Foundation menjadikan masalah ini sebagai prioritas, dan CEO kami, Mark Suzman, baru-baru ini membagikan refleksinya tentang peran AI dalam mengurangi ketimpangan.

Saya akan berbicara lebih banyak tentang manfaat AI di masa mendatang, tetapi dalam posting ini saya ingin berbicara tentang kekhawatiran paling umum yang saya dengar dan baca, banyak di antaranya saya bagikan, dan menjelaskan perasaan saya tentang kekhawatiran mereka.

Dari semua tulisan sejauh ini tentang risiko kecerdasan buatan, satu hal yang jelas, dan tidak ada satu orang pun yang memiliki semua jawaban. Poin lain yang jelas bagi saya adalah bahwa masa depan kecerdasan buatan tidak sesuram yang dibayangkan, atau semerah yang dibayangkan orang lain. Risikonya memang nyata, tapi saya optimis bisa dikelola. Saat saya membahas setiap masalah satu per satu, saya akan kembali ke beberapa topik:

  • Banyak masalah yang diangkat oleh kecerdasan buatan memiliki preseden sejarah. Ini akan berdampak besar pada pendidikan, misalnya, tetapi kalkulator portabel beberapa dekade yang lalu, dan baru-baru ini memungkinkan komputer masuk ke ruang kelas, kita dapat belajar dari kesuksesan masa lalu.
  • Banyak masalah yang ditimbulkan oleh kecerdasan buatan juga dapat diselesaikan dengan bantuan kecerdasan buatan.
  • Kita perlu mengadaptasi undang-undang lama dan memberlakukan yang baru - sama seperti undang-undang anti-penipuan yang ada harus beradaptasi dengan dunia online.

Pada artikel ini, saya akan fokus pada risiko yang ada atau yang akan terjadi. Saya tidak akan membahas apa yang akan terjadi jika kita mengembangkan AI yang mampu mempelajari mata pelajaran atau tugas apa pun. Sebaliknya, saya berbicara tentang AI yang dibuat khusus hari ini.

Apakah kita sampai pada titik ini dalam satu dekade atau satu abad, masyarakat perlu menghadapi beberapa pertanyaan mendalam. Bagaimana jika AI super menetapkan tujuannya sendiri? Bagaimana jika mereka bertentangan dengan tujuan manusia? Haruskah kita membuat AI super?

Namun, risiko langsung tidak boleh diabaikan saat mempertimbangkan risiko jangka panjang ini. Saya sekarang beralih ke risiko jangka pendek ini.

Konten Palsu dan Misinformasi yang Dihasilkan AI Dapat Menghancurkan Pemilu dan Demokrasi

Penggunaan teknologi untuk menyebarkan kebohongan dan disinformasi bukanlah hal baru. Orang-orang telah menyebarkan kebohongan melalui buku dan selebaran selama berabad-abad. Praktik ini menjadi lebih mudah dengan munculnya pengolah kata, printer laser, email, dan jejaring sosial.

Kecerdasan buatan telah memperkuat masalah teks palsu ini, memungkinkan hampir semua orang membuat audio dan video palsu, yang dikenal sebagai deepfake. Jika Anda mendapatkan pesan suara yang terlihat seperti anak Anda mengatakan "Saya telah diculik, tolong kirim $1.000 ke rekening bank ini dalam 10 menit ke depan dan jangan panggil polisi" itu akan menghasilkan lebih dari konten yang sama. dampak emosional dari surat.

Pada skala yang lebih besar, deepfake buatan AI dapat digunakan untuk mencoba memengaruhi hasil pemilu. Tentu saja, tidak perlu teknologi canggih untuk meragukan pemenang pemilu yang sah, tetapi kecerdasan buatan akan membuat prosesnya jauh lebih mudah.

Sudah, video palsu telah muncul yang berisi rekaman palsu dari politisi terkenal. Bayangkan pada pagi hari pemilihan penting, video seorang kandidat merampok bank menjadi viral. Meski salah, butuh waktu berjam-jam bagi organisasi berita dan kampanye untuk membuktikannya. Berapa banyak orang yang akan melihat video ini dan mengubah suara mereka pada menit terakhir? Itu bisa mengubah hasil balapan, terutama jika balapan sudah dekat.

Saat salah satu pendiri Open AI, Sam Altman, bersaksi di depan komite Senat AS baru-baru ini, para senator dari kedua partai mengemukakan kekhawatiran tentang dampak AI pada pemilu dan demokrasi. Saya harap topik ini terus menarik minat semua orang. Kami benar-benar belum menyelesaikan masalah disinformasi dan deepfake. Tetapi ada dua hal yang membuat saya optimis dengan hati-hati. Salah satunya adalah orang memiliki kemampuan untuk belajar untuk tidak mempercayai segalanya. Selama bertahun-tahun, pengguna email telah ditipu oleh seseorang yang menyamar sebagai pangeran Nigeria, menjanjikan hadiah besar untuk berbagi nomor kartu kredit. Namun pada akhirnya, kebanyakan orang belajar untuk memeriksa ulang email tersebut. Saat penipuan menjadi lebih canggih dan banyak target menjadi lebih licik, kita perlu menciptakan kesadaran yang sama untuk deepfake.

Hal lain yang membuat saya berharap adalah bahwa AI tidak hanya dapat membuat deepfake, tetapi juga membantu mengidentifikasinya. Misalnya, Intel telah mengembangkan detektor deepfake, sementara lembaga pemerintah DARPA sedang mengerjakan cara mengidentifikasi apakah video atau audio telah direkayasa.

Ini akan menjadi proses melingkar: seseorang menemukan cara untuk mendeteksi pemalsuan, orang lain mencari cara untuk melawannya, seseorang mengembangkan tindakan balasan, dan seterusnya. Itu tidak akan menjadi kesuksesan yang sempurna, tetapi kami juga tidak akan terikat.

AI mempermudah manusia dan pemerintah untuk melancarkan serangan

Hari ini, ketika peretas ingin menemukan bug dalam perangkat lunak, mereka menulis kode dengan kekerasan, menyerang potensi kelemahan hingga mereka menemukan bug tersebut. Ini melibatkan banyak jalan memutar, sehingga membutuhkan waktu dan kesabaran.

Profesional keamanan yang ingin melawan peretas harus melakukan hal yang sama. Setiap tambalan perangkat lunak yang Anda pasang di ponsel atau laptop menunjukkan banyak waktu yang dihabiskan untuk memburunya oleh seseorang yang jinak atau jahat.

Model AI akan mempercepat proses ini dengan membantu peretas menulis kode yang lebih efisien. Mereka juga akan dapat menggunakan informasi publik tentang individu, seperti di mana mereka bekerja dan siapa teman mereka, untuk mengembangkan serangan phishing yang lebih canggih daripada yang kita lihat saat ini.

Kabar baiknya adalah AI dapat digunakan untuk tujuan jahat dan baik. Tim keamanan di pemerintahan dan sektor swasta perlu memiliki alat terbaru untuk menemukan dan memperbaiki kerentanan keamanan sebelum penjahat mengeksploitasinya. Saya berharap industri keamanan perangkat lunak akan memperluas pekerjaan yang telah mereka lakukan di bidang ini, ini harus menjadi perhatian utama mereka.

Inilah sebabnya mengapa kita tidak boleh mencoba untuk sementara mencegah orang menerapkan perkembangan baru dalam kecerdasan buatan, seperti yang disarankan beberapa orang. Penjahat dunia maya tidak akan berhenti membuat alat baru, begitu pula mereka yang ingin menggunakan AI untuk merancang senjata nuklir dan serangan bioteror, dan menghentikannya perlu dilanjutkan dengan kecepatan yang sama.

Ada juga risiko terkait di tingkat global: perlombaan senjata AI dapat digunakan untuk merancang dan meluncurkan serangan dunia maya terhadap negara lain. Pemerintah setiap negara ingin memiliki teknologi paling kuat yang tersedia untuk mencegah serangan musuh. Motivasi "tidak meninggalkan siapa pun terlebih dahulu" ini dapat memicu perlombaan untuk menciptakan senjata dunia maya yang semakin berbahaya. Dengan cara ini, semua orang akan menjadi lebih buruk.

Itu ide yang menakutkan, tapi kami memiliki sejarah sebagai pelajaran. Terlepas dari kekurangannya, rezim non-proliferasi senjata nuklir dunia mencegah perang nuklir habis-habisan yang ditakuti oleh generasi saya. Pemerintah harus mempertimbangkan untuk membuat badan AI global yang serupa dengan Badan Energi Atom Internasional.

AI akan mengambil pekerjaan dari orang

Dampak utama kecerdasan buatan pada pekerjaan di tahun-tahun mendatang adalah membantu orang melakukan pekerjaannya dengan lebih efisien. Hal ini berlaku apakah Anda bekerja di pabrik atau di kantor yang menangani panggilan penjualan dan hutang dagang. Pada akhirnya, keterampilan AI dalam mengungkapkan pikiran akan cukup baik sehingga dapat menulis email dan mengelola kotak masuk untuk Anda. Anda akan dapat menulis permintaan dalam bahasa Inggris biasa atau bahasa lain dan menghasilkan laporan pekerjaan yang informatif.

Seperti yang saya katakan di artikel saya di bulan Februari, peningkatan produktivitas baik untuk masyarakat. Ini menyisakan lebih banyak waktu bagi orang untuk melakukan hal-hal lain, baik di tempat kerja maupun di rumah. Dan, kebutuhan akan orang-orang yang suka menolong, seperti mengajar, merawat orang sakit, dan merawat orang lanjut usia, tidak akan pernah ada habisnya.

Tetapi beberapa pekerja memang membutuhkan dukungan dan pelatihan ulang saat kami bertransisi ke tempat kerja yang digerakkan oleh AI. Itulah tugas pemerintah dan bisnis untuk mengelolanya dengan baik sehingga para pekerja tidak tertinggal dan jenis gangguan terhadap kehidupan masyarakat yang terjadi ketika pekerjaan manufaktur AS hilang.

Juga, perlu diingat bahwa ini bukan pertama kalinya teknologi baru menyebabkan perubahan signifikan di pasar tenaga kerja. Saya tidak berpikir dampak kecerdasan buatan akan sebesar revolusi industri, tetapi pasti akan sebesar munculnya komputer pribadi. Aplikasi pengolah kata tidak menghilangkan pekerjaan kantor, tetapi mengubahnya selamanya. Majikan dan karyawan harus beradaptasi, dan mereka melakukannya. Transformasi yang dibawa oleh AI akan menjadi transisi yang bergelombang, tetapi ada banyak alasan untuk percaya bahwa kita dapat mengurangi gangguan pada kehidupan dan mata pencaharian masyarakat.

AI mewarisi bias kita dan mengarangnya

Halusinasi, yaitu ketika AI dengan percaya diri membuat pernyataan yang tidak benar, dan biasanya terjadi karena mesin tidak memahami konteks permintaan Anda. Jika Anda meminta AI untuk menulis cerita pendek tentang liburan ke bulan, itu mungkin memberi Anda jawaban yang sangat imajinatif. Tetapi jika Anda membiarkannya membantu Anda merencanakan perjalanan ke Tanzania, itu mungkin mencoba menurunkan Anda di hotel yang tidak ada.

Risiko AI lainnya adalah mencerminkan atau bahkan memperburuk bias yang ada tentang identitas gender tertentu, ras, etnis, dll.

Untuk memahami mengapa ilusi dan bias seperti itu muncul, penting untuk memahami cara kerja model AI yang paling umum saat ini. Mereka pada dasarnya adalah versi kode yang sangat kompleks yang memungkinkan aplikasi email Anda memprediksi kata berikutnya yang akan Anda ketikkan: dalam beberapa kasus, hampir semua teks tersedia di web, dan mereka memindai teks dalam jumlah besar, menganalisisnya, Menemukan pola dalam bahasa manusia.

Saat Anda mengajukan pertanyaan kepada AI, ia melihat kata-kata yang Anda gunakan dan kemudian mencari teks yang sering dikaitkan dengan kata-kata tersebut. Jika Anda menulis "daftar bahan untuk pancake", mungkin terlihat bahwa kata "tepung, gula, garam, baking powder, susu, dan telur" sering muncul bersama frasa tersebut. Kemudian, berdasarkan apa yang diketahuinya tentang urutan munculnya kata-kata itu, ia menghasilkan jawaban (model AI yang bekerja dengan cara ini menggunakan apa yang disebut transformer, dan GPT-4 adalah salah satu modelnya).

Proses ini menjelaskan mengapa AI dapat berhalusinasi atau bias, tanpa pemahaman kontekstual apa pun atas pertanyaan yang Anda ajukan atau hal yang Anda sampaikan. Jika Anda memberi tahu bahwa Anda salah ketik, mungkin akan tertulis "maaf, saya salah ketik". Tapi itu hanya ilusi, tidak salah ketik apa-apa, katanya karena sudah memindai teks yang cukup untuk mengetahui bahwa "maaf, saya salah ketik" adalah salah satu hal yang sering ditulis orang setelah kalimat dikoreksi.

Demikian pula, model AI mewarisi bias yang melekat pada teks tempat mereka dilatih. Jika banyak membaca artikel tentang dokter, dan artikel tersebut kebanyakan menyebutkan dokter laki-laki, maka jawabannya akan berasumsi bahwa kebanyakan dokter adalah laki-laki.

Meskipun beberapa peneliti berpendapat bahwa halusinasi adalah masalah yang melekat, saya tidak setuju. Saya optimis, seiring waktu, kita dapat mengajarkan model AI untuk membedakan fakta dari fiksi. Misalnya, Open AI telah melakukan pekerjaan yang menjanjikan dalam hal ini.

Organisasi lain, termasuk Alan Turing Institute dan National Institute of Standards and Technology, menangani bias. Salah satu pendekatannya adalah memasukkan nilai-nilai kemanusiaan dan penalaran tingkat tinggi ke dalam AI. Ini mirip dengan cara kerja manusia yang sadar diri: mungkin Anda mengira kebanyakan dokter adalah laki-laki, tetapi Anda cukup sadar akan asumsi itu untuk mengetahui bahwa Anda harus secara sadar melawannya. Kecerdasan buatan dapat bekerja dengan cara yang sama, terutama jika modelnya dirancang oleh orang-orang dari latar belakang yang berbeda.

Pada akhirnya, setiap orang yang menggunakan AI perlu menyadari masalah bias dan menjadi pengguna yang terinformasi. Makalah yang Anda minta untuk disusun oleh AI bisa penuh bias sekaligus kesalahan faktual. Anda perlu memeriksa bias AI Anda, serta bias Anda sendiri.

Siswa tidak akan belajar menulis karena AI akan melakukannya untuk mereka

Banyak guru khawatir AI akan mengganggu pekerjaan mereka dengan siswa. Di zaman di mana siapa pun yang memiliki koneksi internet dapat menggunakan kecerdasan buatan untuk menulis draf pertama yang terhormat dari sebuah disertasi, apa yang menghentikan seorang siswa untuk menyerahkannya sebagai milik mereka?

Sudah ada beberapa alat AI yang belajar untuk mengetahui apakah sebuah esai ditulis oleh manusia atau komputer, sehingga guru dapat mengetahui apakah siswanya sedang mengerjakan pekerjaan rumahnya. Namun alih-alih mencoba mencegah siswanya menggunakan AI dalam menulis, beberapa guru justru mendorongnya.

Pada bulan Januari, seorang guru bahasa Inggris veteran bernama Cherie Shields menerbitkan sebuah artikel di Education Week. menerbitkan artikel tentang cara dia menggunakan Chat GPT di kelasnya. Chat GPT membantu siswanya mulai dari membuat esai hingga menulis garis besar dan bahkan memberikan masukan untuk tugas mereka.

Dia menulis: "Guru harus merangkul teknologi AI sebagai alat lain yang dapat digunakan siswa. Sama seperti kami pernah mengajari siswa cara melakukan penelusuran Google yang baik, guru harus merancang kejelasan seputar bagaimana bot Chat GPT dapat membantu penulisan esai." keberadaan AI dan membantu siswa menggunakannya dapat merevolusi cara kita mengajar.” Tidak setiap guru memiliki waktu untuk belajar dan menggunakan alat baru, tetapi pendidik seperti Cherie Shields menawarkan argumen yang bagus, bahwa guru yang memiliki waktu akan mendapat manfaat besar .

Ini mengingatkan saya pada era ketika kalkulator elektronik menjadi populer di tahun 1970-an dan 1980-an. Beberapa guru matematika khawatir siswanya akan berhenti belajar aritmatika dasar, tetapi yang lain menerima teknologi baru dan fokus pada pemikiran di balik aritmatika.

AI juga dapat membantu menulis dan berpikir kritis. Terutama di masa-masa awal, ketika halusinasi dan bias masih menjadi masalah, pendidik dapat membuat esai buatan AI dan kemudian memeriksa faktanya dengan siswa. Organisasi nirlaba pendidikan seperti Akademi Khan dan Proyek OER memberi guru dan siswa alat daring gratis yang sangat menekankan pada pengujian klaim, dan tidak ada keterampilan yang lebih penting daripada mengetahui cara mengatakan kebenaran dari yang palsu.

Kami benar-benar perlu memastikan bahwa perangkat lunak pendidikan membantu menutup kesenjangan pencapaian, bukan memperburuknya. Perangkat lunak saat ini terutama ditujukan untuk siswa yang sudah termotivasi untuk belajar. Itu dapat membuat rencana studi untuk Anda, menghubungkan Anda dengan sumber daya yang bagus, dan menguji pengetahuan Anda. Namun, ia belum mengetahui cara melibatkan Anda dalam subjek yang belum Anda minati. Ini adalah masalah yang perlu ditangani pengembang agar semua jenis siswa dapat memperoleh manfaat dari AI.

**Apa yang harus dilakukan selanjutnya? **

Saya percaya kami memiliki lebih banyak alasan untuk optimis bahwa kami dapat mengelola risiko AI sambil memaksimalkan manfaatnya, tetapi kami harus bergerak cepat.

Pemerintah perlu mengembangkan keahlian dalam AI untuk mengembangkan undang-undang dan peraturan untuk menangani teknologi baru ini. Mereka harus menghadapi misinformasi dan deepfake, ancaman keamanan, perubahan pasar kerja, dan dampaknya terhadap pendidikan. Hanya satu contoh: undang-undang perlu mengklarifikasi penggunaan deepfake mana yang legal dan bagaimana deepfake harus diberi label sehingga semua orang mengerti bahwa apa yang mereka lihat atau dengar itu palsu.

Para pemimpin politik harus mampu terlibat dalam dialog yang terinformasi dan bijaksana dengan konstituen. Mereka juga perlu memutuskan berapa banyak untuk bekerja sama dengan negara lain dalam masalah ini, daripada melakukannya sendiri.

Di sektor swasta, perusahaan AI perlu melakukan pekerjaannya dengan aman dan bertanggung jawab. Ini termasuk melindungi privasi orang, memastikan model AI mereka mencerminkan nilai-nilai fundamental manusia, meminimalkan bias untuk memberi manfaat bagi sebanyak mungkin orang, dan mencegah teknologi dieksploitasi oleh penjahat atau teroris. Perusahaan di banyak sektor ekonomi perlu membantu transisi karyawan mereka ke tempat kerja yang berpusat pada AI sehingga tidak ada yang tertinggal. Dan, pelanggan harus selalu mengetahui apakah mereka berinteraksi dengan AI atau manusia.

Terakhir, saya mendorong semua orang untuk memperhatikan sebanyak mungkin pengembangan kecerdasan buatan. Ini adalah inovasi paling transformatif yang akan kita lihat seumur hidup kita, dan debat publik yang sehat akan bergantung pada pemahaman setiap orang tentang teknologi itu sendiri, manfaatnya, dan risikonya. Manfaat kecerdasan buatan akan sangat besar, dan alasan terbaik untuk percaya bahwa kita dapat mengendalikan risikonya adalah karena kita mampu melakukannya.

Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)