Ketika kekurangan chip untuk melatih model kecerdasan buatan semakin memburuk, OpenAI, pengembang di balik ChatGPT, sedang menjajaki pembuatan chip AI-nya sendiri dan telah mengevaluasi potensi target akuisisi, menurut orang-orang yang mengetahui masalah tersebut. Setidaknya sejak tahun lalu, OpenAI telah membahas berbagai opsi untuk mengatasi kekurangan chip AI mahal yang diandalkannya.
Opsi-opsi tersebut termasuk membuat chip AI sendiri, bekerja lebih dekat dengan pembuat chip lain termasuk Nvidia, dan mendiversifikasi pemasoknya di luar Nvidia (NVDA.O).
Saat ini, OpenAI, seperti kebanyakan pesaingnya, mengandalkan perangkat keras berbasis GPU untuk mengembangkan model seperti ChatGPT, GPT-4, dan DALL-E 3. Kemampuan GPU untuk melakukan banyak penghitungan secara paralel menjadikannya ideal untuk melatih model tercanggih saat ini.
CEO OpenAI Sam Altman telah menjadikan lebih banyak chip GPU sebagai prioritas perusahaan. Dia secara terbuka mengeluhkan kelangkaan GPU. Pasar chip AI saat ini didominasi oleh Nvidia yang menguasai lebih dari 80% pasar chip AI global.
Dorongan untuk mendapatkan lebih banyak chip terkait dengan dua masalah utama yang diidentifikasi Altman: kurangnya prosesor canggih untuk mendukung perangkat lunak OpenAI, dan jumlah perangkat keras yang dibutuhkan untuk mendukung pekerjaan dan produknya yang “memusingkan”.
Sejak tahun 2020, OpenAI telah mengembangkan teknologi AI generatifnya pada superkomputer besar yang dibangun oleh salah satu pendukung terbesarnya, Microsoft, yang menggunakan 10.000 unit pemrosesan grafis (GPU) Nvidia.
Namun lonjakan kecerdasan buatan generatif—rejeki nomplok bagi produsen GPU seperti Nvidia—telah memberikan tekanan besar pada rantai pasokan GPU. Microsoft memperingatkan dalam laporan pendapatan musim panasnya bahwa kekurangan perangkat keras server yang diperlukan untuk menjalankan kecerdasan buatan dapat menyebabkan pemadaman layanan. Chip AI Nvidia dengan performa terbaik dilaporkan terjual habis hingga tahun 2024.
GPU juga penting untuk menjalankan dan melayani model OpenAI; perusahaan mengandalkan cluster GPU di cloud untuk menjalankan beban kerja pelanggan. Tapi harganya sangat mahal.
Menjalankan ChatGPT sangat mahal untuk OpenAI. Biaya per kueri sekitar 4 sen, menurut analisis analis Bernstein, Stacy Rasgon. Jika kueri ChatGPT tumbuh hingga sepersepuluh ukuran penelusuran Google, hal ini pada awalnya akan memerlukan GPU senilai sekitar $48,1 miliar dan chip senilai sekitar $16 miliar per tahun agar dapat tetap berjalan.
Kompetisi AI generatif memasuki era chip yang disesuaikan
Sejak peluncuran ChatGPT tahun lalu, permintaan akan chip AI khusus telah meroket. Melatih dan menjalankan teknologi AI generatif terbaru memerlukan chip atau akselerator AI tertentu. Nvidia adalah salah satu dari sedikit pembuat chip yang memproduksi chip AI yang berguna dan mendominasi pasar.
Upaya untuk mengembangkan chip AI-nya sendiri akan menempatkan OpenAI di antara sekelompok kecil perusahaan teknologi besar, seperti Google dan Amazon, yang berupaya mengendalikan desain chip yang mendasari pembuatannya.
Tidak jelas apakah OpenAI akan melanjutkan rencana pembuatan chip khusus. Para veteran industri mengatakan hal ini akan menjadi langkah strategis besar dan investasi besar yang dapat menghabiskan biaya ratusan juta dolar per tahun. Meskipun OpenAI mencurahkan sumber dayanya untuk tugas tersebut, kesuksesan tidak dijamin.
Mengakuisisi perusahaan chip dapat mempercepat proses OpenAI dalam membuat chipnya sendiri, seperti yang dilakukan Amazon dengan akuisisi Annapurna Labs pada tahun 2015.
OpenAI telah mempertimbangkan jalur untuk melakukan uji tuntas terhadap target akuisisi potensial, menurut seseorang yang mengetahui masalah tersebut. Namun, masih belum mungkin untuk mengetahui daftar perusahaan yang sedang ditinjau OpenAI untuk diakuisisi.
Bahkan jika OpenAI bergerak maju dengan rencana chip kustomnya, termasuk akuisisi, pengerjaannya bisa memakan waktu bertahun-tahun, dan OpenAI masih harus bergantung pada penyedia chip komersial seperti Nvidia dan AMD.
Beberapa perusahaan teknologi besar telah membuat prosesor mereka sendiri selama bertahun-tahun, namun keberhasilannya terbatas. Pengerjaan chip kustom Meta bermasalah, sehingga menyebabkan perusahaan tersebut membuang beberapa chip kecerdasan buatannya, menurut laporan Reuters. Meta saat ini sedang mengembangkan chip baru yang akan mencakup semua jenis pekerjaan AI.
Microsoft berencana membuat chip AI baru untuk pelatihan model besar
Microsoft (MSFT.O) berencana untuk mengungkap chip pertama perusahaan yang dirancang untuk kecerdasan buatan pada konferensi pengembang tahunannya bulan depan, kata seseorang yang mengetahui masalah tersebut, menurut The Information. Langkah ini merupakan puncak dari kerja keras selama bertahun-tahun dan dapat membantu Microsoft mengurangi ketergantungannya pada chip kecerdasan buatan yang dirancang oleh Nvidia Corp (NVDA.O). Ketika permintaan melonjak, pasokan chip ini berkurang. Chip Microsoft dirancang untuk server pusat data yang melatih dan menjalankan model bahasa besar (LLM). Server pusat data Microsoft saat ini menggunakan GPU Nvidia untuk mendukung LLM tingkat lanjut bagi pelanggan cloud, termasuk OpenAI dan Intuit, serta mendukung kemampuan kecerdasan buatan dalam aplikasi produktivitas Microsoft.
Rencana ini mungkin menandai kerenggangan lebih lanjut antara kedua perusahaan, OpenAI dan Microsoft.
Peluang dan tantangan hidup berdampingan di bidang chip AI. Sekalipun OpenAI berupaya menghadirkan chip khusus ke pasar, upaya tersebut kemungkinan akan memakan waktu bertahun-tahun dan menelan biaya ratusan juta dolar setiap tahunnya. Masih harus dilihat apakah investor startup, salah satunya Microsoft, tertarik melakukan taruhan berisiko tersebut. Potensi OpenAI untuk memasuki bidang ini menyoroti pergeseran industri yang lebih luas menuju solusi yang lebih mandiri dan dapat disesuaikan. Hasilnya masih harus dilihat, namun implikasinya terhadap dunia kecerdasan buatan sangat besar.
Referensi:
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Singkirkan Nvidia? OpenAI dan Microsoft sama-sama memilih untuk mengembangkan chip AI mereka sendiri
Ketika kekurangan chip untuk melatih model kecerdasan buatan semakin memburuk, OpenAI, pengembang di balik ChatGPT, sedang menjajaki pembuatan chip AI-nya sendiri dan telah mengevaluasi potensi target akuisisi, menurut orang-orang yang mengetahui masalah tersebut. Setidaknya sejak tahun lalu, OpenAI telah membahas berbagai opsi untuk mengatasi kekurangan chip AI mahal yang diandalkannya.
Opsi-opsi tersebut termasuk membuat chip AI sendiri, bekerja lebih dekat dengan pembuat chip lain termasuk Nvidia, dan mendiversifikasi pemasoknya di luar Nvidia (NVDA.O).
Saat ini, OpenAI, seperti kebanyakan pesaingnya, mengandalkan perangkat keras berbasis GPU untuk mengembangkan model seperti ChatGPT, GPT-4, dan DALL-E 3. Kemampuan GPU untuk melakukan banyak penghitungan secara paralel menjadikannya ideal untuk melatih model tercanggih saat ini.
CEO OpenAI Sam Altman telah menjadikan lebih banyak chip GPU sebagai prioritas perusahaan. Dia secara terbuka mengeluhkan kelangkaan GPU. Pasar chip AI saat ini didominasi oleh Nvidia yang menguasai lebih dari 80% pasar chip AI global.
Dorongan untuk mendapatkan lebih banyak chip terkait dengan dua masalah utama yang diidentifikasi Altman: kurangnya prosesor canggih untuk mendukung perangkat lunak OpenAI, dan jumlah perangkat keras yang dibutuhkan untuk mendukung pekerjaan dan produknya yang “memusingkan”.
Sejak tahun 2020, OpenAI telah mengembangkan teknologi AI generatifnya pada superkomputer besar yang dibangun oleh salah satu pendukung terbesarnya, Microsoft, yang menggunakan 10.000 unit pemrosesan grafis (GPU) Nvidia.
Namun lonjakan kecerdasan buatan generatif—rejeki nomplok bagi produsen GPU seperti Nvidia—telah memberikan tekanan besar pada rantai pasokan GPU. Microsoft memperingatkan dalam laporan pendapatan musim panasnya bahwa kekurangan perangkat keras server yang diperlukan untuk menjalankan kecerdasan buatan dapat menyebabkan pemadaman layanan. Chip AI Nvidia dengan performa terbaik dilaporkan terjual habis hingga tahun 2024.
GPU juga penting untuk menjalankan dan melayani model OpenAI; perusahaan mengandalkan cluster GPU di cloud untuk menjalankan beban kerja pelanggan. Tapi harganya sangat mahal.
Menjalankan ChatGPT sangat mahal untuk OpenAI. Biaya per kueri sekitar 4 sen, menurut analisis analis Bernstein, Stacy Rasgon. Jika kueri ChatGPT tumbuh hingga sepersepuluh ukuran penelusuran Google, hal ini pada awalnya akan memerlukan GPU senilai sekitar $48,1 miliar dan chip senilai sekitar $16 miliar per tahun agar dapat tetap berjalan.
Kompetisi AI generatif memasuki era chip yang disesuaikan
Sejak peluncuran ChatGPT tahun lalu, permintaan akan chip AI khusus telah meroket. Melatih dan menjalankan teknologi AI generatif terbaru memerlukan chip atau akselerator AI tertentu. Nvidia adalah salah satu dari sedikit pembuat chip yang memproduksi chip AI yang berguna dan mendominasi pasar.
Upaya untuk mengembangkan chip AI-nya sendiri akan menempatkan OpenAI di antara sekelompok kecil perusahaan teknologi besar, seperti Google dan Amazon, yang berupaya mengendalikan desain chip yang mendasari pembuatannya.
Tidak jelas apakah OpenAI akan melanjutkan rencana pembuatan chip khusus. Para veteran industri mengatakan hal ini akan menjadi langkah strategis besar dan investasi besar yang dapat menghabiskan biaya ratusan juta dolar per tahun. Meskipun OpenAI mencurahkan sumber dayanya untuk tugas tersebut, kesuksesan tidak dijamin.
Mengakuisisi perusahaan chip dapat mempercepat proses OpenAI dalam membuat chipnya sendiri, seperti yang dilakukan Amazon dengan akuisisi Annapurna Labs pada tahun 2015.
OpenAI telah mempertimbangkan jalur untuk melakukan uji tuntas terhadap target akuisisi potensial, menurut seseorang yang mengetahui masalah tersebut. Namun, masih belum mungkin untuk mengetahui daftar perusahaan yang sedang ditinjau OpenAI untuk diakuisisi.
Bahkan jika OpenAI bergerak maju dengan rencana chip kustomnya, termasuk akuisisi, pengerjaannya bisa memakan waktu bertahun-tahun, dan OpenAI masih harus bergantung pada penyedia chip komersial seperti Nvidia dan AMD.
Beberapa perusahaan teknologi besar telah membuat prosesor mereka sendiri selama bertahun-tahun, namun keberhasilannya terbatas. Pengerjaan chip kustom Meta bermasalah, sehingga menyebabkan perusahaan tersebut membuang beberapa chip kecerdasan buatannya, menurut laporan Reuters. Meta saat ini sedang mengembangkan chip baru yang akan mencakup semua jenis pekerjaan AI.
Microsoft berencana membuat chip AI baru untuk pelatihan model besar
Microsoft (MSFT.O) berencana untuk mengungkap chip pertama perusahaan yang dirancang untuk kecerdasan buatan pada konferensi pengembang tahunannya bulan depan, kata seseorang yang mengetahui masalah tersebut, menurut The Information. Langkah ini merupakan puncak dari kerja keras selama bertahun-tahun dan dapat membantu Microsoft mengurangi ketergantungannya pada chip kecerdasan buatan yang dirancang oleh Nvidia Corp (NVDA.O). Ketika permintaan melonjak, pasokan chip ini berkurang. Chip Microsoft dirancang untuk server pusat data yang melatih dan menjalankan model bahasa besar (LLM). Server pusat data Microsoft saat ini menggunakan GPU Nvidia untuk mendukung LLM tingkat lanjut bagi pelanggan cloud, termasuk OpenAI dan Intuit, serta mendukung kemampuan kecerdasan buatan dalam aplikasi produktivitas Microsoft.
Rencana ini mungkin menandai kerenggangan lebih lanjut antara kedua perusahaan, OpenAI dan Microsoft.
Peluang dan tantangan hidup berdampingan di bidang chip AI. Sekalipun OpenAI berupaya menghadirkan chip khusus ke pasar, upaya tersebut kemungkinan akan memakan waktu bertahun-tahun dan menelan biaya ratusan juta dolar setiap tahunnya. Masih harus dilihat apakah investor startup, salah satunya Microsoft, tertarik melakukan taruhan berisiko tersebut. Potensi OpenAI untuk memasuki bidang ini menyoroti pergeseran industri yang lebih luas menuju solusi yang lebih mandiri dan dapat disesuaikan. Hasilnya masih harus dilihat, namun implikasinya terhadap dunia kecerdasan buatan sangat besar.
Referensi: