Dengan pengetatan pengeluaran cloud untuk perangkat lunak perusahaan Internet, pertumbuhan yang melambat secara bertahap menjadi awan gelap di atas kepala vendor cloud.
Kelahiran ChatGPT memecahkan kemacetan ini, dan AI akan membentuk ulang perangkat lunak. Pelanggan vendor cloud—perusahaan perangkat lunak secara aktif menyematkan kemampuan AI yang dibawa oleh model besar ke dalam alur kerja yang ada untuk menyelesaikan otomatisasi tingkat yang lebih tinggi.
Dengan mengeringnya pelanggan cloud baru secara bertahap, perusahaan perangkat lunak tidak lagi pergi ke cloud demi pergi ke cloud, tetapi berusaha menggunakan AI untuk meningkatkan produktivitas. **"Ini adalah peningkatan terbesar di pasar komputasi awan dalam sepuluh tahun ke depan. Infrastruktur daya komputasi adalah penerima manfaat mutlak dari model besar." ** Seseorang di industri komputasi awan yang telah berkecimpung di industri ini selama lebih dari sepuluh tahun menjelaskan kepada Geek Park.
Di bawah prospek seperti itu, beberapa raksasa layanan cloud luar negeri — Microsoft, Amazon, Google, dan Oracle dengan cepat membuat perubahan. **Dalam beberapa bulan terakhir, raksasa cloud telah menghabiskan uang nyata untuk mengembangkan model skala besar, investasi strategis, dan chip AI yang dikembangkan sendiri... Era model skala besar sedang naik daun, dan mereka telah menargetkan generasi baru pelanggan perangkat lunak AI. **
Masa lalu jauh dari bisa dipecahkan, pasar cloud dengan cepat dirombak, dan raksasa telah membuka tirai persaingan baru.
Toh, penurunan sang kakak di era internet seluler sudah dekat. Dalam beberapa tahun, Nokia telah beralih dari 70% pangsa pasar ponsel di masa jayanya menjadi tidak ada yang peduli. Itu hanya di antara pikiran karena membuat keputusan yang salah. Sedangkan untuk model besar, industri cloud dengan cepat mencapai konsensus: kali ini AI bukanlah variabel kecil. Dilihat dari kecepatan perkembangan industri yang pesat, pemain terkemuka saat ini mungkin juga tertinggal.
**Separuh tahun 2023 telah berlalu, artikel ini akan memilah beberapa raksasa cloud besar di luar negeri, apa kunci persaingan antar vendor cloud saat ini? **
01 Penelitian dan pengembangan chip khusus AI, Anda tidak dapat memberikan seluruh "nyawa" Anda untuk Nvidia
Setelah munculnya era model besar, untuk penyedia layanan cloud, sumber daya yang paling langka saat ini adalah daya komputasi, atau chip AI. **Berinvestasi dalam infrastruktur dasar - chip akselerasi AI, juga menjadi fokus utama persaingan di antara vendor cloud saat ini. **
Kelangkaan dan biaya tinggi dianggap sebagai alasan utama vendor cloud mempercepat chip yang dikembangkan sendiri. Bahkan tokoh kuat di lingkaran teknologi seperti Musk berkomentar bahwa "hal ini (Nvidia GPU) lebih sulit ditangani daripada obat", dan diam-diam membeli 10.000 kartu dari Nvidia untuk perusahaan AI-nya X.AI, dan juga menerima Banyak ekuitas menganggur di Oracle.
Tingkat kelangkaan ini tercermin dalam bisnis raksasa cloud, yang secara langsung berhubungan dengan kerugian bisnis yang disebabkan oleh "kemacetan". Bahkan Microsoft, yang pertama bertindak lebih dulu, telah terkena desas-desus bahwa karena kekurangan GPU, tim R&D AI internal menerapkan sistem penjatahan GPU, berbagai rencana baru tertunda, dan pelanggan baru harus mengantre berbulan-bulan untuk pergi ke Azure.
Bahkan lembaga modal ventura harus mengandalkan persediaan chip Nvidia untuk meraih proyek. Demi N kartu, kekuatan semua pihak telah mencapai titik di mana "semuanya digunakan".
**Nama lain dari kelangkaan adalah mahal. **Mengingat model besar membutuhkan lebih dari sepuluh kali daya komputasi, kartu hanya akan lebih mahal. Baru-baru ini, seorang investor memberi tahu Geek Park, "Pada awal tahun, kartu tunggal A100 adalah 80.000, tetapi sekarang telah terjual hingga 160.000, yang masih di luar jangkauan." Sejalan dengan itu, puluhan ribu kartu dari raksasa awan harus membayar "Pajak Nvidia" hanya akan menjadi angka astronomi.
Sulit untuk merasakan bahwa "nasib" tergantung di tangan orang lain, dan Microsoft, yang paling populer, memiliki suara terbanyak. Sebulan yang lalu, Informasi tersebut secara eksklusif melaporkan bahwa Microsoft membentuk 300 orang "Tiantuan" untuk mempercepat laju chip AI yang dikembangkan sendiri. Chip server yang diberi nama kode Cascade dapat diluncurkan paling cepat tahun depan.
Bukan hanya karena "macet", chip yang dikembangkan sendiri oleh produsen cloud, tetapi juga lapisan makna lainnya-GPU belum tentu merupakan chip yang paling cocok untuk menjalankan AI, dan versi yang dikembangkan sendiri dapat mengoptimalkan tugas AI tertentu.
Harus diakui, sebagian besar model AI canggih saat ini ditenagai oleh GPU, karena GPU lebih baik dalam menjalankan beban kerja pembelajaran mesin daripada prosesor tujuan umum. **Namun, GPU masih dianggap sebagai chip tujuan umum, bukan platform pemrosesan asli untuk komputasi AI. **Seperti yang ditunjukkan Institut Riset Yuanchuan dalam "A Crack in the Nvidia Empire", GPU tidak dilahirkan untuk melatih jaringan saraf. Semakin cepat kecerdasan buatan berkembang, semakin banyak masalah ini terungkap. Mengandalkan CUDA dan berbagai teknologi untuk "perubahan ajaib" adegan demi adegan adalah pilihan, tetapi itu bukan solusi optimal.
Amazon, Google, dan Microsoft telah mengembangkan chip yang dikenal sebagai ASIC — sirkuit terintegrasi khusus aplikasi — yang lebih cocok untuk kecerdasan buatan. The Information mewawancarai beberapa praktisi dan analis industri chip dan menyimpulkan bahwa GPU Nvidia membantu melatih model di balik ChatGPT, tetapi ASIC umumnya melakukan tugas ini lebih cepat dan mengonsumsi lebih sedikit daya.
Seperti yang ditunjukkan pada gambar di atas: Amazon, Microsoft, dan Google semuanya telah meningkatkan pentingnya chip yang dikembangkan sendiri secara internal, dan mengembangkan dua jenis chip untuk sektor pusat data: chip komputasi standar dan chip yang didedikasikan untuk pelatihan dan menjalankan mesin model pembelajaran. Model ini dapat mendukung chatbot seperti ChatGPT.
Saat ini, Amazon dan Google telah mengembangkan ASIC khusus untuk produk internal utama, dan telah menyediakan chip ini kepada pelanggan melalui cloud. Sejak 2019, Microsoft juga telah berupaya mengembangkan chip ASIC khusus untuk menggerakkan model bahasa besar.
Beberapa chip yang dikembangkan oleh penyedia cloud ini, seperti chip server Amazon Graviton dan chip khusus AI yang dirilis oleh Amazon dan Google, sudah sebanding dalam kinerjanya dengan chip dari pembuat chip tradisional, menurut data kinerja yang dirilis oleh pelanggan cloud dan Microsoft. Google TPU v4 1,2-1,7 kali lebih cepat dari Nvidia A100, sekaligus mengurangi konsumsi daya 1,3-1,9 kali.
02 Kompetisi Investasi Strategis: Raksasa membelanjakan uang untuk "membeli pelanggan"
Selain penelitian dan pengembangan chip, poin kunci kedua dalam persaingan beberapa raksasa cloud besar di luar negeri adalah berinvestasi dalam investasi strategis asing untuk merebut pelanggan AI dan proyek AI. **
Dibandingkan dengan modal ventura, investasi strategis raksasa memiliki keunggulan absolut. Kombinasi OpenAI dan Microsoft berfungsi sebagai contoh yang sangat baik, membuka preseden untuk model berskala besar dan investasi strategis. Ini karena hambatan sumber daya yang diperlukan untuk model besar dan aplikasi terkait sangat tinggi.Hanya uang, uang terbatas, tidak cukup untuk mengambil proyek AI. Lagi pula, Google, Microsoft, AWS, Oracle, atau Nvidia tidak hanya dapat menulis cek besar, tetapi juga menyediakan sumber daya yang langka seperti kredit cloud dan GPU.
Dari perspektif ini, meraih proyek dan meraih pelanggan semuanya terjadi di antara raksasa cloud, dan tidak ada saingan lain. Mereka memainkan permainan baru — mencari janji dari perusahaan AI bahwa mereka akan menggunakan layanan cloud mereka daripada layanan pesaing.
Microsoft duduk di posisi penyedia layanan cloud eksklusif OpenAI Sambil membayar tagihan cloud yang besar untuk OpenAI, Microsoft telah menukar serangkaian hak yang patut ditiru seperti ekuitas OpenAI dan prioritas produk.
**Saingan Microsoft juga berebut untuk memenangkan pelanggan AI lainnya. **Penyedia cloud ini menawarkan diskon besar dan kredit kepada perusahaan AI untuk memenangkan bisnis mereka. Kritikus telah menunjukkan bahwa ini mirip dengan membeli pelanggan, meskipun praktik mengambil ekuitas di masa depan atau pelanggan saat ini tidak jarang terjadi di dunia perangkat lunak perusahaan.
Oracle juga telah menawarkan kredit komputasi senilai ratusan ribu dolar sebagai insentif bagi startup AI untuk menyewa server cloud Oracle, The Information melaporkan sebelumnya.
Google mungkin yang paling aktif dari vendor cloud utama ini, menawarkan kepada startup AI kombinasi uang tunai dan kredit Google Cloud dengan imbalan ekuitas. Awal tahun ini, Google menginvestasikan $400 juta di Anthropic, salah satu penantang kewirausahaan utama OpenAI. Google Cloud mengatakan pada bulan Februari bahwa itu telah menjadi penyedia cloud "pilihan" Anthropic.
Baru-baru ini, Google menginvestasikan US$100 juta di Runway, sebuah perusahaan AI di bidang "Vensheng Video". Namun sebelum itu, Amazon AWS menggembar-gemborkan Runway sebagai pelanggan startup AI utama. Pada bulan Maret tahun ini, AWS dan Runway mengumumkan pembentukan kemitraan strategis jangka panjang, menjadi "penyedia cloud pilihan". Kini, Runway sepertinya menjadi salah satu "pion" dalam duel Google dengan Amazon, karena Runway juga diperkirakan akan menyewa cloud server dari Google.
Sebelumnya, Google Cloud juga mengumumkan pembentukan kemitraan dengan dua perusahaan AI populer lainnya, yaitu: Midjourney di bidang grafik Vincent dan robot obrolan App Character.ai, yang sebelumnya merupakan pelanggan cloud utama Oracle.
Masih terlalu dini untuk mengatakan apakah kesepakatan ini akan membantu Google mengejar saingan komputasi awan yang lebih besar AWS dan Microsoft, tetapi Google Cloud sedang dalam perbaikan.
Dari 75 perusahaan perangkat lunak (AI) dalam database The Information, Google menyediakan beberapa layanan cloud untuk setidaknya 17 perusahaan, lebih banyak dari penyedia cloud lainnya. Amazon tidak jauh di belakang, dengan setidaknya 15 perusahaan menggunakan AWS untuk komputasi awan. Microsoft dan Oracle masing-masing menyediakan layanan cloud untuk enam perusahaan dan empat perusahaan. Tentu saja, menggunakan banyak cloud juga merupakan kebiasaan di industri ini, dan setidaknya 12 dari 75 perusahaan ini menggunakan gabungan dari beberapa penyedia cloud.
03 model besar adalah kunci sebenarnya untuk menang atau kalah
Kekuatan komputasi dan investasi tempur adalah keunggulan yang harus diperebutkan pada tahap awal perang cloud ini. Namun dalam jangka panjang, model besar adalah kunci nyata keberhasilan persaingan pasar.
Kemampuan Microsoft untuk menjadi pemimpin berkat kerja sama dengan OpenAI. Ditambah dengan kemampuan teknik yang sangat baik dari tim Microsoft, GPT-4 tertanam dalam "keranjang keluarga" Microsoft dalam beberapa bulan. Dalam enam bulan terakhir, Microsoft pertama kali memanfaatkan prioritas penggunaan produk OpenAI dan pengurangan harga produk perangkat lunak perusahaan untuk merebut lebih banyak pasar cloud. Kemudian andalkan peningkatan lini produk ke Microsoft 365 Copilot untuk menaikkan harga guna memperoleh pendapatan yang lebih besar.
Menurut penelitian Yunqi Capital, model dasar Microsoft pada dasarnya bergantung pada OpenAI, dan setelah mengakses model besar, Microsoft mulai mengemas dan menjual Teams, Power BI, Azure, dan produk lapisan aplikasi lainnya dengan harga lebih murah.
Chief Financial Officer Microsoft Amy Hood mengatakan kepada investor pada bulan April bahwa OpenAI akan menghasilkan pendapatan untuk Azure karena lebih banyak orang mulai menggunakan layanannya.
Laporan baru menunjukkan bahwa Microsoft membebankan premi 40% kepada beberapa pelanggan Office 365 untuk menguji kemampuan AI yang mengotomatiskan tugas seperti menulis teks di dokumen Word dan membuat slide PowerPoint, dan setidaknya 100 pelanggan telah membayar biaya tetap hingga $100.000. Data menunjukkan bahwa dalam satu bulan peluncurannya, Microsoft memperoleh pendapatan lebih dari $60 juta dari kemampuan AI Microsoft 365 Copilot.
**Berbeda sekali dengan Microsoft, Amazon Cloud yang pernah menjadi pemimpin, satu langkah di belakang dalam model besar, menghadapi tantangan yang lebih berat saat ini. **
AWS adalah pengembang awal layanan cloud AI, dan telah ada sejak sekitar tahun 2016. Tetapi pelanggan tidak menemukan layanan, yang mencakup pengenalan wajah, mengubah teks menjadi ucapan yang hidup, dan bentuk chatbot primitif untuk tugas-tugas seperti layanan pelanggan, sangat berguna. AWS juga meluncurkan SagaMaker, alat digital AI untuk para insinyur pada tahun 2017, untuk membantu mereka mengembangkan dan menggunakan model pembelajaran mesin, yang pernah menjadi produk AI terpenting AWS.
Namun, di tahun-tahun berikutnya, produk AI AWS gagal mengikuti gelombang model bahasa besar Sejak November 2021, Microsoft telah mulai menjual produk AI yang dikembangkan berdasarkan seri model GPT untuk digunakan oleh pelanggan perusahaan. Pada saat yang sama, Google juga mengambil startup AI besar sebagai pelanggan cloud dan menjual perangkat lunak AI berpemilik kepada pelanggan cloud-nya. Bahkan cloud computing laggard Oracle memiliki kelebihannya sendiri dalam menyediakan sumber daya komputasi untuk startup AI.
AWS, terlambat, mencoba mengejar ketinggalan. Pada bulan April, ia mengumumkan layanan cloud yang memungkinkan pelanggan menggunakan model besar dari Lab Stabilitas, Antropik, dan AI 21 sebagai basis untuk produk mereka sendiri. Sebagai imbalannya, AWS akan membagi sebagian pendapatan dengan para mitra ini.
Pada konferensi Google I/O 2023, CEO Sundar Pichai memperkenalkan kemajuan AI terbaru Google | Sumber gambar: Situs web resmi Google
**Google bangun lebih awal, tetapi terlambat. **Sebagai pabrikan besar dengan akumulasi terdalam di bidang model skala besar, reaksi Google setelah merilis ChatGPT tidak mengecewakan. Google dengan cepat merilis robot cerdas percakapan Bard dan generasi baru model bahasa skala besar PaLM 2 sebagai tanggapan Akibatnya, konferensi pers langsung terbalik , Kecepatan rilis produk selanjutnya tidak ideal, yang sangat kontras dengan kemampuan teknik Microsoft yang kuat.
**Hal terakhir yang perlu disebutkan adalah bahwa Oracle, yang jatuh dari garis depan pasar cloud sangat awal, secara tak terduga memiliki kecenderungan untuk melakukan serangan balik dalam gelombang kebangkitan ini. **
Oracle, yang lama tertinggal di ruang cloud, secara mengejutkan berhasil menyewakan server cloud ke startup AI profil tinggi yang bersaing dengan OpenAI. Itu sebagian karena Oracle Cloud dapat menjalankan model pembelajaran mesin yang kompleks lebih ekonomis daripada Amazon Web Services atau Google Cloud, The Information melaporkan.
Pendekatan Oracle Cloud terhadap ras AI tampaknya mirip dengan AWS, yang mengembangkan perangkat lunak AI sendiri untuk dijual kepada pelanggan, tetapi juga akan menjual akses ke perangkat lunak AI sumber terbuka dan produk dari pengembang AI lainnya.
Selain itu, beberapa orang yang mengetahui masalah tersebut mengungkapkan bahwa Oracle telah mulai menguji produk OpenAI untuk memperkaya lini produknya bagi pelanggan B-end, termasuk sumber daya manusia dan perangkat lunak manajemen rantai pasokan, tetapi Oracle lebih cenderung mengembangkan perangkat lunaknya sendiri untuk tujuan ini. .fitur membantu pelanggan Oracle dengan cepat menghasilkan deskripsi pekerjaan dan menjadwalkan pertemuan antara perekrut dan kandidat, meskipun perusahaan masih memutuskan produk mana yang akan ditingkatkan terlebih dahulu.
Bahan referensi:
"Keretakan di Kekaisaran Nvidia" | Lembaga Penelitian Yuanchuan
Pabrik besar dan model besar: bisnis nyata adalah kata terakhir|"Yunqi FutureScope"
Google dan Microsoft's Other AI Race: Server Chips|Informasi
Skeptisisme Meningkat Terhadap Strategi AI AWS|Informasinya
Google, Nvidia, dan Microsoft Menawarkan Apa yang Tidak Dapat Dilakukan VC|Informasinya
Pro Weekly: AI Generatif Memacu Permintaan Cloud—dan Persaingan|Informasi
Google Berinvestasi di AI Startup Runway untuk Merebut Bisnis Cloud Dari AWS|Informasinya
Microsoft Mengisi Beberapa Pelanggan Office 365 Ekstra 40% untuk Menguji Fitur AI|Informasi
Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Microsoft, Google, dan Amazon memulai perang cloud di era model besar
Pengarang: Wan Chen Editor: Zheng Xuan
Dengan pengetatan pengeluaran cloud untuk perangkat lunak perusahaan Internet, pertumbuhan yang melambat secara bertahap menjadi awan gelap di atas kepala vendor cloud.
Kelahiran ChatGPT memecahkan kemacetan ini, dan AI akan membentuk ulang perangkat lunak. Pelanggan vendor cloud—perusahaan perangkat lunak secara aktif menyematkan kemampuan AI yang dibawa oleh model besar ke dalam alur kerja yang ada untuk menyelesaikan otomatisasi tingkat yang lebih tinggi.
Dengan mengeringnya pelanggan cloud baru secara bertahap, perusahaan perangkat lunak tidak lagi pergi ke cloud demi pergi ke cloud, tetapi berusaha menggunakan AI untuk meningkatkan produktivitas. **"Ini adalah peningkatan terbesar di pasar komputasi awan dalam sepuluh tahun ke depan. Infrastruktur daya komputasi adalah penerima manfaat mutlak dari model besar." ** Seseorang di industri komputasi awan yang telah berkecimpung di industri ini selama lebih dari sepuluh tahun menjelaskan kepada Geek Park.
Di bawah prospek seperti itu, beberapa raksasa layanan cloud luar negeri — Microsoft, Amazon, Google, dan Oracle dengan cepat membuat perubahan. **Dalam beberapa bulan terakhir, raksasa cloud telah menghabiskan uang nyata untuk mengembangkan model skala besar, investasi strategis, dan chip AI yang dikembangkan sendiri... Era model skala besar sedang naik daun, dan mereka telah menargetkan generasi baru pelanggan perangkat lunak AI. **
Masa lalu jauh dari bisa dipecahkan, pasar cloud dengan cepat dirombak, dan raksasa telah membuka tirai persaingan baru.
Toh, penurunan sang kakak di era internet seluler sudah dekat. Dalam beberapa tahun, Nokia telah beralih dari 70% pangsa pasar ponsel di masa jayanya menjadi tidak ada yang peduli. Itu hanya di antara pikiran karena membuat keputusan yang salah. Sedangkan untuk model besar, industri cloud dengan cepat mencapai konsensus: kali ini AI bukanlah variabel kecil. Dilihat dari kecepatan perkembangan industri yang pesat, pemain terkemuka saat ini mungkin juga tertinggal.
**Separuh tahun 2023 telah berlalu, artikel ini akan memilah beberapa raksasa cloud besar di luar negeri, apa kunci persaingan antar vendor cloud saat ini? **
01 Penelitian dan pengembangan chip khusus AI, Anda tidak dapat memberikan seluruh "nyawa" Anda untuk Nvidia
Setelah munculnya era model besar, untuk penyedia layanan cloud, sumber daya yang paling langka saat ini adalah daya komputasi, atau chip AI. **Berinvestasi dalam infrastruktur dasar - chip akselerasi AI, juga menjadi fokus utama persaingan di antara vendor cloud saat ini. **
Kelangkaan dan biaya tinggi dianggap sebagai alasan utama vendor cloud mempercepat chip yang dikembangkan sendiri. Bahkan tokoh kuat di lingkaran teknologi seperti Musk berkomentar bahwa "hal ini (Nvidia GPU) lebih sulit ditangani daripada obat", dan diam-diam membeli 10.000 kartu dari Nvidia untuk perusahaan AI-nya X.AI, dan juga menerima Banyak ekuitas menganggur di Oracle.
Tingkat kelangkaan ini tercermin dalam bisnis raksasa cloud, yang secara langsung berhubungan dengan kerugian bisnis yang disebabkan oleh "kemacetan". Bahkan Microsoft, yang pertama bertindak lebih dulu, telah terkena desas-desus bahwa karena kekurangan GPU, tim R&D AI internal menerapkan sistem penjatahan GPU, berbagai rencana baru tertunda, dan pelanggan baru harus mengantre berbulan-bulan untuk pergi ke Azure.
Bahkan lembaga modal ventura harus mengandalkan persediaan chip Nvidia untuk meraih proyek. Demi N kartu, kekuatan semua pihak telah mencapai titik di mana "semuanya digunakan".
**Nama lain dari kelangkaan adalah mahal. **Mengingat model besar membutuhkan lebih dari sepuluh kali daya komputasi, kartu hanya akan lebih mahal. Baru-baru ini, seorang investor memberi tahu Geek Park, "Pada awal tahun, kartu tunggal A100 adalah 80.000, tetapi sekarang telah terjual hingga 160.000, yang masih di luar jangkauan." Sejalan dengan itu, puluhan ribu kartu dari raksasa awan harus membayar "Pajak Nvidia" hanya akan menjadi angka astronomi.
Sulit untuk merasakan bahwa "nasib" tergantung di tangan orang lain, dan Microsoft, yang paling populer, memiliki suara terbanyak. Sebulan yang lalu, Informasi tersebut secara eksklusif melaporkan bahwa Microsoft membentuk 300 orang "Tiantuan" untuk mempercepat laju chip AI yang dikembangkan sendiri. Chip server yang diberi nama kode Cascade dapat diluncurkan paling cepat tahun depan.
Bukan hanya karena "macet", chip yang dikembangkan sendiri oleh produsen cloud, tetapi juga lapisan makna lainnya-GPU belum tentu merupakan chip yang paling cocok untuk menjalankan AI, dan versi yang dikembangkan sendiri dapat mengoptimalkan tugas AI tertentu.
Harus diakui, sebagian besar model AI canggih saat ini ditenagai oleh GPU, karena GPU lebih baik dalam menjalankan beban kerja pembelajaran mesin daripada prosesor tujuan umum. **Namun, GPU masih dianggap sebagai chip tujuan umum, bukan platform pemrosesan asli untuk komputasi AI. **Seperti yang ditunjukkan Institut Riset Yuanchuan dalam "A Crack in the Nvidia Empire", GPU tidak dilahirkan untuk melatih jaringan saraf. Semakin cepat kecerdasan buatan berkembang, semakin banyak masalah ini terungkap. Mengandalkan CUDA dan berbagai teknologi untuk "perubahan ajaib" adegan demi adegan adalah pilihan, tetapi itu bukan solusi optimal.
Amazon, Google, dan Microsoft telah mengembangkan chip yang dikenal sebagai ASIC — sirkuit terintegrasi khusus aplikasi — yang lebih cocok untuk kecerdasan buatan. The Information mewawancarai beberapa praktisi dan analis industri chip dan menyimpulkan bahwa GPU Nvidia membantu melatih model di balik ChatGPT, tetapi ASIC umumnya melakukan tugas ini lebih cepat dan mengonsumsi lebih sedikit daya.
Saat ini, Amazon dan Google telah mengembangkan ASIC khusus untuk produk internal utama, dan telah menyediakan chip ini kepada pelanggan melalui cloud. Sejak 2019, Microsoft juga telah berupaya mengembangkan chip ASIC khusus untuk menggerakkan model bahasa besar.
Beberapa chip yang dikembangkan oleh penyedia cloud ini, seperti chip server Amazon Graviton dan chip khusus AI yang dirilis oleh Amazon dan Google, sudah sebanding dalam kinerjanya dengan chip dari pembuat chip tradisional, menurut data kinerja yang dirilis oleh pelanggan cloud dan Microsoft. Google TPU v4 1,2-1,7 kali lebih cepat dari Nvidia A100, sekaligus mengurangi konsumsi daya 1,3-1,9 kali.
02 Kompetisi Investasi Strategis: Raksasa membelanjakan uang untuk "membeli pelanggan"
Selain penelitian dan pengembangan chip, poin kunci kedua dalam persaingan beberapa raksasa cloud besar di luar negeri adalah berinvestasi dalam investasi strategis asing untuk merebut pelanggan AI dan proyek AI. **
Dibandingkan dengan modal ventura, investasi strategis raksasa memiliki keunggulan absolut. Kombinasi OpenAI dan Microsoft berfungsi sebagai contoh yang sangat baik, membuka preseden untuk model berskala besar dan investasi strategis. Ini karena hambatan sumber daya yang diperlukan untuk model besar dan aplikasi terkait sangat tinggi.Hanya uang, uang terbatas, tidak cukup untuk mengambil proyek AI. Lagi pula, Google, Microsoft, AWS, Oracle, atau Nvidia tidak hanya dapat menulis cek besar, tetapi juga menyediakan sumber daya yang langka seperti kredit cloud dan GPU.
Dari perspektif ini, meraih proyek dan meraih pelanggan semuanya terjadi di antara raksasa cloud, dan tidak ada saingan lain. Mereka memainkan permainan baru — mencari janji dari perusahaan AI bahwa mereka akan menggunakan layanan cloud mereka daripada layanan pesaing.
Microsoft duduk di posisi penyedia layanan cloud eksklusif OpenAI Sambil membayar tagihan cloud yang besar untuk OpenAI, Microsoft telah menukar serangkaian hak yang patut ditiru seperti ekuitas OpenAI dan prioritas produk.
**Saingan Microsoft juga berebut untuk memenangkan pelanggan AI lainnya. **Penyedia cloud ini menawarkan diskon besar dan kredit kepada perusahaan AI untuk memenangkan bisnis mereka. Kritikus telah menunjukkan bahwa ini mirip dengan membeli pelanggan, meskipun praktik mengambil ekuitas di masa depan atau pelanggan saat ini tidak jarang terjadi di dunia perangkat lunak perusahaan.
Oracle juga telah menawarkan kredit komputasi senilai ratusan ribu dolar sebagai insentif bagi startup AI untuk menyewa server cloud Oracle, The Information melaporkan sebelumnya.
Google mungkin yang paling aktif dari vendor cloud utama ini, menawarkan kepada startup AI kombinasi uang tunai dan kredit Google Cloud dengan imbalan ekuitas. Awal tahun ini, Google menginvestasikan $400 juta di Anthropic, salah satu penantang kewirausahaan utama OpenAI. Google Cloud mengatakan pada bulan Februari bahwa itu telah menjadi penyedia cloud "pilihan" Anthropic.
Baru-baru ini, Google menginvestasikan US$100 juta di Runway, sebuah perusahaan AI di bidang "Vensheng Video". Namun sebelum itu, Amazon AWS menggembar-gemborkan Runway sebagai pelanggan startup AI utama. Pada bulan Maret tahun ini, AWS dan Runway mengumumkan pembentukan kemitraan strategis jangka panjang, menjadi "penyedia cloud pilihan". Kini, Runway sepertinya menjadi salah satu "pion" dalam duel Google dengan Amazon, karena Runway juga diperkirakan akan menyewa cloud server dari Google.
Sebelumnya, Google Cloud juga mengumumkan pembentukan kemitraan dengan dua perusahaan AI populer lainnya, yaitu: Midjourney di bidang grafik Vincent dan robot obrolan App Character.ai, yang sebelumnya merupakan pelanggan cloud utama Oracle.
Masih terlalu dini untuk mengatakan apakah kesepakatan ini akan membantu Google mengejar saingan komputasi awan yang lebih besar AWS dan Microsoft, tetapi Google Cloud sedang dalam perbaikan.
Dari 75 perusahaan perangkat lunak (AI) dalam database The Information, Google menyediakan beberapa layanan cloud untuk setidaknya 17 perusahaan, lebih banyak dari penyedia cloud lainnya. Amazon tidak jauh di belakang, dengan setidaknya 15 perusahaan menggunakan AWS untuk komputasi awan. Microsoft dan Oracle masing-masing menyediakan layanan cloud untuk enam perusahaan dan empat perusahaan. Tentu saja, menggunakan banyak cloud juga merupakan kebiasaan di industri ini, dan setidaknya 12 dari 75 perusahaan ini menggunakan gabungan dari beberapa penyedia cloud.
03 model besar adalah kunci sebenarnya untuk menang atau kalah
Kekuatan komputasi dan investasi tempur adalah keunggulan yang harus diperebutkan pada tahap awal perang cloud ini. Namun dalam jangka panjang, model besar adalah kunci nyata keberhasilan persaingan pasar.
Kemampuan Microsoft untuk menjadi pemimpin berkat kerja sama dengan OpenAI. Ditambah dengan kemampuan teknik yang sangat baik dari tim Microsoft, GPT-4 tertanam dalam "keranjang keluarga" Microsoft dalam beberapa bulan. Dalam enam bulan terakhir, Microsoft pertama kali memanfaatkan prioritas penggunaan produk OpenAI dan pengurangan harga produk perangkat lunak perusahaan untuk merebut lebih banyak pasar cloud. Kemudian andalkan peningkatan lini produk ke Microsoft 365 Copilot untuk menaikkan harga guna memperoleh pendapatan yang lebih besar.
Menurut penelitian Yunqi Capital, model dasar Microsoft pada dasarnya bergantung pada OpenAI, dan setelah mengakses model besar, Microsoft mulai mengemas dan menjual Teams, Power BI, Azure, dan produk lapisan aplikasi lainnya dengan harga lebih murah.
Chief Financial Officer Microsoft Amy Hood mengatakan kepada investor pada bulan April bahwa OpenAI akan menghasilkan pendapatan untuk Azure karena lebih banyak orang mulai menggunakan layanannya.
Laporan baru menunjukkan bahwa Microsoft membebankan premi 40% kepada beberapa pelanggan Office 365 untuk menguji kemampuan AI yang mengotomatiskan tugas seperti menulis teks di dokumen Word dan membuat slide PowerPoint, dan setidaknya 100 pelanggan telah membayar biaya tetap hingga $100.000. Data menunjukkan bahwa dalam satu bulan peluncurannya, Microsoft memperoleh pendapatan lebih dari $60 juta dari kemampuan AI Microsoft 365 Copilot.
**Berbeda sekali dengan Microsoft, Amazon Cloud yang pernah menjadi pemimpin, satu langkah di belakang dalam model besar, menghadapi tantangan yang lebih berat saat ini. **
AWS adalah pengembang awal layanan cloud AI, dan telah ada sejak sekitar tahun 2016. Tetapi pelanggan tidak menemukan layanan, yang mencakup pengenalan wajah, mengubah teks menjadi ucapan yang hidup, dan bentuk chatbot primitif untuk tugas-tugas seperti layanan pelanggan, sangat berguna. AWS juga meluncurkan SagaMaker, alat digital AI untuk para insinyur pada tahun 2017, untuk membantu mereka mengembangkan dan menggunakan model pembelajaran mesin, yang pernah menjadi produk AI terpenting AWS.
Namun, di tahun-tahun berikutnya, produk AI AWS gagal mengikuti gelombang model bahasa besar Sejak November 2021, Microsoft telah mulai menjual produk AI yang dikembangkan berdasarkan seri model GPT untuk digunakan oleh pelanggan perusahaan. Pada saat yang sama, Google juga mengambil startup AI besar sebagai pelanggan cloud dan menjual perangkat lunak AI berpemilik kepada pelanggan cloud-nya. Bahkan cloud computing laggard Oracle memiliki kelebihannya sendiri dalam menyediakan sumber daya komputasi untuk startup AI.
AWS, terlambat, mencoba mengejar ketinggalan. Pada bulan April, ia mengumumkan layanan cloud yang memungkinkan pelanggan menggunakan model besar dari Lab Stabilitas, Antropik, dan AI 21 sebagai basis untuk produk mereka sendiri. Sebagai imbalannya, AWS akan membagi sebagian pendapatan dengan para mitra ini.
**Google bangun lebih awal, tetapi terlambat. **Sebagai pabrikan besar dengan akumulasi terdalam di bidang model skala besar, reaksi Google setelah merilis ChatGPT tidak mengecewakan. Google dengan cepat merilis robot cerdas percakapan Bard dan generasi baru model bahasa skala besar PaLM 2 sebagai tanggapan Akibatnya, konferensi pers langsung terbalik , Kecepatan rilis produk selanjutnya tidak ideal, yang sangat kontras dengan kemampuan teknik Microsoft yang kuat.
**Hal terakhir yang perlu disebutkan adalah bahwa Oracle, yang jatuh dari garis depan pasar cloud sangat awal, secara tak terduga memiliki kecenderungan untuk melakukan serangan balik dalam gelombang kebangkitan ini. **
Oracle, yang lama tertinggal di ruang cloud, secara mengejutkan berhasil menyewakan server cloud ke startup AI profil tinggi yang bersaing dengan OpenAI. Itu sebagian karena Oracle Cloud dapat menjalankan model pembelajaran mesin yang kompleks lebih ekonomis daripada Amazon Web Services atau Google Cloud, The Information melaporkan.
Pendekatan Oracle Cloud terhadap ras AI tampaknya mirip dengan AWS, yang mengembangkan perangkat lunak AI sendiri untuk dijual kepada pelanggan, tetapi juga akan menjual akses ke perangkat lunak AI sumber terbuka dan produk dari pengembang AI lainnya.
Selain itu, beberapa orang yang mengetahui masalah tersebut mengungkapkan bahwa Oracle telah mulai menguji produk OpenAI untuk memperkaya lini produknya bagi pelanggan B-end, termasuk sumber daya manusia dan perangkat lunak manajemen rantai pasokan, tetapi Oracle lebih cenderung mengembangkan perangkat lunaknya sendiri untuk tujuan ini. .fitur membantu pelanggan Oracle dengan cepat menghasilkan deskripsi pekerjaan dan menjadwalkan pertemuan antara perekrut dan kandidat, meskipun perusahaan masih memutuskan produk mana yang akan ditingkatkan terlebih dahulu.
Bahan referensi:
"Keretakan di Kekaisaran Nvidia" | Lembaga Penelitian Yuanchuan
Pabrik besar dan model besar: bisnis nyata adalah kata terakhir|"Yunqi FutureScope"
Google dan Microsoft's Other AI Race: Server Chips|Informasi
Skeptisisme Meningkat Terhadap Strategi AI AWS|Informasinya
Google, Nvidia, dan Microsoft Menawarkan Apa yang Tidak Dapat Dilakukan VC|Informasinya
Pro Weekly: AI Generatif Memacu Permintaan Cloud—dan Persaingan|Informasi
Google Berinvestasi di AI Startup Runway untuk Merebut Bisnis Cloud Dari AWS|Informasinya
Microsoft Mengisi Beberapa Pelanggan Office 365 Ekstra 40% untuk Menguji Fitur AI|Informasi