Pada sore hari tanggal 25 September, Amazon mengumumkan di situs resmi perusahaan bahwa mereka akan berinvestasi hingga $4 miliar di perusahaan model besar Anthropic, yang terkenal dengan chatbot Claude yang menjadi tolok ukur ChatGPT.
Perusahaan komputasi awan telah banyak berinvestasi di perusahaan model besar. Microsoft telah membuat awal yang baik pada bulan Februari tahun ini, mengakuisisi OpenAI, pelanggan utama cloud Azure Microsoft, dan prioritas penggunaan ChatGPT senilai US$10 miliar. Kini tampaknya kesepakatan ini merupakan keuntungan pasti bagi Microsoft, sejak tahun ini nilai pasar Microsoft telah meningkat sebesar 40%.
Namun kini, setengah tahun kemudian, hubungan antara hulu dan hilir di bidang model besar menjadi rumit.Amazon InvestmentAnthropicbukan hanya tentang "mengunci" pelanggan untuk AWS , bahkan belum tentu untuk model-model besar.
Detail kerja sama resmi menunjukkan: Anthropic akan menggunakan chip AWS Trainium dan Inferentia untuk membangun, melatih, dan menerapkan model dasarnya di masa depan. Selain itu, kedua perusahaan juga akan berkolaborasi dalam pengembangan teknologi Trainium dan Inferentia masa depan. Perlu dicatat bahwa AWS Trainium adalah chip pelatihan ML (pembelajaran mesin) khusus yang diluncurkan oleh AWS pada akhir tahun 2020, dan chip Inferentia adalah chip inferensi pembelajaran mesin berkinerja tinggi yang diluncurkan oleh AWS pada tahun 2019.
Dengan berinvestasi di Anthropic untuk memperdalam kerja sama, Amazon bermaksud mempercepat pengembangan chip AI yang dikembangkan sendiri.
Beberapa hari yang lalu, The Information secara eksklusif menyampaikan berita bahwa NVIDIA ingin "membebankan biaya penanganan" dari tiga vendor cloud besar - NVIDIA ingin menyewa server NVIDIA dari vendor cloud, sehingga dapat menyediakan aplikasi AI kepada pengguna AI melalui cloud, bukan server atau chip. Secara langsung menyediakan layanan, aplikasi ini juga mencakup tiga vendor cloud utama.
Namun, hanya Amazon yang menolak tawaran tersebut.
Sekarang tampaknya alasan Amazon menolak Nvidia adalah untuk menemukan cara mempercepat peningkatan chip AI yang dikembangkan sendiri. Di era model besar, daya saing inti Amazon dalam menstabilkan posisi nomor satu di pasar komputasi awan terletak pada chip AI-nya.
01 Platform cloud pertama mengambil tindakan, musuh terbesar OpenAI
Untuk kerja sama ini, Amazon menyatakan awalnya akan menginvestasikan US$1,25 miliar untuk membeli saham minoritas di Anthropic. Sebagai bagian dari kesepakatan tersebut, Amazon mengatakan pihaknya memiliki opsi untuk meningkatkan investasinya di Anthropic menjadi $4 miliar.
Sebagai bagian dari perluasan kolaborasi:
Anthropic akan menggunakan chip AWS Trainium dan Inferentia untuk membangun, melatih, dan menerapkan model dasar masa depannya, dengan memanfaatkan harga, kinerja, skala, dan keamanan AWS. Kedua perusahaan juga akan berkolaborasi dalam teknologi Trainium dan Inferentia di masa depan.
AWS akan menjadi penyedia cloud utama Anthropic untuk beban kerja yang sangat penting, termasuk penelitian keamanan dan pengembangan model dasar di masa depan. Anthropic berencana untuk menjalankan sebagian besar beban kerjanya di AWS, yang selanjutnya memberikan Anthropic teknologi canggih dari penyedia cloud terkemuka di dunia.
Anthropic telah membuat komitmen jangka panjang untuk memberikan pelanggan AWS di seluruh dunia akses ke model fondasi generasi berikutnya melalui Amazon Bedrock, layanan terkelola sepenuhnya dari AWS yang menyediakan akses aman ke model fondasi terbaik di industri. Selain itu, Anthropic akan memberi pelanggan AWS kemampuan unik berupa akses awal terhadap penyesuaian model dan kemampuan penyesuaian.
Pengembang dan insinyur Amazon akan dapat membangun model Anthropic melalui Amazon Bedrock, sehingga mereka dapat menggabungkan kemampuan AI generatif ke dalam pekerjaan mereka, meningkatkan aplikasi yang sudah ada, dan menciptakan pengalaman pelanggan baru di seluruh bisnis Amazon.
Perusahaan-perusahaan tersebut tidak mengungkapkan penilaian investasi Amazon di Anthropic.
Anthropic didirikan oleh mantan karyawan OpenAI Daniela Amodei dan Dario Amodei, yang merupakan pengembang inti OpenAI GPT2 dan GPT3. Saat ini Anthropic memiliki salah satu chatbot terpopuler yaitu Claude.
Sebagai penantang pembuat ChatGPT OpenAI, Anthropic menerima investasi $400 juta dari Google awal tahun ini dan bernilai lebih dari $4 miliar setelah putaran pendanaan dari Spark Capital pada bulan Maret.
**02 Apa yang ingin dilakukan Amazon? **
Berinvestasi hingga $4 miliar di Anthropic, apa sebenarnya yang ingin dilakukan Amazon?
Alasan yang jelas adalah untuk "menarik" pelanggan. Sebagai pelanggan komputasi awan terbesar (di masa depan), produsen model besar dan perusahaan aplikasi AI telah menjadi medan pertempuran bagi produsen cloud besar.
Sejak tahun ini, Google, Microsoft, AWS, Oracle, dan Nvidia secara diam-diam dan dengan suara bulat telah melakukan satu hal - "mengunci" pelanggan melalui investasi strategis (membayar uang untuk membeli pelanggan), meskipun operasi ini kontroversial secara finansial.
Namun faktanya, Anthropic telah menjadi pelanggan AWS sejak tahun 2021. AWS telah memperdalam kerja samanya dengan Anthropic melalui US$4 miliar, yang bertujuan untuk mendapatkan hak kerja sama yang lebih dalam: model besar, dan yang paling penting - chip AI yang dikembangkan sendiri* *.
Dengan kata lain, dengan menginvestasikan biaya pendidikan ini secara strategis, Amazon belajar bagaimana membangun model yang besar. Mereka juga mengembangkan chip AI** yang bahkan dapat menumbangkan GPU NVIDIA melalui diskusi dengan lawan yang bersaing dengan OpenAI. Bagaimanapun, GPU tidak dirancang untuk melatih jaringan saraf. Mengandalkan CUDA dan berbagai teknologi untuk "memodifikasi secara ajaib" adegan demi adegan adalah sebuah pilihan, tetapi itu bukanlah solusi optimal.
Pidato CEO Amazon Andy Jassy menegaskan hal ini, dengan mengatakan: "Kami yakin kami dapat membantu meningkatkan banyak pengalaman pelanggan jangka pendek dan jangka panjang melalui kerja sama yang lebih dalam."
Pengalaman pelanggan jangka pendek dan jangka panjang sejalan dengan model besar Amazon dan chip AI yang dikembangkan sendiri.
Dia lebih lanjut menambahkan, “Pelanggan sangat antusias dengan Amazon Bedrock, layanan terkelola baru dari AWS yang memungkinkan perusahaan membangun aplikasi AI generatif menggunakan berbagai model dasar, dan AWS Trainium, chip pelatihan AI AWS. Chip pelatihan AI AWS dan kerja sama kami dengan Anthropic akan membantu pelanggan mendapatkan nilai lebih dari kedua fungsi ini.”
Faktanya, pada paruh pertama tahun ini, Amazon meluncurkan model besarnya sendiri, Titan, dan mengumumkan pelanggan tipikal model besar ini.Namun, beberapa hari kemudian, pelanggan tipikal ini langsung bergabung dan mengungkapkan kepada media bahwa model besar Amazon tidak mudah digunakan.
Dapat dilihat bahwa Amazon belum sepenuhnya siap untuk mengembangkan model besar sendiri. Oleh karena itu, Amazon beralih ke pasar untuk secara giat mempromosikan platform model besar Amazon Bedrock, di mana pelanggan dapat menghubungi layanan produsen model besar arus utama lainnya, termasuk Anthropic.
Di sisi lain, Amazon perlu menstabilkan fundamentalnya dalam komputasi awan.
Di era model besar, komputasi awan menghadapi beban kerja yang berbeda dan perlu mengeksplorasi teknologi baru untuk mencapai kemampuan penalaran yang lebih cepat. Dalam hal ini, Amazon sebenarnya adalah pionir. Chip dan server pusat data yang dikembangkan sendiri pernah dianggap sebagai "salah satu hal terpenting" yang dilakukan AWS untuk "membedakan dari Microsoft dan Google". Servernya memiliki kecepatan lebih tinggi dan menghemat daya.
Dalam hal chip dan server berpemilik AI, Amazon juga merupakan yang paling awal di antara tiga vendor cloud besar (Microsoft Cloud, Google Cloud). Namun, kemajuan dan kinerja chip AI-nya belum dirilis secara terpisah, melainkan digabungkan dalam server dan diberikan kepada pelanggan melalui layanan cloud. Oleh karena itu, pelanggan secara langsung hanya melihat performa cloud computing, bukan performa chip di dalamnya.
Kini, Amazon perlu memahami beban kerja mana yang paling sesuai untuk prosesor mana, dan bekerja dengan Anthropic adalah salah satu cara untuk melakukannya.
Saat ini, dari 69 perusahaan dalam database AI generatif The Information, 32 menggunakan Amazon, 26 menggunakan Google, dan 13 menggunakan Microsoft sebagai penyedia cloud. Tentu saja, beberapa perusahaan menggunakan beberapa penyedia cloud.
Di era model besar, kerja sama dan persaingan dalam komputasi awan, model besar, dan aplikasi AI menjadi semakin kompleks. Industri komputasi awan yang sudah lama tidak mengalami perubahan besar, akhirnya membuka peluang perubahan.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
28 miliar! Amazon berinvestasi pada OpenAI, musuh terbesarnya
Pada sore hari tanggal 25 September, Amazon mengumumkan di situs resmi perusahaan bahwa mereka akan berinvestasi hingga $4 miliar di perusahaan model besar Anthropic, yang terkenal dengan chatbot Claude yang menjadi tolok ukur ChatGPT.
Perusahaan komputasi awan telah banyak berinvestasi di perusahaan model besar. Microsoft telah membuat awal yang baik pada bulan Februari tahun ini, mengakuisisi OpenAI, pelanggan utama cloud Azure Microsoft, dan prioritas penggunaan ChatGPT senilai US$10 miliar. Kini tampaknya kesepakatan ini merupakan keuntungan pasti bagi Microsoft, sejak tahun ini nilai pasar Microsoft telah meningkat sebesar 40%.
Namun kini, setengah tahun kemudian, hubungan antara hulu dan hilir di bidang model besar menjadi rumit.Amazon Investment Anthropic bukan hanya tentang "mengunci" pelanggan untuk AWS , bahkan belum tentu untuk model-model besar.
Detail kerja sama resmi menunjukkan: Anthropic akan menggunakan chip AWS Trainium dan Inferentia untuk membangun, melatih, dan menerapkan model dasarnya di masa depan. Selain itu, kedua perusahaan juga akan berkolaborasi dalam pengembangan teknologi Trainium dan Inferentia masa depan. Perlu dicatat bahwa AWS Trainium adalah chip pelatihan ML (pembelajaran mesin) khusus yang diluncurkan oleh AWS pada akhir tahun 2020, dan chip Inferentia adalah chip inferensi pembelajaran mesin berkinerja tinggi yang diluncurkan oleh AWS pada tahun 2019.
Dengan berinvestasi di Anthropic untuk memperdalam kerja sama, Amazon bermaksud mempercepat pengembangan chip AI yang dikembangkan sendiri.
Beberapa hari yang lalu, The Information secara eksklusif menyampaikan berita bahwa NVIDIA ingin "membebankan biaya penanganan" dari tiga vendor cloud besar - NVIDIA ingin menyewa server NVIDIA dari vendor cloud, sehingga dapat menyediakan aplikasi AI kepada pengguna AI melalui cloud, bukan server atau chip. Secara langsung menyediakan layanan, aplikasi ini juga mencakup tiga vendor cloud utama.
Namun, hanya Amazon yang menolak tawaran tersebut.
Sekarang tampaknya alasan Amazon menolak Nvidia adalah untuk menemukan cara mempercepat peningkatan chip AI yang dikembangkan sendiri. Di era model besar, daya saing inti Amazon dalam menstabilkan posisi nomor satu di pasar komputasi awan terletak pada chip AI-nya.
01 Platform cloud pertama mengambil tindakan, musuh terbesar OpenAI
Untuk kerja sama ini, Amazon menyatakan awalnya akan menginvestasikan US$1,25 miliar untuk membeli saham minoritas di Anthropic. Sebagai bagian dari kesepakatan tersebut, Amazon mengatakan pihaknya memiliki opsi untuk meningkatkan investasinya di Anthropic menjadi $4 miliar.
Sebagai bagian dari perluasan kolaborasi:
Perusahaan-perusahaan tersebut tidak mengungkapkan penilaian investasi Amazon di Anthropic.
Anthropic didirikan oleh mantan karyawan OpenAI Daniela Amodei dan Dario Amodei, yang merupakan pengembang inti OpenAI GPT2 dan GPT3. Saat ini Anthropic memiliki salah satu chatbot terpopuler yaitu Claude.
Sebagai penantang pembuat ChatGPT OpenAI, Anthropic menerima investasi $400 juta dari Google awal tahun ini dan bernilai lebih dari $4 miliar setelah putaran pendanaan dari Spark Capital pada bulan Maret.
**02 Apa yang ingin dilakukan Amazon? **
Berinvestasi hingga $4 miliar di Anthropic, apa sebenarnya yang ingin dilakukan Amazon?
Alasan yang jelas adalah untuk "menarik" pelanggan. Sebagai pelanggan komputasi awan terbesar (di masa depan), produsen model besar dan perusahaan aplikasi AI telah menjadi medan pertempuran bagi produsen cloud besar.
Sejak tahun ini, Google, Microsoft, AWS, Oracle, dan Nvidia secara diam-diam dan dengan suara bulat telah melakukan satu hal - "mengunci" pelanggan melalui investasi strategis (membayar uang untuk membeli pelanggan), meskipun operasi ini kontroversial secara finansial.
Namun faktanya, Anthropic telah menjadi pelanggan AWS sejak tahun 2021. AWS telah memperdalam kerja samanya dengan Anthropic melalui US$4 miliar, yang bertujuan untuk mendapatkan hak kerja sama yang lebih dalam: model besar, dan yang paling penting - chip AI yang dikembangkan sendiri* *.
Dengan kata lain, dengan menginvestasikan biaya pendidikan ini secara strategis, Amazon belajar bagaimana membangun model yang besar. Mereka juga mengembangkan chip AI** yang bahkan dapat menumbangkan GPU NVIDIA melalui diskusi dengan lawan yang bersaing dengan OpenAI. Bagaimanapun, GPU tidak dirancang untuk melatih jaringan saraf. Mengandalkan CUDA dan berbagai teknologi untuk "memodifikasi secara ajaib" adegan demi adegan adalah sebuah pilihan, tetapi itu bukanlah solusi optimal.
Pidato CEO Amazon Andy Jassy menegaskan hal ini, dengan mengatakan: "Kami yakin kami dapat membantu meningkatkan banyak pengalaman pelanggan jangka pendek dan jangka panjang melalui kerja sama yang lebih dalam."
Pengalaman pelanggan jangka pendek dan jangka panjang sejalan dengan model besar Amazon dan chip AI yang dikembangkan sendiri.
Dia lebih lanjut menambahkan, “Pelanggan sangat antusias dengan Amazon Bedrock, layanan terkelola baru dari AWS yang memungkinkan perusahaan membangun aplikasi AI generatif menggunakan berbagai model dasar, dan AWS Trainium, chip pelatihan AI AWS. Chip pelatihan AI AWS dan kerja sama kami dengan Anthropic akan membantu pelanggan mendapatkan nilai lebih dari kedua fungsi ini.”
Faktanya, pada paruh pertama tahun ini, Amazon meluncurkan model besarnya sendiri, Titan, dan mengumumkan pelanggan tipikal model besar ini.Namun, beberapa hari kemudian, pelanggan tipikal ini langsung bergabung dan mengungkapkan kepada media bahwa model besar Amazon tidak mudah digunakan.
Dapat dilihat bahwa Amazon belum sepenuhnya siap untuk mengembangkan model besar sendiri. Oleh karena itu, Amazon beralih ke pasar untuk secara giat mempromosikan platform model besar Amazon Bedrock, di mana pelanggan dapat menghubungi layanan produsen model besar arus utama lainnya, termasuk Anthropic.
Di sisi lain, Amazon perlu menstabilkan fundamentalnya dalam komputasi awan.
Di era model besar, komputasi awan menghadapi beban kerja yang berbeda dan perlu mengeksplorasi teknologi baru untuk mencapai kemampuan penalaran yang lebih cepat. Dalam hal ini, Amazon sebenarnya adalah pionir. Chip dan server pusat data yang dikembangkan sendiri pernah dianggap sebagai "salah satu hal terpenting" yang dilakukan AWS untuk "membedakan dari Microsoft dan Google". Servernya memiliki kecepatan lebih tinggi dan menghemat daya.
Dalam hal chip dan server berpemilik AI, Amazon juga merupakan yang paling awal di antara tiga vendor cloud besar (Microsoft Cloud, Google Cloud). Namun, kemajuan dan kinerja chip AI-nya belum dirilis secara terpisah, melainkan digabungkan dalam server dan diberikan kepada pelanggan melalui layanan cloud. Oleh karena itu, pelanggan secara langsung hanya melihat performa cloud computing, bukan performa chip di dalamnya.
Kini, Amazon perlu memahami beban kerja mana yang paling sesuai untuk prosesor mana, dan bekerja dengan Anthropic adalah salah satu cara untuk melakukannya.
Saat ini, dari 69 perusahaan dalam database AI generatif The Information, 32 menggunakan Amazon, 26 menggunakan Google, dan 13 menggunakan Microsoft sebagai penyedia cloud. Tentu saja, beberapa perusahaan menggunakan beberapa penyedia cloud.
Di era model besar, kerja sama dan persaingan dalam komputasi awan, model besar, dan aplikasi AI menjadi semakin kompleks. Industri komputasi awan yang sudah lama tidak mengalami perubahan besar, akhirnya membuka peluang perubahan.