Jika Anda melihat laporan media tentang model besar setiap hari, Anda akan terpesona oleh berbagai model dan aplikasi menakutkan yang berumur pendek, berpikir bahwa masa depan model terletak pada model serba bisa berikutnya. Jadi AI tampaknya menjadi kisah OpenAI atau Anthropic yang menang.
Pembiayaan yang telah diselesaikan dengan kecepatan dan volume yang luar biasa tampaknya membuktikan persepsi ini.
Anthropic, yang dianggap sebagai salah satu saingan terbesar OpenAI, berada dalam putaran pembiayaan dalam siklus bulanan 2 miliar - pada 27 Oktober, Google mengatakan bahwa mereka telah menginvestasikan $ 2 miliar lagi di dalamnya, kurang dari sebulan setelah Amazon menginvestasikan $ 4 miliar di dalamnya, dan modelnya Claude, yang bersaing dengan fitur-fitur seperti panjang konteks, dianggap sebagai salah satu pesaing terkuat untuk ChatGPT. Pada saat yang sama, OpenAI juga mengumpulkan berbagai sumber daya, dan di balik setiap gerakannya, SoftBank, Microsoft, dan Apple semuanya berrumor dengannya dengan berbagai cara.
Namun, pada kenyataannya, ini bukan keseluruhan cerita.
Bagi praktisi, sisi lain dari cerita ini lebih mendalam:
Jelas, itu adalah pilihan yang lebih baik untuk mengambil dolar dari para investor yang memiliki lebih banyak uang dan lebih sedikit untuk dilakukan, namun, mereka semua memilih pabrik besar satu demi satu, dan bahkan pabrik besar yang mengincar mereka, hanya karena satu hal - mereka memiliki kemampuan komputasi awan. Kontribusi OpenAI untuk Microsoft Azure telah dikatakan terlalu sering di jalan menuju kesuksesan, dan Anthropic sekarang menjamin dirinya sendiri dukungan daya komputasi awan dari Google dan Amazon pada saat yang sama, dan dikatakan bahwa salah satu tujuan penting pembiayaan adalah untuk membangun jaminan daya komputasi untuk dirinya sendiri untuk melatih model generasi berikutnya.
Ini adalah bukti yang sangat baik tentang kebutuhan cloud untuk model besar.
Pada Konferensi Apsara pada 31 Oktober, serangkaian data dari Alibaba Cloud mengatakan hal yang sama.
Alibaba Cloud telah mengumumkan beberapa model yang berjalan di atas layanannya, dari model besar Tongyi sendiri, hingga Baichuan Intelligence, Zhipu AI, Zero One Everything, Kunlun Wanwei, vivo, Universitas Fudan, dll., setengah dari perusahaan dan institusi model besar China dilatih di sini.
Model mainstream di China ini juga menyediakan layanan API melalui Alibaba Cloud, termasuk seri Tongyi, seri Baichuan, seri Zhipu AI ChatGLM, model umum Jiang Ziya, dll.
Model-model ini mengejar ketinggalan dengan tingkat atas pada saat yang sama, tetapi juga mulai menumbuhkan karakteristik mereka sendiri, di antaranya salah satu perusahaan model besar paling kepala China Baichuan Intelligence, telah menetapkan rata-rata 28 hari untuk mengulangi versi rekor model besar, itu 30 Oktober Rilis terbaru Baichuan2-192K telah menjadi dukungan terpanjang di dunia untuk jendela konteks model besar, dapat memasukkan 350.000 kata sekaligus, memimpin Claude2-100K.
Semua keunggulan ini mengarah pada aplikasi yang lebih membumi. Wang Xiaochuan, CEO Baichuan Intelligence, menggambarkan ini sebagai "satu langkah lebih lambat dari yang ideal dan tiga langkah lebih cepat di lapangan". Infrastruktur cloud, di sisi lain, menawarkan kemungkinan cepat.
Wang Xiaochuan memperkenalkan bahwa alasan penting untuk iterasi bulanan model Baichuan adalah dukungan komputasi awan. "Iterasi dan penyebaran model yang cepat tidak dapat dipisahkan dari komputasi awan, dan Baichuan Intelligence dan Alibaba Cloud telah melakukan kerja sama yang mendalam. Dengan upaya bersama dari kedua belah pihak, Baichuan telah berhasil menyelesaikan tugas pelatihan model besar kilokalori, secara efektif mengurangi biaya inferensi model dan meningkatkan efisiensi penyebaran model. "
Alasan lain mengapa pentingnya komputasi awan telah diabaikan adalah bahwa bidang AI telah terganggu oleh "kurangnya kartu untuk semua".
"Orang-orang terlalu memperhatikan GPU." Banyak praktisi model besar mengatakan kepada saya bahwa sebagai unit komputasi, memang terus ditingkatkan, tetapi untuk menyelesaikan masalah AI, yang pada akhirnya dibutuhkan adalah solusi daya komputasi yang sistematis dan optimal. Bahkan cloud telah menjadi hal yang memecahkan masalah satu unit yang tidak cukup kuat sejak awal.
"Hanya kartunya, hanya model luar biasa di kertas, itu tidak cukup, dan akhirnya mengandalkan awan untuk mendarat dan kemudian mewujudkan cita-cita." Katanya. Jika Anda dengan hati-hati menajamkan telinga dan mendengarkan "teriakan" dari para peserta nyata ini di garis depan ekologi model, maka Anda mungkin mendengar satu kata:
Awan!
Bagaimana masa depan AI berkembang bergantung pada cloud saat ini lebih dari sebelumnya.
Awan Baru
Tetapi ini jelas tidak berarti bahwa vendor cloud yang telah menetapkan keuntungan dapat berbaring dan menang.
Lihat saja apa yang terjadi setelah Google dan Microsoft baru-baru ini merilis laporan pendapatan mereka pada hari yang sama.
Pada tanggal 25 Oktober, Google merilis laporan pendapatan yang melebihi ekspektasi, dengan peningkatan tahun-ke-tahun sebesar 11%, dan bisnis periklanan inti juga meningkat sebesar 9%. Tapi kemudian harga saham turun. Hanya ada satu alasan, komputasi awan telah tumbuh sebesar 22%, tetapi pasar percaya bahwa itu tidak cukup. Secara khusus, laporan keuangan Microsoft yang dirilis pada hari yang sama menunjukkan bahwa divisi cloud cerdasnya menjadi sumber pendapatan terbesar.
Untuk pertama kalinya, para raksasa menemukan diri mereka dikesampingkan dengan bisnis seperti periklanan, yang pernah mereka bicarakan, karena komputasi awan dianggap sebagai metrik yang dapat diamati dibandingkan dengan pendapatan langsung yang dihasilkan oleh model yang masih ilusi. Di balik indikator ini adalah kemampuan vendor cloud untuk beradaptasi dengan tantangan yang dibawa oleh AI.
Bahkan AWS, pangsa pasar No. 1, merasakan tekanan, dan investasi Amazon di Anthropic juga terjadi selama laporan pendapatan ini. Telah dilaporkan bahwa 3% dari pendapatan Azure Microsoft berasal dari AI, dan pelanggannya mencakup sejumlah besar pengguna OpenAI, dan AWS mulai menekankan layanannya untuk berbagai model. Setelah membuang 2 miliar di Anthropic, segera diumumkan bahwa LLM setelah perusahaan model akan dibangun dengan chip akselerasi pelatihan AWS Trainium dan chip inferensi Inferentia. Selain itu, seperti solusi klaster baru yang disorot dalam laporan keuangan Microsoft, dan Bedrock, layanan model dasar yang dikelola sepenuhnya untuk AWS, juga menekankan transformasi mereka sendiri untuk kebutuhan AI baru.
"Menghadapi era cerdas, Alibaba Cloud akan meningkatkan sistem komputasi awannya melalui inovasi teknologi full-stack dari daya komputasi yang mendasarinya ke platform AI ke layanan model." Zhou Jingren, yang menentukan rute teknis Alibaba Cloud, juga memberikan jawabannya di Konferensi Apsara. Perubahan yang direfleksikan oleh Alibaba Cloud kali ini sangat menentukan dan menyeluruh, dari tekstur hingga inti, semuanya diubah untuk AI.
Menurut perkenalan Zhou Jingren, Alibaba Cloud pertama kali menggunakan model besar untuk mengubah dirinya sendiri, dan lebih dari 30 produk cloud telah terhubung ke kemampuan model besar tersebut.
Misalnya, DataWorks, platform tata kelola data besar Alibaba Cloud, telah menambahkan bentuk interaktif baru, Copilot, yang memungkinkan pengguna untuk menghasilkan pernyataan SQL dengan input bahasa alami dan secara otomatis menjalankan operasi ETL data yang sesuai, meningkatkan efisiensi pengembangan dan analisis secara keseluruhan lebih dari 30%.
Zhou Jingren menggambarkan ini sebagai mode mengemudi otonom komputasi awan, yang akan sangat meningkatkan efisiensi dan pengalaman pengembang menggunakan cloud.
Pada saat yang sama, Alibaba Cloud juga telah meningkatkan platform kecerdasan buatannya PAI. Lapisan PAI yang mendasari menggunakan arsitektur jaringan klaster AI generasi berikutnya HPN 7.0, mendukung skala klaster yang dapat diskalakan hingga 100.000 kartu, dan rasio akselerasi pelatihan terdistribusi skala ultra-besar setinggi 96%, jauh melebihi tingkat industri. Dalam tugas pelatihan model besar, ini dapat menghemat lebih dari 50% sumber daya komputasi, dan kinerjanya terdepan di dunia.
Istilah profesional ini sedikit rumit, dijelaskan oleh kasus pelanggan langsung, dan Zhou Jingren juga membagikan beberapa kasus pada hari yang sama: "Melalui platform PAI kami, ini dapat membantu mengoptimalkan penalaran, membantu Xiaohongshu menghemat 30% biaya, dan benar-benar dapat mendorong pertumbuhan bisnis Xiaohongshu yang cepat, serta berbagai kebutuhan bisnis." "
Vendor cloud, termasuk Alibaba Cloud, pada dasarnya mencari tahu infrastruktur baru. Perubahan yang dibawa oleh teknologi AI seperti model besar adalah full-stack, dari lapisan bawah model hingga ide pelatihan, dari persyaratan data hingga antarmuka interaktif, berubah, dan bahkan perlu "diulang".
Titik awal dari semua transformasi Alibaba Cloud adalah MaaS (model as a Service) yang diusulkan oleh Zhou Jingren lebih awal.
"Model itu sendiri adalah abstraksi data dan perhitungan tingkat tinggi." Zhou Jingren berkata dalam percakapan kecil dengan kami hari itu.
"Misalnya, di masa lalu, kami biasa menggunakan lebih banyak data dari log atau database. Apa modelnya? Model adalah kumpulan data yang diproses, yang merupakan abstraksi yang sangat intelektual. Jadi dari sudut pandang ini, Anda dapat berpikir bahwa data asli adalah bahan produksi yang lebih primitif, mengandalkan daya komputasi asli. Model saat ini adalah lapisan pemrosesan, yang merupakan elemen produksi yang lebih abstrak berdasarkan bahan baku data, dan Anda dapat menggunakan elemen produksi tersebut untuk mengembangkan sistem bisnis dimensi yang lebih tinggi. Sebelumnya kami memiliki Infrastruktur, yang merupakan elemen produksi, dan hari ini modelnya juga merupakan elemen produksi. "
Infrastruktur baru di sekitar model ini membutuhkan kemampuan sistem yang lebih kompleks daripada di masa lalu.
Sementara ambang batas untuk aplikasi AI semakin rendah, ambang batas untuk menyediakan komputasi awan yang memenuhi kebutuhan era AI baru hanya akan semakin tinggi. Untuk mengeksplorasi hal baru ini, jelas bahwa Anda perlu menguasai teknologi inti komputasi awan, dan Anda harus memiliki pemahaman nyata tentang teknologi model besar - Anda tahu apa yang Anda miliki, dan Anda tahu apa yang dibutuhkan pelanggan Anda.
"Berdasarkan akumulasi kami dalam komputasi awan, kami telah membangun infrastruktur AI yang lengkap. Melalui rangkaian pengoptimalan saat ini dalam jaringan, penyimpanan, penjadwalan, kompilasi, toleransi kesalahan, dan sebagainya. Kami telah membuat platform pelatihan lengkap untuk model besar AI. Kata Zhou Jingren. Pada saat yang sama, melalui serangkaian pengoptimalan yang dikombinasikan dengan elastisitas tinggi cloud itu sendiri, kami dapat memberi Anda pelatihan model dan layanan inferensi yang sangat lengkap. "
Pada hari yang sama, Alibaba Cloud juga merilis model parameter level 100 miliar yang dikembangkan sendiri Tongyi Qianwen 2.0.
Tongyi Qianwen 2.0 telah membuat kemajuan besar dalam kinerja, dan telah secara signifikan meningkatkan kemampuannya untuk memahami instruksi kompleks, kemampuan penciptaan sastra, kemampuan matematika umum, memori pengetahuan, ketahanan ilusi, dll., Dan kinerja komprehensifnya telah melampaui GPT-3.5, berakselerasi untuk mengejar GPT-4.
Pada saat yang sama, situs web resmi model Tongyi telah diperbarui sepenuhnya, menambahkan interaksi multi-modal dan fungsi plug-in, yang memungkinkan pengguna untuk berinteraksi dengan Tongyi Qianwen 2.0 melalui gambar, dan juga memanggil kemampuan plug-in baru yang lebih kaya.
Zhou Jingren berkata, "Tongyi Qianwen 2.0 lebih matang dan lebih mudah digunakan."
Buka, Buka, atau Buka
Dengan transformasi komprehensif seperti itu, secara alami menimbulkan pertanyaan apakah model dan infrastruktur pada akhirnya akan menjadi situasi di mana Anda menjadi wasit dan atlet.
Jawaban yang diberikan oleh Alibaba Cloud adalah keterbukaan maksimum.
Alibaba Cloud adalah perusahaan teknologi paling awal di China yang membuka sumber model besar yang dikembangkan sendiri, dan saat ini, Alibaba Cloud memiliki versi Tongyi Qianwen 7B dan 14B open-source, dengan lebih dari satu juta unduhan. Di tempat kejadian, Zhou Jingren mengumumkan bahwa model Tongyi Qianwen 72B akan segera menjadi open source, dan akan menjadi model open source terbesar di China.
Sebenarnya, keterbukaan semacam ini bukanlah sesuatu yang akan terjadi setelah ChatGPT. Pada Konferensi Apsara setahun yang lalu, Alibaba Cloud mulai membangun model bangunan ajaib komunitas, pada kenyataannya, batch pertama open source pada saat itu adalah model inti Alibaba Cloud sendiri. Pada saat itu, rencana Moda adalah menggunakan Alibaba Cloud untuk menyerahkan hal-hal di bagian bawah kotak untuk mendorong semua orang mengubah keadaan tertutup AI di masa lalu, dan menggunakan keterbukaan untuk benar-benar membuatnya dapat diakses oleh publik.
Zhou Jingren mengungkapkan bahwa komunitas telah mengumpulkan lebih dari 2.300 model AI hari ini, menarik 2,8 juta pengembang AI, dan jumlah unduhan model AI melebihi 100 juta, menjadikannya komunitas AI terbesar dan paling aktif di Tiongkok. Pencapaian ini adalah pengakuan paling langsung atas keterbukaannya terhadap dunia luar.
Saat ini, di Komunitas Sihir, Baichuan Intelligence, Zhipu AI, Shanghai Artificial Intelligence Laboratory, IDEA Research Institute, dll. telah membuka sumber model besar inti mereka, dan Alibaba Cloud memberi pengembang kekuatan komputasi GPU gratis untuk "pengadopsi awal" model besar, yang telah melampaui 30 juta jam sejauh ini.
"Posisi kami saat ini adalah melayani berbagai pelanggan dengan kebutuhan yang berbeda." Kata Zhou Jingren.
Di ekosistem Alibaba Cloud, ada superkomputer yang dibangun bersama dengan Universitas Fudan, yang mendukung pelatihan model besar dengan ratusan miliar parameter, dan menempati peringkat 15 besar di dunia dalam hal daya komputasi secara keseluruhan. Cluster komputasi di belakangnya terdiri dari Jinsi No. 1 di kampus Fudan dan Qiewen No. 1 di pusat data Ulanqab Alibaba Cloud yang berjarak 1.500 kilometer.
vivo telah mengembangkan sendiri model-model besar, mulai dari daya komputasi, fungsi platform, kinerja pelatihan, dll., hingga kerangka kerja pengoptimalan pelatihan platform kecerdasan buatan Alibaba Cloud PAI dalam hal pengawasan SFT dan penyempurnaan model besar dan pembelajaran penguatan, vivo dan Alibaba Cloud bekerja sama untuk mengulangi model besar secara lebih efisien.
Ada juga "Wonderful Duck Camera" yang populer, yang pembuatan fotonya membutuhkan setidaknya beberapa ribu server GPU di tingkat puncak, dan penyebaran offline tidak praktis, dan penyebaran cloud dapat menghemat banyak biaya dan waktu untuk startup. Selain itu, aplikasi seperti Miaoya mewakili tren bahwa di masa depan, kebutuhan akan inferensi akan lebih besar daripada kebutuhan akan pelatihan, yang hanya akan membuat komputasi awan lebih penting bagi keberlanjutan layanan AI.
Di bawah posisi seperti itu, model besar Alibaba Cloud lebih seperti kelanjutan dari ide yang selalu digunakan Alibaba di masa lalu - praktik terbaik. Pemikirannya adalah bahwa hanya ketika telah melakukan tugas yang paling kompleks dan menguji infrastrukturnya dengan itu, ia dapat memberikan layanan dan teknologi yang lebih andal ke dunia luar. Dan semua upaya ini pada akhirnya ditujukan pada satu tujuan - untuk mempromosikan industrialisasi AI.
Dengan tujuan ini, Alibaba Cloud juga telah merilis Alibaba Cloud Bailian, platform pengembangan aplikasi model skala besar satu atap. Alibaba Cloud adalah integrator yang sistematis dan terbuka.
Alibaba Cloud mengatakan bahwa berdasarkan itu, pengembang dapat mengembangkan aplikasi model besar dalam 5 menit, dan "menyempurnakan" model khusus perusahaan dalam beberapa jam. Setelah membantu pengembang memilih model yang paling sesuai, ia juga menyediakan berbagai metode penyetelan halus seperti SFT dan LoRA, memungkinkan Anda untuk menyempurnakan model Anda. Setelah pelatihan selesai, Anda juga dapat menerapkannya melalui Alibaba Cloud dengan satu klik. Mengembangkan aplikasi juga sangat disederhanakan, dan bahkan agen terbaru dan plug-in lainnya tersedia bagi pengguna untuk dipilih.
"Setiap tautan dan setiap kelompok orang adalah bagian penting dari seluruh ekosistem pengembang saat ini." Kata Zhou Jingren.
"Tujuan kami adalah menjadikan Alibaba Cloud sebagai cloud yang paling terbuka, dan kami berharap saat ini Alibaba Cloud tidak hanya dapat melayani satu jenis pelanggan, tetapi semua pelanggan kami saat ini, yang semuanya disebutkan dalam berbagai cara, dapat secara efektif memberi mereka dukungan di era kecerdasan buatan, dan dapat membantu mereka untuk berinovasi dan membuat terobosan di bidang keahlian mereka sendiri. Ini adalah tujuan kami dan refleksi di balik desain produk kami hari ini. "
Dalam "ideal satu langkah di belakang" saat ini, ekosistem model yang hidup tidak hanya membutuhkan cloud dalam pengembangan aktual, tetapi juga inspirasi komputasi awan untuk perusahaan teknologi Cina juga sangat penting bagi praktisi AI dan model saat ini.
Proses pengembangan komputasi awan China selalu memiliki makna simbolis, yaitu, ketika kita memiliki bakat pengembangan teknologi yang kuat dan kebutuhan aplikasi industri yang paling luas, bagaimana memahami teknologi yang mendasarinya secara spontan. Dan ketika Anda berada pada kerugian teknologi tertentu, peluang seperti itu hanya akan muncul ketika sistem teknologi besar sepenuhnya berubah.
Ketika revolusi teknologi baru datang lagi dan teknologi yang mendasarinya perlu direkonstruksi lagi, komputasi awan telah menjadi kepercayaan dan biaya model China untuk terus bergulat dengan rekan-rekannya yang maju, dan ini juga merupakan inspirasi dan peringatan. Sementara industri dan aplikasi AI semakin cepat, memiliki basis teknologi mutakhir kita sendiri, dan membentuk hubungan terbuka dan saling membantu berdasarkan itu, akan menjadi penting bagi seluruh ekosistem untuk maju bersama, dan juga penting untuk mengingatkan kita bagaimana memahami inovasi teknologi ini, dan bahkan diharapkan menjadi keuntungan dalam kompetisi ini dengan upaya berkelanjutan.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Jangan hanya menatap model besar, masa depan AI bergantung pada cloud tidak seperti sebelumnya
Sumber asli: Silicon Star People
**Awan! **
Jika Anda melihat laporan media tentang model besar setiap hari, Anda akan terpesona oleh berbagai model dan aplikasi menakutkan yang berumur pendek, berpikir bahwa masa depan model terletak pada model serba bisa berikutnya. Jadi AI tampaknya menjadi kisah OpenAI atau Anthropic yang menang.
Pembiayaan yang telah diselesaikan dengan kecepatan dan volume yang luar biasa tampaknya membuktikan persepsi ini.
Anthropic, yang dianggap sebagai salah satu saingan terbesar OpenAI, berada dalam putaran pembiayaan dalam siklus bulanan 2 miliar - pada 27 Oktober, Google mengatakan bahwa mereka telah menginvestasikan $ 2 miliar lagi di dalamnya, kurang dari sebulan setelah Amazon menginvestasikan $ 4 miliar di dalamnya, dan modelnya Claude, yang bersaing dengan fitur-fitur seperti panjang konteks, dianggap sebagai salah satu pesaing terkuat untuk ChatGPT. Pada saat yang sama, OpenAI juga mengumpulkan berbagai sumber daya, dan di balik setiap gerakannya, SoftBank, Microsoft, dan Apple semuanya berrumor dengannya dengan berbagai cara.
Namun, pada kenyataannya, ini bukan keseluruhan cerita.
Bagi praktisi, sisi lain dari cerita ini lebih mendalam:
Jelas, itu adalah pilihan yang lebih baik untuk mengambil dolar dari para investor yang memiliki lebih banyak uang dan lebih sedikit untuk dilakukan, namun, mereka semua memilih pabrik besar satu demi satu, dan bahkan pabrik besar yang mengincar mereka, hanya karena satu hal - mereka memiliki kemampuan komputasi awan. Kontribusi OpenAI untuk Microsoft Azure telah dikatakan terlalu sering di jalan menuju kesuksesan, dan Anthropic sekarang menjamin dirinya sendiri dukungan daya komputasi awan dari Google dan Amazon pada saat yang sama, dan dikatakan bahwa salah satu tujuan penting pembiayaan adalah untuk membangun jaminan daya komputasi untuk dirinya sendiri untuk melatih model generasi berikutnya.
Ini adalah bukti yang sangat baik tentang kebutuhan cloud untuk model besar.
Alibaba Cloud telah mengumumkan beberapa model yang berjalan di atas layanannya, dari model besar Tongyi sendiri, hingga Baichuan Intelligence, Zhipu AI, Zero One Everything, Kunlun Wanwei, vivo, Universitas Fudan, dll., setengah dari perusahaan dan institusi model besar China dilatih di sini.
Model mainstream di China ini juga menyediakan layanan API melalui Alibaba Cloud, termasuk seri Tongyi, seri Baichuan, seri Zhipu AI ChatGLM, model umum Jiang Ziya, dll.
Model-model ini mengejar ketinggalan dengan tingkat atas pada saat yang sama, tetapi juga mulai menumbuhkan karakteristik mereka sendiri, di antaranya salah satu perusahaan model besar paling kepala China Baichuan Intelligence, telah menetapkan rata-rata 28 hari untuk mengulangi versi rekor model besar, itu 30 Oktober Rilis terbaru Baichuan2-192K telah menjadi dukungan terpanjang di dunia untuk jendela konteks model besar, dapat memasukkan 350.000 kata sekaligus, memimpin Claude2-100K.
Semua keunggulan ini mengarah pada aplikasi yang lebih membumi. Wang Xiaochuan, CEO Baichuan Intelligence, menggambarkan ini sebagai "satu langkah lebih lambat dari yang ideal dan tiga langkah lebih cepat di lapangan". Infrastruktur cloud, di sisi lain, menawarkan kemungkinan cepat.
Wang Xiaochuan memperkenalkan bahwa alasan penting untuk iterasi bulanan model Baichuan adalah dukungan komputasi awan. "Iterasi dan penyebaran model yang cepat tidak dapat dipisahkan dari komputasi awan, dan Baichuan Intelligence dan Alibaba Cloud telah melakukan kerja sama yang mendalam. Dengan upaya bersama dari kedua belah pihak, Baichuan telah berhasil menyelesaikan tugas pelatihan model besar kilokalori, secara efektif mengurangi biaya inferensi model dan meningkatkan efisiensi penyebaran model. "
Alasan lain mengapa pentingnya komputasi awan telah diabaikan adalah bahwa bidang AI telah terganggu oleh "kurangnya kartu untuk semua".
"Orang-orang terlalu memperhatikan GPU." Banyak praktisi model besar mengatakan kepada saya bahwa sebagai unit komputasi, memang terus ditingkatkan, tetapi untuk menyelesaikan masalah AI, yang pada akhirnya dibutuhkan adalah solusi daya komputasi yang sistematis dan optimal. Bahkan cloud telah menjadi hal yang memecahkan masalah satu unit yang tidak cukup kuat sejak awal.
"Hanya kartunya, hanya model luar biasa di kertas, itu tidak cukup, dan akhirnya mengandalkan awan untuk mendarat dan kemudian mewujudkan cita-cita." Katanya. Jika Anda dengan hati-hati menajamkan telinga dan mendengarkan "teriakan" dari para peserta nyata ini di garis depan ekologi model, maka Anda mungkin mendengar satu kata:
Awan!
Bagaimana masa depan AI berkembang bergantung pada cloud saat ini lebih dari sebelumnya.
Awan Baru
Tetapi ini jelas tidak berarti bahwa vendor cloud yang telah menetapkan keuntungan dapat berbaring dan menang.
Lihat saja apa yang terjadi setelah Google dan Microsoft baru-baru ini merilis laporan pendapatan mereka pada hari yang sama.
Pada tanggal 25 Oktober, Google merilis laporan pendapatan yang melebihi ekspektasi, dengan peningkatan tahun-ke-tahun sebesar 11%, dan bisnis periklanan inti juga meningkat sebesar 9%. Tapi kemudian harga saham turun. Hanya ada satu alasan, komputasi awan telah tumbuh sebesar 22%, tetapi pasar percaya bahwa itu tidak cukup. Secara khusus, laporan keuangan Microsoft yang dirilis pada hari yang sama menunjukkan bahwa divisi cloud cerdasnya menjadi sumber pendapatan terbesar.
Untuk pertama kalinya, para raksasa menemukan diri mereka dikesampingkan dengan bisnis seperti periklanan, yang pernah mereka bicarakan, karena komputasi awan dianggap sebagai metrik yang dapat diamati dibandingkan dengan pendapatan langsung yang dihasilkan oleh model yang masih ilusi. Di balik indikator ini adalah kemampuan vendor cloud untuk beradaptasi dengan tantangan yang dibawa oleh AI.
Bahkan AWS, pangsa pasar No. 1, merasakan tekanan, dan investasi Amazon di Anthropic juga terjadi selama laporan pendapatan ini. Telah dilaporkan bahwa 3% dari pendapatan Azure Microsoft berasal dari AI, dan pelanggannya mencakup sejumlah besar pengguna OpenAI, dan AWS mulai menekankan layanannya untuk berbagai model. Setelah membuang 2 miliar di Anthropic, segera diumumkan bahwa LLM setelah perusahaan model akan dibangun dengan chip akselerasi pelatihan AWS Trainium dan chip inferensi Inferentia. Selain itu, seperti solusi klaster baru yang disorot dalam laporan keuangan Microsoft, dan Bedrock, layanan model dasar yang dikelola sepenuhnya untuk AWS, juga menekankan transformasi mereka sendiri untuk kebutuhan AI baru.
Menurut perkenalan Zhou Jingren, Alibaba Cloud pertama kali menggunakan model besar untuk mengubah dirinya sendiri, dan lebih dari 30 produk cloud telah terhubung ke kemampuan model besar tersebut.
Misalnya, DataWorks, platform tata kelola data besar Alibaba Cloud, telah menambahkan bentuk interaktif baru, Copilot, yang memungkinkan pengguna untuk menghasilkan pernyataan SQL dengan input bahasa alami dan secara otomatis menjalankan operasi ETL data yang sesuai, meningkatkan efisiensi pengembangan dan analisis secara keseluruhan lebih dari 30%.
Zhou Jingren menggambarkan ini sebagai mode mengemudi otonom komputasi awan, yang akan sangat meningkatkan efisiensi dan pengalaman pengembang menggunakan cloud.
Pada saat yang sama, Alibaba Cloud juga telah meningkatkan platform kecerdasan buatannya PAI. Lapisan PAI yang mendasari menggunakan arsitektur jaringan klaster AI generasi berikutnya HPN 7.0, mendukung skala klaster yang dapat diskalakan hingga 100.000 kartu, dan rasio akselerasi pelatihan terdistribusi skala ultra-besar setinggi 96%, jauh melebihi tingkat industri. Dalam tugas pelatihan model besar, ini dapat menghemat lebih dari 50% sumber daya komputasi, dan kinerjanya terdepan di dunia.
Istilah profesional ini sedikit rumit, dijelaskan oleh kasus pelanggan langsung, dan Zhou Jingren juga membagikan beberapa kasus pada hari yang sama: "Melalui platform PAI kami, ini dapat membantu mengoptimalkan penalaran, membantu Xiaohongshu menghemat 30% biaya, dan benar-benar dapat mendorong pertumbuhan bisnis Xiaohongshu yang cepat, serta berbagai kebutuhan bisnis." "
Vendor cloud, termasuk Alibaba Cloud, pada dasarnya mencari tahu infrastruktur baru. Perubahan yang dibawa oleh teknologi AI seperti model besar adalah full-stack, dari lapisan bawah model hingga ide pelatihan, dari persyaratan data hingga antarmuka interaktif, berubah, dan bahkan perlu "diulang".
Titik awal dari semua transformasi Alibaba Cloud adalah MaaS (model as a Service) yang diusulkan oleh Zhou Jingren lebih awal.
"Model itu sendiri adalah abstraksi data dan perhitungan tingkat tinggi." Zhou Jingren berkata dalam percakapan kecil dengan kami hari itu.
"Misalnya, di masa lalu, kami biasa menggunakan lebih banyak data dari log atau database. Apa modelnya? Model adalah kumpulan data yang diproses, yang merupakan abstraksi yang sangat intelektual. Jadi dari sudut pandang ini, Anda dapat berpikir bahwa data asli adalah bahan produksi yang lebih primitif, mengandalkan daya komputasi asli. Model saat ini adalah lapisan pemrosesan, yang merupakan elemen produksi yang lebih abstrak berdasarkan bahan baku data, dan Anda dapat menggunakan elemen produksi tersebut untuk mengembangkan sistem bisnis dimensi yang lebih tinggi. Sebelumnya kami memiliki Infrastruktur, yang merupakan elemen produksi, dan hari ini modelnya juga merupakan elemen produksi. "
Infrastruktur baru di sekitar model ini membutuhkan kemampuan sistem yang lebih kompleks daripada di masa lalu.
Sementara ambang batas untuk aplikasi AI semakin rendah, ambang batas untuk menyediakan komputasi awan yang memenuhi kebutuhan era AI baru hanya akan semakin tinggi. Untuk mengeksplorasi hal baru ini, jelas bahwa Anda perlu menguasai teknologi inti komputasi awan, dan Anda harus memiliki pemahaman nyata tentang teknologi model besar - Anda tahu apa yang Anda miliki, dan Anda tahu apa yang dibutuhkan pelanggan Anda.
"Berdasarkan akumulasi kami dalam komputasi awan, kami telah membangun infrastruktur AI yang lengkap. Melalui rangkaian pengoptimalan saat ini dalam jaringan, penyimpanan, penjadwalan, kompilasi, toleransi kesalahan, dan sebagainya. Kami telah membuat platform pelatihan lengkap untuk model besar AI. Kata Zhou Jingren. Pada saat yang sama, melalui serangkaian pengoptimalan yang dikombinasikan dengan elastisitas tinggi cloud itu sendiri, kami dapat memberi Anda pelatihan model dan layanan inferensi yang sangat lengkap. "
Pada hari yang sama, Alibaba Cloud juga merilis model parameter level 100 miliar yang dikembangkan sendiri Tongyi Qianwen 2.0.
Pada saat yang sama, situs web resmi model Tongyi telah diperbarui sepenuhnya, menambahkan interaksi multi-modal dan fungsi plug-in, yang memungkinkan pengguna untuk berinteraksi dengan Tongyi Qianwen 2.0 melalui gambar, dan juga memanggil kemampuan plug-in baru yang lebih kaya.
Zhou Jingren berkata, "Tongyi Qianwen 2.0 lebih matang dan lebih mudah digunakan."
Buka, Buka, atau Buka
Dengan transformasi komprehensif seperti itu, secara alami menimbulkan pertanyaan apakah model dan infrastruktur pada akhirnya akan menjadi situasi di mana Anda menjadi wasit dan atlet.
Jawaban yang diberikan oleh Alibaba Cloud adalah keterbukaan maksimum.
Alibaba Cloud adalah perusahaan teknologi paling awal di China yang membuka sumber model besar yang dikembangkan sendiri, dan saat ini, Alibaba Cloud memiliki versi Tongyi Qianwen 7B dan 14B open-source, dengan lebih dari satu juta unduhan. Di tempat kejadian, Zhou Jingren mengumumkan bahwa model Tongyi Qianwen 72B akan segera menjadi open source, dan akan menjadi model open source terbesar di China.
Sebenarnya, keterbukaan semacam ini bukanlah sesuatu yang akan terjadi setelah ChatGPT. Pada Konferensi Apsara setahun yang lalu, Alibaba Cloud mulai membangun model bangunan ajaib komunitas, pada kenyataannya, batch pertama open source pada saat itu adalah model inti Alibaba Cloud sendiri. Pada saat itu, rencana Moda adalah menggunakan Alibaba Cloud untuk menyerahkan hal-hal di bagian bawah kotak untuk mendorong semua orang mengubah keadaan tertutup AI di masa lalu, dan menggunakan keterbukaan untuk benar-benar membuatnya dapat diakses oleh publik.
Zhou Jingren mengungkapkan bahwa komunitas telah mengumpulkan lebih dari 2.300 model AI hari ini, menarik 2,8 juta pengembang AI, dan jumlah unduhan model AI melebihi 100 juta, menjadikannya komunitas AI terbesar dan paling aktif di Tiongkok. Pencapaian ini adalah pengakuan paling langsung atas keterbukaannya terhadap dunia luar.
"Posisi kami saat ini adalah melayani berbagai pelanggan dengan kebutuhan yang berbeda." Kata Zhou Jingren.
Di ekosistem Alibaba Cloud, ada superkomputer yang dibangun bersama dengan Universitas Fudan, yang mendukung pelatihan model besar dengan ratusan miliar parameter, dan menempati peringkat 15 besar di dunia dalam hal daya komputasi secara keseluruhan. Cluster komputasi di belakangnya terdiri dari Jinsi No. 1 di kampus Fudan dan Qiewen No. 1 di pusat data Ulanqab Alibaba Cloud yang berjarak 1.500 kilometer.
vivo telah mengembangkan sendiri model-model besar, mulai dari daya komputasi, fungsi platform, kinerja pelatihan, dll., hingga kerangka kerja pengoptimalan pelatihan platform kecerdasan buatan Alibaba Cloud PAI dalam hal pengawasan SFT dan penyempurnaan model besar dan pembelajaran penguatan, vivo dan Alibaba Cloud bekerja sama untuk mengulangi model besar secara lebih efisien.
Ada juga "Wonderful Duck Camera" yang populer, yang pembuatan fotonya membutuhkan setidaknya beberapa ribu server GPU di tingkat puncak, dan penyebaran offline tidak praktis, dan penyebaran cloud dapat menghemat banyak biaya dan waktu untuk startup. Selain itu, aplikasi seperti Miaoya mewakili tren bahwa di masa depan, kebutuhan akan inferensi akan lebih besar daripada kebutuhan akan pelatihan, yang hanya akan membuat komputasi awan lebih penting bagi keberlanjutan layanan AI.
Di bawah posisi seperti itu, model besar Alibaba Cloud lebih seperti kelanjutan dari ide yang selalu digunakan Alibaba di masa lalu - praktik terbaik. Pemikirannya adalah bahwa hanya ketika telah melakukan tugas yang paling kompleks dan menguji infrastrukturnya dengan itu, ia dapat memberikan layanan dan teknologi yang lebih andal ke dunia luar. Dan semua upaya ini pada akhirnya ditujukan pada satu tujuan - untuk mempromosikan industrialisasi AI.
Dengan tujuan ini, Alibaba Cloud juga telah merilis Alibaba Cloud Bailian, platform pengembangan aplikasi model skala besar satu atap. Alibaba Cloud adalah integrator yang sistematis dan terbuka.
"Setiap tautan dan setiap kelompok orang adalah bagian penting dari seluruh ekosistem pengembang saat ini." Kata Zhou Jingren.
"Tujuan kami adalah menjadikan Alibaba Cloud sebagai cloud yang paling terbuka, dan kami berharap saat ini Alibaba Cloud tidak hanya dapat melayani satu jenis pelanggan, tetapi semua pelanggan kami saat ini, yang semuanya disebutkan dalam berbagai cara, dapat secara efektif memberi mereka dukungan di era kecerdasan buatan, dan dapat membantu mereka untuk berinovasi dan membuat terobosan di bidang keahlian mereka sendiri. Ini adalah tujuan kami dan refleksi di balik desain produk kami hari ini. "
Dalam "ideal satu langkah di belakang" saat ini, ekosistem model yang hidup tidak hanya membutuhkan cloud dalam pengembangan aktual, tetapi juga inspirasi komputasi awan untuk perusahaan teknologi Cina juga sangat penting bagi praktisi AI dan model saat ini.
Ketika revolusi teknologi baru datang lagi dan teknologi yang mendasarinya perlu direkonstruksi lagi, komputasi awan telah menjadi kepercayaan dan biaya model China untuk terus bergulat dengan rekan-rekannya yang maju, dan ini juga merupakan inspirasi dan peringatan. Sementara industri dan aplikasi AI semakin cepat, memiliki basis teknologi mutakhir kita sendiri, dan membentuk hubungan terbuka dan saling membantu berdasarkan itu, akan menjadi penting bagi seluruh ekosistem untuk maju bersama, dan juga penting untuk mengingatkan kita bagaimana memahami inovasi teknologi ini, dan bahkan diharapkan menjadi keuntungan dalam kompetisi ini dengan upaya berkelanjutan.