Ukuran pasar 10 tahun adalah 1,3 triliun dolar AS, dan era kekuatan modular telah tiba

Sumber asli: Qubits

Sumber gambar: Dihasilkan oleh Unbounded AI

Badai model besar bertiup hampir sepanjang tahun, dan pasar AIGC mulai berubah lagi:

Demo teknologi keren digantikan oleh pengalaman produk lengkap. **

Misalnya, model lukisan AI terbaru OpenAI DALL· Segera setelah E 3 memulai debutnya, ia bergabung dengan ChatGPT untuk menjadi alat produktivitas baru yang paling dinanti di ChatGPT Plus.

** **###### DALL· E3 secara akurat mereproduksi setiap detail input teks

Misalnya, Microsoft Copilot berdasarkan GPT-4 telah sepenuhnya diselesaikan di Windows 11, secara resmi menggantikan Cortana sebagai generasi baru asisten AI di sistem operasi.

** **###### Gunakan Copilot untuk meringkas posting blog dalam satu klik

Contoh lain, mobil domestik seperti Jiyue 01 telah secara resmi melengkapi model besar di kokpit, dan mereka sepenuhnya offline ...

Jika "model besar membentuk kembali segalanya" pada Maret 2023 hanyalah prediksi optimis dari pelopor teknologi, hari ini, perang 100 model yang masih sengit dan kemajuan aplikasi praktis telah membuat pandangan ini semakin bergema di dalam dan di luar industri.

Dengan kata lain, dari seluruh metode produksi Internet hingga kokpit cerdas di setiap mobil, era inovasi diri dengan model besar sebagai basis teknis dan mendorong ribuan industri akan datang.

Menurut metode penamaan zaman uap dan zaman listrik, itu dapat dinamai "era gaya modular".

Di "Era Moli", salah satu skenario yang paling memprihatinkan adalah terminal pintar.

Alasannya sederhana: industri terminal pintar, diwakili oleh ponsel pintar, PC, mobil pintar, dan bahkan perangkat XR, adalah salah satu industri teknologi yang paling erat kaitannya dengan kehidupan masyarakat kontemporer, dan tentu saja telah menjadi standar emas untuk menguji kematangan teknologi mutakhir.

Oleh karena itu, ketika gelombang pertama hype yang dibawa oleh ledakan teknologi berangsur-angsur menjadi tenang, dengan skenario terminal pintar sebagai jangkar, bagaimana seharusnya peluang dan tantangan baru dari "era daya modular" dilihat dan ditafsirkan?

Sekarang, saatnya untuk memecahnya dan meremasnya dan menyisirnya.

Smart Terminal, Medan Perang Baru Model Besar

Sebelum menganalisis tantangan dan peluang secara rinci, mari kita kembali ke pertanyaan penting: mengapa AI generatif diwakili oleh model besar begitu populer, dan bahkan dianggap sebagai "revolusi industri keempat"?

Menanggapi fenomena ini, banyak institusi telah melakukan penelitian untuk mencoba memprediksi atau meringkas perkembangan AI generatif dalam berbagai skenario, seperti "Generative AI: A Creative New World" dari Sequoia Capital.

Di antara mereka, banyak perusahaan terkemuka di industri ini telah menganalisis skenario pendaratan dan potensi arah perubahan AI generatif di industri tertentu berdasarkan pengalaman mereka sendiri.

Misalnya, AI sisi terminal mewakili pemain Qualcomm, dan beberapa waktu lalu merilis buku putih tentang status pengembangan dan tren AI generatif "Hybrid AI adalah Masa Depan AI".

Dari sini, dimungkinkan untuk menafsirkan tiga alasan utama mengapa AI generatif populer di industri.

Pertama-tama, teknologinya sendiri cukup sulit.

Baik itu model besar yang muncul secara cerdas atau lukisan AI yang menghasilkan kualitas palsu dengan kualitas palsu, ini semua tentang menggunakan efek untuk berbicara, dan ini adalah area kerja nyata yang terkait dengan teks, gambar, video, dan otomatisasi, menunjukkan kemampuan luar biasa untuk mengganggu alur kerja tradisional.

Kedua, ada skenario pendaratan potensial yang kaya. Terobosan generasi AI yang dibawa oleh model besar telah membawa imajinasi tak terbatas kepada orang-orang sejak awal: kumpulan pengalaman paling awal dengan cepat merasakan manfaat AI generatif untuk bekerja.

Permintaan besar di sisi pengguna dapat dilihat dari tingkat pertumbuhan pengguna aplikasi representatif seperti ChatGPT.

** **#### ChatGPT memecahkan rekor lebih dari 100 juta pengguna terdaftar aplikasi populer, sumber Sequoia Capital

Dari pencarian Internet awal, pemrograman, kantor, hingga munculnya pariwisata budaya, hukum, kedokteran, industri, transportasi, dan aplikasi adegan lainnya, mengendarai angin AI generatif, jauh lebih banyak daripada perusahaan yang dapat menyediakan model besar dasar, tetapi juga sejumlah besar start-up makmur dan berkembang.

Banyak pakar industri percaya bahwa bagi pengusaha, lapisan aplikasi yang dibawa oleh model besar memiliki peluang lebih besar.

Ada terobosan teknologi generasi di bagian bawah, dan ledakan permintaan aplikasi yang kuat di bagian atas, dan efek ekologis dirangsang.

Menurut prediksi Bloomberg Intelligence, pasar AI generatif akan meledak dari $ 40 miliar menjadi $ 1,3 triliun ** pada tahun 2032, mencakup berbagai peserta dalam rantai ekologi, termasuk infrastruktur, model dasar, alat pengembang, produk aplikasi, produk terminal, dan sebagainya.

Pembentukan rantai ekologi ini telah mendorong perubahan baru dalam industri dan diharapkan dapat membuat AI semakin menjadi produktivitas inti yang mendasarinya.

Berdasarkan latar belakang ini, mari kita lihat apa yang terjadi di industri pintar saat ini.

Di satu sisi, badai aplikasi AIGC yang diwakili oleh model besar dengan cepat ** dari cloud ke terminal ** dalam ritme iterasi hari.

ChatGPT adalah yang pertama memperbarui fungsi multi-modal "pembicaraan audiovisual" di terminal seluler, dan pengguna dapat mengambil foto dan mengunggahnya, dan mereka dapat berbicara dengan ChatGPT untuk konten foto.

Misalnya, "Cara menyesuaikan ketinggian jok sepeda":

** **#### dan dialog grafis GPT-4, berikan 5 saran dalam hitungan detik

Qualcomm juga dengan cepat mewujudkan model besar Difusi Stabil dan ControlNet yang menjalankan lebih dari satu miliar parameter di sisi terminal, dan hanya membutuhkan lebih dari selusin detik untuk menghasilkan gambar AI berkualitas tinggi di ponsel.

Banyak produsen ponsel juga telah mengumumkan bahwa mereka akan memasang "otak" model besar untuk asisten suara mereka.

Dan itu bukan hanya telepon.

Dalam pameran skala besar di dalam dan luar negeri, seperti Shanghai Auto Show, Chengdu Auto Show, Munich Motor Show, dll., Kerja sama antara produsen model dasar dan produsen mobil menjadi semakin umum, dan model besar "naik mobil" telah menjadi titik kompetisi baru di bidang kokpit cerdas.

** **###### Satu kalimat dapat membuat model mobil membeli bahan-bahan di APP, dan Anda dapat memasak saat pulang

Di sisi lain, pecahnya ** aplikasi telah memperburuk situasi bahwa daya komputasi kekurangan pasokan. **

Dapat diperkirakan bahwa biaya inferensi model akan meningkat dengan meningkatnya jumlah pengguna aktif harian dan frekuensi penggunaannya, dan hanya mengandalkan daya komputasi awan saja tidak cukup untuk dengan cepat mempromosikan skala AI generatif.

Ini juga dapat dilihat dari fakta bahwa semua lapisan masyarakat meningkatkan perhatian mereka pada daya komputasi AI sisi terminal.

Misalnya, pemain AI sisi terminal Qualcomm merilis generasi baru platform komputasi PC untuk peningkatan kinerja chip PC, menggunakan CPU Oryon yang dikembangkan sendiri oleh Qualcomm, terutama NPU yang dilengkapi dengannya akan memberikan kinerja yang lebih kuat untuk AI generatif, yang diberi nama platform seri Snapdragon X.

Platform komputasi baru ini diharapkan akan dirilis pada Snapdragon Summit 2023.

Jelas, baik dari perspektif aplikasi atau daya komputasi, terminal pintar telah menjadi salah satu skenario dengan potensi pendaratan terbesar AIGC.

AIGC Karang Di Bawah Air Pasang

Hal-hal sering memiliki dua sisi, dan begitu juga model besar dari perkembangan pesat hingga pendaratan.

Ketika AI generatif telah melonjak hingga hari ini, hambatan nyata di bawah potensi besar industri terminal cerdas telah muncul.

**Salah satu kendala terbesar adalah tingkat perangkat keras terendah. **

Seperti yang disebutkan oleh investor Sequoia Sonya Huang dan Pat Grady dalam artikel analisis AI generatif terbaru mereka "Generative AI's Act Two", AIGC berkembang pesat, tetapi hambatan yang diharapkan bukanlah permintaan pelanggan, tetapi daya komputasi sisi penawaran.

Kekuatan komputasi di sini terutama mengacu pada akselerator perangkat keras AI dan pembelajaran mesin, yang dapat dibagi menjadi lima kategori dari perspektif skenario penyebaran:

Sistem kelas pusat data, akselerator tingkat server, akselerator untuk mengemudi berbantuan & skenario mengemudi otonom, komputasi tepi, dan akselerator berdaya sangat rendah.

** **###### 5 jenis akselerator AI, sumber makalah MIT "Survei dan Tren Akselerator AI dan ML"

Dengan ledakan ChatGPT, model besar telah mendorong AIGC fenomenal keluar dari lingkaran, membuat "** kekuatan komputasi awan **" seperti pusat data dan prosesor tingkat server menerima banyak perhatian dalam jangka pendek, dan bahkan situasi kekurangan pasokan.

Namun, ketika AI generatif memasuki fase kedua, beberapa pertanyaan tentang daya komputasi menjadi semakin menonjol.

** Masalah pertama dan terbesar adalah biaya. ** Seperti yang dinyatakan dalam buku putih Qualcomm "Hybrid AI adalah Masa Depan AI", sekarang lebih dari setengah tahun telah berlalu, ketika model besar beralih dari pengejaran teknologi ke pendaratan aplikasi, model dasar ** pelatihan ** dari masing-masing perusahaan telah berangsur-angsur menetap, dan sebagian besar daya komputasi telah jatuh pada ** penalaran ** model besar.

Dalam jangka pendek, biaya inferensi dapat diterima, tetapi karena semakin banyak aplikasi untuk model besar dan semakin banyak skenario aplikasi, biaya inferensi pada akselerator seperti server akan meningkat tajam, yang pada akhirnya mengakibatkan biaya memanggil model besar lebih tinggi daripada melatih model besar itu sendiri.

Dengan kata lain, setelah model besar memasuki tahap kedua, permintaan jangka panjang untuk daya komputasi untuk inferensi akan jauh lebih tinggi daripada pelatihan tunggal, dan hanya mengandalkan "daya komputasi awan" yang terdiri dari pusat data dan prosesor tingkat server sama sekali tidak cukup untuk mencapai inferensi dengan biaya yang dapat diterima oleh pengguna.

Menurut statistik Qualcomm di buku putih, mengambil mesin pencari dengan model besar sebagai contoh, biaya setiap permintaan pencarian dapat mencapai 10 kali lipat dari metode tradisional, dan biaya tahunan di bidang ini saja dapat meningkat miliaran dolar.

Ini ditakdirkan untuk menjadi kendala utama pendaratan model besar.

**Bersamaan dengan itu, ada masalah latensi, privasi, dan personalisasi. Qualcomm juga menyebutkan dalam "Hybrid AI is the Future of AI" bahwa model besar secara langsung digunakan di cloud, selain jumlah komputasi server yang tidak mencukupi yang disebabkan oleh lonjakan pengguna, kebutuhan untuk "mengantri untuk digunakan" dan bug lainnya, itu juga terikat untuk menyelesaikan masalah privasi dan personalisasi pengguna.

Jika pengguna tidak ingin mengunggah data ke cloud, skenario penggunaan model besar, seperti kantor dan asisten cerdas, akan tunduk pada banyak batasan, dan sebagian besar skenario ini didistribusikan di sisi terminal; Jika Anda perlu mengejar hasil yang lebih baik, seperti menyesuaikan model besar untuk Anda gunakan sendiri, Anda perlu langsung menggunakan informasi pribadi untuk pelatihan model besar.

Di bawah berbagai faktor, "daya komputasi terminal" yang dapat berperan dalam penalaran, yaitu, beberapa jenis prosesor, termasuk mengemudi otomatis & mengemudi dengan bantuan, komputasi tepi (tertanam) dan akselerator daya sangat rendah, telah mulai memasuki bidang penglihatan orang.

Terminal memiliki daya komputasi yang sangat besar. Menurut prediksi IDC, jumlah perangkat IoT global akan melebihi 40 miliar pada tahun 2025, menghasilkan hampir 80 zettabyte data, dan lebih dari setengah data perlu bergantung pada daya komputasi terminal atau edge untuk diproses.

Namun, terminal juga memiliki masalah seperti konsumsi daya yang terbatas dan pembuangan panas, yang mengakibatkan daya komputasi terbatas.

Dalam hal ini, bagaimana menggunakan daya komputasi besar yang tersembunyi di terminal untuk menerobos kemacetan yang dihadapi oleh pengembangan daya komputasi awan menjadi salah satu masalah teknis paling umum di "era daya modular".

**Belum lagi selain daya komputasi, implementasi model besar juga menghadapi tantangan seperti algoritma, data, dan persaingan pasar. **

Untuk algoritma, arsitektur model yang mendasarinya masih belum diketahui. ChatGPT telah mencapai hasil yang baik, tetapi rute teknisnya bukanlah arah arsitektur model generasi berikutnya.

Untuk data, data berkualitas tinggi sangat diperlukan bagi perusahaan lain untuk mencapai hasil model besar ChatGPT, tetapi Act Two Generatif AI juga menunjukkan bahwa data yang dihasilkan oleh perusahaan aplikasi tidak benar-benar menciptakan penghalang.

Keuntungan yang dibangun oleh data rapuh dan tidak berkelanjutan, dan model dasar generasi berikutnya kemungkinan akan secara langsung menghancurkan "dinding" ini, sebaliknya, pengguna yang berkelanjutan dan stabil dapat benar-benar membangun sumber data.

Untuk pasar, saat ini tidak ada aplikasi pembunuh untuk produk model besar, dan masih belum diketahui skenario seperti apa yang cocok untuknya.

Di era ini, produk seperti apa yang digunakan dan aplikasi mana yang dapat memberikan nilai terbesarnya, pasar belum memberikan serangkaian metodologi atau jawaban standar yang dapat diikuti.

** Menanggapi serangkaian masalah ini, saat ini ada dua cara utama untuk memecahkan masalah di industri. **

Salah satunya adalah meningkatkan algoritma model besar itu sendiri, tanpa mengubah "esensi" model, meningkatkan ukurannya dengan lebih baik, dan meningkatkan kemampuan penyebarannya di lebih banyak perangkat;

Mengambil algoritma Transformer sebagai contoh, model seperti itu dengan sejumlah besar parameter harus disesuaikan dalam struktur jika mereka ingin berjalan di sisi ujung, sehingga banyak algoritma ringan seperti MobileViT telah lahir selama ini.

Algoritma ini berusaha untuk meningkatkan struktur dan jumlah parameter tanpa mempengaruhi efek output, sehingga mereka dapat berjalan pada lebih banyak perangkat dengan model yang lebih kecil.

Yang lainnya adalah untuk meningkatkan kekuatan komputasi AI dari perangkat keras itu sendiri, sehingga model besar dapat mendarat dengan lebih baik di sisi akhir.

Metode tersebut termasuk desain multi-core pada tumpukan perangkat keras dan perangkat lunak pengembangan, yang digunakan untuk meningkatkan kinerja komputasi perangkat keras dan fleksibilitas model pada perangkat yang berbeda, sehingga dapat meningkatkan kemungkinan model besar mendarat di sisi ujung.

Yang pertama dapat disebut adaptasi perangkat lunak ke perangkat keras, dan yang terakhir adalah bahwa produsen perangkat keras beradaptasi dengan perubahan arus zaman. Tetapi di kedua arah, ada risiko disusul oleh taruhan saja. **

Di bawah "era kekuatan modular", teknologi berubah setiap hari, dan terobosan baru mungkin muncul dari kedua sisi perangkat lunak dan perangkat keras, dan begitu cadangan teknis yang diperlukan kurang, mereka mungkin tertinggal.

Jadi haruskah kita secara membabi buta menindaklanjuti atau hanya melewatkan perkembangan gelombang teknologi ini? Tidak juga.

** Untuk perusahaan yang telah menemukan nilai mereka sendiri di era Internet dan AI, mereka mungkin juga dapat mengeksplorasi ide solusi ketiga di era AIGC berdasarkan skenario dan akumulasi teknologi mereka sendiri. **

Ambil Qualcomm, perusahaan AI dengan teknologi perangkat lunak dan perangkat keras, sebagai contoh.

Dihadapkan dengan tantangan teknologi model besar dalam skenario yang berbeda, Qualcomm telah melompat keluar dari identitas perusahaan chip dan merangkul gelombang AIGC lebih awal.

Selain terus meningkatkan daya komputasi AI dari chip sisi terminal, Qualcomm juga meletakkan teknologi AI dasar, berusaha untuk mempercepat kecepatan seluruh industri terminal cerdas untuk merangkul AIGC sebagai perusahaan yang memungkinkan.

Namun, ada juga berbagai kesulitan yang dapat diperkirakan dalam pendekatan ini:

Untuk model AI yang lebih besar dan lebih kompleks, bagaimana cara memastikan kinerja sekaligus membuatnya berjalan lancar di terminal?

Kapan menggunakan model yang berbeda untuk mengalokasikan daya komputasi terbaik antara terminal dan cloud?

Bahkan jika masalah model besar yang digunakan di sisi terminal diselesaikan, bagian mana yang harus digunakan di cloud dan bagian mana yang harus digunakan di terminal, dan bagaimana memastikan bahwa koneksi dan fungsi antara berbagai bagian dari model besar tidak terpengaruh?

Jika keunggulan kinerja di sisi terminal tidak mencukupi, bagaimana cara mengatasinya?

......

Masalah-masalah ini tidak muncul dalam satu kasus, tetapi sudah ada di setiap industri atau skenario yang dipengaruhi oleh AIGC.

Apakah itu metode pemecah permainan atau pengalaman pendaratan yang sebenarnya, jawabannya hanya dapat dieksplorasi dari skenario dan kasus industri tertentu.

**Bagaimana cara memecahkan kabut "Era Daya Modular"? **

AIGC telah memasuki fase kedua, model besar menjadi lebih populer, dan industri telah mulai mencari cara untuk mendarat.

** Buku putih Qualcomm "Hybrid AI is the Future of AI" menyebutkan bahwa mengambil smartphone dan PC sebagai contoh, ada banyak kasus skenario pendaratan AIGC di industri terminal cerdas medan perang baru. **

Perusahaan sudah menyebarkan model yang lebih kecil dan lebih besar ke sisi terminal untuk masalah yang lebih personal, termasuk menemukan pesan, menghasilkan pesan balasan, memodifikasi acara kalender, dan navigasi sekali klik.

Misalnya, "pesan kursi restoran favorit", berdasarkan model besar, sesuai dengan analisis data pengguna restoran favorit dan jadwal gratis, berikan rekomendasi penjadwalan, dan tambahkan hasilnya ke kalender.

Qualcomm percaya bahwa karena terbatasnya jumlah parameter model besar yang digunakan oleh terminal dan kurangnya jaringan, mungkin ada "ilusi AI" ketika menjawab, dan kemudian dapat didasarkan pada teknologi orkestrator untuk mengatur pagar pembatas ketika model besar kekurangan informasi untuk mencegah masalah di atas.

Jika Anda tidak puas dengan konten yang dihasilkan oleh model besar, Anda juga dapat mengirim pertanyaan ke cloud untuk dieksekusi dengan satu klik, dan kemudian memberi umpan balik hasil pembuatan model besar dengan jawaban yang lebih baik ke sisi terminal.

Dengan cara ini, tidak hanya dapat mengurangi tekanan daya komputasi model besar yang berjalan di cloud, tetapi juga memastikan bahwa model besar dapat dipersonalisasi sambil melindungi privasi pengguna semaksimal mungkin.

**Adapun kemacetan teknis yang perlu ditembus seperti daya komputasi terminal dan algoritma, beberapa pemain juga telah mengembangkan beberapa "cara untuk memecahkan permainan". **

Dalam buku putih, Qualcomm memperkenalkan kelas teknologi baru yang telah banyak digunakan dalam buku putih, seperti decoding spekulatif, yang merupakan kebakaran beberapa waktu lalu.

Ini adalah metode yang ditemukan oleh Google dan DeepMind pada saat yang sama untuk mempercepat inferensi model besar, dan dapat menerapkan model besar yang lebih kecil untuk mempercepat pembuatan model besar.

Sederhananya, ini adalah untuk melatih model yang lebih kecil dan menghasilkan sekumpulan "kata kandidat" untuk model besar terlebih dahulu, daripada membiarkan model besar "berpikir" dan menghasilkan dengan sendirinya, dan langsung membuat "pilihan".

Karena kecepatan pembuatan model kecil beberapa kali lebih cepat daripada model besar, setelah model besar merasa bahwa kata-kata yang sudah dimiliki model kecil tersedia, itu dapat diambil secara langsung tanpa perlahan-lahan membuatnya sendiri.

Metode ini terutama mengambil keuntungan dari fakta bahwa kecepatan inferensi model besar lebih dipengaruhi oleh bandwidth memori daripada peningkatan jumlah komputasi.

Karena jumlah parameter yang sangat besar dan jauh melebihi kapasitas cache, model besar lebih cenderung dibatasi oleh bandwidth memori daripada performa perangkat keras komputasi selama inferensi. Misalnya, GPT-3 perlu membaca semua 175 miliar parameter setiap kali menghasilkan kata, dan perangkat keras komputasi sering menganggur sambil menunggu data memori dari DRAM.

Dengan kata lain, ketika model melakukan inferensi batch, ada sedikit perbedaan waktu antara memproses 100 token dan satu token pada satu waktu.

Oleh karena itu, penggunaan sampling spekulatif tidak hanya dapat dengan mudah menjalankan model besar dengan puluhan miliar parameter, tetapi juga menempatkan bagian dari daya komputasi di sisi terminal, memastikan kecepatan inferensi sambil mempertahankan efek pembangkitan model besar.

......

Tetapi apakah itu skenario atau teknologi, pada akhirnya, kita harus menemukan titik adaptasi satu sama lain untuk menghasilkan nilai aplikasi yang substansial **, sama seperti hubungan antara perangkat lunak dan perangkat keras tidak dapat dipisahkan:

Terobosan algoritma perangkat lunak seperti AI generatif, ketika mencari skenario pendaratan terminal pintar, pasti akan menghadapi persyaratan teknis yang dikombinasikan dengan perangkat keras AI seluler seperti Qualcomm.

Termasuk smartphone, PC, XR, mobil, dan Internet of Things, bagaimana berbagai segmen industri terminal pintar dapat menemukan permainan dan nilai mereka sendiri berdasarkan hotspot AIGC?

Bagaimana perusahaan dapat memanfaatkan gelombang waktu ini untuk merangsang nilai aplikasi dari jenis teknologi ini dan tidak melewatkan peluang transformasi produktivitas di seluruh industri?

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)