ChatGPT dünyayı kasıp kavurduktan sonra, yapay zeka yeni bir çıkış noktasına itildi.Yıkıcı bir akıllı üretkenlik aracı olarak, şimdiden gündemde olan bir konu haline geldi. Şu anda dünya çapında gelişmiş ülkeler ve bölgeler yapay zeka sektörünün gelişimini ulusal strateji düzeyine çıkarmış ve ilgili gelişen teknolojiler ve uygulamalar sürekli olarak hayata geçirilmektedir. Yeni yapay zeka dalgasının derinlemesine gelişmesiyle, dijital zeka teknolojisinin öncülük ettiği bir sanayi devrimi ortaya çıkmak üzere ve bu aynı zamanda hayatın her alanında "büyük model çağı"nın başlangıcını da açtı.
Büyük dil modelleri neden yapay zeka trendine öncülük edebilir? Yerel AI için yatırım fırsatları nelerdir? Geçenlerde Titanium Capital, Rongyi Capital'in yatırım direktörü Lin Junchao'yu şu temayı paylaşmaya davet etti: Yapay zekanın yatırım fırsatlarına birincil pazar perspektifinden bakmak. Bay Lin, elektrik ve elektronik mühendisliği alanında lisans derecesine ve University College London'dan (UCL) birinci sınıf onur yüksek lisans derecesine sahiptir ve üç yıllık girişimcilik deneyimine ve altı yıllık öz sermaye yatırım deneyimine sahiptir. Yatırım odakları, Jingye Intelligence, Smart Open Source China ve diğer projeler dahil olmak üzere temel yazılım geliştirme araçları, Metaverse ve AIGC'yi içerir. Bu paylaşımın sunucusu Titanium Capital Genel Müdürü Wu Kai'dir.Paylaşım kaydı şöyledir:
Büyük dil modeli neden yapay zekanın trendine öncülük edebilir?
Yapay Zeka Geliştirmenin Kısa Tarihi
Shannon 1950'de bilgisayar oyunlarını önerdiğinden beri, yapay zeka 70 yıldan fazla bir gelişim süreci yaşadı. Bunu kabaca dört aşamaya ayırabiliriz: erken aydınlanma + uzman sistem dönemi (50'ler-70'ler), makine öğrenimi + bilgisayarla görme dönemi (80'ler-90'lar), derin öğrenme dönemi (2006-2017), multimodal + büyük dil modeli dönemi (2018-günümüz).
Erken aydınlanma aşamasındaki dönüm noktası 1956 yılında Dartmouth College Yaz Sempozyumu'nda meydana geldi.Yapay zeka kavramı ilk olarak yapay zekanın başlangıcını resmen başlatan toplantıda önerildi.Bu dönemde 1966'da MIT tarafından geliştirilen ilk sohbet robotu ELIZA, ilk uzman sistem DENDRAL ve David Marr, 1976'da bilgisayarla görme ve hesaplamalı nöroloji kavramlarını önerdiler.
Makine öğrenimi çağında, bir dönüm noktası figürü var, yani Google'dan bir süre önce ayrılan yapay zekanın vaftiz babası Jeffrey Hinton. 1986'da, büyük ölçekli sinir ağı eğitimini mümkün kılan ve daha sonraki sinir ağları ve derin öğrenmenin yolunu açan geri yayılım algoritmasını önerdi. Aynı zamanda, 1979'daki tavla oyunu ve 1997'de Deep Blue'nun dünya satranç şampiyonu Kastrov'a karşı kazandığı zafer gibi birçok dönüm noktası olayı ve figürü de bu aşamada ortaya çıktı. 2006'da Jeffrey Hinton ve diğerleri derin öğrenme kavramını resmen önerdiler ve böylece yapay zekayı üçüncü aşamaya, yani derin öğrenme çağına soktular.
Derin öğrenme çağında, Jeffrey Hinton 2012'de evrişimli sinir ağı AlexNet'i önerdi ve ImageNet görüntü sınıflandırma yarışmasını kazandı.Genel hata oranı ikinci sıradakinden %10,8 daha düşüktü ve resmi olarak bilgisayarla görmede derin öğrenmenin ilk yılını açtı. Mart 2013'te Google, Jeffrey Hinton'ın başlangıç şirketi DNResearch'ü 44 milyon ABD Doları karşılığında satın aldı. O zamandan beri Google, küresel yapay zekanın gelişimine öncülük etmeye başladı; 2015'te dünyanın en etkili derin öğrenme çerçevesi olan TensorFlow açık kaynaklıydı; 2016'da AlphaGo, dokuz dan Go ustası Li Sedol'u 4:1 mağlup etti; 2017'de, o zamandan beri mevcut büyük dil modelinin çağını açan Transformer modeli piyasaya sürüldü. . Aynı zamanda Google liderliğindeki AI dalgasıyla birlikte 2016 yılında Scale AI, HuggingFace ve OpenAI gibi AI unicorns da kuruldu. İnternet devi Meta ayrıca 2017'de daha kullanışlı bir derin öğrenme çerçevesi olan Pytorch'u açık kaynaklı hale getirdi.
Büyük dil modelleri çağının lideri OpenAI, ilk olarak Nisan 2019'un başlarında ortaya çıktı. Geliştirdiği OpenAI Five, Dota2 dünya şampiyonu OG takımını 2:0 mutlak avantajla mağlup etti ve ardından Mayıs 2020'de 175 milyar parametreli GPT-3'ü, Kasım 2022'de ChatGPT'yi (GPT-3.5) ve Mart 2023'te GPT-4'ü piyasaya sürdü. O zamandan beri resmi olarak Google'dan görevi devraldı ve dünyaya liderlik etmeye başladı. Model Geliştirme. Google, Meta ve Microsoft gibi internet/yazılım devleri de stratejilerini ayarlayarak büyük ölçekli model yarışmasına aktif olarak katıldılar. 2022 yılının sonunda ChatGPT'den bu yana, dünyadaki büyük üreticilerin büyük ölçekli modele girdiğini ve yurt içindeki üniversiteler, teknoloji devleri, start-up'lar vb.
Çin'deki yapay zeka gelişiminin tarihi, 1998'de Microsoft Asya Araştırma Enstitüsü'nün kurulmasına kadar izlenebilir. Bugün, Innovation Works, Baidu, Kingsoft, Alibaba, SenseTime ve Questyle gibi tanınmış yerli şirketlerin arkasındaki kurucular ve çekirdek ekiplerin tümü Microsoft Asya Araştırma Enstitüsü'nden gelmektedir. Yerli AI şirketleri iFlytek, Dahua ve Hikvision'un ilk partisi 2008-2010 yılları arasında A-hisse piyasasında listelendi. 2011'den 2015'e kadar Çin'de Megvii (2011'de kuruldu), YITU (2012'de kuruldu), SenseTime (2014'te kuruldu) ve Yuncong (2015'te kuruldu) gibi birçok bilgisayarla görme girişimi ortaya çıktı. 2018 yılında milli takım - Pekin Zhiyuan Yapay Zeka Araştırma Enstitüsü kuruldu. Bu sefer büyük modellerin geliştirilmesi de bu dalgadan faydalandı. 2002'den bu yana, Cambrian, SenseTime, Haitian Ruisheng ve Yuncong gibi AI ile ilgili şirketler, Bilim ve Teknoloji İnovasyon Kurulu ve Hong Kong Borsasında listelenmiştir.
ChatGPT ve GPT-4'ün cazibesi
ChatGPT ve GPT-4, geçmişten gelen bu yapay zeka dalgasının farkını ve gücünü sezgisel olarak hissetmemize neden izin veriyor? Esas olarak aşağıdaki yönlerden görüntülenebilir:
**Birincisi, kullanıcının bakış açısından, bu sefer çok insan benzeri bir etkileşim yöntemidir. **ChatGPT ile konuşurken içerik kelime kelime oluşturulur ve cevap düşünürken üretilir. Aynı zamanda, birden çok diyalog turu yeteneğine de sahiptir. Ayrıca tercüman, psikolojik danışman vb. gibi bazı roller de oynayabilir.
**İkincisi, genelleme yeteneği, temel olarak gereksinimleri hızlı bir şekilde anlama ve bağlam olmadan nispeten doğru cevaplar verme becerisine yansır. **Bu, devasa ön eğitim külliyatının ve ipucu mühendisliğinin desteğine dayanır.
**Üçüncüsü, düşünme zinciri. ** Bağlam ve bağlamı, hatta uzun metinleri bile anlama becerisi. Örneğin, yeni çıkan Claude2'nin 100.000 belirteçlik bir bağlam işleme kapasitesi vardır ve bu, temel olarak tüm bir kitabı işlenmek üzere içine besleyebilir. Aynı zamanda, insan düşünce tarzına göre sorunu yavaş yavaş parçalara ayırabilen ve çıkarım yapabilen güçlü bir mantıksal akıl yürütme yeteneği de vardır.
Aslında bu yetenekler model parametrelerinin artması ve eğitim süresinin uzaması ile ortaya çıkmaktadır. Ek olarak, GPT-4'ün çeşitli insan sınavlarında mükemmel sonuçlara sahip olduğunu, temel olarak üniversite adaylarının seviyesine ulaştığını görebiliriz.
Büyük dil modelinin bileşimi
Büyük dil modelinin kendisine geri dönecek olursak, OpenAI kurucu ortağı Andrej Karpathy'nin Microsoft Geliştiriciler Konferansı'nda paylaştığı State of GPT açılış konuşmasını herkesin izlemesini tavsiye ederim. Büyük modelin eğitim sürecini dört aşamaya ayırdı:
**Eğitim öncesi aşamada, temel bir modeli eğitmek için büyük miktarda nispeten düşük kaliteli eğitim verisi (kitaplar, internette gezinme, kağıtlar vb. dahil) ve tüm büyük model eğitim sürecindeki bilgi işlem gücünün ve süresinin %99'u gerekir. **Örneğin, 650 milyar parametreli bir LLaMA temel modelinin eğitimi, 21 gün süren 2048 Nvidia A100 GPU gerektirir ve tüm eğitim maliyeti yaklaşık 5 milyon ABD dolarıdır. Bu nedenle, temel bir modelin eğitimi yeni başlayanlar için kolay değildir ve bu tür kaynaklar ve maliyetler genellikle yalnızca büyük üreticiler tarafından kullanılabilir.
İkinci adım, temel model üzerinde denetlenir ve ince ayar yapılır, böylece Vicuna-13B ve diğer yaygın açık kaynak modeller gibi SFT modelini eğitmek için denetimli ve ince ayarlı modellerdir. Bu aşamada, yalnızca az miktarda yüksek kaliteli verinin sağlanması gerekir ve bilgi işlem gücü talebi nispeten küçüktür.
**Üçüncü ve dördüncü aşamalar, ödül modelleme ve pekiştirmeli öğrenme aşamalarıdır, yani RLHF insan takviyeli geri bildirimli öğrenmedir. ** Bu iki aşamada, modelin çıktısı denetimli ince ayar modelinden ve temel modelden çok daha iyi olacaktır, ancak temel modelin entropisi feda edilecektir.
Yapay zeka fırsatlarını görmek için birincil pazar endüstrisi açısından
Yapay zeka yatırım fırsatlarına birincil pazar yatırımı açısından sistematik olarak bakıldığında, temel katman, dağıtım katmanı ve uygulama katmanı olarak ayrılabilir.Yapay zeka modeli topluluğu bu üç katmandan geçer.
**Temel katman altyapı katmanı, veri katmanı ve algoritma katmanı olarak ayrılabilir. **
Altyapı katmanının en alt katmanı bilgi işlem gücüdür ve aynı zamanda şu anda en doğrudan darboğazla karşı karşıya olan yerdir.Artık hem Nvidia hem de AMD GPU'lar Çin'de ambargolu. Yerel bilgi işlem gücünde lider olan Huawei Kunpeng de teyp sorunuyla karşı karşıya.Gelecekte Çin, üst düzey bilgi işlem gücü açısından artan bir baskıyla karşı karşıya kalabilir. Aynı zamanda, GPU kullanımı sorunu hala var.OpenAI için bile, çok sayıda Nvidia mühendisi manuel ayar için sitede ikamet ediyor, ancak GPU kullanımı yalnızca% 50 -% 60. Bilgi işlem gücünün üzerinde, AI-yerel veri depolama, veri iletimi, veri güvenliği ve diğer araçlar gibi büyük modelin etrafındaki temel yazılım katmanı ve vektör veritabanları, LLMOps, MLOps vb. dahil olmak üzere verilerin etrafındaki geliştirme ve bakım platformları bulunur.
Veri katmanında daha fazla fırsat olabilir, çünkü temel model gelecekte önde gelen şirketler tarafından geliştirilebilir ve çok sayıda açık kaynaklı temel model olacaktır, bu nedenle kendi temel modelinizi geliştirmek için çok para harcamanıza gerek yoktur. Dikey endüstrilerin ve işletmelerin veri birikimine ve müşterilerin ödemeye hazır olduğu büyük ölçekli uygulamaların nasıl oluşturulacağına odaklanmalıyız. Şu anda büyük modellerin en büyük sıkıntısı, yüksek kaliteli veri setlerinin ve dikey endüstri veri setlerinin nasıl elde edileceğidir.Sanayi, bilim, tıp, hukuk, finans ve eğitim alanlarında büyük modellerin potansiyelini herkes gördü. Gelecekteki fırsatlar, yüksek kaliteli verilerin verimli bir şekilde nasıl elde edileceği, çok modlu verilerin nasıl işleneceği, nasıl tanımlanacağı, verilerin nasıl aktifleştirileceği, hakların nasıl teyit edileceği, nasıl ticaret yapılacağı, güvenliğin nasıl korunacağı vb. olabilir.
Algoritma katmanının çekirdeği, derin öğrenme çerçevesinde ve temel modelde bulunur
Derin öğrenme çerçevesi, yapay zekanın işletim sistemi olarak tanımlanabilir. Aşağı doğru bilgi işlem kaynaklarının dağıtımını koordine eder, yapay zeka algoritma modellerinin oluşturma yeteneklerini yukarı doğru üstlenir ve çok sayıda operatör kitaplığı, model kitaplığı ve belge öğreticisi sağlar. Aynı zamanda doğası gereği bir ekolojidir ve geliştirme eşiğini düşürür. Şu anda, dünyanın ana akım derin öğrenme çerçeveleri, esas olarak Google'ın TensorFlow ve Meta'nın Pytorch'udur. Çin'de, daha önce Light Years Beyond tarafından satın alınan Baidu Fei Paddle, Huawei Shengsi ve Oneflow vardır.
Temel modelin kendisinde de çeşitlilik vardır.Örneğin teknik yollar açısından CNN, RNN, GAN, Transformer vs vardır.Transformer modeli autoencoding model, autoregresif model, encoder-decoder model vb şeklinde ayrılabilir ve form olarak kapalı kaynak ve açık kaynak olarak ayrılabilir. Bu yön, piyasa değeri yüz milyarlar hatta trilyonlarca olan şirketleri doğurma ihtimali en yüksek olan ama aynı zamanda rekabetin en yoğun olduğu ana savaş alanıdır.
100 modellik savaş çağında, model değerlendirmesi, çeşitli modellerin yeteneklerini ölçmek için temel bir araç haline geldi. Şu anda piyasada geleneksel küçük modeller (GLUE, SuperGLUE, vb.), büyük dil modelleri (HELM, BIG-Bench, vb.) ve Çince büyük dil modelleri (SuperCLUE, C-, vb.) için çeşitli değerlendirme araçları ortaya çıkmıştır. SuperCLUE ve C- gibi Çince özellikleri (Mao Zedong Düşüncesi, Muskism'in temel ilkeleri vb.) ve Çince özellikleri (deyimler, şiirler, klasik Çince vb.) ve diğer boyutları içeren çok sayıda soru değerlendirme setlerine eklenmiştir. Değerlendirme sonuçlarına göre, GPT-4, GPT-3.5 ve Claude hariç, yerli büyük ölçekli model ürünler genel değerlendirme performansında diğer denizaşırı modellerden daha iyidir, bu nedenle Çinli büyük ölçekli modellerin eğitim gerekliliği çok yüksektir.
Uygulama katmanı, genel büyük modeller ve dikey endüstri büyük modelleri olarak ayrılabilir.Genel olarak genel büyük modeller alanındaki yeni nesil yapay zeka özellikli üretkenlik araçlarına ve çeşitli dikey endüstri alanlarında büyük modellerin uygulama fırsatlarına odaklanıyoruz.
C'ye—Yapay zeka destekli üretkenlik aracı
Salgın çağında Notion, Figma ve Canva gibi işbirliği temalı üretkenlik araçları değişikliğe uğradı. Benzer şekilde, bu AI dalgası altında, üretkenlik araçları da yeni bir devrime öncülük edecek.
Artık büyük modellerin text, code, image, music, video, 3D vb. alanlara değişen derecelerde nüfuz ettiğini görüyoruz. Text alanında chatbots ve ofis ürünü copilot, kod alanında GitHub copilot, image alanında Midjourney ve Stable Difüzyon, daha önce müzik alanında popüler olan AI Stefanie Sun, video alanında pist vb. gibi çeşitli yeni ürünler ve yeni uygulamalar peş peşe ortaya çıkıyor. Baidu, Kingsoft Office, Evernote, Z gibi yerli şirketler hipu Huazhang, vb. de benzer AI ürünlerini piyasaya sürdü. , geleneksel üretkenlik araçlarının biçimini değişen derecelerde değiştiriyorlar, ancak şu anda çeşitli alanlarda endüstriyel üretim sürecindeki verimlilik araçlarıyla sınırlılar ve AGI'yi gerçek anlamda gerçekleştiremiyorlar.
Aynı zamanda, Microsoft Office, Adobe Photoshop, Unity ve Notion gibi üreticilerin de AGI yeteneklerini kendi ürünlerine ve araç zincirlerine yerleştirerek bu AI dalgasını aktif olarak benimsediği görülebilir. Başlangıçta Midjourney ve Stable Diffusion'ın ortaya çıkmasının tamamen Photoshop'un yerini alacağı düşünülüyordu, ancak daha sonra kontrol edilebilirlik ve diğer yönlerdeki sorunlar nedeniyle AGI'nin Photoshop'u AI oluşturma yetenekleriyle birleştirerek daha güçlü ve kullanımı kolay hale getirdiği keşfedildi.
3B alanı şu anda yapay zekayı uygulaması en zor alanlardan biridir.Temel faktör, çok az sayıda yüksek kaliteli 3B veri olmasıdır. Şu anda, 3D içerik için AGI esas olarak NVIDIA, Unity, Stability.ai ve bilimsel araştırma enstitüleri tarafından araştırılmakta ve yönetilmektedir, ancak bu aşamada hala esas olarak demo ve dağınık şekilli araçlardır ve film ve televizyon özel efektleri, oyunlar ve metaverse gibi endüstriyel alanlara uygulanabilmesi için daha kat edilmesi gereken çok yol vardır.
B'ye—dikey endüstri modeli
Şu anda, büyük üreticiler tarafından piyasaya sürülen büyük ölçekli model ürünlerin çoğu genel amaçlı büyük ölçekli modellerdir.Bununla birlikte, dikey endüstrilerle karşı karşıya kalan B-end müşteriler, daha az veri ve daha düşük bilgi işlem gücü ile belirli senaryo sorunlarını verimli bir şekilde çözebilen yüksek doğruluk, yüksek tutarlılık ve kurulumu kolay büyük modellere ihtiyaç duyar. Huawei tarafından piyasaya sürülen en son Pangu 3.0 büyük modeli, N L1 endüstri büyük modellerini ve X L2 sahne modeli özelliklerini ekleyerek temel büyük modeli temel alır.
Dikey endüstri büyük modellerinin temel kilit noktaları, model ayarlama, sıkıştırma ve devreye alma için yüksek kaliteli endüstri veri setleri ve mühendislik yetenekleridir. Bu aynı zamanda bir yatırım fırsatı noktasıdır, tıpkı bulutta yerel çağdaki konteyner fırsatı gibi, geleneksel endüstrilerdeki çok sayıda küçük ve orta ölçekli B işletmesinin bulutta yerel yola çıkmalarına yardımcı olması için uzman konteyner üreticilerine güvenmesi gerekir.
Şu anda, FinGPT alanında BloombergGPT gibi dikey endüstri büyük modelleri alanında denizaşırı birçok keşif ve uygulama yapılmıştır.Bloomberg, son 40 yılda toplanan finansal verileri 365 milyar jetonluk bir finansal veri setine dönüştürdü ve kendi 50 milyar parametresini eğitmek için genel veri setleriyle birleştirdi.ed-PaLM 2, Microsoft'un Nuance (GPT-4 ile entegre ve ses destekli bir tıbbi kayıt oluşturma uygulaması—DAX Express) yayınladı, vb .
Son olarak, yurt dışı AGI yolunun sermaye odağından bahsedelim: **Yatırım miktarı açısından ilk beş, pazarlama metin uygulamaları, ses, müşteri destek/müşteri hizmetleri robotları, görseller ve MLOps platformlarıdır; finansman miktarı açısından, temel değeri büyük modeller geliştirme eşiğini düşürmek olan MLOps platformlarına daha fazla fon akışı, ardından müşteri hizmetleri robotları, ses, dijital insanlar, dublaj ve görseller gelir. **
Soru-Cevap
**S1: Veri ek açıklamaları yapan ve yapay zeka geliştirmeye yardımcı olan dış kaynak hizmeti şirketleri son zamanlarda çok iyi gidiyor gibi görünüyor. Yatırım eğiliminiz nedir? **
C: Şu anda bu iki yöne dikkat ediyoruz. Veri etiketleme alanı temel olarak bu şirketlerin etiketleme verimliliğini artırmak için büyük modellerin yeteneklerini nasıl kullandıklarına odaklanır; örneğin metni etiketlemek için GPT-4'ü ve görüntüleri etiketlemek için SAM'i kullanmak gibi. Veri etiketleme alanındaki mevcut temel rekabet, büyük model yeteneklerinin yardımıyla daha verimli etiketlemeyi başarabilecek olan verimlilik ve brüt kar olduğu için. Büyük ölçekli model hizmetleri açısından, yerel bulut çağındaki kapsayıcı fırsatlarına benzer olacaktır. Büyük ölçekli model eğitimi, geliştirme ve devreye alma eşiğini düşürmek ve her kuruluşun büyük ölçekli model özgürlüğünü gerçekleştirmesine yardımcı olmak için profesyonel tedarikçilere ihtiyaç vardır.
**S2: AI'nın artık iki kategorisi var: TO C ve TO B. Sizce TO C veya TO B için fırsat daha mı büyük? **
A: TO B'ye daha fazla dikkat ediyoruz. TOC alanında çok fazla internet devi olduğu için, özellikle de bu kadar güçlü yerli APP uygulama ekolojisine sahip yerlerde, büyük üreticilerin AI yeteneklerini kendi APP'lerine yerleştirmesi daha kolaydır. Bu nedenle veri entegrasyon yeteneklerine, ticari anlayışlarına ve mühendislik yeteneklerine daha fazla önem veriyoruz.
**Q3: Çin'de bir milyardan fazla parametreye sahip büyük modeller için bile 80'den fazla rapor edilmiştir. Büyük modelde yatırım trendi ne durumda? Açık kaynak ve kapalı kaynak arasında nasıl seçim yapılır? **
A: Açık kaynak ve kapalı kaynak ile ilgili olarak, açık kaynağın nasıl iyi kullanılacağını ve açık kaynak modelinin ticarileştirme için nasıl kullanılacağını düşünmek gerekir.Örneğin, LLaMA'nın açık kaynak sözleşmesi dahilinde ticari kısıtlamaları vardır. Kapalı kaynak, yalnızca yetenek ve finansal kaynaklara sahip büyük üreticiler tarafından sürdürülebilen kendi ekolojisine ve desteğine ihtiyaç duyar.
**S4: Yapay zeka girişimcilerinin bakış açısından, bunlar üç kategoriye ayrılabilir. Bir kategori, büyük fabrikalardan ve zaten ünlü kuruculardan geliyor. Diğer kategori akademisyenler, akademisyenler ve Tsinghua Üniversitesi veya diğer alanlardan uzmanlardır. Tabandan olma eğiliminde olan bir girişimci kategorisi de vardır. Bu üç kategoriden hangisini tercih edersiniz? **
C: Çin'deki büyük model dalgasının çoğu, Open AI'nin ChatGPT, LLaMA ve Bloom gibi büyük modelleri açık kaynak olarak yayınlamasından sonra ortaya çıktı. Şu anda bekle ve gör tutumu izliyoruz. Tabii ki, Çin'de bu büyük ölçekli model patlaması dalgasından önce araştırma yapan birçok ileri görüşlü büyük üretici ve akademik start-up şirketi de var.
Akademik ekipler için ticarileşmenin nasıl sağlanacağı en zor olanıdır. Bu yüzden gelecekte kendi başınıza yapmanıza gerek olduğunu düşünmüyorum.Örneğin, OpenAI ve Microsoft arasındaki işbirliği, büyük üreticilere büyük ölçekli model yetenekleri kazandırabilir. Şimdi Açık Kaynak Çin çevresinde hedefler arıyoruz, çünkü bir IDE ürün hattına sahip ve kod yardımcı pilotuna ihtiyaç duyuyor, bu nedenle akademik ekiplerle işbirliği olasılığını arıyoruz.Bence bu yaklaşım daha uygulanabilir.
**S5: B tarafındaki hangi dikey sektörlerin ticari atılımlar gerçekleştirmesi en olasıdır? **
C: Büyük modelin yeteneğinin genelleştirilmesi ve çok yönlülüğü nedeniyle, yasal alan çok yaygın bir senaryodur ve metin içeriğine olan talep çok fazladır. Doğruluk açısından çözülmesi gereken bazı sorunlar olsa da, daha büyük modeller tam olarak bu yeteneğe sahiptir. Ayrıca kişisel asistan ürünleri de geliştirme döngüsü daha uzun sürse de hayal edilebilecek bir senaryo.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Lin Junchao: Yapay zekanın yatırım fırsatlarına birincil pazar açısından bakmak
Kaynak: Titanium Capital Araştırma Enstitüsü
Büyük dil modelleri neden yapay zeka trendine öncülük edebilir? Yerel AI için yatırım fırsatları nelerdir? Geçenlerde Titanium Capital, Rongyi Capital'in yatırım direktörü Lin Junchao'yu şu temayı paylaşmaya davet etti: Yapay zekanın yatırım fırsatlarına birincil pazar perspektifinden bakmak. Bay Lin, elektrik ve elektronik mühendisliği alanında lisans derecesine ve University College London'dan (UCL) birinci sınıf onur yüksek lisans derecesine sahiptir ve üç yıllık girişimcilik deneyimine ve altı yıllık öz sermaye yatırım deneyimine sahiptir. Yatırım odakları, Jingye Intelligence, Smart Open Source China ve diğer projeler dahil olmak üzere temel yazılım geliştirme araçları, Metaverse ve AIGC'yi içerir. Bu paylaşımın sunucusu Titanium Capital Genel Müdürü Wu Kai'dir.Paylaşım kaydı şöyledir:
Büyük dil modeli neden yapay zekanın trendine öncülük edebilir?
Yapay Zeka Geliştirmenin Kısa Tarihi
Shannon 1950'de bilgisayar oyunlarını önerdiğinden beri, yapay zeka 70 yıldan fazla bir gelişim süreci yaşadı. Bunu kabaca dört aşamaya ayırabiliriz: erken aydınlanma + uzman sistem dönemi (50'ler-70'ler), makine öğrenimi + bilgisayarla görme dönemi (80'ler-90'lar), derin öğrenme dönemi (2006-2017), multimodal + büyük dil modeli dönemi (2018-günümüz).
Erken aydınlanma aşamasındaki dönüm noktası 1956 yılında Dartmouth College Yaz Sempozyumu'nda meydana geldi.Yapay zeka kavramı ilk olarak yapay zekanın başlangıcını resmen başlatan toplantıda önerildi.Bu dönemde 1966'da MIT tarafından geliştirilen ilk sohbet robotu ELIZA, ilk uzman sistem DENDRAL ve David Marr, 1976'da bilgisayarla görme ve hesaplamalı nöroloji kavramlarını önerdiler.
Makine öğrenimi çağında, bir dönüm noktası figürü var, yani Google'dan bir süre önce ayrılan yapay zekanın vaftiz babası Jeffrey Hinton. 1986'da, büyük ölçekli sinir ağı eğitimini mümkün kılan ve daha sonraki sinir ağları ve derin öğrenmenin yolunu açan geri yayılım algoritmasını önerdi. Aynı zamanda, 1979'daki tavla oyunu ve 1997'de Deep Blue'nun dünya satranç şampiyonu Kastrov'a karşı kazandığı zafer gibi birçok dönüm noktası olayı ve figürü de bu aşamada ortaya çıktı. 2006'da Jeffrey Hinton ve diğerleri derin öğrenme kavramını resmen önerdiler ve böylece yapay zekayı üçüncü aşamaya, yani derin öğrenme çağına soktular.
Derin öğrenme çağında, Jeffrey Hinton 2012'de evrişimli sinir ağı AlexNet'i önerdi ve ImageNet görüntü sınıflandırma yarışmasını kazandı.Genel hata oranı ikinci sıradakinden %10,8 daha düşüktü ve resmi olarak bilgisayarla görmede derin öğrenmenin ilk yılını açtı. Mart 2013'te Google, Jeffrey Hinton'ın başlangıç şirketi DNResearch'ü 44 milyon ABD Doları karşılığında satın aldı. O zamandan beri Google, küresel yapay zekanın gelişimine öncülük etmeye başladı; 2015'te dünyanın en etkili derin öğrenme çerçevesi olan TensorFlow açık kaynaklıydı; 2016'da AlphaGo, dokuz dan Go ustası Li Sedol'u 4:1 mağlup etti; 2017'de, o zamandan beri mevcut büyük dil modelinin çağını açan Transformer modeli piyasaya sürüldü. . Aynı zamanda Google liderliğindeki AI dalgasıyla birlikte 2016 yılında Scale AI, HuggingFace ve OpenAI gibi AI unicorns da kuruldu. İnternet devi Meta ayrıca 2017'de daha kullanışlı bir derin öğrenme çerçevesi olan Pytorch'u açık kaynaklı hale getirdi.
Büyük dil modelleri çağının lideri OpenAI, ilk olarak Nisan 2019'un başlarında ortaya çıktı. Geliştirdiği OpenAI Five, Dota2 dünya şampiyonu OG takımını 2:0 mutlak avantajla mağlup etti ve ardından Mayıs 2020'de 175 milyar parametreli GPT-3'ü, Kasım 2022'de ChatGPT'yi (GPT-3.5) ve Mart 2023'te GPT-4'ü piyasaya sürdü. O zamandan beri resmi olarak Google'dan görevi devraldı ve dünyaya liderlik etmeye başladı. Model Geliştirme. Google, Meta ve Microsoft gibi internet/yazılım devleri de stratejilerini ayarlayarak büyük ölçekli model yarışmasına aktif olarak katıldılar. 2022 yılının sonunda ChatGPT'den bu yana, dünyadaki büyük üreticilerin büyük ölçekli modele girdiğini ve yurt içindeki üniversiteler, teknoloji devleri, start-up'lar vb.
Çin'deki yapay zeka gelişiminin tarihi, 1998'de Microsoft Asya Araştırma Enstitüsü'nün kurulmasına kadar izlenebilir. Bugün, Innovation Works, Baidu, Kingsoft, Alibaba, SenseTime ve Questyle gibi tanınmış yerli şirketlerin arkasındaki kurucular ve çekirdek ekiplerin tümü Microsoft Asya Araştırma Enstitüsü'nden gelmektedir. Yerli AI şirketleri iFlytek, Dahua ve Hikvision'un ilk partisi 2008-2010 yılları arasında A-hisse piyasasında listelendi. 2011'den 2015'e kadar Çin'de Megvii (2011'de kuruldu), YITU (2012'de kuruldu), SenseTime (2014'te kuruldu) ve Yuncong (2015'te kuruldu) gibi birçok bilgisayarla görme girişimi ortaya çıktı. 2018 yılında milli takım - Pekin Zhiyuan Yapay Zeka Araştırma Enstitüsü kuruldu. Bu sefer büyük modellerin geliştirilmesi de bu dalgadan faydalandı. 2002'den bu yana, Cambrian, SenseTime, Haitian Ruisheng ve Yuncong gibi AI ile ilgili şirketler, Bilim ve Teknoloji İnovasyon Kurulu ve Hong Kong Borsasında listelenmiştir.
ChatGPT ve GPT-4'ün cazibesi
ChatGPT ve GPT-4, geçmişten gelen bu yapay zeka dalgasının farkını ve gücünü sezgisel olarak hissetmemize neden izin veriyor? Esas olarak aşağıdaki yönlerden görüntülenebilir:
**Birincisi, kullanıcının bakış açısından, bu sefer çok insan benzeri bir etkileşim yöntemidir. **ChatGPT ile konuşurken içerik kelime kelime oluşturulur ve cevap düşünürken üretilir. Aynı zamanda, birden çok diyalog turu yeteneğine de sahiptir. Ayrıca tercüman, psikolojik danışman vb. gibi bazı roller de oynayabilir.
**İkincisi, genelleme yeteneği, temel olarak gereksinimleri hızlı bir şekilde anlama ve bağlam olmadan nispeten doğru cevaplar verme becerisine yansır. **Bu, devasa ön eğitim külliyatının ve ipucu mühendisliğinin desteğine dayanır.
**Üçüncüsü, düşünme zinciri. ** Bağlam ve bağlamı, hatta uzun metinleri bile anlama becerisi. Örneğin, yeni çıkan Claude2'nin 100.000 belirteçlik bir bağlam işleme kapasitesi vardır ve bu, temel olarak tüm bir kitabı işlenmek üzere içine besleyebilir. Aynı zamanda, insan düşünce tarzına göre sorunu yavaş yavaş parçalara ayırabilen ve çıkarım yapabilen güçlü bir mantıksal akıl yürütme yeteneği de vardır.
Aslında bu yetenekler model parametrelerinin artması ve eğitim süresinin uzaması ile ortaya çıkmaktadır. Ek olarak, GPT-4'ün çeşitli insan sınavlarında mükemmel sonuçlara sahip olduğunu, temel olarak üniversite adaylarının seviyesine ulaştığını görebiliriz.
Büyük dil modelinin bileşimi
Büyük dil modelinin kendisine geri dönecek olursak, OpenAI kurucu ortağı Andrej Karpathy'nin Microsoft Geliştiriciler Konferansı'nda paylaştığı State of GPT açılış konuşmasını herkesin izlemesini tavsiye ederim. Büyük modelin eğitim sürecini dört aşamaya ayırdı:
**Eğitim öncesi aşamada, temel bir modeli eğitmek için büyük miktarda nispeten düşük kaliteli eğitim verisi (kitaplar, internette gezinme, kağıtlar vb. dahil) ve tüm büyük model eğitim sürecindeki bilgi işlem gücünün ve süresinin %99'u gerekir. **Örneğin, 650 milyar parametreli bir LLaMA temel modelinin eğitimi, 21 gün süren 2048 Nvidia A100 GPU gerektirir ve tüm eğitim maliyeti yaklaşık 5 milyon ABD dolarıdır. Bu nedenle, temel bir modelin eğitimi yeni başlayanlar için kolay değildir ve bu tür kaynaklar ve maliyetler genellikle yalnızca büyük üreticiler tarafından kullanılabilir.
İkinci adım, temel model üzerinde denetlenir ve ince ayar yapılır, böylece Vicuna-13B ve diğer yaygın açık kaynak modeller gibi SFT modelini eğitmek için denetimli ve ince ayarlı modellerdir. Bu aşamada, yalnızca az miktarda yüksek kaliteli verinin sağlanması gerekir ve bilgi işlem gücü talebi nispeten küçüktür.
**Üçüncü ve dördüncü aşamalar, ödül modelleme ve pekiştirmeli öğrenme aşamalarıdır, yani RLHF insan takviyeli geri bildirimli öğrenmedir. ** Bu iki aşamada, modelin çıktısı denetimli ince ayar modelinden ve temel modelden çok daha iyi olacaktır, ancak temel modelin entropisi feda edilecektir.
Yapay zeka fırsatlarını görmek için birincil pazar endüstrisi açısından
Yapay zeka yatırım fırsatlarına birincil pazar yatırımı açısından sistematik olarak bakıldığında, temel katman, dağıtım katmanı ve uygulama katmanı olarak ayrılabilir.Yapay zeka modeli topluluğu bu üç katmandan geçer.
Altyapı katmanının en alt katmanı bilgi işlem gücüdür ve aynı zamanda şu anda en doğrudan darboğazla karşı karşıya olan yerdir.Artık hem Nvidia hem de AMD GPU'lar Çin'de ambargolu. Yerel bilgi işlem gücünde lider olan Huawei Kunpeng de teyp sorunuyla karşı karşıya.Gelecekte Çin, üst düzey bilgi işlem gücü açısından artan bir baskıyla karşı karşıya kalabilir. Aynı zamanda, GPU kullanımı sorunu hala var.OpenAI için bile, çok sayıda Nvidia mühendisi manuel ayar için sitede ikamet ediyor, ancak GPU kullanımı yalnızca% 50 -% 60. Bilgi işlem gücünün üzerinde, AI-yerel veri depolama, veri iletimi, veri güvenliği ve diğer araçlar gibi büyük modelin etrafındaki temel yazılım katmanı ve vektör veritabanları, LLMOps, MLOps vb. dahil olmak üzere verilerin etrafındaki geliştirme ve bakım platformları bulunur.
Veri katmanında daha fazla fırsat olabilir, çünkü temel model gelecekte önde gelen şirketler tarafından geliştirilebilir ve çok sayıda açık kaynaklı temel model olacaktır, bu nedenle kendi temel modelinizi geliştirmek için çok para harcamanıza gerek yoktur. Dikey endüstrilerin ve işletmelerin veri birikimine ve müşterilerin ödemeye hazır olduğu büyük ölçekli uygulamaların nasıl oluşturulacağına odaklanmalıyız. Şu anda büyük modellerin en büyük sıkıntısı, yüksek kaliteli veri setlerinin ve dikey endüstri veri setlerinin nasıl elde edileceğidir.Sanayi, bilim, tıp, hukuk, finans ve eğitim alanlarında büyük modellerin potansiyelini herkes gördü. Gelecekteki fırsatlar, yüksek kaliteli verilerin verimli bir şekilde nasıl elde edileceği, çok modlu verilerin nasıl işleneceği, nasıl tanımlanacağı, verilerin nasıl aktifleştirileceği, hakların nasıl teyit edileceği, nasıl ticaret yapılacağı, güvenliğin nasıl korunacağı vb. olabilir.
Algoritma katmanının çekirdeği, derin öğrenme çerçevesinde ve temel modelde bulunur
Derin öğrenme çerçevesi, yapay zekanın işletim sistemi olarak tanımlanabilir. Aşağı doğru bilgi işlem kaynaklarının dağıtımını koordine eder, yapay zeka algoritma modellerinin oluşturma yeteneklerini yukarı doğru üstlenir ve çok sayıda operatör kitaplığı, model kitaplığı ve belge öğreticisi sağlar. Aynı zamanda doğası gereği bir ekolojidir ve geliştirme eşiğini düşürür. Şu anda, dünyanın ana akım derin öğrenme çerçeveleri, esas olarak Google'ın TensorFlow ve Meta'nın Pytorch'udur. Çin'de, daha önce Light Years Beyond tarafından satın alınan Baidu Fei Paddle, Huawei Shengsi ve Oneflow vardır.
Temel modelin kendisinde de çeşitlilik vardır.Örneğin teknik yollar açısından CNN, RNN, GAN, Transformer vs vardır.Transformer modeli autoencoding model, autoregresif model, encoder-decoder model vb şeklinde ayrılabilir ve form olarak kapalı kaynak ve açık kaynak olarak ayrılabilir. Bu yön, piyasa değeri yüz milyarlar hatta trilyonlarca olan şirketleri doğurma ihtimali en yüksek olan ama aynı zamanda rekabetin en yoğun olduğu ana savaş alanıdır.
100 modellik savaş çağında, model değerlendirmesi, çeşitli modellerin yeteneklerini ölçmek için temel bir araç haline geldi. Şu anda piyasada geleneksel küçük modeller (GLUE, SuperGLUE, vb.), büyük dil modelleri (HELM, BIG-Bench, vb.) ve Çince büyük dil modelleri (SuperCLUE, C-, vb.) için çeşitli değerlendirme araçları ortaya çıkmıştır. SuperCLUE ve C- gibi Çince özellikleri (Mao Zedong Düşüncesi, Muskism'in temel ilkeleri vb.) ve Çince özellikleri (deyimler, şiirler, klasik Çince vb.) ve diğer boyutları içeren çok sayıda soru değerlendirme setlerine eklenmiştir. Değerlendirme sonuçlarına göre, GPT-4, GPT-3.5 ve Claude hariç, yerli büyük ölçekli model ürünler genel değerlendirme performansında diğer denizaşırı modellerden daha iyidir, bu nedenle Çinli büyük ölçekli modellerin eğitim gerekliliği çok yüksektir.
Uygulama katmanı, genel büyük modeller ve dikey endüstri büyük modelleri olarak ayrılabilir.Genel olarak genel büyük modeller alanındaki yeni nesil yapay zeka özellikli üretkenlik araçlarına ve çeşitli dikey endüstri alanlarında büyük modellerin uygulama fırsatlarına odaklanıyoruz.
C'ye—Yapay zeka destekli üretkenlik aracı
Salgın çağında Notion, Figma ve Canva gibi işbirliği temalı üretkenlik araçları değişikliğe uğradı. Benzer şekilde, bu AI dalgası altında, üretkenlik araçları da yeni bir devrime öncülük edecek.
Artık büyük modellerin text, code, image, music, video, 3D vb. alanlara değişen derecelerde nüfuz ettiğini görüyoruz. Text alanında chatbots ve ofis ürünü copilot, kod alanında GitHub copilot, image alanında Midjourney ve Stable Difüzyon, daha önce müzik alanında popüler olan AI Stefanie Sun, video alanında pist vb. gibi çeşitli yeni ürünler ve yeni uygulamalar peş peşe ortaya çıkıyor. Baidu, Kingsoft Office, Evernote, Z gibi yerli şirketler hipu Huazhang, vb. de benzer AI ürünlerini piyasaya sürdü. , geleneksel üretkenlik araçlarının biçimini değişen derecelerde değiştiriyorlar, ancak şu anda çeşitli alanlarda endüstriyel üretim sürecindeki verimlilik araçlarıyla sınırlılar ve AGI'yi gerçek anlamda gerçekleştiremiyorlar.
Aynı zamanda, Microsoft Office, Adobe Photoshop, Unity ve Notion gibi üreticilerin de AGI yeteneklerini kendi ürünlerine ve araç zincirlerine yerleştirerek bu AI dalgasını aktif olarak benimsediği görülebilir. Başlangıçta Midjourney ve Stable Diffusion'ın ortaya çıkmasının tamamen Photoshop'un yerini alacağı düşünülüyordu, ancak daha sonra kontrol edilebilirlik ve diğer yönlerdeki sorunlar nedeniyle AGI'nin Photoshop'u AI oluşturma yetenekleriyle birleştirerek daha güçlü ve kullanımı kolay hale getirdiği keşfedildi.
B'ye—dikey endüstri modeli
Şu anda, büyük üreticiler tarafından piyasaya sürülen büyük ölçekli model ürünlerin çoğu genel amaçlı büyük ölçekli modellerdir.Bununla birlikte, dikey endüstrilerle karşı karşıya kalan B-end müşteriler, daha az veri ve daha düşük bilgi işlem gücü ile belirli senaryo sorunlarını verimli bir şekilde çözebilen yüksek doğruluk, yüksek tutarlılık ve kurulumu kolay büyük modellere ihtiyaç duyar. Huawei tarafından piyasaya sürülen en son Pangu 3.0 büyük modeli, N L1 endüstri büyük modellerini ve X L2 sahne modeli özelliklerini ekleyerek temel büyük modeli temel alır.
Dikey endüstri büyük modellerinin temel kilit noktaları, model ayarlama, sıkıştırma ve devreye alma için yüksek kaliteli endüstri veri setleri ve mühendislik yetenekleridir. Bu aynı zamanda bir yatırım fırsatı noktasıdır, tıpkı bulutta yerel çağdaki konteyner fırsatı gibi, geleneksel endüstrilerdeki çok sayıda küçük ve orta ölçekli B işletmesinin bulutta yerel yola çıkmalarına yardımcı olması için uzman konteyner üreticilerine güvenmesi gerekir.
Şu anda, FinGPT alanında BloombergGPT gibi dikey endüstri büyük modelleri alanında denizaşırı birçok keşif ve uygulama yapılmıştır.Bloomberg, son 40 yılda toplanan finansal verileri 365 milyar jetonluk bir finansal veri setine dönüştürdü ve kendi 50 milyar parametresini eğitmek için genel veri setleriyle birleştirdi.ed-PaLM 2, Microsoft'un Nuance (GPT-4 ile entegre ve ses destekli bir tıbbi kayıt oluşturma uygulaması—DAX Express) yayınladı, vb .
Son olarak, yurt dışı AGI yolunun sermaye odağından bahsedelim: **Yatırım miktarı açısından ilk beş, pazarlama metin uygulamaları, ses, müşteri destek/müşteri hizmetleri robotları, görseller ve MLOps platformlarıdır; finansman miktarı açısından, temel değeri büyük modeller geliştirme eşiğini düşürmek olan MLOps platformlarına daha fazla fon akışı, ardından müşteri hizmetleri robotları, ses, dijital insanlar, dublaj ve görseller gelir. **
Soru-Cevap
**S1: Veri ek açıklamaları yapan ve yapay zeka geliştirmeye yardımcı olan dış kaynak hizmeti şirketleri son zamanlarda çok iyi gidiyor gibi görünüyor. Yatırım eğiliminiz nedir? **
C: Şu anda bu iki yöne dikkat ediyoruz. Veri etiketleme alanı temel olarak bu şirketlerin etiketleme verimliliğini artırmak için büyük modellerin yeteneklerini nasıl kullandıklarına odaklanır; örneğin metni etiketlemek için GPT-4'ü ve görüntüleri etiketlemek için SAM'i kullanmak gibi. Veri etiketleme alanındaki mevcut temel rekabet, büyük model yeteneklerinin yardımıyla daha verimli etiketlemeyi başarabilecek olan verimlilik ve brüt kar olduğu için. Büyük ölçekli model hizmetleri açısından, yerel bulut çağındaki kapsayıcı fırsatlarına benzer olacaktır. Büyük ölçekli model eğitimi, geliştirme ve devreye alma eşiğini düşürmek ve her kuruluşun büyük ölçekli model özgürlüğünü gerçekleştirmesine yardımcı olmak için profesyonel tedarikçilere ihtiyaç vardır.
**S2: AI'nın artık iki kategorisi var: TO C ve TO B. Sizce TO C veya TO B için fırsat daha mı büyük? **
A: TO B'ye daha fazla dikkat ediyoruz. TOC alanında çok fazla internet devi olduğu için, özellikle de bu kadar güçlü yerli APP uygulama ekolojisine sahip yerlerde, büyük üreticilerin AI yeteneklerini kendi APP'lerine yerleştirmesi daha kolaydır. Bu nedenle veri entegrasyon yeteneklerine, ticari anlayışlarına ve mühendislik yeteneklerine daha fazla önem veriyoruz.
**Q3: Çin'de bir milyardan fazla parametreye sahip büyük modeller için bile 80'den fazla rapor edilmiştir. Büyük modelde yatırım trendi ne durumda? Açık kaynak ve kapalı kaynak arasında nasıl seçim yapılır? **
A: Açık kaynak ve kapalı kaynak ile ilgili olarak, açık kaynağın nasıl iyi kullanılacağını ve açık kaynak modelinin ticarileştirme için nasıl kullanılacağını düşünmek gerekir.Örneğin, LLaMA'nın açık kaynak sözleşmesi dahilinde ticari kısıtlamaları vardır. Kapalı kaynak, yalnızca yetenek ve finansal kaynaklara sahip büyük üreticiler tarafından sürdürülebilen kendi ekolojisine ve desteğine ihtiyaç duyar.
**S4: Yapay zeka girişimcilerinin bakış açısından, bunlar üç kategoriye ayrılabilir. Bir kategori, büyük fabrikalardan ve zaten ünlü kuruculardan geliyor. Diğer kategori akademisyenler, akademisyenler ve Tsinghua Üniversitesi veya diğer alanlardan uzmanlardır. Tabandan olma eğiliminde olan bir girişimci kategorisi de vardır. Bu üç kategoriden hangisini tercih edersiniz? **
C: Çin'deki büyük model dalgasının çoğu, Open AI'nin ChatGPT, LLaMA ve Bloom gibi büyük modelleri açık kaynak olarak yayınlamasından sonra ortaya çıktı. Şu anda bekle ve gör tutumu izliyoruz. Tabii ki, Çin'de bu büyük ölçekli model patlaması dalgasından önce araştırma yapan birçok ileri görüşlü büyük üretici ve akademik start-up şirketi de var.
Akademik ekipler için ticarileşmenin nasıl sağlanacağı en zor olanıdır. Bu yüzden gelecekte kendi başınıza yapmanıza gerek olduğunu düşünmüyorum.Örneğin, OpenAI ve Microsoft arasındaki işbirliği, büyük üreticilere büyük ölçekli model yetenekleri kazandırabilir. Şimdi Açık Kaynak Çin çevresinde hedefler arıyoruz, çünkü bir IDE ürün hattına sahip ve kod yardımcı pilotuna ihtiyaç duyuyor, bu nedenle akademik ekiplerle işbirliği olasılığını arıyoruz.Bence bu yaklaşım daha uygulanabilir.
**S5: B tarafındaki hangi dikey sektörlerin ticari atılımlar gerçekleştirmesi en olasıdır? **
C: Büyük modelin yeteneğinin genelleştirilmesi ve çok yönlülüğü nedeniyle, yasal alan çok yaygın bir senaryodur ve metin içeriğine olan talep çok fazladır. Doğruluk açısından çözülmesi gereken bazı sorunlar olsa da, daha büyük modeller tam olarak bu yeteneğe sahiptir. Ayrıca kişisel asistan ürünleri de geliştirme döngüsü daha uzun sürse de hayal edilebilecek bir senaryo.