Görüntü kaynağı: Sınırsız AI tarafından oluşturuldu
Genellikle Intel CPU'ların iyi sattığı ve bunları başarılı bir donanım şirketine atfettiği yanılsaması vardır, oysa aslında Intel'in masaüstü işlemciler üzerindeki hakimiyeti 1978'de doğan X86 mimarisidir.
Aynı illüzyon Nvidia'da da bulunur.
NVIDIA'nın yapay zeka eğitim çipi pazarını tekelleştirebilmesinin nedeni, CUDA mimarisi kesinlikle perde arkasındaki kahramanlardan biridir.
2006 yılında doğan bu mimari, bilgisayar hesaplamanın tüm alanlarında yer almış ve neredeyse NVIDIA şeklinde şekillenmiştir. Havacılık, biyoloji araştırmaları, mekanik ve akışkan simülasyonu ve enerji araştırmalarındaki araştırmaların %80'i CUDA temelinde yürütülmektedir.
En sıcak yapay zeka alanında, neredeyse tüm büyük üreticiler B Planına hazırlanıyor: Google, Amazon, Huawei, Microsoft, OpenAI, Baidu... Kimse geleceğini başkalarının elinde istemez.
Girişimcilik hizmeti danışmanlık ajansı Dealroom.co bir dizi veri yayınladı, bu üretken yapay zeka ısı dalgası dalgasında Amerika Birleşik Devletleri küresel yatırım ve finansmanın %89'unu elde etti ve yapay zeka çiplerinin yatırım ve finansmanında Çin'in yapay zeka çip yatırımı ve finansmanı dünyada ilk sırada yer alıyor, Amerika Birleşik Devletleri'nin iki katından fazla.
Başka bir deyişle, Çinli ve Amerikalı şirketlerin büyük modellerinin geliştirme yöntemlerinde ve aşamalarında birçok farklılık olmasına rağmen, herkes bilgi işlem gücünü kontrol etmede özellikle tutarlıdır.
CUDA neden bu sihire sahip? **
2003 yılında, 4 çekirdekli bir CPU sunan Intel ile rekabet edebilmek için NVIDIA, birleşik bir bilgi işlem cihazı mimarisi teknolojisi veya CUDA geliştirmeye başladı.
CUDA'nın asıl amacı, GPU'ya kullanımı kolay bir programlama arayüzü eklemekti, böylece geliştiriciler karmaşık gölgeleme dillerini veya grafik işleme ilkellerini öğrenmek zorunda kalmadılar. Nvidia'nın orijinal fikri, oyun geliştiricilerine grafik hesaplama alanında bir uygulama sağlamaktı, bu da Huang'ın "grafikleri programlanabilir hale getirmek" dediği şeydi.
Ancak, CUDA'nın piyasaya sürülmesinden bu yana, önemli uygulamaları bulamadı ve önemli müşteri desteğinden yoksundur. Ayrıca NVIDIA'nın uygulama geliştirmek, hizmetleri sürdürmek, tanıtmak ve pazarlamak için çok para harcaması gerekiyor ve 2008'de bir finansal fırtınayla karşılaştı, Nvidia'nın geliri zayıf grafik kartı satışlarıyla keskin bir şekilde düştü ve hisse senedi fiyatı bir zamanlar AMD'nin en kötü zamanından daha kötü olan sadece 1.50 dolara düştü.
2012 yılına kadar iki Hinton öğrencisi, ImageNet adı verilen görüntü tanıma hızında rekabet etmek için NVIDIA'nın GPU'larını kullandı. GTX580 grafik kartını kullandılar ve CUDA teknolojisi ile eğitildiler ve sonuçlar ikinci sıradan onlarca kat daha hızlıydı ve doğruluk ikinci sıradakinden% 10 daha yüksekti.
Sektörü şok eden sadece ImageNet modelinin kendisi değildi. 14 milyon görüntü ve toplam 262 katrilyon kayan nokta işlemi gerektiren bu sinir ağı, bir haftalık eğitimde sadece dört GTX 580 kullandı. Referans olarak, Google Cat 10 milyon resim, 16.000 CPU ve 1.000 bilgisayar kullandı.
Bu rekabet sadece yapay zeka için tarihi bir dönüm noktası değil, aynı zamanda NVIDIA için bir atılım da sunuyor. NVIDIA, yapay zeka ekosistemini teşvik etmek, açık kaynaklı yapay zeka çerçevelerini teşvik etmek ve TensorFlow gibi yapay zeka teknolojilerinin geliştirilmesini teşvik etmek için Google, Facebook ve diğer şirketlerle işbirliği yapmak için sektörle işbirliği yapmaya başladı.
Bu, Huang'ın "her türlü şey için programlanabilirlik için GPU'yu açın" dediği ikinci adımı tamamlamaya eşdeğerdir.
GPU'ların bilgi işlem gücü değeri keşfedildiğinde, büyük üreticiler de aniden NVIDIA'nın birkaç yıldır yinelediği ve döşediği CUDA'nın AI'nın kaçınamayacağı yüksek bir duvar haline geldiği gerçeğine uyandı.
NVIDIA, CUDA ekosistemini oluşturmak için geliştiricilere, geliştiricilerin derin öğrenme, doğrusal cebir ve çıkarım hızlandırma ve diğer görevleri gerçekleştirmesi için uygun olan cuDNN, cuBLAS ve TensorRT vb. gibi zengin kitaplıklar ve araçlar sağlar. Ayrıca NVIDIA, CUDA derleyicileri ve optimize edicileri içeren eksiksiz bir geliştirme araç zinciri sunarak geliştiriciler için GPU programlamayı ve performans optimizasyonunu kolaylaştırır.
Aynı zamanda NVIDIA, TensorFlow, PyTorch ve MXNet gibi birçok popüler derin öğrenme çerçevesiyle yakın bir şekilde çalışarak CUDA'ya derin öğrenme görevlerinde önemli avantajlar sağlar.
"Ata yardım etme ve onu gezdirme" konusundaki bu özveri, NVIDIA'nın CUDA ekosistemindeki geliştirici sayısını yalnızca iki buçuk yılda ikiye katlamasını sağladı.
Son on yılda NVIDIA, deneyimlerini paylaşarak ve zor soruları yanıtlayarak CUDA uygulamaları için zengin destek sağlayan platformdaki profesyonel geliştiriciler ve alan uzmanları ile CUDA'nın öğretim kurslarını 350'den fazla üniversiteye tanıttı.
Daha da önemlisi, NVIDIA, donanımın bir hendek olarak kusurunun kullanıcı yapışkanlığının olmaması olduğunu biliyor, bu nedenle donanımı yazılımla bir araya getiriyor, CUDA'yı kullanmak için GPU oluşturma, OptiX'i kullanmak için AI gürültü azaltma, otonom sürüş bilgi işlem CUDA'ya ihtiyaç duyuyor...
NVIDIA şu anda GPU + NVlink + CUDA ile AI bilgi işlem gücü pazarının %90'ını tekelleştirse de, imparatorlukta birden fazla çatlak var.
Çatlaklar
AI üreticileri uzun süredir CUDA'dan muzdariptir ve bu alarm verici değildir.
CUDA'nın büyüsü, yazılım için tüm ekosistemin temel taşı olan yazılım ve donanım kombinasyonunun kilit konumunda olması ve rakiplerin NVIDIA'nın ekosistemiyle uyumlu olması için CUDA'yı atlamasının zor olmasıdır; Donanım için, CUDA'nın tasarımı temel olarak NVIDIA donanımı biçiminde bir yazılım soyutlamasıdır ve temel olarak her çekirdek kavram, GPU'nun donanım kavramına karşılık gelir.
O zaman rakipler için sadece iki seçenek kaldı:
1 CUDA'yı atlayın ve NVIDIA'nın kullanıcı yapışkanlığının büyük zorluğuyla yüzleşmeyi gerektiren bir yazılım ekosistemini yeniden oluşturun;
2 CUDA ile uyumludur, ancak aynı zamanda iki sorunla karşı karşıyadır, birincisi, donanım rotanız NVIDIA ile tutarsızsa, verimsiz ve rahatsız edici bir sonuç elde etmek mümkündür, diğeri ise CUDA'nın NVIDIA donanım özelliklerinin gelişimini takip edeceği ve uyumluluğun yalnızca takip etmeyi seçebilmesidir.
Ancak Nvidia'nın pençesinden kurtulmak için her iki seçenek de denendi.
2016 yılında AMD, açık kaynaklı projelere dayalı bir GPU ekosistemi olan ROCm'yi piyasaya sürdü ve rotayı izlemenin bir yolu olan CUDA ile tamamen uyumlu HIP araçları sağladı.
Bununla birlikte, araç zinciri kitaplığı kaynaklarının eksikliği ve yüksek geliştirme ve yineleme uyumluluğu maliyeti nedeniyle, ROCm ekosisteminin büyümesi zordur. Github'da 32.600'den fazla geliştirici CUDA paket deposuna katkıda bulunurken, ROCm'de 600'den az geliştirici var.
NVIDIA uyumlu CUDA yolunu izlemenin zorluğu, güncelleme yineleme hızının CUDA'ya asla ayak uyduramaması ve tam uyumluluk elde etmenin zor olmasıdır:
1 yineleme her zaman bir adım daha yavaştır: NVIDIA GPU'lar mikro mimariler ve komut setleri üzerinde hızlı bir şekilde yinelenir ve üst yazılım yığınındaki birçok yerin de ilgili özellik güncellemelerini yapması gerekir. Ancak AMD, NVIDIA'nın ürün yol haritasını bilemez, ve yazılım güncellemeleri her zaman NVIDIA'dan bir adım daha yavaş olacaktır. Örneğin, AMD CUDA11 desteğini yeni duyurmuş olabilir, ancak NVIDIA zaten CUDA12'yi piyasaya sürdü.
2 Tam uyumluluktaki zorluk, geliştiricilerin iş yükünü artıracaktır: CUDA'nın kendisi gibi büyük yazılımların kendisi çok karmaşıktır ve AMD'nin yetişmek için birkaç yıl, hatta on yıldan fazla bir süre boyunca çok fazla insan gücü ve malzeme kaynağı yatırması gerekir. Kaçınılmaz işlevsel farklılıklar olduğu için, uyumluluk iyi yapılmazsa, performansı etkileyecektir (% 99'u benzer olsa da, farklılıkların kalan% 1'ini çözmek geliştiricinin zamanının% 99'unu alabilir).
Ocak 2022'de kurulan Modular gibi CUDA'yı atlamayı seçen şirketler de var.
Modular'ın fikri, çıtayı olabildiğince düşük tutmaktır, ancak bu daha çok sürpriz bir saldırı gibidir. "Modüler" bir yaklaşımla "mevcut AI uygulama yığınlarının genellikle belirli donanım ve yazılımlarla birleştirildiği" sorununu çözmek için "yapay zeka modellerinin performansını artırmak için" bir AI motoru önermektedir.
Bu AI motoruna eşlik etmek için Modular, açık kaynaklı programlama dili Mojo'yu da geliştirdi. Bunu "yapay zeka için oluşturulmuş" bir programlama dili olarak düşünebilirsiniz, Modular, Python ile sorunsuz bir şekilde entegre olurken ve öğrenme maliyetlerini düşürürken, yukarıda bahsedilen AI motoruna entegre olacak araçlar geliştirmek için kullanır.
Ancak Modular ile ilgili sorun, "tüm platform geliştirme araçları" vizyonunun çok idealist olmasıdır.
Her ne kadar "Python'un ötesinde" unvanını taşısa ve Chris Lattner'ın itibarı tarafından onaylansa da, yeni bir dil olarak Mojo'nun tanıtım açısından birçok geliştirici tarafından test edilmesi gerekiyor.
AI motorları, yalnızca çok sayıda donanım şirketiyle yapılan anlaşmalarla değil, aynı zamanda platformlar arasındaki uyumlulukla da daha fazla sorunla karşı karşıyadır. Bunların hepsi tamamlanması için uzun bir süre cilalama gerektiren görevler ve o zaman Nvidia'nın neye dönüşeceğini korkarım kimse bilmeyecek.
Meydan Okuyan Huawei
17 Ekim'de Amerika Birleşik Devletleri, yapay zeka çipleri için ihracat kontrol kurallarını güncelleyerek NVIDIA gibi şirketlerin gelişmiş yapay zeka çiplerini Çin'e ihraç etmesini engelledi. Son kurallara göre, NVIDIA'nın A800 ve H800 dahil olmak üzere Çin'e yaptığı çip ihracatı etkilenecek.
Daha önce, NVIDIA A100 ve H100'ün iki modelinin Çin'e ihracatı kısıtlandıktan sonra, yalnızca Çin için "hadım edilmiş versiyon" A800 ve H800 düzenlemelere uyacak şekilde tasarlandı. Intel ayrıca Çin pazarı için AI çipi Gaudi2'yi piyasaya sürdü. Şimdi şirketler, yeni ihracat yasakları kapsamında tepkilerini ayarlamak zorunda kalacak gibi görünüyor.
Bu yılın Ağustos ayında, Huawei'nin kendi geliştirdiği Kirin 9000S çipi ile donatılmış Mate60Pro aniden satışa çıktı ve bu da anında büyük bir kamuoyu dalgasını tetikledi ve neredeyse aynı anda başka bir haber daha hızla boğuldu.
iFLYTEK'in başkanı Liu Qingfeng, halka açık bir etkinlikte nadir bir açıklama yaptı ve Huawei'nin GPU'sunun NVIDIA A100 ile kıyaslayabileceğini, ancak yalnızca Huawei'nin iFLYTEK'in çalışmalarını optimize etmek için özel bir çalışma grubu göndermesi durumunda olduğunu söyledi.
Bu tür ani açıklamaların genellikle derin niyetleri vardır ve bunu tahmin etme yeteneğine sahip olmasalar da, faydaları iki ay sonra çip yasağına yanıt vermektir.
Ascend AI tam yığın yazılım ve donanım platformu olan Huawei GPU, Atlas serisi donanım, heterojen bilgi işlem mimarisi, yapay zeka çerçevesi, uygulama etkinleştirme ve aşağıdan yukarıya endüstri uygulamaları olmak üzere 5 katman içerir.
Temel olarak, Huawei'nin NVIDIA için bir dizi değişiklik yaptığı, çip katmanının Ascend 910 ve Ascend 310 olduğu ve heterojen bilgi işlem mimarisinin (CANN) NVIDIA CUDA + CuDNN çekirdek yazılım katmanını kıyasladığı anlaşılabilir.
Tabii ki, boşluk yok olamaz ve bazı ilgili uygulayıcılar iki noktayı özetledi:
1 Tek kartın performansı geride kalıyor ve Ascend 910 ile A100 arasında hala bir boşluk var, ancak zafer, fiyatın ucuz olması ve miktarın istiflenebilmesi ve küme ölçeğine ulaştıktan sonra genel farkın büyük olmaması;
2 Ekolojik dezavantajlar var, ancak Huawei, örneğin PyTorch topluluğu ve Ascend arasındaki işbirliği yoluyla yetişmeye çalışıyor, PyTorch sürüm 2.1, Ascend NPU'yu eşzamanlı olarak destekledi, bu da geliştiricilerin doğrudan PyTorch 2.1'de Ascend'e dayalı modeller geliştirebileceği anlamına geliyor.
Şu anda, Huawei Ascend esas olarak Huawei'nin kendi kapalı döngü büyük model ürünlerini çalıştırıyor ve herhangi bir genel modelin, Huawei'nin platformunda çalışması için Huawei tarafından derinlemesine optimize edilmesi gerekiyor ve optimizasyon çalışmasının bu kısmı büyük ölçüde Huawei'ye dayanıyor.
Mevcut bağlamda, Ascend'in özel bir önemi var.
Bu yılın Mayıs ayında, Huawei'nin Ascend Computing Business Başkanı Zhang Dixuan, "Ascend AI" temel yazılım ve donanım platformunun 30'dan fazla ana akım büyük modele uyarlandığını ve uyarlandığını ve Çin'in yerel büyük modellerinin yarısından fazlasının Pengcheng serisi, Zidong serisi ve Huawei CLOUD Pangu serisi dahil olmak üzere "Ascend AI" temel yazılım ve donanım platformuna dayandığını açıkladı. Bu yılın Ağustos ayında Baidu, Ascend AI'nın uçan kürek + Wen Xin modeliyle uyarlandığını da resmen duyurdu.
Ve internette dolaşan bir resme göre, Çin Akıllı Süper Bilgi İşlem Merkezi, açıklanmayanlar dışında temelde Ascend ve yeni çip kısıtlamaları turundan sonra Huawei'nin çip üretim kapasitesinin %30-40'ının Ascend kümesine ayrılacağı ve geri kalanının Kirin olduğu söyleniyor.
Sonsöz
2006 yılında, NVIDIA büyük anlatısını ortaya koyarken, hiç kimse CUDA'nın devrim niteliğinde bir ürün olacağını düşünmedi ve Huang, yönetim kurulunu 10 yıldan fazla bilinmeyen bir geri ödeme döneminde kumar oynamak için yılda 500 milyon dolar yatırım yapmaya ikna etmek zorunda kaldı ve NVIDIA'nın geliri o yıl sadece 3 milyar dolardı.
Ancak teknoloji ve inovasyonu anahtar kelime olarak kullanan tüm iş hikayelerinde, uzun vadeli hedeflere ısrarla bağlı kaldıkları için her zaman büyük başarılar elde eden insanlar vardır ve NVIDIA ve Huawei en iyiler arasındadır.
Kaynaklar
[1] NVIDIA'nın "orak"ı bir AI çipi değil, silikon tabanlı bir laboratuvardır
[2] "NVIDIA'nın yedeği" olmak için, büyük model üreticileri kitabı açtı ve küçük yemek masası kıyafetler yarattı
[3] Kuruluşundan sadece 1 yıl sonra, bu yapay zeka yıldızı girişimi NVIDIA ve magnezyum kenet'e meydan okumak istiyor
[4] Nvidia İmparatorluğu'nda bir çatlak, Enukawa Araştırma Enstitüsü
[5] Amerika Birleşik Devletleri Çin'e çip ihracatını artırmayı planlıyor, Huawei yerli üretimin yükselişine öncülük ediyor ve West China Securities
[6] AIGC Endüstri Derinlemesine Raporu (11): Huawei Bilgi İşlem Gücü Spin-off'u: Küresel Yapay Zeka Bilgi İşlem Gücünün İkinci Kutbu, Batı Çin Menkul Kıymetler
[7] 2023 AIGC Sektör Özel Raporu: Yapay zeka çiplerinin dört ana teknik rotası, Kambriyen Kopyası NVIDIA, Shenwan Hongyuan
[8] CUDA, NVIDIA'yı Nasıl Başarıyor: Yapay Zekada Büyük Bir Atılım, Tencent Bulut Topluluğu
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
NVIDIA: Empire Rift Tek Tek
Orijinal kaynak: Decode
Genellikle Intel CPU'ların iyi sattığı ve bunları başarılı bir donanım şirketine atfettiği yanılsaması vardır, oysa aslında Intel'in masaüstü işlemciler üzerindeki hakimiyeti 1978'de doğan X86 mimarisidir.
Aynı illüzyon Nvidia'da da bulunur.
NVIDIA'nın yapay zeka eğitim çipi pazarını tekelleştirebilmesinin nedeni, CUDA mimarisi kesinlikle perde arkasındaki kahramanlardan biridir.
2006 yılında doğan bu mimari, bilgisayar hesaplamanın tüm alanlarında yer almış ve neredeyse NVIDIA şeklinde şekillenmiştir. Havacılık, biyoloji araştırmaları, mekanik ve akışkan simülasyonu ve enerji araştırmalarındaki araştırmaların %80'i CUDA temelinde yürütülmektedir.
En sıcak yapay zeka alanında, neredeyse tüm büyük üreticiler B Planına hazırlanıyor: Google, Amazon, Huawei, Microsoft, OpenAI, Baidu... Kimse geleceğini başkalarının elinde istemez.
Girişimcilik hizmeti danışmanlık ajansı Dealroom.co bir dizi veri yayınladı, bu üretken yapay zeka ısı dalgası dalgasında Amerika Birleşik Devletleri küresel yatırım ve finansmanın %89'unu elde etti ve yapay zeka çiplerinin yatırım ve finansmanında Çin'in yapay zeka çip yatırımı ve finansmanı dünyada ilk sırada yer alıyor, Amerika Birleşik Devletleri'nin iki katından fazla.
Başka bir deyişle, Çinli ve Amerikalı şirketlerin büyük modellerinin geliştirme yöntemlerinde ve aşamalarında birçok farklılık olmasına rağmen, herkes bilgi işlem gücünü kontrol etmede özellikle tutarlıdır.
CUDA neden bu sihire sahip? **
2003 yılında, 4 çekirdekli bir CPU sunan Intel ile rekabet edebilmek için NVIDIA, birleşik bir bilgi işlem cihazı mimarisi teknolojisi veya CUDA geliştirmeye başladı.
CUDA'nın asıl amacı, GPU'ya kullanımı kolay bir programlama arayüzü eklemekti, böylece geliştiriciler karmaşık gölgeleme dillerini veya grafik işleme ilkellerini öğrenmek zorunda kalmadılar. Nvidia'nın orijinal fikri, oyun geliştiricilerine grafik hesaplama alanında bir uygulama sağlamaktı, bu da Huang'ın "grafikleri programlanabilir hale getirmek" dediği şeydi.
Ancak, CUDA'nın piyasaya sürülmesinden bu yana, önemli uygulamaları bulamadı ve önemli müşteri desteğinden yoksundur. Ayrıca NVIDIA'nın uygulama geliştirmek, hizmetleri sürdürmek, tanıtmak ve pazarlamak için çok para harcaması gerekiyor ve 2008'de bir finansal fırtınayla karşılaştı, Nvidia'nın geliri zayıf grafik kartı satışlarıyla keskin bir şekilde düştü ve hisse senedi fiyatı bir zamanlar AMD'nin en kötü zamanından daha kötü olan sadece 1.50 dolara düştü.
2012 yılına kadar iki Hinton öğrencisi, ImageNet adı verilen görüntü tanıma hızında rekabet etmek için NVIDIA'nın GPU'larını kullandı. GTX580 grafik kartını kullandılar ve CUDA teknolojisi ile eğitildiler ve sonuçlar ikinci sıradan onlarca kat daha hızlıydı ve doğruluk ikinci sıradakinden% 10 daha yüksekti.
Bu rekabet sadece yapay zeka için tarihi bir dönüm noktası değil, aynı zamanda NVIDIA için bir atılım da sunuyor. NVIDIA, yapay zeka ekosistemini teşvik etmek, açık kaynaklı yapay zeka çerçevelerini teşvik etmek ve TensorFlow gibi yapay zeka teknolojilerinin geliştirilmesini teşvik etmek için Google, Facebook ve diğer şirketlerle işbirliği yapmak için sektörle işbirliği yapmaya başladı.
Bu, Huang'ın "her türlü şey için programlanabilirlik için GPU'yu açın" dediği ikinci adımı tamamlamaya eşdeğerdir.
GPU'ların bilgi işlem gücü değeri keşfedildiğinde, büyük üreticiler de aniden NVIDIA'nın birkaç yıldır yinelediği ve döşediği CUDA'nın AI'nın kaçınamayacağı yüksek bir duvar haline geldiği gerçeğine uyandı.
NVIDIA, CUDA ekosistemini oluşturmak için geliştiricilere, geliştiricilerin derin öğrenme, doğrusal cebir ve çıkarım hızlandırma ve diğer görevleri gerçekleştirmesi için uygun olan cuDNN, cuBLAS ve TensorRT vb. gibi zengin kitaplıklar ve araçlar sağlar. Ayrıca NVIDIA, CUDA derleyicileri ve optimize edicileri içeren eksiksiz bir geliştirme araç zinciri sunarak geliştiriciler için GPU programlamayı ve performans optimizasyonunu kolaylaştırır.
Aynı zamanda NVIDIA, TensorFlow, PyTorch ve MXNet gibi birçok popüler derin öğrenme çerçevesiyle yakın bir şekilde çalışarak CUDA'ya derin öğrenme görevlerinde önemli avantajlar sağlar.
"Ata yardım etme ve onu gezdirme" konusundaki bu özveri, NVIDIA'nın CUDA ekosistemindeki geliştirici sayısını yalnızca iki buçuk yılda ikiye katlamasını sağladı.
Son on yılda NVIDIA, deneyimlerini paylaşarak ve zor soruları yanıtlayarak CUDA uygulamaları için zengin destek sağlayan platformdaki profesyonel geliştiriciler ve alan uzmanları ile CUDA'nın öğretim kurslarını 350'den fazla üniversiteye tanıttı.
Daha da önemlisi, NVIDIA, donanımın bir hendek olarak kusurunun kullanıcı yapışkanlığının olmaması olduğunu biliyor, bu nedenle donanımı yazılımla bir araya getiriyor, CUDA'yı kullanmak için GPU oluşturma, OptiX'i kullanmak için AI gürültü azaltma, otonom sürüş bilgi işlem CUDA'ya ihtiyaç duyuyor...
NVIDIA şu anda GPU + NVlink + CUDA ile AI bilgi işlem gücü pazarının %90'ını tekelleştirse de, imparatorlukta birden fazla çatlak var.
Çatlaklar
AI üreticileri uzun süredir CUDA'dan muzdariptir ve bu alarm verici değildir.
CUDA'nın büyüsü, yazılım için tüm ekosistemin temel taşı olan yazılım ve donanım kombinasyonunun kilit konumunda olması ve rakiplerin NVIDIA'nın ekosistemiyle uyumlu olması için CUDA'yı atlamasının zor olmasıdır; Donanım için, CUDA'nın tasarımı temel olarak NVIDIA donanımı biçiminde bir yazılım soyutlamasıdır ve temel olarak her çekirdek kavram, GPU'nun donanım kavramına karşılık gelir.
O zaman rakipler için sadece iki seçenek kaldı:
1 CUDA'yı atlayın ve NVIDIA'nın kullanıcı yapışkanlığının büyük zorluğuyla yüzleşmeyi gerektiren bir yazılım ekosistemini yeniden oluşturun;
2 CUDA ile uyumludur, ancak aynı zamanda iki sorunla karşı karşıyadır, birincisi, donanım rotanız NVIDIA ile tutarsızsa, verimsiz ve rahatsız edici bir sonuç elde etmek mümkündür, diğeri ise CUDA'nın NVIDIA donanım özelliklerinin gelişimini takip edeceği ve uyumluluğun yalnızca takip etmeyi seçebilmesidir.
Ancak Nvidia'nın pençesinden kurtulmak için her iki seçenek de denendi.
2016 yılında AMD, açık kaynaklı projelere dayalı bir GPU ekosistemi olan ROCm'yi piyasaya sürdü ve rotayı izlemenin bir yolu olan CUDA ile tamamen uyumlu HIP araçları sağladı.
Bununla birlikte, araç zinciri kitaplığı kaynaklarının eksikliği ve yüksek geliştirme ve yineleme uyumluluğu maliyeti nedeniyle, ROCm ekosisteminin büyümesi zordur. Github'da 32.600'den fazla geliştirici CUDA paket deposuna katkıda bulunurken, ROCm'de 600'den az geliştirici var.
NVIDIA uyumlu CUDA yolunu izlemenin zorluğu, güncelleme yineleme hızının CUDA'ya asla ayak uyduramaması ve tam uyumluluk elde etmenin zor olmasıdır:
1 yineleme her zaman bir adım daha yavaştır: NVIDIA GPU'lar mikro mimariler ve komut setleri üzerinde hızlı bir şekilde yinelenir ve üst yazılım yığınındaki birçok yerin de ilgili özellik güncellemelerini yapması gerekir. Ancak AMD, NVIDIA'nın ürün yol haritasını bilemez, ve yazılım güncellemeleri her zaman NVIDIA'dan bir adım daha yavaş olacaktır. Örneğin, AMD CUDA11 desteğini yeni duyurmuş olabilir, ancak NVIDIA zaten CUDA12'yi piyasaya sürdü.
2 Tam uyumluluktaki zorluk, geliştiricilerin iş yükünü artıracaktır: CUDA'nın kendisi gibi büyük yazılımların kendisi çok karmaşıktır ve AMD'nin yetişmek için birkaç yıl, hatta on yıldan fazla bir süre boyunca çok fazla insan gücü ve malzeme kaynağı yatırması gerekir. Kaçınılmaz işlevsel farklılıklar olduğu için, uyumluluk iyi yapılmazsa, performansı etkileyecektir (% 99'u benzer olsa da, farklılıkların kalan% 1'ini çözmek geliştiricinin zamanının% 99'unu alabilir).
Ocak 2022'de kurulan Modular gibi CUDA'yı atlamayı seçen şirketler de var.
Bu AI motoruna eşlik etmek için Modular, açık kaynaklı programlama dili Mojo'yu da geliştirdi. Bunu "yapay zeka için oluşturulmuş" bir programlama dili olarak düşünebilirsiniz, Modular, Python ile sorunsuz bir şekilde entegre olurken ve öğrenme maliyetlerini düşürürken, yukarıda bahsedilen AI motoruna entegre olacak araçlar geliştirmek için kullanır.
Ancak Modular ile ilgili sorun, "tüm platform geliştirme araçları" vizyonunun çok idealist olmasıdır.
Her ne kadar "Python'un ötesinde" unvanını taşısa ve Chris Lattner'ın itibarı tarafından onaylansa da, yeni bir dil olarak Mojo'nun tanıtım açısından birçok geliştirici tarafından test edilmesi gerekiyor.
AI motorları, yalnızca çok sayıda donanım şirketiyle yapılan anlaşmalarla değil, aynı zamanda platformlar arasındaki uyumlulukla da daha fazla sorunla karşı karşıyadır. Bunların hepsi tamamlanması için uzun bir süre cilalama gerektiren görevler ve o zaman Nvidia'nın neye dönüşeceğini korkarım kimse bilmeyecek.
Meydan Okuyan Huawei
17 Ekim'de Amerika Birleşik Devletleri, yapay zeka çipleri için ihracat kontrol kurallarını güncelleyerek NVIDIA gibi şirketlerin gelişmiş yapay zeka çiplerini Çin'e ihraç etmesini engelledi. Son kurallara göre, NVIDIA'nın A800 ve H800 dahil olmak üzere Çin'e yaptığı çip ihracatı etkilenecek.
Daha önce, NVIDIA A100 ve H100'ün iki modelinin Çin'e ihracatı kısıtlandıktan sonra, yalnızca Çin için "hadım edilmiş versiyon" A800 ve H800 düzenlemelere uyacak şekilde tasarlandı. Intel ayrıca Çin pazarı için AI çipi Gaudi2'yi piyasaya sürdü. Şimdi şirketler, yeni ihracat yasakları kapsamında tepkilerini ayarlamak zorunda kalacak gibi görünüyor.
Bu yılın Ağustos ayında, Huawei'nin kendi geliştirdiği Kirin 9000S çipi ile donatılmış Mate60Pro aniden satışa çıktı ve bu da anında büyük bir kamuoyu dalgasını tetikledi ve neredeyse aynı anda başka bir haber daha hızla boğuldu.
iFLYTEK'in başkanı Liu Qingfeng, halka açık bir etkinlikte nadir bir açıklama yaptı ve Huawei'nin GPU'sunun NVIDIA A100 ile kıyaslayabileceğini, ancak yalnızca Huawei'nin iFLYTEK'in çalışmalarını optimize etmek için özel bir çalışma grubu göndermesi durumunda olduğunu söyledi.
Bu tür ani açıklamaların genellikle derin niyetleri vardır ve bunu tahmin etme yeteneğine sahip olmasalar da, faydaları iki ay sonra çip yasağına yanıt vermektir.
Ascend AI tam yığın yazılım ve donanım platformu olan Huawei GPU, Atlas serisi donanım, heterojen bilgi işlem mimarisi, yapay zeka çerçevesi, uygulama etkinleştirme ve aşağıdan yukarıya endüstri uygulamaları olmak üzere 5 katman içerir.
Temel olarak, Huawei'nin NVIDIA için bir dizi değişiklik yaptığı, çip katmanının Ascend 910 ve Ascend 310 olduğu ve heterojen bilgi işlem mimarisinin (CANN) NVIDIA CUDA + CuDNN çekirdek yazılım katmanını kıyasladığı anlaşılabilir.
1 Tek kartın performansı geride kalıyor ve Ascend 910 ile A100 arasında hala bir boşluk var, ancak zafer, fiyatın ucuz olması ve miktarın istiflenebilmesi ve küme ölçeğine ulaştıktan sonra genel farkın büyük olmaması;
2 Ekolojik dezavantajlar var, ancak Huawei, örneğin PyTorch topluluğu ve Ascend arasındaki işbirliği yoluyla yetişmeye çalışıyor, PyTorch sürüm 2.1, Ascend NPU'yu eşzamanlı olarak destekledi, bu da geliştiricilerin doğrudan PyTorch 2.1'de Ascend'e dayalı modeller geliştirebileceği anlamına geliyor.
Şu anda, Huawei Ascend esas olarak Huawei'nin kendi kapalı döngü büyük model ürünlerini çalıştırıyor ve herhangi bir genel modelin, Huawei'nin platformunda çalışması için Huawei tarafından derinlemesine optimize edilmesi gerekiyor ve optimizasyon çalışmasının bu kısmı büyük ölçüde Huawei'ye dayanıyor.
Mevcut bağlamda, Ascend'in özel bir önemi var.
Bu yılın Mayıs ayında, Huawei'nin Ascend Computing Business Başkanı Zhang Dixuan, "Ascend AI" temel yazılım ve donanım platformunun 30'dan fazla ana akım büyük modele uyarlandığını ve uyarlandığını ve Çin'in yerel büyük modellerinin yarısından fazlasının Pengcheng serisi, Zidong serisi ve Huawei CLOUD Pangu serisi dahil olmak üzere "Ascend AI" temel yazılım ve donanım platformuna dayandığını açıkladı. Bu yılın Ağustos ayında Baidu, Ascend AI'nın uçan kürek + Wen Xin modeliyle uyarlandığını da resmen duyurdu.
Sonsöz
2006 yılında, NVIDIA büyük anlatısını ortaya koyarken, hiç kimse CUDA'nın devrim niteliğinde bir ürün olacağını düşünmedi ve Huang, yönetim kurulunu 10 yıldan fazla bilinmeyen bir geri ödeme döneminde kumar oynamak için yılda 500 milyon dolar yatırım yapmaya ikna etmek zorunda kaldı ve NVIDIA'nın geliri o yıl sadece 3 milyar dolardı.
Ancak teknoloji ve inovasyonu anahtar kelime olarak kullanan tüm iş hikayelerinde, uzun vadeli hedeflere ısrarla bağlı kaldıkları için her zaman büyük başarılar elde eden insanlar vardır ve NVIDIA ve Huawei en iyiler arasındadır.
Kaynaklar
[1] NVIDIA'nın "orak"ı bir AI çipi değil, silikon tabanlı bir laboratuvardır
[2] "NVIDIA'nın yedeği" olmak için, büyük model üreticileri kitabı açtı ve küçük yemek masası kıyafetler yarattı
[3] Kuruluşundan sadece 1 yıl sonra, bu yapay zeka yıldızı girişimi NVIDIA ve magnezyum kenet'e meydan okumak istiyor
[4] Nvidia İmparatorluğu'nda bir çatlak, Enukawa Araştırma Enstitüsü
[5] Amerika Birleşik Devletleri Çin'e çip ihracatını artırmayı planlıyor, Huawei yerli üretimin yükselişine öncülük ediyor ve West China Securities
[6] AIGC Endüstri Derinlemesine Raporu (11): Huawei Bilgi İşlem Gücü Spin-off'u: Küresel Yapay Zeka Bilgi İşlem Gücünün İkinci Kutbu, Batı Çin Menkul Kıymetler
[7] 2023 AIGC Sektör Özel Raporu: Yapay zeka çiplerinin dört ana teknik rotası, Kambriyen Kopyası NVIDIA, Shenwan Hongyuan
[8] CUDA, NVIDIA'yı Nasıl Başarıyor: Yapay Zekada Büyük Bir Atılım, Tencent Bulut Topluluğu