Meta ticari açık kaynağın en güçlü modelinin arkasında: hayat kurtaran dev rekabet, Musk ve Apple başka bir yol buluyor

Metin: Guo Xiaojing, Tencent Technology

Görsel kaynağı: Unbounded AI tarafından oluşturuldu

19 Temmuz'da Meta, resmi web sitesinde büyük dil modeli Llama2'nin resmi olarak yayınlandığını duyurdu. Bu, Meta'nın büyük dil modelinin en son sürümü ve Meta'nın ilk açık kaynaklı ticari büyük dil modelidir. Aynı zamanda Microsoft Azure, Llama2 ile derinlemesine işbirliği yapacak.

Meta'nın resmi verilerine göre Llama 2, 7 milyar, 13 milyar ve 70 milyar parametreli 3 versiyon dahil olmak üzere eğitim verilerini önceki nesle kıyasla %40 oranında iyileştirdi. Llama 2 önceden eğitilmiş modeli, Llama 1'in iki katı bağlam uzunluğuna sahip 2 trilyon belirteç üzerinde eğitilmiştir ve ince ayarlı modeli, 1 milyondan fazla insan ek açıklaması üzerinde eğitilmiştir.

Performansının GPT-3.5 ile karşılaştırılabilir olduğu söyleniyor ve aynı zamanda en iyi açık kaynaklı büyük model olarak biliniyor. Haber yayınlandıktan sonra medya ve endüstri, Llama2'nin açık kaynak ticarileştirilmesinin büyük modeller alanındaki rekabet ortamını değiştireceği sonucuna bile vardı. Bu olayın etkisi ne kadar büyük? Sektöre nasıl bir katkı sağlayacak? Sektörden iki kişiyi sohbet etmeye davet ettik. Biri Leo Group Digital Technology Co., Ltd. Ürün Ar-Ge Merkezi genel müdür yardımcısı Zhou Songtao. Ekibin ürünlerin neredeyse çoğunu değerlendirmesine öncülük etti. yurtiçi ve yurtdışındaki ana akım büyük modeller, diğeri ise uzun yıllardır yurtiçinde ve yurtdışında teknoloji endüstrisinin ekolojisini derinlemesine gözlemleyen Anxinyuan Kozmik Araştırma Enstitüsü Başkanı Bayan Jiao Juan.

Aşağıdakiler, ikisinin ana bakış açılarıdır:

① Llama2, model parametrelerini, zaman tüketimini, bilgi işlem güç tüketimini ve diğer hususları kapsamlı bir şekilde dikkate alır. GPT-3.5 ile karşılaştırıldığında kendinden emindir.

② Üretken yapay zeka, tüm açık kaynak sisteminde dünyayı sarsan değişiklikler getirecektir.

③ Gelecekte açık kaynak ve kapalı kaynak mutlaka birbirini sallayacak ve bu alanda oldukça uzun bir süre karşılıklı oyun ve rekabet örüntüsü oluşacaktır.

④ Llama2'nin ticari açık kaynağı, girişimcilerin büyük modelleri kullanma maliyetini mutlaka azaltmayacak, ancak büyük model hizmet sağlayıcıların bir fiyat savaşı başlatmasına neden olabilir ki bu, kullanıcılar ve girişimciler için iyi bir haber.

⑤ Denizaşırı devlerin yapay zeka alanındaki rekabeti artık ikinci eğrinin gelişimi kadar basit değil.Rekabet çetin ve belirleyici ve hatta biraz hayat kurtarıcı.Bunun arkasındaki nedenler üzerinde düşünmeye değer.

Aşağıda, konuşma içeriğinden bir seçki yer almaktadır:

**Tencent Teknolojisi: Endüstri pratisyenleri veya uygulayıcılarının bakış açısından, büyük bir modeli nasıl değerlendirmeli? **

Zhou Songtao: MMLU, dünyada en yaygın kullanılan büyük ölçekli model değerlendirme çerçevesidir. Beşeri bilimlerden sosyal bilimlere, bilim ve mühendisliğe kadar 57 disiplinin kapsamlı bilgi ve becerisini dikkate alır. Değerlendirmelerimizin çoğu bu çerçeveye dayalıdır. Ama bizim sektörümüz reklam sektörü, reklam sektörünün özelliklerine göre başka değerlendirme kalemleri de ekleyeceğiz.

Grubun yönetim toplantısında ayrıca reklam sektörünün odak noktasının yaratıcılık değil kontrol olduğunu söyledik. Oluşturulan sonuçlar, reklamveren, ürün performansı, görünümü, logosu vb. ile %100 tutarlı olmalıdır. Ancak bu indirgemeler elde edildikten sonra farklılaşmaya ve hayal gücüne yer olabilir. Bu yüzden büyük modelin halüsinasyonunun kontrolü için ayrı bir test yapacağız. Bununla birlikte, piyasadaki görüntü oluşturmaya yönelik büyük dil modellerinin ve yayılma modellerinin çoğunun, reklamverenlerin ihtiyaçlarını tam olarak karşılaması zordur. Genel amaçlı büyük model piyasaya sürüldükten sonra, tamamen ticarileştirilmesi için daha kat edilmesi gereken uzun bir yol var.

Ek olarak, dikkate aldığımız en önemli şey maliyet konusu: kapalı kaynak modelinde doğrudan bir fiyat teklifi sistemi var ve biz genellikle binlerce Jetonun maliyetini ölçüyoruz. Açık kaynak modeli için, dağıtımdan ince ayara, nihai çevrimiçi akıl yürütmeye, ne kadar bilgi işlem gücünün tüketildiğine ve geliştirme maliyeti ile veri maliyetinin açıklığı sürdürmek için ne kadar yatırıldığına kadar ölçülecek ve hesaplanacak daha fazla bağlantı vardır. kaynak modeli.

Büyük modelin kalite geri bildirimi artı maliyet tahmini, modelin bir değerlendirmesini oluşturabilir.Basit bir cümleyle, Maliyet performansı ne kadar yüksekse, o kadar popüler.

Jiao Juan: Bizim açımızdan daha önemli olan, bazı dikey gereksinimlerin nasıl tanımlanacağıdır. Çünkü küresel ölçekte, ister bir sabit teknoloji şirketi ister bir İnternet şirketi olsun, gereksinimleri gerçekten tanımlayabilen çok fazla şirket olmayabilir, bu nedenle bu önerme——**Büyük ölçekli olabilir model şirketlerin kendileri bazı dikey gereksinimler belirlerlerse, daha iyi bir dikey kategori yönü keşfetmek için ekolojik ortaklarla birlikte çalışabilir miyiz? Elbette belli şirketlerin kendi veri birikimine sahip olması ve belirli bir yönde deneyim birikimine sahip olması daha iyi olur. Dikey olarak bölümlere ayrılmış endüstrilerin ihtiyaçlarını uygulama ve tanımlama perspektifinden bakış açımız budur.

**Tencent Teknolojisi: Llama2, performans açısından gerçekten GPT-3.5'i geçebilir veya onunla eşleşebilir mi? **

Zhou Songtao: Llama2 için büyük model hâlâ değerlendirme aşamasında ve yaklaşık 2 hafta sürecek. Ancak makale üzerindeki çalışmamızdan ve şimdiye kadar yapılan bazı basit değerlendirmelerden bazı genel karşılaştırmalar yapabiliriz.

Ön eğitim aşaması ile orijinal GPT modeli arasında birkaç fark vardır ve bu değişiklikler daha önce diğer model şirketleri tarafından yapılmamıştır. Birincisi, geleneksel Transformer'ın çok başlı dikkat mekanizmasını eğitim öncesi aşamada bir shard grup mekanizmasına dönüştürmektir. Büyük veri işleme yaparken ve büyük ölçekli paralel verileri işlerken kullandığımız parçalama teknolojisine biraz benziyor veya onu taklit ediyor. Dikkatin gerektirdiği çok sayıda sorguyu (isteği) gruplar halinde gruplandırın ve her grubu bir eğitim birimine koyun, böylece paralelliğin etkinliği ve hızı teorik olarak büyük ölçüde geliştirilecektir. Bence bu kısım, Meta tarafından önceki büyük ölçekli paralel işleme deneyimine dayanarak yapılan yeni bir değişiklik.

Bu değişikliğe dayanarak, hesaplama gücü gereksinimleri ve zaman tüketimi açısından teorik olarak mevcut büyük modellerden kat kat daha yüksek olduklarını düşünüyorum. Llama2'nin açıklamalarına göre Ocak ayında başlayacağını tahmin ediyorum.Salım süresine göre hesaplandığında Llama1'in ön eğitim süresinden daha kısa olması gerekiyor çünkü Llama1'den daha fazla sayıda parametreye sahip. Bu şekilde, çoklu eğitim turlarının olası döngüsü sıkıştırılır. Bu, belgede belirtilen DKG ile yakından ilgilidir. Bu noktada GPT4'ü geçmesi gerekir.GPT-4'ün tam sayısını bilmesek de, dışarıdan gelen spekülasyonlara göre GPT-4, GPT-3 ve GPT-3.5'ten çok daha yüksektir.

GQA için, şu anda **GQA'nın işleme yönteminin, özellikle GPU paralel hesaplama güç kaynakları olmak üzere yeterli bilgi işlem güç kartlarına sahip kullanıcılar için eğitim hızını artırabileceğini düşünüyoruz. **Ancak, testler ve akran incelemeleri, bu işlevin bilgi işlem gücü havuzunun ve donanımının boyutuna ilişkin yüksek gereksinimleri olduğunu ortaya çıkardı. Bilinen nedenlerden dolayı, Çin ana karasındaki geliştiricilerin birkaç büyük ölçekli GPU paralel bilgi işlem kaynağı vardır, bu nedenle **GQA üzerimizde olumsuz bir etkisi olabilir, tatsız. **

Ek olarak, ikinci nokta, ayarlama aşamasında, GPT sisteminin normalleştirme sırasında katmanlı veri işleme yaptığını biliyoruz, bu da veri eğitiminin sonuçlarını çok doğru hale getiriyor, ancak aynı zamanda çok fazla bilgi işlem gücü tüketiyor. Ancak Llama2, verimliliği artırmak ve doğruluğu korumak için çok yararlı olan ve aynı zamanda bilgi işlem gücünden tasarruf etmeye yardımcı olan katmanlı işleme temelinde ağırlık katsayıları eklemek olan farklı bir çözüm kullanır. Bu iki nokta, eğitim öncesi aşamada yapılan optimizasyonlardır. **

Ek olarak, makale ayrıca Llama1'in Gömme konumunun sabit olduğundan ve değiştirilemeyeceğinden de bahsetmiştir. Ancak Llama2'de bu, aynı zamanda parlak bir nokta olan dinamik olarak ayarlanabilir. Bununla da çok ilgileniyoruz ve ne tür pratik etkiler yaratabileceğini bilmek istiyoruz.

Bunlara ek olarak, Llama2, Llama1 ve GPT serilerinin bazı mühendislik deneyimlerini açıkça emmiştir, yani RHLF aşamasındaki başarılı deneyim yeniden kullanılmıştır ve büyük ölçüde geliştirilmesi gerekir.

Sonuncusu oran parametreleri, şimdiye kadar gördüklerim resmi web sitesinde açıkladığı parametreler. Yapay olarak geliştirilmiş geri bildirimi dahil 1 milyondan fazla parametre vardır ve ince ayarlı kısım 100.000'in üzerine çıkar. Bu parametreleri serbest bırakmaya cesaret ederse, bu, Meta'nın model parametrelerini, zaman tüketimini ve bilgi işlem güç tüketimini kapsamlı bir şekilde dikkate alma güvenine sahip olduğu anlamına gelir.

**Tencent Teknolojisi: Ticari açık kaynak eşiği neden aylık 700 milyondan fazla aktif kullanıcıya ayarlanmadı? **

Jiao Juan: Şaka yapıyorum, bu düzenlemenin "çok açık" olduğunu düşünüyorum——Meta parlak bir kart oynadı, çünkü başkalarının araştırmasını engelleyemedi, sonra bırak gitsin. Özünde, içsel oyunların bir sonucudur. Meta'nın finansal göstergeleri 2021'in başından beri pek iyi değil, bu nedenle ikinci büyüme eğrisini arıyor. Ekim 2021'de Meta, adını All in Metaverse olarak değiştirdi, ancak önemli bir gelişme görmedi. Kendi donanımıyla entegre olabilen mevcut büyük modeli piyasaya sürdü. Parlak bir kart oynamakla eşdeğerdir.Donanım, yazılım ve işletim sistemi gerektirir.Yapay zeka çağında kendine ait bir yeri olmasını umar ama aynı zamanda açık kaynak olarak olmak istemez. rakipler için çok avantajlı. Gördüğünüz gibi, aylık 700 milyon aktif ürün arasında YouTube 2,5 milyar, Apple 1,8 milyar, Microsoft 1,4 milyar, Samsung 1 milyar, LinkedIn 900 milyon, Snapchat 750 milyon vb.

**Tencent Teknolojisi: Ticari açık kaynak ve araştırma lisanslaması arasındaki temel fark nedir? Açık kaynak ekosistemi üzerinde ne gibi bir etkisi olabilir? **

Zhou Songtao: Büyük dil modelinin patlak vermesinden sonra, açık kaynak konusu da çok karmaşık hale geldi.Herkes açık kaynağın tanımında ve bu kuralda birçok ayarlama yaptı. Algoritmanın kendisini, açık kaynak veri araştırmasını vb. açık kaynak yapmanızı içerecektir. Yeni dil modelinin veya üretici modelin genel açık kaynağının değerlendirilmesi için: ilk olarak, algoritma kodunun açık kaynak olup olmadığına ve ardından eğitim numarası setinin açık kaynak olup olmayacağına bağlıdır. Üçüncüsü ise açık kaynak algoritmasına dayalıdır.Eğer ince ayar veya başka bir işlem yaparsam yetkilendirme politikanızın ne gibi kısıtlamaları olur. Dördüncüsü, model tarafının kontrole sahip olup olmadığı, model çıkarımınızın sonuçlarını kullanmaktır. Bu modelin "açık kaynağının" bizim için gerçekten uygulama değeri olup olmadığına genellikle bu yönlerden karar veririz.

Açık kaynak araştırması ve ticari açık kaynak ile ilgili olarak, en tipik örneğin Stability AI şirketi olduğunu hatırlıyorum. LLama2'nin açık kaynaklı olmasından iki hafta önce StabilityAI'nin XL sürümünün de yayınlandığını hatırlıyorum, yani yalnızca araştırmaya izin veriliyor. açık kaynak kodludur ve modellerin kullanılabileceği açıkça belirtilmiştir.Verilerle araştırma yapın mesela araştırmacıysanız veya belli bir üniversiteye aitseniz ama bu modeli ticarileştirme amaçlı kullanırsanız tamamen yasaktır ve siz kullanmak için ayrıca yetkilendirme başvurusunda bulunmanız gerekir.

Büyük modellerin açık kaynak yetkilendirmesi bence orijinal açık kaynak mantığından çok şey değiştirdi.Bağlantılar ve süreçler çok dikkatli bir şekilde kuruluyor.Üretken yapay zekanın tüm açıkta yeri sarsan değişiklikler getirmesi olasıdır. kaynak sistemi. **

**Tencent Teknolojisi: Llama2'nin ticari açık kaynağının büyük modellerin rekabet ortamı üzerinde ne tür bir etkisi olacak? **

Jiao Juan: Denizaşırı devlerin rekabetinde, ürünlerini ve hizmetlerini tanınabilir hale getirmek için bir stil var, bu nedenle Meta'ya Metaverse ve Apple'a Yeni Evren adı verilmeli, diğerleri kaynağı kapatırsa, ben açık kaynağı işgal edeceğim. . Geçmişte açık kaynak, özgürlük duygusuna sahip inekler tarafından yapılmış olabilir ve düşünme nispeten basitti. Ama şimdi bu kadar büyük bir iş dünyası bu işin başını çektiğine göre, mesele daha çok ticari çıkarlarla ilgili.

Zhou Songtao: Üretken yapay zeka sisteminin rekabet ortamının üç unsurunun - bilgi işlem gücü, algoritmalar ve modeller - değişmediğini düşünüyorum. Aslında model rekabet faktörlerinin sadece üçte birini oluşturuyor.Model değiştirilirse ancak üçte bir veya üçte birinden biraz daha fazla değişebilir.Daha iyimser olduğunu tahmin ediyorum ve olabilir yaklaşık %45'e ulaşır. **

Yurtiçi ve yurtdışındaki model hala aynı değil ve yabancı algoritma düzeyindeki model daha belirgin. Yabancı veriler temel olarak temizlenir ve vektörleştirilir.Eğitim veri seti zaten yeterlidir ve belirli bir endüstri için özel verileriniz yoksa, veriler açısından rekabet avantajı açık değildir. Bilgi işlem gücü, yabancı devlerin açığı açabileceği bir yer değil.Devlerin aslında bilgi işlem gücü için savaşacak gücü var.

Her şeyden önce, temel algoritmalara sahip yerli şirketler aslında çok sınırlıdır; ikincisi, yerli verileri temizleme ve vektörleştirme derecesi aslında yüksek değildir. İlk günlerde, bir şirket yapılandırılmış veri işlemeye çok fazla güç yatırırsa, aslında bilgi işlem gücü ve algoritma eksikliğini telafi edebilirdi. Üçüncüsü, ülke aslında kısa vadede bilgi işlem gücünden yoksundur. Bu nedenle, LLama2 açık kaynağının yerel manzara üzerindeki etkisini yargılamak şu anda kolay değil.

Ayrıca Google, yabancı ülkelerde tüm üretken yapay zekanın gerçek öncüsüdür ve sonra neredeyse bir şehide dönüştürülmüştür. Bunun nedeni, tüm üretken yapay zekanın kaynak belgesinin "Dikkat tek ihtiyacınız olan şey" olmasıdır ve ardından en eski açık kaynak modeli T5 de dahil olmak üzere aslında Google'dır. Google eskiden kalabalıkla gurur duyardı. Beklenmedik bir şekilde, kara bir at olan OpenAI daha sonra öldürüldü. En eski GPT-1 ve GPT-2 açık kaynaktı ve GPT-3, açık kaynak olduktan sonra kapalı kaynaktı. OpenAI pazara girdiğinde, açık kaynak, tüm üretken yapay zekanın ana akımıdır.

OpenAI bu sırada Microsoft'u buldu ve aynı zamanda çok pahalı bilgi işlem gücüne sahip olarak Google'ın güçlü bir rakibi haline geldi. 2022'den itibaren üretken yapay zeka pazarı kapalı kaynak sistemine girmeye başlayacak. OpenAI algoritmada ustalaştı, Microsoft'un bilgi işlem gücü ve verileriyle birleşti ve ürünü kapalı kaynak haline getirdi ve ürün fenomen düzeyinde bir hit oldu ve hem Microsoft hem de OpenAI bundan faydalandı. Meta'nın bu alana ilk girmeye karar verdiğinde, geliştirme tarihini başından beri dikkatlice incelediği tahmin ediliyor diye düşünüyorum.Artık OpenAI açık kaynak alanından kapalı kaynağa çekildiği için, o zaman yenmek için açık kaynak yöntemini kullanacağım. yine senin sihrin

Bundan önce Meta, açık kaynaktan sonra birkaç küçük şirketin, özellikle Stability AI'nin canlılığını da gördü.Bu şirketin derin bir temeli yok.Şirketin hala birçok tartışması var.

Llama1'in Mart ayında açık kaynağını açıkladığını hatırlıyorum.O sırada "yanlışlıkla açık kaynak" olduğunu da söyledi.Sonra Stability AI da kodu yanlışlıkla sızdırdığımı yani açık kaynak olduğunu söyledi. Genel yol, Google'ın açık kaynağın tonunu belirlemesi ve ardından OpenAI ve Microsoft'un onu tekrar kapalı kaynak sistemine dönüştürmesi ve ardından Meta ve Stability AI'nin tekrar açık kaynağa koymasıdır. Sanırım gelecekte, **Açık kaynak ve kapalı kaynak birbirini sallıyor olmalı ve bu alanda uzun süre karşılıklı oyun ve rekabet örüntüsü oluşacaktır. **

**Tencent Teknolojisi: Meta açık kaynaklı Llama2 son çare mi yoksa aktif bir stratejik seçim mi? **

Jiao Juan: Aktif bir stratejik seçim olmalı, çünkü AR alanındaki üç ana rakip olan Meta, Microsoft ve Google on yılı aşkın bir süredir mücadele ediyor. Meta, LLama2'yi hızla başlattı, en azından Google'dan daha hızlı. Açık kaynak ve kapalı kaynak seçimi, bazı temel çıkar taleplerini ortadan kaldırmayacak, bu nedenle rekabet modelini tamamen değiştirmek çok anlamlı olmayabilir. İkincisi, yerel durumun farklı olduğu, bu nedenle yerel rekabet modelinin yeniden gözlemlenmesi gerektiğidir.

İster açık kaynak ister kapalı kaynak olsun, temelde yeni büyük fırsatlar karşısında dünya çapındaki bu şirketler arasında stratejik bir seçimdir. Cepheyi düzenlemek için çaba sarf ederken, Bier'in hinterlandını da mümkün olduğunca ele geçirmeyi umuyorum. Denizaşırı devlerin rekabeti artık ikinci veya N'inci büyüme eğrisini geliştirmek kadar basit değil. Rekabet şiddetli ve kararlı, hatta biraz hayat kurtarıcı.

Bence herkesin tartışması için en değerli olan şu: Eylemlerinin arkasında nasıl bir ortam veya arka plan var, bu yüzden bunu bir silahlanma yarışı gibi kararlı bir şekilde yapmaları gerekiyor.

Son zamanlarda bazı kayda değer şeyler de oluyor.Musk'un X-AI şirketi kuruldu.Gerçek fiziksel dünyayı yeniden anlamak istiyor.Tüm devler AGI'nin gerçek gerçekleşmesine bakıyor. Bu harita gittikçe büyüyor. Ancak, yeni iş dünyası ve yeni iş ortamı, onu yönlendirmek için her zaman bazı yeni popüler uygulamalara ve ürünlere ihtiyaç duyuyor. 2023'te bunu başarmak zor olabilir. 2024 yılına umut bağlayabiliriz, belki Apple'ın MR gözlüğü yeni bir fırsat olur.

**Tencent Technology: Diğer iki denizaşırı dev Musk ve Apple'ın da büyük ölçekli modeller alanındaki ilerlemeleri hakkında yüksek profilli duyurular yapmadıklarını da gördük, bu konuda ne düşünüyorsunuz? **

Jiao Juan: Şu an için sadece geri duruyorlar ve kesin olan şey, piyasaya sürdükleri şeyin kesinlikle büyük bir model olarak adlandırılmayacağı. Bence bir sonraki seviyeye, bedenlenmiş zekaya odaklanabiliriz. Bu doğrultuda Musk, en az endişeli olan kişidir. Apple'ın en büyük avantajı, yazılım ve donanımın birleşiminde yatmaktadır.

Zhou Songtao: Kabaca kendimiz test ettik ve **M2 çipi, kayan nokta bilgi işlem gücü açısından Nvidia'nın kartlarıyla rekabet edebilir. ** Apple, aslında büyük modellerin mevcut rekabet ortamının ötesinde olan yazılım ve donanım entegrasyonunu alabilir.

Bedenlenmiş zeka, bence, gelecekte genel yapay zekanın gelişiminde yeni bir kilometre taşı olabilir, çünkü bir kez güçlü bir muhakeme yeteneğiniz olduğunda, bu kesinlikle fiziksel dünyaya ve fiziksel dünyayı kontrol etmenin temel noktasına genişletilecektir. onu bedene yerleştirmek veya fiziksel dünyadaki sensörlere yerleştirmektir, o zaman bu, bedenlenmiş zeka haline gelen bir sistemdir. Bay Zhou'nun az önce söylediği gibi, bu bir dizi Musk şirketine dönüştü.

Genel yapay zekanın tamamına bakmak için yazılım ve donanımı bir araya getirdiğimizde, rekabet ortamının yeniden değiştiğini göreceksiniz.Artık Google, Meta ve açık AI rekabet etmiyor, ancak belki de katılan daha fazla donanım şirketi var. içinde.

**Tencent Teknolojisi: Llama2'nin ticari açık kaynağı, büyük ölçekli bir model başlatmanın maliyetini azaltmak mümkün mü? **

Zhou Songtao: Şu anda bundan emin değilim, çünkü API kiralama maliyetinden tasarruf etmesine rağmen, OpenAI'nin 15 Haziran'daki büyük fiyat indiriminin neredeyse %10 indirimli olduğunu göreceksiniz, bu nedenle kapalı kaynak modeli de bir fiyatla mücadele ediyor savaş. Aksine, açık kaynak modeli kullanılırsa, ne kadar donanım maliyeti, bilgi işlem gücü maliyeti ve veri maliyeti gerekecektir? Gizli maliyetleri tahmin etmek zordur. Basitçe LLama2'nin açık kaynağından konuşursak, bunun girişimcilik için mutlaka maliyet tasarrufu sağlayan bir yol olmadığını düşünüyorum.

Akıl yürütme maliyetiyle ilgili olarak, şu anda yabancı test edicilerin değerlendirme makalelerini ölçüp birleştiriyoruz ve sınıflandırma veya dil zinciri iş akışı gibi bazı belirli akıl yürütme görevleri türleri için Llama2'nin akıl yürütme etkinliğinin ve zaman tüketiminin azaldığını, ancak diğer türler için olduğunu bulduk. görevlerin sayısı, **GPT-3.5-turbo-0615'in anlık görüntü sürümüyle karşılaştırıldığında, daha ucuz olmayabilir (yalnızca çıkarım hesaplama gücü tüketimi açısından); **Mevcut orijinal sürüm, anlama açısından çok akıcı ve doğrudur Çince, ancak Çince ifadesi neredeyse 0, **Yani Llama2'yi tam olarak kullanmak isteyen Çinli girişimciler, Çince ifadenin ince ayarını veya rehberliğini çözmek için çok para harcamalı veya açık kaynak topluluğunun Çince ifade sağlamasını beklemelidir. versiyon... Bu maliyet düşük değil. **

Ek olarak, **Llama2'nin ticari açık kaynağı gerçekten de büyük ölçekli hizmet sağlayıcıların bir fiyat savaşı başlatmasına neden olabilir, bu da kullanıcılar ve girişimciler için iyi bir haberdir. **

Jiao Juan: Açıkçası, Çin'deki bazı endüstri modellerini veya dikey modelleri hala sabırsızlıkla bekliyorum. Şahsen, bu sektördeki sağlam deneyime ve sürekli veri birikimine ve platform oluşturma deneyimine sahip, gelecek vaat eden birkaç şirket seçtim. Ayrıca bence bu tur biletin pahalı olup olmaması değil, sizin pahalı olup olmamanız meselesi değil, herkes bir dönüşümle karşı karşıya.

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)