Görsel kaynağı: Unbounded AI tarafından oluşturuldu
İnsanlar yapay zekayı yarattı, ancak yapay zeka aynı zamanda içinde yaşadığımız dünyayı da yeniden şekillendiriyor. Büyük dil modeli teknolojisinin patlamasıyla, yapay zeka hayatımıza daha fazla entegre olmaya başladı ve insanların potansiyel risklerden kaçınmak için gelişiminin ilk aşamalarında gerekli güvenlik önlemlerini düşünmesi ve uygulaması gerekiyor.
Yapay zekanın karşılaştığı siber güvenlik sorunları her yerde görülebilir. Tencent Technology, Tsinghua Üniversitesi Yapay Zeka Enstitüsü dekan yardımcısı, Pekin Zhiyuan Yapay Zeka Araştırma Enstitüsü ve Ruilai Intelligence'ın baş bilim adamı Zhu Jun ile röportaj yaptığında ** "Aslında, her zaman güvenli ve güvenli olan hiçbir ağ sistemi yoktur. Dünyada kırılmaz.Maliyeti düşünülmezse suçlular sisteme saldırmak için çeşitli yöntemler kullanacaklar ve buna karşı savunma yapmak imkansız.” **
10 yıldan fazla bir süredir Zhu Jun kendini yapay zeka güvenliği sorununu çözmeye adadı. Klasik Bayesçi temel teori ve anahtar teknolojileri kırdı, difüzyon modeli için verimli bir algoritma önerdi ve ulusal düzeyde uzmanlaşmış ve yeni "inkübe etti" başarıların dönüşümü yoluyla küçük dev "işletmeler, güvenli ve güvenilir yapay zekanın gelişimi için sağlam bir temel atıyor.
Yapay zekanın kendisinin riskleri göz ardı edilemez. Yapay zeka, güçlü öğrenme ve çıkarım yapma yetenekleriyle donatılmıştır, ancak bu yetenek aynı zamanda, yapay zeka sistemlerinin verilere yüksek düzeyde güvenmesine yol açar ve bu, karar alma ve önerilerde veri kaynaklarının yanlılığını yansıtabilir. yapay zeka etiği ve adaleti.
Yapay zeka bir güvenlik güven krizine düştüğünde nasıl yanıt vermeliyiz? AI ve insanların etkileşimli uygulaması giderek daha popüler hale geldiğinde, potansiyel güvenlik tehlikelerini nasıl önlemeliyiz? Bu diyalogda Zhu Jun, yapay zekanın güvenliğini ve güvenilirliğini artırmak için özel savunma yöntemlerinden bahsetti. Yapay zeka güvenliğinin ahlaki ve sosyal sonuçlarını keşfetmeye özen göstermeli ve bilinmeyen ve kontrolsüz bir geleceğe sürüklenmekten kaçınmalıyız.
İsteklerinizi değiştirmemek esas alınarak yapılan çıkarmalar ve düzeltmelerle metnin özü şu şekildedir:
Her zaman güvenli bir ağ sistemi yoktur
**Tencent Teknolojisi: Güvenliğe karşı yapay zeka alanında araştırmaları teşvik ediyorsunuz. Yapay zeka teknolojisinin mevcut uygulaması hangi güvenlik sorunlarını getirecek? Bu güvenlik sorunlarını nasıl belirlemeliyiz? **
**Zhu Jun:**Yapay zeka, veri, algoritma modeli ve uygulama katmanı gibi birkaç temel öğe içerir. Her öğede, içindeki çeşitli güvenlik sorunlarıyla ilgilenmemiz gerekiyor.
Veri düzeyinde, veri zehirlenmesi, veri sızıntısı, kullanıcı mahremiyeti ve temel gizli verilerin korunması gibi güvenlik sorunlarına dikkat etmemiz gerekiyor; model düzeyinde, çatışma algoritmaları gibi güvenlik sorunlarıyla ilgilenmemiz gerekiyor. Örneğin, kilidi açmak için yüz tanıma kullanıldığında, saldırgan, hedef cep telefonunun doğrulama sistemini, özel olarak üretilmiş bir çift anti-gözlük (yani "düşman numuneler") aracılığıyla kilitleyerek risklere neden olabilir. Ayrıca modele art niyetli olarak arka kapı yerleştirilirse modelin güvenliği de tehdit altında olacaktır, uygulama düzeyinde yapay zekanın güvenlik sorunu da giderek daha fazla öne çıkmaktadır. Örneğin, derin sentez, AIGC ve diğer araçlar, suçlular tarafından sahte içerik oluşturmak ve dolandırıcılık ve aldatma gibi yasa dışı amaçlara girişmek için kullanılır. Bunların hepsi yapay zekanın gerçek kullanımda veya geliştirmede karşılaştığı güvenlik sorunlarıdır.
Çözümler ve karşı önlemler için, yapay zeka alanında sıcak ve zor bir konu olan bu içerikleri otomatik olarak tanımlayacak daha gelişmiş algoritmalar kullanmamız gerekiyor. Ancak bu teknoloji "mızrak ve kalkan" arasındaki ilişkiye benzer ve üretken teknolojinin gelişimi, buna karşılık gelen tespit ve savunma teknolojilerinin ortaya çıkmasını teşvik edecektir. Aynı zamanda, üretim ve saldırı tarafındaki teknolojiler sürekli olarak gelişmektedir. Teknolojinin doğası gereği, hiçbir sistem her zaman güvenli ve kırılması imkansız değildir. Maliyet dikkate alınmazsa, suçlular korunmaları zor olan sisteme saldırmak için çeşitli yöntemler kullanacaklardır.
Dolayısıyla teknoloji açısından **yapay zeka yapay zekayı tanır şeklinde ele almamız gerekiyor. Ancak savunma aslında saldırıdan daha zordur. Halihazırda, modelin savunma kabiliyetlerini geliştirmek için çeşitli mekanizmalar arıyoruz ve model kullanıldığında ve konuşlandırıldığında çeşitli koruyucu önlemler alıyoruz. Örneğin, yüz tanıma sisteminde, sistemi koruma amacına ulaşmak için, örnekler son tanıma bağlantısına girmeden önce şüpheli veya anti-saldırı örnekleri tespit etmek ve filtrelemek için bir yüz tanıma güvenlik duvarı kullanırız. Şu anda, bu tür teknoloji bankacılık ve diğer sektörlerde uygulanmaktadır.
**Tencent Teknolojisi: Herhangi bir ağ sisteminin güvenlik boşlukları olduğundan bahsettiniz. Şu anda ChatGPT, denizaşırı uygulamalarda bir artış başlattı. İyi bir etkileşim sağladı. Ne tür riskler olacak? **
Zhu Jun: Şu anda ChatGPT gibi büyük dil modelleri hızlı bir geliştirme sürecindedir, ancak aynı zamanda potansiyel riskler de getirirler; örneğin, bazı "enjeksiyon saldırıları" olacaktır. Algoritmik bir bakış açısına göre, eğer birisi gizli amaçlarla belirli kelimeleri veya sembolleri enjekte ederse, bu büyük modelde mantık karışıklığına ve çıktı hatalarına neden olabilir.
Çok yönlü bir diyalog sisteminde enjeksiyon saldırılarına karşı savunma yapmak zordur. Bilgisayar korsanları, enjeksiyon saldırılarını çeşitli şekillerde gerçekleştirebilir ve büyük ölçekli model bağlamı anlama teknolojisi nedeniyle, algoritma algılama ve savunma için yeni bir zorluk olan saldırı etkisi gecikecektir. Bu bağlamda, kötü niyetle enjekte edilebilecek sözcükleri algılamak ve bunlara karşı savunma yapmak üzere algoritmayı tersine çevirmek için pekiştirmeli öğrenmeye benzer bir yöntem kullanmamız gerekiyor. **Sistem, yalnızca eğitim sürecinde sisteme kötü niyetli bir şekilde enjekte edilmediği veya arka kapılar ve diğer güvenlik açıkları yerleştirilmediği garanti edilirse gönül rahatlığıyla kullanılabilir.
Uygulama düzeyi açısından bakıldığında, bilgisayar korsanlarının pornografi ve şiddetle ilgili yasa dışı bilgiler de dahil olmak üzere düşük kaliteli veya kötü içerik oluşturmak için enjeksiyona karşı koruma önlemlerini atlamaya çalışması gibi, diyalog sisteminin kötü niyetli kullanımına ilişkin bazı riskler de olabilir. takip sürecinin bir parçası haline gelecek. Bağımsız algılama ve çözüm gerektiren sorunlar.
**Tencent Teknolojisi: Az önce GPT'nin güvenlik sorunlarından bahsettik, daha yakından bakalım: GPT sunucusunun ve diğer büyük modellerin güvenlik savunma kapasitesi nedir ve bilgisayar korsanları tarafından saldırıya uğrayabilir mi? **
Zhu Jun: Teorik olarak bu tamamen mümkün. Büyük bir bilgi sistemi olduğu için, herhangi bir sistemde boşluklar olacaktır, bu nedenle, sistem oluşturma sürecinde, sistemin güvenliğini artırmak için çeşitli koruma yöntemlerini mümkün olduğunca önceden devreye almamız gerekir. Son zamanlarda, bununla ilgili durumlar da gördük: bazı saldırganlar ChatGPT'yi otomatik saldırı kodları oluşturmak için kullanıyor, bu da ChatGPT'nin hedef sistemdeki güvenlik açıklarını daha verimli bir şekilde bulmasına ve hatta güvenlik açıklarından saldırı başlatmak için daha fazla yararlanmasına olanak tanıyor, bu nedenle güvenlik sorunları var olmaya devam edecek.
İnsanlar, yapay zekanın zeka düzeyini doğru bir şekilde tanımlayamaz ve ölçemez
**Tencent Teknolojisi: Bilgisayar korsanı saldırılarının gizli tehlikelerine ek olarak, yapay zekanın kendisinin güvenlik riskleri konusunda da endişeliyiz. Öncelikle herkesin şu sıralar tartıştığı bir konuya odaklanalım – sizce yapay zeka bilinç üretecek mi? **
**Zhu Jun: Kişisel bakış açım, bilinci doğru bir şekilde tanımlayıp ölçemediğimiz için yapay zekadaki "bilincin" mevcut performansının çok net olmadığını düşünmeye daha yatkın. ** Bu nedenle, dil modelinin performansını gözlemlediğimizde, büyük modelin hala olgusal hatalar gibi sorunları olduğunu göreceğiz. Hatalardan bazıları akıcı bir şekilde okunsa da, daha yakından incelendiğinde gerçeklere dayalı veya mantıklı değildir. Bu, modelle ilgili birçok sorundan biridir, sahip olduğu bilinç özgüllük düzeyi tam olarak nicel olarak değerlendirilmemiştir.
Dil modelleri güçlü öğrenicilerdir çünkü derlem ve metin hakkında dünyadaki herhangi bir insandan daha fazla şey bilirler. Örneğin, bir modelin, her birimizin erişebildiği sınırlı bilgi kaynaklarına kıyasla, İnternet üzerindeki neredeyse tüm bilgilere erişimi olabilir.
Çok yönlülük açısından, AI kesinlikle herhangi bir kişiden daha iyidir. Ancak bazı açılardan modelin performansı insan seviyesine ulaşamamaktadır. Bu nedenle, AGI ve herkes tarafından tartışılan diğer yönleri içeren bir modele gerçekçi teknolojik gelişme perspektifinden bakmalıyız. Şahsen, teknolojinin şu anki seviyesinin kontrolden çıkacak duruma gelmediğini veya sadece robotun kontrolünde geliştiğini düşünüyorum.
Büyük ölçekli makine öğrenimi modellerinin, verileri işlemek için derin öğrenme gibi karmaşık ağları kullanabildiği ve mimari ve tasarım açısından bazı insan bilişlerinden yararlanabileceği söylenebilir. Ancak genel olarak, bu yapay sinir ağı modelleri ile gerçek biyolojik sistemler arasında ölçekten yapıya değişen çok büyük farklılıklar vardır. Dolayısıyla aslında şu anda yapay zeka sistemlerinin zeka seviyesini net bir şekilde değerlendiremiyoruz veya akıl gibi bilişsel yeteneklere sahip olup olmadığını değerlendiremiyoruz.
**Tencent Teknolojisi: Son zamanlarda, bazı tüccarlar "AI arkadaşı" konseptini başlattı - insanlar AI'ya aşık olabilir ve ödemeleri gerekir. Yapay zekanın insan duygularını anlayabileceğine inanıyor musunuz? Sanal ortaklarla etkileşim sürecinde hangi güvenlik riskleri var? **
Zhu Jun: Duygusal bilgi işlem, yapay zeka alanında her zaman klasik bir konu olmuştur. Duygu açısından, yapay zeka teknolojisi bir karakteri simüle edebilir ve onun duygusal veya psikolojik durumunu belirleyebilir. Ancak, teknik açıdan bakıldığında, bu alanda hala birçok sorun ve zorluk var.
Gerçek insan iletişimi seviyesine ulaşmak çok zordur. Örneğin, yüz yüze sohbet etsek veya diyalog için aynı dili kullansak bile, birbirimizin duygularını veya zihinsel aktivitelerini gerçekten anlamak zordur çünkü her birey aynı girdiye binlerce şekilde yanıt verir. Şu anda kullandığımız bu büyük modeller esas olarak bu süreci modelliyor, ancak tüm modelleme basitleştirilmiş ve idealleştirilmiş varsayımlar gerektiriyor. Bu varsayımların herkes için geçerli olup olmadığı veya her bireyin gerçekliğine tam olarak uyup uymadığı sorgulanabilir. Herkesin karmaşık duygularını basit bir modelle doğru bir şekilde ifade etmemiz zor.
Bu model sosyal konular, etik ve ahlak gibi çeşitli yönleri içerebilir ve çözülmesi gereken birçok potansiyel sorun vardır. Teknik uygulama için çok fazla eşik olmamasına rağmen, bu model zaten yabancı ülkelerde ortaya çıktı. Ancak, bu modelin etkisi hakkında derinlemesine düşünmemiz gerekiyor; örneğin, bazı gençler enerjilerini gerçek aşka veya evliliğe vb.
Ayrıca bu tür yapay zeka ürünlerinin belirli kişilere karşı önyargılı mı yoksa kasıtlı olarak mı yönlendirileceğine dikkat etmemiz gerekiyor ki bu da büyük riskler getirecektir. Her gün bir robotla etkileşime girersek, elde edilen bilgiler doğal olarak robot tarafından yönlendirilecek ve bu da kişisel değerleri etkileyebilir veya kişisel duygu ve davranışları kontrol edebilir. Uzun vadede bu, insanlar arasındaki sosyal ilişkiyi etkileyebilir ve tüm toplumun davranışlarında değişikliklere neden olabilir. Ancak bunlar tamamen teknoloji ile çözülebilecek problemler değil. Genel olarak konuşursak, diğer ülkelerle karşılaştırıldığında, ülkem yeni teknolojileri kullanırken daha dikkatli olacak ve olası riskler için erken uyarı verecek ve bazı önleyici tedbirler alacağız.
Shaping Safe AI: En İyi Modelleri "Mentor" Olarak Ele Almak
**Tencent Teknolojisi: AI'da teknik açıdan bir hata varsa, büyük modeldeki hatayı düzeltmek için ne gibi çalışmalar yapabiliriz? **
**Zhu Jun:**Eğitim verileri ve teknik düzey farklı olduğu için, örneğin, aynı soruyu farklı büyük modellere sormak için kullanıyoruz, sağladıkları sonuçlar farklı olabilir, bazı sonuçlar iyidir, ancak bazıları kötü niyetli veya kötüdür. sonuç. Bu nedenle, bu modellerin kalitesini ve kontrol edilebilirliğini standardize etmemiz ve iyileştirmemiz gerekiyor.
Bazı büyük modeller genellikle çok fazla hizalama ve düşmanca eğitim yapar. Örneğin, GPT-4'ün ortaya çıkmasından önce, farklı alanlardaki profesyoneller, sistemin uyumsuz veya kötü niyetli sonuçlar üretip üretmediğini görmek için modelin doğruluğunu kontrol etmek için farklı açılardan sorular sordular ve düzenlemeye ve ayarlamaya çalıştılar. Bununla birlikte, bu kadar titiz testlerden veya rakip eğitimden geçmemiş birçok model (birçok açık kaynak modeli dahil) vardır, bu nedenle çeşitli güvenlik riskleri olacaktır.
Denemeye değer teknik yollardan biri, en iyi modellerden birini bir "akıl hocası" olarak ele almak ve ardından diğer modelleri verimli ve ekonomik bir şekilde bu modelin davranışını taklit etmeye zorlamaktır. Tabii ki, farklı ülkelerin normatif gerekliliklerine göre her bir özel model için normatif ve uyum çalışması gibi işin daha başka yönleri de vardır.
Bu modellerin kullanıldığında her zaman teknik özelliklere uygun sonuçlar vermesini beklerken, risk olasılığı hiçbir zaman sıfıra düşmez. **Ayrıca kullanırken, modelin insana daha iyi hizmet verebilmesi için farklı endüstri ve alanların ortak yönetimini ve düzenlemesini gerektiren etik, yasal kurallar vb.
**Tencent Teknolojisi: Az önce büyük modellerin hata oranını düzeltmek ve azaltmak için sürekli eğitim yoluyla güvenilirliğini nasıl ölçeceğimizden bahsetmiştik. Bayesian derin öğrenme alanına derinden dahil oldunuz. Sizce, tahminlerin doğruluğunu ve güvenilirliğini artırmak için modeller nasıl oluşturulur ve optimize edilir? **
**Zhu Jun: **Sektör, temelde aynı doğruluk hedefine sahiptir, genellikle nesnel göstergelerle ölçülür ve belirli göstergeler, gerçekleştirilen belirli görevlerle ilgilidir. Sınıflandırma ve tanıma açısından, modelin eğitimine rehberlik etmek için nihai tanıma doğruluğu kullanılacaktır.
Sinir ağları gibi belirsizlik içeren problemler için, birçok durumda tahminlerinin aşırı güvenli ve iyimser olacağını gördük. Örneğin, bazı sonuçların çıktısı başlangıçta belirsiz veya belirsiz bir tahmindir, ancak "aşırı güven" dediğimiz aşırı güvenle tahmin sonucunu size söyleyecektir.
Bu fenomen veya problem için, Bayes yöntemlerini kullanan derin öğrenme teknikleri belirsizliği daha iyi karakterize edebilir. Girdi ucunda var olabilecek belirsiz faktörler ve model sonunda var olabilecek belirsiz faktörler gibi birçok açıdan ele alınabilir ve gerçek durumla daha uyumlu bir güven verir. Bu Bayes yaklaşımı, sinir ağlarından daha güvenilirdir.
**Tencent Teknolojisi: Gerçek dünyadaki ağ yapısı, çok seviyeli, çok boyutlu, dinamik değişiklikler ve difüzyon olasılık modelinin kurulması ve optimizasyonuna büyük zorluklar getirecek diğer özellikler dahil olmak üzere genellikle çok karmaşıktır. Liderliğini yaptığınız ekip, dünyadaki difüzyon olasılık modeli teorisi ve algoritması araştırmasına katılan en eski ekiplerden biridir.Ekibiniz, modelin sağlamlığını ve güvenilirliğini artırmak için model yapımında gürültü ve veri belirsizliğini nasıl ortadan kaldırıyor? **
Zhu Jun: Difüzyon modeli, ileri difüzyon ve ters difüzyon olmak üzere iki süreci olan üretici bir modeldir. İleri difüzyon, kademeli olarak gürültü ekleyerek bir görüntüyü tamamen rastgele bir Gauss gürültüsü görüntüsüne dönüştürür. Ters difüzyon, neredeyse hiç yapısı olmayan bir dağılımdan başlar, kademeli olarak gürültüyü giderir ve gerçek verileri tanımlayabilen bir dağılıma yakınsar. Bu dağıtımdan, şu anda geniş çapta çalışılan metin, resim ve video oluşturma gibi yeni örnekler üretilebilir.
Difüzyon modelleri, üretim alanındaki en kritik tekniklerden biridir. Sağlamlık açısından, difüzyon modelleri fikri, rakip örneklere benzer. Çelişkili örnekler, oluşturma sürecinde algoritma tarafından optimize edilmiş gürültü ekleyerek saldırı amacına ulaşır. Buna karşılık, modelin sağlamlığını artırmak için ters difüzyon sürecindeki dağılımı kademeli olarak bularak gürültünün büyüklüğünü ve yönünü optimize edebiliriz. Bu yöntem, modelin güvenilirliğini ve doğruluğunu artırmak için gürültülü verilerin üretilmesine de uygulanabilir.
**Tencent Teknolojisi: Vincent'ın diğer yönlerde uygulanmasında yapay zekanın doğruluğunu nasıl geliştirebiliriz? Herhangi bir 3D veri olmadan ultra yüksek kaliteli 3D içerik üretebilen, ekibiniz tarafından yakın zamanda önerilen yeni Wensheng 3D algoritması ProlificDreamer hakkında endişelerim var. Ekibiniz daha doğru içerik oluşturmak için anlamsal çeşitlilik ve belirsizlikle nasıl başa çıkıyor? 3D model? **
Zhu Jun: Geleneksel 3B yöntemlerle karşılaştırıldığında endüstri, bir görüntü veritabanı üzerinde eğitim yapmak için genellikle önceden eğitilmiş bir 2B üretken model (difüzyon modeli gibi) kullanır. 3B oluşturma yaparken, oluşturulan 2B görüntüyü 3B modele eşlememiz gerekir, bu da "damıtma" adı verilen bir ara adım gerektirir. 3B model mekansal bir yapıya sahip olduğundan, nesnenin 3B özelliklerini dikkate almamız gerekir. Bu nedenle, nesneleri çeşitli açılardan gözlemlememiz ve karşılık gelen 2B görüntüleri oluşturmamız ve ardından bunları önceden eğitilmiş modele hizalamamız gerekir, böylece 3B varlıklar oluşturulabilir vb. Ancak, bu yaklaşımın da bazı sınırlamaları vardır. Örneğin, ürettiği sonuçlar genellikle çok doygun veya çok pürüzsüzdür, ayrıntılar ve dokular gibi bilgilerden yoksundur.
Bu sorunu çözmek için alt düzey teknolojileri keşfetmemiz gerekiyor. Tek bir 3B model bulmak için damıtma algoritmasını kullanmanın temel ilkelerden aşılması gereken bazı doğal zorlukları olduğunu bulduk. Mevcut algoritmalar, "açgözlü algoritmaya (Greedy algoritması)" benzer şekilde, amaç fonksiyonunda bir tür uç nokta arar, yalnızca en uygun çözümü bulur, bu amaca ulaşmak için, mevcut çalışma, amaç fonksiyonunu daha yüksek hale getirmek için değiştirir. diğer bölgelerde daha ortalama olan bazı alanlarda, bu amaç fonksiyonu ayarlama yöntemi hızlı bir şekilde nihai çözümü bulabilir.
Yukarıdaki yaklaşımların zorluklarının üstesinden gelmek için, metinden 3B'ye oluşturma problemini, 3B modelin uyabileceği bazı dağıtımlardan örnekleme ve ardından onu önceden eğitilmiş 2B modelle işleme ve hizalama olarak yeniden formüle ediyoruz. **Bu örnekleme yönteminin avantajı, 2D modelin kendisinin olasılıksal bir model olması ve açıklama bilgisinin açgözlü optimizasyondan daha zengin olmasıdır; bu nedenle, yeni bir varyasyonel damıtma algoritması türettik ve temelde aynı birçok çok ayrıntılı uygulamada kullandık. ve yüksek çözünürlüklü varlıklar da dahil olmak üzere karmaşık 3B sahneler çok kısa sürede oluşturuldu.
Metodumuzun kilit noktası, 3B eğitim verilerine bağımlılığı azaltması veya tamamen ortadan kaldırması ve üretim kalitesini önemli ölçüde iyileştirmesidir. Son zamanlarda grafik yapan uygulayıcılarla iletişim kurdum ve onlar da bu etkinin oldukça şaşırtıcı olduğunu düşünüyorlar. Yüksek kaliteli 3D görüntüler üretebilmenin büyük potansiyelini görelim.
Belirsizliğin üstesinden gelmek için. Aynı metin girişi için, farklı kişiler farklı anlayışlara sahip olabilir; örneğin, "Apple" kelimesi Apple, Apple Inc. veya ürünlerini ifade edebilir. Modelimizde, birden fazla olası sonuç üretmek için olasılığa dayalı bir örnekleme yaklaşımı kullanılarak belirsizlik çözülür. ** Uzun vadede, metin ve resimlerin veya diğer modal verilerin hizalanması gibi, kontrol edilebilirliği ve kesinliği artırmak için anlam ayrımı daha fazla ipucu ve hizalama gerektirir. **Dil ve çok modlu alanlarda nihai anlam, ilgili bağlama bağlıdır.
Şu anda, 3D üretim teknolojimizi daha da geliştirmek ve daha olgun hale getirmek için farklı sektörlerdeki müşterilerle çalışıyoruz. 3B alanında, yüksek kaliteli 3B varlıkların değeri yüksektir.Örneğin, oyun varlığı oluşturma senaryolarında, geleneksel şirketler, büyük bir zaman yatırımı gerektiren 3B varlık kitaplıkları oluşturmak ve sürdürmek için genellikle geometri veya grafik gibi geleneksel yöntemleri kullanır. Teknolojimiz, yaratıcı verimliliği büyük ölçüde artırabilir ve zaman maliyetini azaltabilir.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Zhu Jun ile Diyalog, Yapay Zeka Enstitüsü, Tsinghua Üniversitesi: Popüler yapay zeka modelinde hangi güvenlik riskleri gizli?
Metin: Li Haidan, Tencent Technology
İnsanlar yapay zekayı yarattı, ancak yapay zeka aynı zamanda içinde yaşadığımız dünyayı da yeniden şekillendiriyor. Büyük dil modeli teknolojisinin patlamasıyla, yapay zeka hayatımıza daha fazla entegre olmaya başladı ve insanların potansiyel risklerden kaçınmak için gelişiminin ilk aşamalarında gerekli güvenlik önlemlerini düşünmesi ve uygulaması gerekiyor.
Yapay zekanın karşılaştığı siber güvenlik sorunları her yerde görülebilir. Tencent Technology, Tsinghua Üniversitesi Yapay Zeka Enstitüsü dekan yardımcısı, Pekin Zhiyuan Yapay Zeka Araştırma Enstitüsü ve Ruilai Intelligence'ın baş bilim adamı Zhu Jun ile röportaj yaptığında ** "Aslında, her zaman güvenli ve güvenli olan hiçbir ağ sistemi yoktur. Dünyada kırılmaz.Maliyeti düşünülmezse suçlular sisteme saldırmak için çeşitli yöntemler kullanacaklar ve buna karşı savunma yapmak imkansız.” **
10 yıldan fazla bir süredir Zhu Jun kendini yapay zeka güvenliği sorununu çözmeye adadı. Klasik Bayesçi temel teori ve anahtar teknolojileri kırdı, difüzyon modeli için verimli bir algoritma önerdi ve ulusal düzeyde uzmanlaşmış ve yeni "inkübe etti" başarıların dönüşümü yoluyla küçük dev "işletmeler, güvenli ve güvenilir yapay zekanın gelişimi için sağlam bir temel atıyor.
Yapay zekanın kendisinin riskleri göz ardı edilemez. Yapay zeka, güçlü öğrenme ve çıkarım yapma yetenekleriyle donatılmıştır, ancak bu yetenek aynı zamanda, yapay zeka sistemlerinin verilere yüksek düzeyde güvenmesine yol açar ve bu, karar alma ve önerilerde veri kaynaklarının yanlılığını yansıtabilir. yapay zeka etiği ve adaleti.
Yapay zeka bir güvenlik güven krizine düştüğünde nasıl yanıt vermeliyiz? AI ve insanların etkileşimli uygulaması giderek daha popüler hale geldiğinde, potansiyel güvenlik tehlikelerini nasıl önlemeliyiz? Bu diyalogda Zhu Jun, yapay zekanın güvenliğini ve güvenilirliğini artırmak için özel savunma yöntemlerinden bahsetti. Yapay zeka güvenliğinin ahlaki ve sosyal sonuçlarını keşfetmeye özen göstermeli ve bilinmeyen ve kontrolsüz bir geleceğe sürüklenmekten kaçınmalıyız.
İsteklerinizi değiştirmemek esas alınarak yapılan çıkarmalar ve düzeltmelerle metnin özü şu şekildedir:
Her zaman güvenli bir ağ sistemi yoktur
**Tencent Teknolojisi: Güvenliğe karşı yapay zeka alanında araştırmaları teşvik ediyorsunuz. Yapay zeka teknolojisinin mevcut uygulaması hangi güvenlik sorunlarını getirecek? Bu güvenlik sorunlarını nasıl belirlemeliyiz? **
**Zhu Jun:**Yapay zeka, veri, algoritma modeli ve uygulama katmanı gibi birkaç temel öğe içerir. Her öğede, içindeki çeşitli güvenlik sorunlarıyla ilgilenmemiz gerekiyor.
Veri düzeyinde, veri zehirlenmesi, veri sızıntısı, kullanıcı mahremiyeti ve temel gizli verilerin korunması gibi güvenlik sorunlarına dikkat etmemiz gerekiyor; model düzeyinde, çatışma algoritmaları gibi güvenlik sorunlarıyla ilgilenmemiz gerekiyor. Örneğin, kilidi açmak için yüz tanıma kullanıldığında, saldırgan, hedef cep telefonunun doğrulama sistemini, özel olarak üretilmiş bir çift anti-gözlük (yani "düşman numuneler") aracılığıyla kilitleyerek risklere neden olabilir. Ayrıca modele art niyetli olarak arka kapı yerleştirilirse modelin güvenliği de tehdit altında olacaktır, uygulama düzeyinde yapay zekanın güvenlik sorunu da giderek daha fazla öne çıkmaktadır. Örneğin, derin sentez, AIGC ve diğer araçlar, suçlular tarafından sahte içerik oluşturmak ve dolandırıcılık ve aldatma gibi yasa dışı amaçlara girişmek için kullanılır. Bunların hepsi yapay zekanın gerçek kullanımda veya geliştirmede karşılaştığı güvenlik sorunlarıdır.
Çözümler ve karşı önlemler için, yapay zeka alanında sıcak ve zor bir konu olan bu içerikleri otomatik olarak tanımlayacak daha gelişmiş algoritmalar kullanmamız gerekiyor. Ancak bu teknoloji "mızrak ve kalkan" arasındaki ilişkiye benzer ve üretken teknolojinin gelişimi, buna karşılık gelen tespit ve savunma teknolojilerinin ortaya çıkmasını teşvik edecektir. Aynı zamanda, üretim ve saldırı tarafındaki teknolojiler sürekli olarak gelişmektedir. Teknolojinin doğası gereği, hiçbir sistem her zaman güvenli ve kırılması imkansız değildir. Maliyet dikkate alınmazsa, suçlular korunmaları zor olan sisteme saldırmak için çeşitli yöntemler kullanacaklardır.
Dolayısıyla teknoloji açısından **yapay zeka yapay zekayı tanır şeklinde ele almamız gerekiyor. Ancak savunma aslında saldırıdan daha zordur. Halihazırda, modelin savunma kabiliyetlerini geliştirmek için çeşitli mekanizmalar arıyoruz ve model kullanıldığında ve konuşlandırıldığında çeşitli koruyucu önlemler alıyoruz. Örneğin, yüz tanıma sisteminde, sistemi koruma amacına ulaşmak için, örnekler son tanıma bağlantısına girmeden önce şüpheli veya anti-saldırı örnekleri tespit etmek ve filtrelemek için bir yüz tanıma güvenlik duvarı kullanırız. Şu anda, bu tür teknoloji bankacılık ve diğer sektörlerde uygulanmaktadır.
**Tencent Teknolojisi: Herhangi bir ağ sisteminin güvenlik boşlukları olduğundan bahsettiniz. Şu anda ChatGPT, denizaşırı uygulamalarda bir artış başlattı. İyi bir etkileşim sağladı. Ne tür riskler olacak? **
Zhu Jun: Şu anda ChatGPT gibi büyük dil modelleri hızlı bir geliştirme sürecindedir, ancak aynı zamanda potansiyel riskler de getirirler; örneğin, bazı "enjeksiyon saldırıları" olacaktır. Algoritmik bir bakış açısına göre, eğer birisi gizli amaçlarla belirli kelimeleri veya sembolleri enjekte ederse, bu büyük modelde mantık karışıklığına ve çıktı hatalarına neden olabilir.
Çok yönlü bir diyalog sisteminde enjeksiyon saldırılarına karşı savunma yapmak zordur. Bilgisayar korsanları, enjeksiyon saldırılarını çeşitli şekillerde gerçekleştirebilir ve büyük ölçekli model bağlamı anlama teknolojisi nedeniyle, algoritma algılama ve savunma için yeni bir zorluk olan saldırı etkisi gecikecektir. Bu bağlamda, kötü niyetle enjekte edilebilecek sözcükleri algılamak ve bunlara karşı savunma yapmak üzere algoritmayı tersine çevirmek için pekiştirmeli öğrenmeye benzer bir yöntem kullanmamız gerekiyor. **Sistem, yalnızca eğitim sürecinde sisteme kötü niyetli bir şekilde enjekte edilmediği veya arka kapılar ve diğer güvenlik açıkları yerleştirilmediği garanti edilirse gönül rahatlığıyla kullanılabilir.
Uygulama düzeyi açısından bakıldığında, bilgisayar korsanlarının pornografi ve şiddetle ilgili yasa dışı bilgiler de dahil olmak üzere düşük kaliteli veya kötü içerik oluşturmak için enjeksiyona karşı koruma önlemlerini atlamaya çalışması gibi, diyalog sisteminin kötü niyetli kullanımına ilişkin bazı riskler de olabilir. takip sürecinin bir parçası haline gelecek. Bağımsız algılama ve çözüm gerektiren sorunlar.
**Tencent Teknolojisi: Az önce GPT'nin güvenlik sorunlarından bahsettik, daha yakından bakalım: GPT sunucusunun ve diğer büyük modellerin güvenlik savunma kapasitesi nedir ve bilgisayar korsanları tarafından saldırıya uğrayabilir mi? **
Zhu Jun: Teorik olarak bu tamamen mümkün. Büyük bir bilgi sistemi olduğu için, herhangi bir sistemde boşluklar olacaktır, bu nedenle, sistem oluşturma sürecinde, sistemin güvenliğini artırmak için çeşitli koruma yöntemlerini mümkün olduğunca önceden devreye almamız gerekir. Son zamanlarda, bununla ilgili durumlar da gördük: bazı saldırganlar ChatGPT'yi otomatik saldırı kodları oluşturmak için kullanıyor, bu da ChatGPT'nin hedef sistemdeki güvenlik açıklarını daha verimli bir şekilde bulmasına ve hatta güvenlik açıklarından saldırı başlatmak için daha fazla yararlanmasına olanak tanıyor, bu nedenle güvenlik sorunları var olmaya devam edecek.
İnsanlar, yapay zekanın zeka düzeyini doğru bir şekilde tanımlayamaz ve ölçemez
**Tencent Teknolojisi: Bilgisayar korsanı saldırılarının gizli tehlikelerine ek olarak, yapay zekanın kendisinin güvenlik riskleri konusunda da endişeliyiz. Öncelikle herkesin şu sıralar tartıştığı bir konuya odaklanalım – sizce yapay zeka bilinç üretecek mi? **
**Zhu Jun: Kişisel bakış açım, bilinci doğru bir şekilde tanımlayıp ölçemediğimiz için yapay zekadaki "bilincin" mevcut performansının çok net olmadığını düşünmeye daha yatkın. ** Bu nedenle, dil modelinin performansını gözlemlediğimizde, büyük modelin hala olgusal hatalar gibi sorunları olduğunu göreceğiz. Hatalardan bazıları akıcı bir şekilde okunsa da, daha yakından incelendiğinde gerçeklere dayalı veya mantıklı değildir. Bu, modelle ilgili birçok sorundan biridir, sahip olduğu bilinç özgüllük düzeyi tam olarak nicel olarak değerlendirilmemiştir.
Dil modelleri güçlü öğrenicilerdir çünkü derlem ve metin hakkında dünyadaki herhangi bir insandan daha fazla şey bilirler. Örneğin, bir modelin, her birimizin erişebildiği sınırlı bilgi kaynaklarına kıyasla, İnternet üzerindeki neredeyse tüm bilgilere erişimi olabilir.
Çok yönlülük açısından, AI kesinlikle herhangi bir kişiden daha iyidir. Ancak bazı açılardan modelin performansı insan seviyesine ulaşamamaktadır. Bu nedenle, AGI ve herkes tarafından tartışılan diğer yönleri içeren bir modele gerçekçi teknolojik gelişme perspektifinden bakmalıyız. Şahsen, teknolojinin şu anki seviyesinin kontrolden çıkacak duruma gelmediğini veya sadece robotun kontrolünde geliştiğini düşünüyorum.
Büyük ölçekli makine öğrenimi modellerinin, verileri işlemek için derin öğrenme gibi karmaşık ağları kullanabildiği ve mimari ve tasarım açısından bazı insan bilişlerinden yararlanabileceği söylenebilir. Ancak genel olarak, bu yapay sinir ağı modelleri ile gerçek biyolojik sistemler arasında ölçekten yapıya değişen çok büyük farklılıklar vardır. Dolayısıyla aslında şu anda yapay zeka sistemlerinin zeka seviyesini net bir şekilde değerlendiremiyoruz veya akıl gibi bilişsel yeteneklere sahip olup olmadığını değerlendiremiyoruz.
**Tencent Teknolojisi: Son zamanlarda, bazı tüccarlar "AI arkadaşı" konseptini başlattı - insanlar AI'ya aşık olabilir ve ödemeleri gerekir. Yapay zekanın insan duygularını anlayabileceğine inanıyor musunuz? Sanal ortaklarla etkileşim sürecinde hangi güvenlik riskleri var? **
Zhu Jun: Duygusal bilgi işlem, yapay zeka alanında her zaman klasik bir konu olmuştur. Duygu açısından, yapay zeka teknolojisi bir karakteri simüle edebilir ve onun duygusal veya psikolojik durumunu belirleyebilir. Ancak, teknik açıdan bakıldığında, bu alanda hala birçok sorun ve zorluk var.
Gerçek insan iletişimi seviyesine ulaşmak çok zordur. Örneğin, yüz yüze sohbet etsek veya diyalog için aynı dili kullansak bile, birbirimizin duygularını veya zihinsel aktivitelerini gerçekten anlamak zordur çünkü her birey aynı girdiye binlerce şekilde yanıt verir. Şu anda kullandığımız bu büyük modeller esas olarak bu süreci modelliyor, ancak tüm modelleme basitleştirilmiş ve idealleştirilmiş varsayımlar gerektiriyor. Bu varsayımların herkes için geçerli olup olmadığı veya her bireyin gerçekliğine tam olarak uyup uymadığı sorgulanabilir. Herkesin karmaşık duygularını basit bir modelle doğru bir şekilde ifade etmemiz zor.
Bu model sosyal konular, etik ve ahlak gibi çeşitli yönleri içerebilir ve çözülmesi gereken birçok potansiyel sorun vardır. Teknik uygulama için çok fazla eşik olmamasına rağmen, bu model zaten yabancı ülkelerde ortaya çıktı. Ancak, bu modelin etkisi hakkında derinlemesine düşünmemiz gerekiyor; örneğin, bazı gençler enerjilerini gerçek aşka veya evliliğe vb.
Ayrıca bu tür yapay zeka ürünlerinin belirli kişilere karşı önyargılı mı yoksa kasıtlı olarak mı yönlendirileceğine dikkat etmemiz gerekiyor ki bu da büyük riskler getirecektir. Her gün bir robotla etkileşime girersek, elde edilen bilgiler doğal olarak robot tarafından yönlendirilecek ve bu da kişisel değerleri etkileyebilir veya kişisel duygu ve davranışları kontrol edebilir. Uzun vadede bu, insanlar arasındaki sosyal ilişkiyi etkileyebilir ve tüm toplumun davranışlarında değişikliklere neden olabilir. Ancak bunlar tamamen teknoloji ile çözülebilecek problemler değil. Genel olarak konuşursak, diğer ülkelerle karşılaştırıldığında, ülkem yeni teknolojileri kullanırken daha dikkatli olacak ve olası riskler için erken uyarı verecek ve bazı önleyici tedbirler alacağız.
Shaping Safe AI: En İyi Modelleri "Mentor" Olarak Ele Almak
**Tencent Teknolojisi: AI'da teknik açıdan bir hata varsa, büyük modeldeki hatayı düzeltmek için ne gibi çalışmalar yapabiliriz? **
**Zhu Jun:**Eğitim verileri ve teknik düzey farklı olduğu için, örneğin, aynı soruyu farklı büyük modellere sormak için kullanıyoruz, sağladıkları sonuçlar farklı olabilir, bazı sonuçlar iyidir, ancak bazıları kötü niyetli veya kötüdür. sonuç. Bu nedenle, bu modellerin kalitesini ve kontrol edilebilirliğini standardize etmemiz ve iyileştirmemiz gerekiyor.
Bazı büyük modeller genellikle çok fazla hizalama ve düşmanca eğitim yapar. Örneğin, GPT-4'ün ortaya çıkmasından önce, farklı alanlardaki profesyoneller, sistemin uyumsuz veya kötü niyetli sonuçlar üretip üretmediğini görmek için modelin doğruluğunu kontrol etmek için farklı açılardan sorular sordular ve düzenlemeye ve ayarlamaya çalıştılar. Bununla birlikte, bu kadar titiz testlerden veya rakip eğitimden geçmemiş birçok model (birçok açık kaynak modeli dahil) vardır, bu nedenle çeşitli güvenlik riskleri olacaktır.
Denemeye değer teknik yollardan biri, en iyi modellerden birini bir "akıl hocası" olarak ele almak ve ardından diğer modelleri verimli ve ekonomik bir şekilde bu modelin davranışını taklit etmeye zorlamaktır. Tabii ki, farklı ülkelerin normatif gerekliliklerine göre her bir özel model için normatif ve uyum çalışması gibi işin daha başka yönleri de vardır.
Bu modellerin kullanıldığında her zaman teknik özelliklere uygun sonuçlar vermesini beklerken, risk olasılığı hiçbir zaman sıfıra düşmez. **Ayrıca kullanırken, modelin insana daha iyi hizmet verebilmesi için farklı endüstri ve alanların ortak yönetimini ve düzenlemesini gerektiren etik, yasal kurallar vb.
**Tencent Teknolojisi: Az önce büyük modellerin hata oranını düzeltmek ve azaltmak için sürekli eğitim yoluyla güvenilirliğini nasıl ölçeceğimizden bahsetmiştik. Bayesian derin öğrenme alanına derinden dahil oldunuz. Sizce, tahminlerin doğruluğunu ve güvenilirliğini artırmak için modeller nasıl oluşturulur ve optimize edilir? **
**Zhu Jun: **Sektör, temelde aynı doğruluk hedefine sahiptir, genellikle nesnel göstergelerle ölçülür ve belirli göstergeler, gerçekleştirilen belirli görevlerle ilgilidir. Sınıflandırma ve tanıma açısından, modelin eğitimine rehberlik etmek için nihai tanıma doğruluğu kullanılacaktır.
Sinir ağları gibi belirsizlik içeren problemler için, birçok durumda tahminlerinin aşırı güvenli ve iyimser olacağını gördük. Örneğin, bazı sonuçların çıktısı başlangıçta belirsiz veya belirsiz bir tahmindir, ancak "aşırı güven" dediğimiz aşırı güvenle tahmin sonucunu size söyleyecektir.
Bu fenomen veya problem için, Bayes yöntemlerini kullanan derin öğrenme teknikleri belirsizliği daha iyi karakterize edebilir. Girdi ucunda var olabilecek belirsiz faktörler ve model sonunda var olabilecek belirsiz faktörler gibi birçok açıdan ele alınabilir ve gerçek durumla daha uyumlu bir güven verir. Bu Bayes yaklaşımı, sinir ağlarından daha güvenilirdir.
**Tencent Teknolojisi: Gerçek dünyadaki ağ yapısı, çok seviyeli, çok boyutlu, dinamik değişiklikler ve difüzyon olasılık modelinin kurulması ve optimizasyonuna büyük zorluklar getirecek diğer özellikler dahil olmak üzere genellikle çok karmaşıktır. Liderliğini yaptığınız ekip, dünyadaki difüzyon olasılık modeli teorisi ve algoritması araştırmasına katılan en eski ekiplerden biridir.Ekibiniz, modelin sağlamlığını ve güvenilirliğini artırmak için model yapımında gürültü ve veri belirsizliğini nasıl ortadan kaldırıyor? **
Zhu Jun: Difüzyon modeli, ileri difüzyon ve ters difüzyon olmak üzere iki süreci olan üretici bir modeldir. İleri difüzyon, kademeli olarak gürültü ekleyerek bir görüntüyü tamamen rastgele bir Gauss gürültüsü görüntüsüne dönüştürür. Ters difüzyon, neredeyse hiç yapısı olmayan bir dağılımdan başlar, kademeli olarak gürültüyü giderir ve gerçek verileri tanımlayabilen bir dağılıma yakınsar. Bu dağıtımdan, şu anda geniş çapta çalışılan metin, resim ve video oluşturma gibi yeni örnekler üretilebilir.
Difüzyon modelleri, üretim alanındaki en kritik tekniklerden biridir. Sağlamlık açısından, difüzyon modelleri fikri, rakip örneklere benzer. Çelişkili örnekler, oluşturma sürecinde algoritma tarafından optimize edilmiş gürültü ekleyerek saldırı amacına ulaşır. Buna karşılık, modelin sağlamlığını artırmak için ters difüzyon sürecindeki dağılımı kademeli olarak bularak gürültünün büyüklüğünü ve yönünü optimize edebiliriz. Bu yöntem, modelin güvenilirliğini ve doğruluğunu artırmak için gürültülü verilerin üretilmesine de uygulanabilir.
**Tencent Teknolojisi: Vincent'ın diğer yönlerde uygulanmasında yapay zekanın doğruluğunu nasıl geliştirebiliriz? Herhangi bir 3D veri olmadan ultra yüksek kaliteli 3D içerik üretebilen, ekibiniz tarafından yakın zamanda önerilen yeni Wensheng 3D algoritması ProlificDreamer hakkında endişelerim var. Ekibiniz daha doğru içerik oluşturmak için anlamsal çeşitlilik ve belirsizlikle nasıl başa çıkıyor? 3D model? **
Zhu Jun: Geleneksel 3B yöntemlerle karşılaştırıldığında endüstri, bir görüntü veritabanı üzerinde eğitim yapmak için genellikle önceden eğitilmiş bir 2B üretken model (difüzyon modeli gibi) kullanır. 3B oluşturma yaparken, oluşturulan 2B görüntüyü 3B modele eşlememiz gerekir, bu da "damıtma" adı verilen bir ara adım gerektirir. 3B model mekansal bir yapıya sahip olduğundan, nesnenin 3B özelliklerini dikkate almamız gerekir. Bu nedenle, nesneleri çeşitli açılardan gözlemlememiz ve karşılık gelen 2B görüntüleri oluşturmamız ve ardından bunları önceden eğitilmiş modele hizalamamız gerekir, böylece 3B varlıklar oluşturulabilir vb. Ancak, bu yaklaşımın da bazı sınırlamaları vardır. Örneğin, ürettiği sonuçlar genellikle çok doygun veya çok pürüzsüzdür, ayrıntılar ve dokular gibi bilgilerden yoksundur.
Bu sorunu çözmek için alt düzey teknolojileri keşfetmemiz gerekiyor. Tek bir 3B model bulmak için damıtma algoritmasını kullanmanın temel ilkelerden aşılması gereken bazı doğal zorlukları olduğunu bulduk. Mevcut algoritmalar, "açgözlü algoritmaya (Greedy algoritması)" benzer şekilde, amaç fonksiyonunda bir tür uç nokta arar, yalnızca en uygun çözümü bulur, bu amaca ulaşmak için, mevcut çalışma, amaç fonksiyonunu daha yüksek hale getirmek için değiştirir. diğer bölgelerde daha ortalama olan bazı alanlarda, bu amaç fonksiyonu ayarlama yöntemi hızlı bir şekilde nihai çözümü bulabilir.
Yukarıdaki yaklaşımların zorluklarının üstesinden gelmek için, metinden 3B'ye oluşturma problemini, 3B modelin uyabileceği bazı dağıtımlardan örnekleme ve ardından onu önceden eğitilmiş 2B modelle işleme ve hizalama olarak yeniden formüle ediyoruz. **Bu örnekleme yönteminin avantajı, 2D modelin kendisinin olasılıksal bir model olması ve açıklama bilgisinin açgözlü optimizasyondan daha zengin olmasıdır; bu nedenle, yeni bir varyasyonel damıtma algoritması türettik ve temelde aynı birçok çok ayrıntılı uygulamada kullandık. ve yüksek çözünürlüklü varlıklar da dahil olmak üzere karmaşık 3B sahneler çok kısa sürede oluşturuldu.
Metodumuzun kilit noktası, 3B eğitim verilerine bağımlılığı azaltması veya tamamen ortadan kaldırması ve üretim kalitesini önemli ölçüde iyileştirmesidir. Son zamanlarda grafik yapan uygulayıcılarla iletişim kurdum ve onlar da bu etkinin oldukça şaşırtıcı olduğunu düşünüyorlar. Yüksek kaliteli 3D görüntüler üretebilmenin büyük potansiyelini görelim.
Belirsizliğin üstesinden gelmek için. Aynı metin girişi için, farklı kişiler farklı anlayışlara sahip olabilir; örneğin, "Apple" kelimesi Apple, Apple Inc. veya ürünlerini ifade edebilir. Modelimizde, birden fazla olası sonuç üretmek için olasılığa dayalı bir örnekleme yaklaşımı kullanılarak belirsizlik çözülür. ** Uzun vadede, metin ve resimlerin veya diğer modal verilerin hizalanması gibi, kontrol edilebilirliği ve kesinliği artırmak için anlam ayrımı daha fazla ipucu ve hizalama gerektirir. **Dil ve çok modlu alanlarda nihai anlam, ilgili bağlama bağlıdır.
Şu anda, 3D üretim teknolojimizi daha da geliştirmek ve daha olgun hale getirmek için farklı sektörlerdeki müşterilerle çalışıyoruz. 3B alanında, yüksek kaliteli 3B varlıkların değeri yüksektir.Örneğin, oyun varlığı oluşturma senaryolarında, geleneksel şirketler, büyük bir zaman yatırımı gerektiren 3B varlık kitaplıkları oluşturmak ve sürdürmek için genellikle geometri veya grafik gibi geleneksel yöntemleri kullanır. Teknolojimiz, yaratıcı verimliliği büyük ölçüde artırabilir ve zaman maliyetini azaltabilir.