Açık model ağırlıkları yapay zekanın kontrolden çıkmasına neden olmakla suçlanıyor. Meta pankartlarla protesto edildi. LeCun: Açık kaynak yapay zeka topluluğu tüm hızıyla devam ediyor.

Büyük modeller çağında yapay zekanın, özellikle açık kaynak ve kapalı kaynağın avantajları ve dezavantajları var, önemli olan onu kullanma sürecinde nasıl iyi bir iş yapılacağıdır.

Resim kaynağı: Sınırsız Yapay Zeka tarafından oluşturulmuştur

Yapay zeka alanında insanlar her zaman açık kaynak ve kapalı kaynak arasındaki seçim konusunda bölünmüş durumdaydı ancak büyük modeller çağında açık kaynağın güçlü gücü sessizce ortaya çıktı. Daha önce Google tarafından sızdırılan dahili bir belgeye göre, Meta'nın LLaMA'sı gibi açık kaynaklı modeller etrafında, tüm topluluk hızla OpenAI'ye ve Google'ın büyük model yeteneklerine benzer modeller oluşturuyor.

Hiç şüphe yok ki, Llama 2'nin son sürümü gibi devam eden açık kaynak çabaları ile Meta, açık kaynak dünyasının mutlak çekirdeğidir. Ancak iyi olan her şey rüzgar tarafından yok edilecektir.Son zamanlarda Meta'nın açık kaynak nedeniyle "başı dertte".

Meta'nın San Francisco ofislerinin dışında, ellerinde pankartlar taşıyan bir grup protestocu, Meta'nın yapay zeka modellerini halka açık olarak yayınlama stratejisini protesto etmek için toplandı ve piyasaya sürülen bu modellerin, potansiyel olarak güvenli olmayan teknolojilerin "geri döndürülemez çoğalmasına" neden olduğunu iddia etti. Hatta bazı protestocular Meta'nın piyasaya sürdüğü büyük modelleri "kitle imha silahlarına" benzetmişti.

Bu protestocular kendilerini "kaygılı vatandaşlar" olarak adlandırıyor ve Holly Elmore tarafından yönetiliyor. LinkedIn bilgilerine göre AI Pause hareketinin bağımsız bir savunucusudur.

Fotoğraf kaynağı: MISHA GUREVICH

Bir modelin güvensiz olduğu ortaya çıkarsa, Google ve OpenAI gibi kullanıcıların yalnızca API üzerinden erişmesine izin veren büyük modeller gibi API'nin kapatılabileceğine dikkat çekti.

Buna karşılık, Meta'nın LLaMA serisi açık kaynak modelleri, model ağırlıklarını kamuya açık hale getirerek doğru donanıma ve uzmanlığa sahip herkesin modeli çoğaltmasına ve ayarlamasına olanak tanıyor. Model ağırlıkları yayınlandıktan sonra yayıncı şirketin artık yapay zekanın nasıl kullanıldığını kontrol etme imkanı yoktur.

Holly Elmore'a göre model ağırlıklarını serbest bırakmak tehlikeli bir strateji, herkes modeli değiştirebilir ve bu modeller geri çağrılamaz. "Model ne kadar güçlü olursa strateji de o kadar tehlikeli olur."

Açık kaynakla karşılaştırıldığında, API'ler aracılığıyla erişilen büyük modeller genellikle yanıt filtreleme veya tehlikeli veya rahatsız edici yanıtların çıktısını önlemek için özel eğitim gibi çeşitli güvenlik özelliklerine sahiptir.

Model ağırlıkları serbest bırakılırsa, modeli bu "korkulukların" üzerinden atlayacak şekilde yeniden eğitmek çok daha kolay hale gelir. Bu, kimlik avı yazılımı oluşturmak ve ağ saldırıları gerçekleştirmek için bu açık kaynak modellerin kullanılmasını daha mümkün hale getirir.

Fotoğraf kaynağı: MISHA GUREVICH

Çünkü sorunun bir kısmının "modelin piyasaya sürülmesi için yetersiz güvenlik önlemlerinden" kaynaklandığına ve model güvenliğini sağlamanın daha iyi bir yolu olması gerektiğine inanıyor.

Meta bu konuda henüz yorum yapmadı. Ancak Meta'nın baş yapay zeka bilimcisi Yann LeCun, "açık kaynaklı yapay zekanın yasaklanması gerektiği" ifadesine yanıt vermiş ve Paris'teki açık kaynaklı yapay zeka girişimci topluluğunun büyük durumunu ortaya çıkarmış gibi görünüyor.

Yapay zeka gelişimi için açık bir stratejinin teknolojiye güveni sağlamanın tek yolu olduğuna inanan Holly Elmore ile aynı fikirde olmayan birçok kişi var.

Bazı netizenler, açık kaynağın artıları ve eksileri olduğunu, insanların daha fazla şeffaflık kazanmasına ve yenilikçiliği artırmasına olanak sağlayabileceğini, ancak aynı zamanda kötü niyetli aktörler tarafından kötüye kullanım (kod gibi) riskiyle de karşı karşıya kalacağını söyledi.

Beklendiği gibi OpenAI bir kez daha "Açık kaynağa dönmeli" diye alay konusu oldu.

Açık kaynak konusunda endişelenen birçok insan var

MIT'de yapay zeka güvenliği alanında doktora sonrası araştırmacı olan Peter S. Park şunları söyledi: "Gelişmiş yapay zeka modellerinin yaygın olarak piyasaya sürülmesi gelecekte özellikle sorunlu olacak çünkü yapay zeka modellerinin kötüye kullanılmasını önlemek temelde imkansız."

Ancak kar amacı gütmeyen bir yapay zeka araştırma kuruluşu olan EleutherAI'nin genel müdürü Stella Biderman şunları söyledi: "Şu ana kadar açık kaynak modellerin herhangi bir spesifik zarara neden olduğuna dair çok az kanıt var. Basitçe bir API'nin arkasına bir model koymanın sorunu çözüp çözmeyeceği belli değil. sorun. Güvenlik Sorusu."

Biderman şuna inanıyor: "Yüksek Lisans eğitiminin temel unsurları ücretsiz araştırma makalelerinde açıklanmıştır ve dünyadaki herkes kendi modellerini geliştirmek için basılı literatürü okuyabilir."

Şöyle ekledi: "Şirketleri model ayrıntılarını gizli tutmaya teşvik etmek, araştırmanın şeffaflığı, kamuoyunun farkındalığı ve bu alandaki bilimsel gelişim, özellikle de bağımsız araştırmacılar açısından ciddi olumsuz sonuçlar doğurabilir."

Herkes zaten açık kaynağın etkisini tartışıyor olsa da Meta'nın yaklaşımının gerçekten yeterince açık olup olmadığı ve açık kaynaktan yararlanıp yararlanamayacağı hala belirsiz.

Açık Kaynak Girişimi (OSI) genel müdürü Stefano Maffulli şunları söyledi: "Açık kaynak yapay zeka kavramı doğru bir şekilde tanımlanmadı. Farklı kuruluşlar bu terimi farklı şeylere atıfta bulunmak için kullanıyor - 'kamuya açık bir şeyin' farklı seviyelerini ifade ediyor, insanların kafasını karıştıracak."

Maffulli, açık kaynaklı yazılımlar için asıl meselenin, kaynak kodunun kamuya açık olup olmadığı ve herhangi bir amaç için yeniden üretilip üretilemeyeceği olduğuna dikkat çekiyor. Ancak bir yapay zeka modelini yeniden üretmek için eğitim verilerini, veri toplama yöntemlerini, eğitim yazılımını, model ağırlıklarını, çıkarım kodunu vb. paylaşmanız gerekebilir. Bunlardan en önemlisi eğitim verilerinin gizlilik ve telif hakkı sorunlarına sahip olabilmesidir.

OSI geçen yıldan bu yana "açık kaynaklı yapay zeka"nın kesin bir tanımı üzerinde çalışıyor ve muhtemelen önümüzdeki haftalarda erken bir taslak yayınlayacak. Ancak ne olursa olsun, yapay zekanın gelişimi için açık kaynağın çok önemli olduğuna inanıyor. "Yapay zeka açık kaynak değilse güvenilir, sorumlu yapay zekaya sahip olamayız" dedi.

Gelecekte açık kaynak ile kapalı kaynak arasındaki farklar devam edecek ancak açık kaynak durdurulamaz.

Orijinal bağlantı:

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)