LeCun ve Ng Enda da dahil olmak üzere 370'den fazla kişi ortak bir mektup imzaladı: Yapay zekanın sıkı kontrolü tehlikelidir ve açıklık panzehirdir

Orijinal kaynak: Makinenin Kalbi

Görüntü kaynağı: Sınırsız AI tarafından oluşturuldu

Son günlerde, yapay zekanın nasıl denetleneceği konusundaki tartışmalar giderek daha hararetli hale geldi ve büyük adamların çok farklı görüşleri var.

Örneğin, Turing Ödülü üçlüsü Geoffrey Hinton, Yoshua Bengio ve Yann LeCun'un iki görüşü var. Hinton ve Bengio, "yapay zekanın yok olması" riskine yol açabilecek yapay zekanın daha sıkı düzenlenmesi çağrısında bulunan bir ekip. LeCun, yapay zekanın güçlü bir şekilde düzenlenmesinin kaçınılmaz olarak devlerin tekeline yol açacağını ve bunun sonucunda yalnızca birkaç şirketin yapay zeka Ar-Ge'sini kontrol edeceğini savunarak görüşlerini paylaşmıyor.

Fikirlerini ifade etmek için, birçok kişi görüşlerini iletmek için ortak bir mektup imzaladı, örneğin, son birkaç gün içinde Bengio, Hinton ve diğerleri, araştırmacıları AI sistemleri geliştirmeden önce acil yönetişim önlemleri almaya çağıran "Hızla Gelişen Bir Çağda AI Riskini Yönetmek" adlı ortak bir mektup yayınladı.

Aynı zamanda, "Yapay Zekanın Güvenliği ve Açıklığına İlişkin Ortak Açıklama" başlıklı bir açık mektup şu anda sosyal medyada mayalanıyor.

Açık mektuba bağlantı:

Şimdiye kadar, derin öğrenmenin üç devinden biri olan LeCun ve Stanford Üniversitesi Bilgisayar Bilimleri Bölümü'nde profesör olan Andrew Ng de dahil olmak üzere 370'den fazla kişi açık mektubu imzaladı. Liste sürekli güncellenmektedir.

"Açık, şeffaf ve geniş erişim, yazılım platformunu daha güvenli ve güvenilir hale getiriyor. Benim de imzaladığım Mozilla Vakfı'nın bu açık mektubu, açık yapay zeka platformları ve sistemleri için bir dava açıyor."

Açık mektubun içeriği aşağıdadır:

Yapay zeka yönetişiminde kritik bir kavşaktayız. Yapay zeka sistemlerinin mevcut ve gelecekteki zararlarını azaltmak için açıklığı, şeffaflığı ve geniş erişimi benimsememiz gerekiyor. Bunun küresel bir öncelik olması gerekiyor.
Halka açık modellerin riskli ve savunmasız olduğu doğrudur - yapay zeka modelleri kötü niyetli aktörler tarafından kötüye kullanılabilir veya yetersiz donanımlı geliştiriciler tarafından dağıtılabilir. Yine de, bunu her türlü tescilli teknolojide defalarca gördük - artan kamu erişimi ve sansür, teknolojiyi daha tehlikeli değil, daha güvenli hale getiriyor. Altta yatan yapay zeka modellerinin sıkı ve tescilli kontrolünün bizi kitlesel zarardan korumanın tek yolu olduğu fikri, en iyi ihtimalle naif ve en kötü ihtimalle tehlikelidir.

Dahası, insani gelişme tarihi bize, yanlış düzenlemenin hızlı bir şekilde benimsenmesinin, rekabete ve yeniliğe zarar verebilecek bir güç yoğunlaşmasına yol açabileceğini öğretiyor. Açık bir model, kamusal tartışmayı bilgilendirebilir ve strateji geliştirmeyi iyileştirebilir. Amacımız emniyet, güvenlik ve hesap verebilirlik ise, açıklık ve şeffaflık bu hedefe ulaşmada önemli faktörlerdir.
Yapay zeka çağında "açık" olmanın ne anlama geldiğine dair dinamik bir tartışmanın ortasındayız. Bu önemli tartışma yavaşlatılmamalıdır. Bunun yerine, yapay zeka güvenlik yarışında açıklıktan yararlanmanın yeni yollarını denemeye, öğrenmeye ve geliştirmeye teşvik ederek hızlandırılmalıdır.

Açık kaynak ve açıklık için yapı taşları olarak hizmet edebilecek bir dizi yaklaşım oluşturmamız gerekiyor:

  1. Bağımsız araştırma, işbirliği ve bilgi paylaşımı yoluyla yapay zeka yeteneklerinin risklerinin ve tehlikelerinin anlaşılmasını hızlandırın. 2. Düzenleyicilerin büyük ölçekli yapay zeka sistemlerini izlemek için araçlar benimsemesine yardımcı olarak kamu denetimini ve hesap verebilirliği artırın. 3. Yeni oyuncular için giriş engelini azaltın ve sorumlu yapay zeka oluşturmaya odaklanın.
    Bu açık mektubun imzacıları olarak, bilim insanları, stratejistler, mühendisler, aktivistler, girişimciler, eğitimciler ve gazetecilerden oluşan çeşitli bir grubuz. Açık kaynaklı yapay zekanın nasıl yönetileceği ve yayınlanacağı konusunda farklı bakış açılarını temsil ediyoruz. Bununla birlikte, bir konuda kesinlikle hemfikiriz: Yapay zeka çağında bizi güvende tutmak için açık, hesap verebilir ve şeffaf bir yaklaşım şarttır.
    Yapay zeka güvenliği söz konusu olduğunda, açıklık zehir değil, panzehirdir.

İmzalayan:

  • Arthur Mensch, Fransız girişimi MistralAI'nin kurucu ortağı ve CEO'su
  • Andrew Ng, DeepLearning.AI'ın kurucusu, Landing AI'nın kurucusu ve CEO'su, Stanford Üniversitesi'nde bilgisayar bilimi profesörü
  • Yann Lecun, Turing Ödülü sahibi, Meta'da Baş Yapay Zeka Bilimcisi
  • Julien Chaumond, Sarılma Yüzü CTO'su
  • Brian Behlendorf, Apache Kurucu Üyesi, OpenSSF CTO'su
  • Eric Von Hippel, Amerikalı bir ekonomist ve MIT Sloan School of Management'ta profesördür.
  • ......

Şu anda, sadece birkaç gündür ortaya çıkan bu açık mektup mayalanmaya devam ediyor ve yabancı AI topluluğunda büyük ilgi ve tartışma çekti, bu nedenle listenin güncellenmesine dikkat etmeye devam edebilirsiniz.

Ortak mektup fikrine katılıyorsanız, kendi imzanızı da gönderebilirsiniz.

Yapay zekanın güçlü bir şekilde düzenlenmesinin yarardan çok zarar verip vermeyeceğini veya faydaların dezavantajlardan daha ağır basıp basmayacağını cevaplamak zaman alacaktır.

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)