Super AI yedi yıl içinde çıkacak, OpenAI kontrolden çıkmayı önlemek için "büyük para" yatırmayı planlıyor

**Kaynak: **Finans Derneği

Huang Junzhi tarafından düzenlendi

ChatGPT geliştiricisi OpenAI 5 Çarşamba günü yaptığı açıklamada, şirketin yapay zekasının (AI) insanlar için güvenli olmasını sağlamak ve sonunda yapay zekanın kendi kendini denetlemesini sağlamak için önemli kaynaklara yatırım yapmayı ve yeni bir araştırma ekibi oluşturmayı planladığını söyledi.

OpenAI kurucu ortağı Ilya Sutskever ve sistem güvenliğini iyileştirmekle görevli AI Tutarlılık ekibinin başkanı Jan Leike, bir blog gönderisinde "Bir süper zekanın muazzam gücü ... insanın güçsüzleşmesine ve hatta yok olmasına yol açabilir" diye yazdı. .

"Şu anda, potansiyel olarak süper zeki bir yapay zekayı manipüle etmek veya kontrol etmek ve kontrolden çıkmasını önlemek için bir çözümümüz yok" diye yazdılar.

AI uyumluluğu, AI davranışının tasarımcının ilgi alanları ve beklentileri ile uyumlu olması ihtiyacını ifade eder.

Kontrolden çıkmış yapay zeka sorununu çözmek için %20 bilgi işlem gücü kullanılır

Süper zeki yapay zekanın (yani insanlardan daha akıllı sistemlerin) bu on yılda (2030'a kadar) gelebileceğini ve insanların süper zeki yapay zekayı kontrol etmek için şu anda olduğundan daha iyi teknolojiye ihtiyaç duyacağını, bu nedenle sözde A atılımında olmaları gerektiğini tahmin ediyorlar. yapay zekanın insanlara faydalı olmasını sağlamaya odaklanan AI Tutarlılık Çalışmasında.

Onlara göre Microsoft'un (Microsoft) desteğiyle **OpenAI, kontrolden çıkmış yapay zeka sorununu çözmek için önümüzdeki dört yıl içinde bilgi işlem gücünün %20'sini harcayacak. **Ayrıca, şirket bu işi organize etmek için Süper Tutarlılık Ekibi adında yeni bir ekip oluşturuyor.

Ekibin amacının, daha sonra büyük miktarda bilgi işlem gücü ile genişletilebilecek "insan düzeyinde" bir AI araştırmacısı yaratmak olduğu bildiriliyor. OpenAI bunun, yapay zeka sistemini eğitmek için insan geri bildirimlerini kullanacakları, yapay zeka sistemini insan değerlendirmesine yardımcı olacak şekilde eğitecekleri ve son olarak yapay zeka sistemini gerçek tutarlılık çalışmasını yapması için eğitecekleri anlamına geldiğini söylüyor.

Uzman sorgulandı

Ancak bu hamle açıklanır açıklanmaz uzmanlar tarafından sorgulanmaya başlandı. Bir AI güvenlik savunucusu olan Connor Leahy, OpenAI'nin planının temelde kusurlu olduğunu söyledi çünkü AI'nın "insan seviyelerine" ulaşabilen ilkel bir versiyonu kontrolden çıkabilir ve AI güvenlik sorunlarını çözmek için kullanılmadan önce ortalığı kasıp kavurabilir. "

Bir röportajda, "İnsan düzeyinde zeka geliştirmeden önce tutarlılık sorununu çözmelisiniz, aksi takdirde onu varsayılan olarak kontrol edemezsiniz. Şahsen bunun özellikle iyi veya güvenli bir plan olduğunu düşünmüyorum" dedi.

Yapay zekanın potansiyel tehlikeleri, uzun süredir yapay zeka araştırmacıları ve halk için en önemli endişe kaynağı olmuştur. Nisan ayında, bir grup AI endüstri lideri ve uzmanı, toplum ve insanlık üzerindeki potansiyel risklerini öne sürerek, OpenAI'nin yeni GPT-4 modelinden daha güçlü AI sistemlerini en az altı ay boyunca eğitmeye yönelik bir moratoryum çağrısı yapan bir açık mektup imzaladı.

Yakın zamanda yapılan bir anket, Amerikalıların üçte ikisinden fazlasının yapay zekanın olası olumsuz etkilerinden endişe duyduğunu ve %61'inin yapay zekanın insan uygarlığını tehdit edebileceğine inandığını ortaya koydu.

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
  • Pin
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)