Yazar: Li Zi, Teknoloji Sosyolojisi Doktorası, Doktora Sonrası Araştırmacı, Tıbbi Beşeri Bilimler ve Etik Bölümü, Columbia Üniversitesi
Görsel kaynağı: Unbounded AI tarafından oluşturuldu
Yılın ilk yarısında ChatGPT doğdu ve birçok sektöre hayatta kalma krizi tartışmasını getiren yapay zekanın potansiyeli ortaya çıktı. GPT, baro ve mühendislik yeterlilik sınavlarını geçebilir, notlarda başarısız olmadan üniversite makaleleri yazabilir ve hatta şakaları "anlayabilir". İnsanların sorularını yanıtlayabilir, canlı dil yapılarını düzenleyebilir ve çeşitli dil stillerini taklit edebilir ve Midjourney gibi büyük dil modelleri ile görüntü oluşturma AI teknolojilerinin birleşimi, herhangi bir sanatsal eğitim almamış kişilerin birkaçını kullanmasına izin verebilir. kelimeler "Oluşturun" çarpıcı sanatsal görüntüler.
ChatGPT'nin özü aslında büyük bir dil modelinin (Large Language Model, LLM) bindirilmiş üretken yapay zekasıdır. Adından da anlaşılacağı gibi, büyük bir dil modeli büyüktür ve bir bilgisayar modelini makine öğrenimi yöntemleriyle eğitmek için çok sayıda morfem kullanır. Üretken formül, diyalog sırasında en olası morfem bağlantılarını görüntülemek için tahmine dayalı bir yöntem kullanır.
Bilgi "işlemcileri" ve "tüketicileri" için, büyük dil modellerinin ve üretken yapay zekanın yetenekleri muazzamdır. Devasa morfem verileri, derin sinir ağı ve muazzam bilgi işlem gücü, tüm bilgiyi internetten "düzleştirmeye" ve ardından insan-bilgisayar etkileşimi yoluyla "birleştirmeye" eşdeğerdir.
**Hesaplama mantığı açısından ChatGPT, daha güçlü bir arama motoruna eşdeğerdir. ** Google ve Baidu gibi sıradan arama motorları, tarayıcı modu aracılığıyla tüm İnternet'teki bilgileri "kazımak" ve karmaşık algoritmalar aracılığıyla sıralamak. Yapay zekanın makine öğrenimini kullandığı yöntem, bilgileri dil mantığı doğrultusunda tahmine dayalı bir şekilde sıralamakla eşdeğerdir. Bilgi işleme daha kolay ve daha hızlı hale geldi ve tüketim daha özlü ve net hale geldi - bazen çok basit, sınav kağıtlarında kopya çekmeye fırsat veriyor.
Buna yanıt olarak, teknolojik iyimserler, tıpkı arama motorlarının kütüphane kartlarının yerini alması ve hesap makinelerinin abaküsün yerini alması gibi, makinelerin içeriği artık oluşturabileceğinden, çoğu insanın bunu gerçekleştirmek için beyinlerini kullanmasını gerektirmeyebileceğine inanıyor. Gerçekten de, AI nihai karar verme sürecine müdahale etmese bile, çok fazla tekrarlı yazma veya mekanik numaralandırma ve sıralama gerektiren bu görevler gerçekten de önemli ölçüde üretkenlik sağlayabilir ve bilginin işlenmesi ve tüketilmesinde insanlara yardımcı olabilir.
Peki okumak faydalı mı? Büyük üniversitelerin ve araştırma kurumlarının personeli de işten ayrılabilir mi?
Makine neyi "öğrenebilir"
Büyük dil modelleri ve üretken yapay zeka, geleceğin bilgi "üreticilerine" kaçınılmaz bir konuyu getirdi: bilgi nedir? Farklı, tarafsız ve özgün bilgi nasıl üretilir?
Yapay zekanın "öğrenme" yeteneği inanılmaz. Mevcut geniş dil modeli ve yapay zeka uygulaması, arka planı olarak makine öğreniminden ayrılamaz. "Öğrenme" kelimesi, esasen tahmin modelini eğitmek için büyük miktarda veri kullanmak ve tahminin doğruluğu ile evrenselliği arasında bir denge bulmaktır. Bu tür bir tahmin aslında mevcut bilgilere dayanmaktadır ve dil modelinin tahmini de mevcut diller arasındaki bağlantıya dayanmaktadır. Örneğin, "kızarmış sığır eti" girin ve makine "eti" tahmin eder; ardından konum, insanlar, alışkanlıklar vb. gibi daha fazla girdiye dayalı olarak "büyükannenin kızarmış sığır eti" gibi daha doğru tahminler verir ve yakında.
Bu öngörü nasıl gerçekleşti? Bildiğimiz koordinat sistemi iki boyutludur. Örneğin, tüm popülasyonda, boy ve kilo arasında kabaca bir karşılık vardır.Boy verildiğinde, makine mevcut verilere dayalı bir tahmin olan ortalama bir kilo tahmin eder. Cinsiyet gibi başka bir boyut ekleyin, o zaman üç boyutlu bir koordinat haline gelir ve erkeklerin ve kadınların tahminleri farklı olacaktır. Bu böyle devam ederse, verilerin boyutları sonsuz olabilir ve makine öğreniminin modeli, insan beyninin hayal bile edemeyeceği çok boyutlu bir uzayda bu tür bağlantıları bulmak ve çeşitli boyutlar arasındaki ağırlıkları sürekli olarak ayarlamaktır. Örneğin, "ne kadar önemli", çok sayıda veri girişinden sonra ayarlanabilen boy-kilo tahminidir.
** Bu nedenle, makine öğrenimine dayalı yapay zeka, çeşitli boyutlardaki verileri daha yüksek boyutlu bir alanda birbirine bağlayacak, veriler arasındaki potansiyel bağlantıları keşfetme yeteneğine sahip olacak ve ayrıca gerçekte var olmayan bazı şeyleri "öğrenecek" , ancak çok olası bağlantılar. **Dil modelinde kullanılan yapay zeka, farklı dil stillerini de öğrenerek mevcut metindeki "özü" ve "sorunları" ortaya çıkarabilir.
**Veriler ne kadar büyük olursa, model o kadar olgunlaşır ve bilgi işlem ve madencilik yetenekleri o kadar yüksek olur. **Büyük kurumlarda doğan BERT ve GPT gibi yapay zekaya benzer şekilde, birçok kişi teknolojinin "bükülme noktasına" ulaştıklarına inanır ve niceliksel değişikliklerin niteliksel değişiklikler üretmesi mantıksız değildir - bu iyi bir şeydir bilgi üreticileri için bir şey. Bununla birlikte, büyük modellerin de içsel sorunları vardır ve model ne kadar büyük olursa, özellikle bilginin çeşitli, adil ve doğru yönleriyle ilgili olarak sorunlar o kadar şiddetli olur.
Gerçek nasıl üretilir
** ve tarafsız bilgi? **
Bağlantılardan ve mevcut bilginin yeni modellerinden yeni bilgi üretilebilir, bu ister insan ister makine seviyesinde olsun, doğrudur. Ancak mevcut bilgi yeterli mi? Yeterli mi? Adil mi? Mevcut bilginin temeli yetersiz veya hatta taraflıysa, bunun üzerine inşa edilen yeni bilgi de taraflı olacaktır.
Makine öğrenimi yapay zekası geniş ölçekli uygulamaya konduğundan beri, akademisyenler sürekli olarak bu modellerin doğasında bulunan önyargıları ortaya çıkardılar: cinsiyetçilik, ırkçılık, etik olmayan çıktılar vb. Geliştiriciler bunu telafi etmek için çeşitli yamalar ve düzeltme yöntemleri kullanır, ancak sorunların çoğu veri üretimi ve eğitim sürecinde gizlidir ve AI'nın önyargısı da sosyal önyargının bir yansıması ve büyütülmesidir.
Diğer bir konu ise verilerin kalitesidir. Makine öğrenimi, yalnızca modelleri eğitme becerisini değil, aynı zamanda verilerin niceliğini ve kalitesini de içerir. Mevcut geliştirme süreci, modelin performansına ve hatta batıl inanca daha fazla önem verir, ancak veri kaynaklarının altında yatan sorunu göz ardı eder. Günümüzde verilerin çoğu manuel temizleme ve biçimlendirme, sınıflandırma, etiketleme vb. işlemlere bağlıdır. Çoğu zaman, bu veri üretme süreci şeffaf değildir, hatta karalanmıştır. Örneğin, büyük şirketlerin yapay zeka geliştirmesinin arkasında, çok sayıda "kirli ve dağınık" emek, az gelişmiş bölgelerdeki "Yapay Zeka fabrikalarına" taşeron olarak veriliyor. Bu süreç bir yandan iş etiği sorunları içerirken diğer yandan veri kalitesi açısından da zorluklar doğuruyor.
Büyük modeller çağında, bu sorun daha derinlerde gizlenmiş olabilir: Her araştırmacı veya ekip sıfırdan yapay zeka modelleri, özellikle de çoğu mevcut ince ayar modellerine dayanan büyük dil ve büyük görüntü modelleri geliştirme yeteneğine sahip değildir. Büyük modelin sorunları ve sapmaları daha fazla uygulama modeline taşınacaktır. Ve sapma ne kadar düşükse, ince ayar ve sapma düzeltme yoluyla bununla başa çıkmak o kadar zor olur.
Mevcut dil modelinin tahmin oluşturma modu, verilerin mevcut sapmasını bile artıracak ve "fazla uydurma" etkisine neden olacaktır: örneğin, belirli bir hastalık, belirli bir etnik grupta yüksek oranda istatistiksel veriye sahiptir, yaklaşık %60 ; Ancak dil modeli bir hastanın portresini oluşturmak için kullanılırsa, oluşturulan hasta tanımının bu gruba ait olma olasılığı %90'dan fazladır.
Artık bazı AI modeli eğitimleri, iki modelin sürekli olarak birbirini oluşturmasına ve düzeltmesine izin veren "üretken çekişmeli ağ" (üretken çekişmeli ağ) adı verilen bir "karşılıklı savaş" modunu benimsiyor. Bu yöntem, model eğitiminin verimliliğini artırır, ancak bu "etkileşimde" herhangi bir küçük sapma büyütülecektir. Aynı prensipte, eğer bir makineyle yakın çalışan bir bilgi üreticisi bu tür bir "üretim"e güveniyorsa, o zaman modeldeki bazı önyargılar daha fazla yeni bilginin içine gömülecek ve yeni bilgi veri olarak Emilecektir. modelin yanlılığını güçlendirir. **Bilgi üreticileri bu süreçte uyanık kalmalıdır.
**Yeni bilgi nedir? Yapay zekanın "nesli" yeni bilgiyi temsil edebilir mi? **
Sözde yeni bilgi nedir? Eğer yapay zeka tamamen bilgi üretmek için kullanılacaksa, bilgi üreticileri bu konuyu insan ve makinenin birleşimi açısından düşünmelidir. İnsanlar tarafından gerçek dünyadan edinilen bilgilerin yanı sıra herhangi bir bilginin "temizlenmesi" ve verilere "biçimlendirilmesi" gerekir. Yukarıda belirtilen veri kalitesine ek olarak, veri oluşturma süreci de önemlidir. Kısacası, kişinin incelemek istediği problem nedir? Bu soru ne tür verilere çevrilir? Bu veriler nasıl üretiliyor ve bilgi üreticilerinin incelemek istediği konuları tam ve adil bir şekilde temsil ediyor mu?
Bu sorun "geleneksel" bilgi üreticileri için de geçerlidir. Tarihi örnek olarak alın.Tarih geçmiş olayları incelese de hiçbir geçmiş olay %100 kesin olamaz. Akademisyenler genellikle tarihsel meselelere ilişkin anlayışlarını tamamlamak ve geçmişte ihmal edilmiş bakış açılarını ve sesleri gün yüzüne çıkarmak için sürekli olarak yeni tarihsel materyaller ararlar. İlginç bir şekilde, mevcut tarihçilik genellikle büyük miktarda veriye, özellikle geçmiş ekonomi, nüfus ve iklim verilerine başvurur ve hatta tarihe yeni anlayışlar ve bakış açıları getirmek için makine öğrenimine güvenir.
Aynı şekilde, makine tarafından üretilen içgörülere ve görüşlere güvenmek, belirli veri kaynaklarının önemini artırabilir. Günümüzün bilgi üreticileri, başkaları tarafından verilere "çevrilmiş" şeyler üzerinde yaratmak için ana akım, internet ve elektronik bilgilere çok fazla güveniyor. **Yapay zeka çağında, yapay zekanın sağladığı kolaylık ve genişletilebilirlik, potansiyel olarak insanların dijitalleştirilmemiş, elektronikleştirilmemiş ana akım olmayan ve deneyimsel bilgileri göz ardı etmesini kolaylaştıracak ve böylece yeni bakış açıları ve perspektiflerin oluşumunu kaçıracaktır. . **
Büyük dil modelinin eğitim yöntemine ve model tarafından üretilen çıktının özelliklerine bağlı olarak, daha yüksek dereceli ve daha yüksek olasılıklı çıktı içeriğinin ağırlığı artacak ve özellikler daha tekil hale gelecektir. "Yapay zeka tarafından üretilen", sanki yokmuş gibi söylenen özelliksiz, tekrarlayan, saçma sapan kelimeleri anlatmak için adeta bir sıfat haline geldi. Bilgi tüketicileri için "en olası" cevapların anlama eşiğini büyük ölçüde düşürdüğü doğrudur; ancak bilgi üreticileri için bu şeyler bunun yerine engel haline gelebilir.
**Yeni dönemde bilgi üreticileri nereye gitmeli? **
Belki benim gibi birçok sosyal bilimler araştırmacısı ChatGPT kullanırken şu sorunla karşılaşmıştır: ondan bir kavramı açıklamasını isteyin ve bu mantıklıdır; Bir yazar asla kitap yazmadı, asla makale yayınlamadı. Alan ne kadar dar ve özelleşmişse, "saçmalık" olasılığı o kadar artar.
Yapay zeka ilkesine geri dönersek, bu tür bir "yaratma" aslında büyük verideki kelime ve cümlelerin "olası" bağlantılarını araştırıyor, ancak bu bağlantılar gerçekte yok. Açıkça söylemek gerekirse, sadece "kulağa benziyorlar" . Bu yeni fenomen artık "halüsinasyon" olarak adlandırılıyor. Bilgi üreticileri için, mevcut bilgi tabanındaki kalıpları ve bağlantıları araştırmak için yapay zekayı nasıl kullanacakları, ancak makinenin "vizyonuna", var olana ve şüpheli olana karşı tetikte olmaları çok önemli bir beceridir.
AI ile "Diyalog" da yeni bir beceri olacak. Mevcut AI, teknik olmayan çoğu insan (teknik insanlar bile) için hala gizemli bir "kara kutu". Makinelerle daha etkin konuşmak, anlamak ve "vizyon" ile mücadele etmek için teknolojinin en alt veya orta seviyesinden nasıl başlanacağı bilgi üreticilerinin ve teknik uygulayıcıların işbirliğini gerektirir.
Yeni bilgi, yeni bakış açıları ve yeni materyallerin araştırılması için her alanın kendine özgü yapısı ve yorumu günümüzde hala çok önemlidir. Büyük dil modellerinin ve üretici yapay zekanın tahmine dayalı modelleri hala tek ve tekrarlayıcı olma eğilimindedir ve eğitim materyali ne kadar sınırlıysa, yetenekler de o kadar sınırlı olacaktır. Makine ve insan yeteneklerini birleştirmek istiyorsanız, yapay zeka modellerini eğitmek için veri üretiminin kaynağından başlamalı, doğru, çeşitli, adil ve yeni verileri kullanmalı ve iyi huylu bir insan-bilgisayar etkileşim modeli oluşturmalısınız.
Büyük dil modellerinin ve üretken yapay zekanın ortaya çıkışı, araştırmacılar için zorlukların yalnızca başlangıcıdır. "Değiştirme"yi tartışmak yerine, daha ihtiyatlı bir bakış açısıyla alışma ve gelişme olasılığını aramak daha iyidir.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
ChatGPT ile okumak hala faydalı mı?
Yazar: Li Zi, Teknoloji Sosyolojisi Doktorası, Doktora Sonrası Araştırmacı, Tıbbi Beşeri Bilimler ve Etik Bölümü, Columbia Üniversitesi
Yılın ilk yarısında ChatGPT doğdu ve birçok sektöre hayatta kalma krizi tartışmasını getiren yapay zekanın potansiyeli ortaya çıktı. GPT, baro ve mühendislik yeterlilik sınavlarını geçebilir, notlarda başarısız olmadan üniversite makaleleri yazabilir ve hatta şakaları "anlayabilir". İnsanların sorularını yanıtlayabilir, canlı dil yapılarını düzenleyebilir ve çeşitli dil stillerini taklit edebilir ve Midjourney gibi büyük dil modelleri ile görüntü oluşturma AI teknolojilerinin birleşimi, herhangi bir sanatsal eğitim almamış kişilerin birkaçını kullanmasına izin verebilir. kelimeler "Oluşturun" çarpıcı sanatsal görüntüler.
ChatGPT'nin özü aslında büyük bir dil modelinin (Large Language Model, LLM) bindirilmiş üretken yapay zekasıdır. Adından da anlaşılacağı gibi, büyük bir dil modeli büyüktür ve bir bilgisayar modelini makine öğrenimi yöntemleriyle eğitmek için çok sayıda morfem kullanır. Üretken formül, diyalog sırasında en olası morfem bağlantılarını görüntülemek için tahmine dayalı bir yöntem kullanır.
Bilgi "işlemcileri" ve "tüketicileri" için, büyük dil modellerinin ve üretken yapay zekanın yetenekleri muazzamdır. Devasa morfem verileri, derin sinir ağı ve muazzam bilgi işlem gücü, tüm bilgiyi internetten "düzleştirmeye" ve ardından insan-bilgisayar etkileşimi yoluyla "birleştirmeye" eşdeğerdir.
**Hesaplama mantığı açısından ChatGPT, daha güçlü bir arama motoruna eşdeğerdir. ** Google ve Baidu gibi sıradan arama motorları, tarayıcı modu aracılığıyla tüm İnternet'teki bilgileri "kazımak" ve karmaşık algoritmalar aracılığıyla sıralamak. Yapay zekanın makine öğrenimini kullandığı yöntem, bilgileri dil mantığı doğrultusunda tahmine dayalı bir şekilde sıralamakla eşdeğerdir. Bilgi işleme daha kolay ve daha hızlı hale geldi ve tüketim daha özlü ve net hale geldi - bazen çok basit, sınav kağıtlarında kopya çekmeye fırsat veriyor.
Buna yanıt olarak, teknolojik iyimserler, tıpkı arama motorlarının kütüphane kartlarının yerini alması ve hesap makinelerinin abaküsün yerini alması gibi, makinelerin içeriği artık oluşturabileceğinden, çoğu insanın bunu gerçekleştirmek için beyinlerini kullanmasını gerektirmeyebileceğine inanıyor. Gerçekten de, AI nihai karar verme sürecine müdahale etmese bile, çok fazla tekrarlı yazma veya mekanik numaralandırma ve sıralama gerektiren bu görevler gerçekten de önemli ölçüde üretkenlik sağlayabilir ve bilginin işlenmesi ve tüketilmesinde insanlara yardımcı olabilir.
Peki okumak faydalı mı? Büyük üniversitelerin ve araştırma kurumlarının personeli de işten ayrılabilir mi?
Makine neyi "öğrenebilir"
Büyük dil modelleri ve üretken yapay zeka, geleceğin bilgi "üreticilerine" kaçınılmaz bir konuyu getirdi: bilgi nedir? Farklı, tarafsız ve özgün bilgi nasıl üretilir?
Yapay zekanın "öğrenme" yeteneği inanılmaz. Mevcut geniş dil modeli ve yapay zeka uygulaması, arka planı olarak makine öğreniminden ayrılamaz. "Öğrenme" kelimesi, esasen tahmin modelini eğitmek için büyük miktarda veri kullanmak ve tahminin doğruluğu ile evrenselliği arasında bir denge bulmaktır. Bu tür bir tahmin aslında mevcut bilgilere dayanmaktadır ve dil modelinin tahmini de mevcut diller arasındaki bağlantıya dayanmaktadır. Örneğin, "kızarmış sığır eti" girin ve makine "eti" tahmin eder; ardından konum, insanlar, alışkanlıklar vb. gibi daha fazla girdiye dayalı olarak "büyükannenin kızarmış sığır eti" gibi daha doğru tahminler verir ve yakında.
Bu öngörü nasıl gerçekleşti? Bildiğimiz koordinat sistemi iki boyutludur. Örneğin, tüm popülasyonda, boy ve kilo arasında kabaca bir karşılık vardır.Boy verildiğinde, makine mevcut verilere dayalı bir tahmin olan ortalama bir kilo tahmin eder. Cinsiyet gibi başka bir boyut ekleyin, o zaman üç boyutlu bir koordinat haline gelir ve erkeklerin ve kadınların tahminleri farklı olacaktır. Bu böyle devam ederse, verilerin boyutları sonsuz olabilir ve makine öğreniminin modeli, insan beyninin hayal bile edemeyeceği çok boyutlu bir uzayda bu tür bağlantıları bulmak ve çeşitli boyutlar arasındaki ağırlıkları sürekli olarak ayarlamaktır. Örneğin, "ne kadar önemli", çok sayıda veri girişinden sonra ayarlanabilen boy-kilo tahminidir.
** Bu nedenle, makine öğrenimine dayalı yapay zeka, çeşitli boyutlardaki verileri daha yüksek boyutlu bir alanda birbirine bağlayacak, veriler arasındaki potansiyel bağlantıları keşfetme yeteneğine sahip olacak ve ayrıca gerçekte var olmayan bazı şeyleri "öğrenecek" , ancak çok olası bağlantılar. **Dil modelinde kullanılan yapay zeka, farklı dil stillerini de öğrenerek mevcut metindeki "özü" ve "sorunları" ortaya çıkarabilir.
**Veriler ne kadar büyük olursa, model o kadar olgunlaşır ve bilgi işlem ve madencilik yetenekleri o kadar yüksek olur. **Büyük kurumlarda doğan BERT ve GPT gibi yapay zekaya benzer şekilde, birçok kişi teknolojinin "bükülme noktasına" ulaştıklarına inanır ve niceliksel değişikliklerin niteliksel değişiklikler üretmesi mantıksız değildir - bu iyi bir şeydir bilgi üreticileri için bir şey. Bununla birlikte, büyük modellerin de içsel sorunları vardır ve model ne kadar büyük olursa, özellikle bilginin çeşitli, adil ve doğru yönleriyle ilgili olarak sorunlar o kadar şiddetli olur.
Gerçek nasıl üretilir
** ve tarafsız bilgi? **
Bağlantılardan ve mevcut bilginin yeni modellerinden yeni bilgi üretilebilir, bu ister insan ister makine seviyesinde olsun, doğrudur. Ancak mevcut bilgi yeterli mi? Yeterli mi? Adil mi? Mevcut bilginin temeli yetersiz veya hatta taraflıysa, bunun üzerine inşa edilen yeni bilgi de taraflı olacaktır.
Makine öğrenimi yapay zekası geniş ölçekli uygulamaya konduğundan beri, akademisyenler sürekli olarak bu modellerin doğasında bulunan önyargıları ortaya çıkardılar: cinsiyetçilik, ırkçılık, etik olmayan çıktılar vb. Geliştiriciler bunu telafi etmek için çeşitli yamalar ve düzeltme yöntemleri kullanır, ancak sorunların çoğu veri üretimi ve eğitim sürecinde gizlidir ve AI'nın önyargısı da sosyal önyargının bir yansıması ve büyütülmesidir.
Büyük modeller çağında, bu sorun daha derinlerde gizlenmiş olabilir: Her araştırmacı veya ekip sıfırdan yapay zeka modelleri, özellikle de çoğu mevcut ince ayar modellerine dayanan büyük dil ve büyük görüntü modelleri geliştirme yeteneğine sahip değildir. Büyük modelin sorunları ve sapmaları daha fazla uygulama modeline taşınacaktır. Ve sapma ne kadar düşükse, ince ayar ve sapma düzeltme yoluyla bununla başa çıkmak o kadar zor olur.
Mevcut dil modelinin tahmin oluşturma modu, verilerin mevcut sapmasını bile artıracak ve "fazla uydurma" etkisine neden olacaktır: örneğin, belirli bir hastalık, belirli bir etnik grupta yüksek oranda istatistiksel veriye sahiptir, yaklaşık %60 ; Ancak dil modeli bir hastanın portresini oluşturmak için kullanılırsa, oluşturulan hasta tanımının bu gruba ait olma olasılığı %90'dan fazladır.
Artık bazı AI modeli eğitimleri, iki modelin sürekli olarak birbirini oluşturmasına ve düzeltmesine izin veren "üretken çekişmeli ağ" (üretken çekişmeli ağ) adı verilen bir "karşılıklı savaş" modunu benimsiyor. Bu yöntem, model eğitiminin verimliliğini artırır, ancak bu "etkileşimde" herhangi bir küçük sapma büyütülecektir. Aynı prensipte, eğer bir makineyle yakın çalışan bir bilgi üreticisi bu tür bir "üretim"e güveniyorsa, o zaman modeldeki bazı önyargılar daha fazla yeni bilginin içine gömülecek ve yeni bilgi veri olarak Emilecektir. modelin yanlılığını güçlendirir. **Bilgi üreticileri bu süreçte uyanık kalmalıdır.
**Yeni bilgi nedir? Yapay zekanın "nesli" yeni bilgiyi temsil edebilir mi? **
Sözde yeni bilgi nedir? Eğer yapay zeka tamamen bilgi üretmek için kullanılacaksa, bilgi üreticileri bu konuyu insan ve makinenin birleşimi açısından düşünmelidir. İnsanlar tarafından gerçek dünyadan edinilen bilgilerin yanı sıra herhangi bir bilginin "temizlenmesi" ve verilere "biçimlendirilmesi" gerekir. Yukarıda belirtilen veri kalitesine ek olarak, veri oluşturma süreci de önemlidir. Kısacası, kişinin incelemek istediği problem nedir? Bu soru ne tür verilere çevrilir? Bu veriler nasıl üretiliyor ve bilgi üreticilerinin incelemek istediği konuları tam ve adil bir şekilde temsil ediyor mu?
Bu sorun "geleneksel" bilgi üreticileri için de geçerlidir. Tarihi örnek olarak alın.Tarih geçmiş olayları incelese de hiçbir geçmiş olay %100 kesin olamaz. Akademisyenler genellikle tarihsel meselelere ilişkin anlayışlarını tamamlamak ve geçmişte ihmal edilmiş bakış açılarını ve sesleri gün yüzüne çıkarmak için sürekli olarak yeni tarihsel materyaller ararlar. İlginç bir şekilde, mevcut tarihçilik genellikle büyük miktarda veriye, özellikle geçmiş ekonomi, nüfus ve iklim verilerine başvurur ve hatta tarihe yeni anlayışlar ve bakış açıları getirmek için makine öğrenimine güvenir.
Aynı şekilde, makine tarafından üretilen içgörülere ve görüşlere güvenmek, belirli veri kaynaklarının önemini artırabilir. Günümüzün bilgi üreticileri, başkaları tarafından verilere "çevrilmiş" şeyler üzerinde yaratmak için ana akım, internet ve elektronik bilgilere çok fazla güveniyor. **Yapay zeka çağında, yapay zekanın sağladığı kolaylık ve genişletilebilirlik, potansiyel olarak insanların dijitalleştirilmemiş, elektronikleştirilmemiş ana akım olmayan ve deneyimsel bilgileri göz ardı etmesini kolaylaştıracak ve böylece yeni bakış açıları ve perspektiflerin oluşumunu kaçıracaktır. . **
Büyük dil modelinin eğitim yöntemine ve model tarafından üretilen çıktının özelliklerine bağlı olarak, daha yüksek dereceli ve daha yüksek olasılıklı çıktı içeriğinin ağırlığı artacak ve özellikler daha tekil hale gelecektir. "Yapay zeka tarafından üretilen", sanki yokmuş gibi söylenen özelliksiz, tekrarlayan, saçma sapan kelimeleri anlatmak için adeta bir sıfat haline geldi. Bilgi tüketicileri için "en olası" cevapların anlama eşiğini büyük ölçüde düşürdüğü doğrudur; ancak bilgi üreticileri için bu şeyler bunun yerine engel haline gelebilir.
**Yeni dönemde bilgi üreticileri nereye gitmeli? **
Belki benim gibi birçok sosyal bilimler araştırmacısı ChatGPT kullanırken şu sorunla karşılaşmıştır: ondan bir kavramı açıklamasını isteyin ve bu mantıklıdır; Bir yazar asla kitap yazmadı, asla makale yayınlamadı. Alan ne kadar dar ve özelleşmişse, "saçmalık" olasılığı o kadar artar.
Yapay zeka ilkesine geri dönersek, bu tür bir "yaratma" aslında büyük verideki kelime ve cümlelerin "olası" bağlantılarını araştırıyor, ancak bu bağlantılar gerçekte yok. Açıkça söylemek gerekirse, sadece "kulağa benziyorlar" . Bu yeni fenomen artık "halüsinasyon" olarak adlandırılıyor. Bilgi üreticileri için, mevcut bilgi tabanındaki kalıpları ve bağlantıları araştırmak için yapay zekayı nasıl kullanacakları, ancak makinenin "vizyonuna", var olana ve şüpheli olana karşı tetikte olmaları çok önemli bir beceridir.
AI ile "Diyalog" da yeni bir beceri olacak. Mevcut AI, teknik olmayan çoğu insan (teknik insanlar bile) için hala gizemli bir "kara kutu". Makinelerle daha etkin konuşmak, anlamak ve "vizyon" ile mücadele etmek için teknolojinin en alt veya orta seviyesinden nasıl başlanacağı bilgi üreticilerinin ve teknik uygulayıcıların işbirliğini gerektirir.
Yeni bilgi, yeni bakış açıları ve yeni materyallerin araştırılması için her alanın kendine özgü yapısı ve yorumu günümüzde hala çok önemlidir. Büyük dil modellerinin ve üretici yapay zekanın tahmine dayalı modelleri hala tek ve tekrarlayıcı olma eğilimindedir ve eğitim materyali ne kadar sınırlıysa, yetenekler de o kadar sınırlı olacaktır. Makine ve insan yeteneklerini birleştirmek istiyorsanız, yapay zeka modellerini eğitmek için veri üretiminin kaynağından başlamalı, doğru, çeşitli, adil ve yeni verileri kullanmalı ve iyi huylu bir insan-bilgisayar etkileşim modeli oluşturmalısınız.
Büyük dil modellerinin ve üretken yapay zekanın ortaya çıkışı, araştırmacılar için zorlukların yalnızca başlangıcıdır. "Değiştirme"yi tartışmak yerine, daha ihtiyatlı bir bakış açısıyla alışma ve gelişme olasılığını aramak daha iyidir.