Sinir Ağları Hakkında 10 Utanç Verici Soru: Makine Öğrenimi Uzmanı Igor Kotenkov Yanıtlıyor
Miscellanea / / August 08, 2023
Bilmek isteyip de soramayacak kadar utangaç olduğunuz her şeyi topladık.
yeni seri Tanınmış uzmanların makaleleri, sorması genellikle utanç verici olan soruları yanıtlıyor: Görünüşe göre herkes bunu zaten biliyor ve soruyu soran kişi aptal gibi görünecek.
Bu sefer yapay zeka uzmanı Igor Kotenkov ile konuştuk. Torunlarınızın torunları için dijital kopyanızı kaydedip kaydedemeyeceğinizi, nöronlara neden %100 güvenilemeyeceğini ve dünyanın bir makine ayaklanması tehlikesiyle karşı karşıya olup olmadığını öğreneceksiniz.
İgor Kotenkov
1. Sinir ağları nasıl çalışır? Bu bir çeşit sihir. ChatGPT nasıl yapılabilir? Midjourney mi yoksa DALL-E mi?
Bir sinir ağı, canlı bir organizmanın beyninin nasıl çalıştığını anlamak amacıyla icat edilen matematiksel bir modeldir. Doğru, 20. yüzyılın ikinci yarısının başındaki en temel fikirler artık ilgisiz veya çok basit olarak adlandırılabilecek şekilde temel alındı.
"Sinir ağı" adı bile "nöron" kelimesinden gelir - bu, beynin ana işlevsel birimlerinden birinin adıdır. Sinir ağlarının kendileri düğümlerden oluşur - yapay nöronlar. Bu nedenle, modern mimarilerin birçok fikrinin doğanın kendisinden "gözetlendiğini" söyleyebiliriz.
Ancak daha da önemlisi, sinir ağı matematiksel bir modeldir. Ve bu matematikle ilgili bir şey olduğundan, böyle bir modelin özelliklerini bulmak veya değerlendirmek için matematiksel aygıtın tüm gücünü kullanabiliriz. Bir sinir ağını bir işlev olarak düşünebilirsiniz ve bir işlev aynı zamanda matematiksel bir nesnedir. En basit ve en anlaşılır örnek: herhangi bir sayıyı girdi olarak alan ve ona 2 ekleyen bir fonksiyon: f(4) = 6, f(10) = 12.
Ancak böyle bir işlevi programlamak çok kolaydır, bir çocuk bile birkaç saat dil öğrendikten sonra başa çıkabilir. programlama. Bunun nedeni, böyle bir işlevin çok kolay bir şekilde formüle edilmesi, basit ve anlaşılır bir dille ayrıntılı olarak anlatılmasıdır.
Ancak, nasıl yaklaşacağımızı bile bilmediğimiz bazı görevler var. Örneğin size karışık kedi ve köpek fotoğrafları verebilirim ve bunları iki yığın halinde sorunsuz bir şekilde sıralayabilirsiniz. Ama cevabı belirlerken tam olarak neye rehberlik ediyorsunuz? İkisi de kabarık. Her iki türün de kuyruğu, kulakları, iki gözü vardır. Belki boyutu? Ama çok küçük köpekler var, büyük kediler var.
Gerçek dünyanın birçok görevini tanımlayamıyoruz, gözlemimizin bağımlılığını ve bazı koşullu "doğru" yanıtları bilmiyoruz.
Sadece bu cevabı nasıl vereceğimizi biliyoruz - ve bu kadar, nasıl sonuçlanacağını düşünmeden.
Sinir ağlarının kurtarmaya geldiği yer burasıdır. Bu matematiksel işlevler verilerden eğitilir. Girdi ve çıktı arasındaki ilişkiyi tanımlamanız gerekmez. Doğru cevaplar vermek için sadece iki yığın fotoğraf ve model trenler hazırlarsınız. Kendisi bu bağlantıyı bulmayı öğrenir, güvenerek kendisi bulur. hatalarkim yapar. Bir Bengal kedisi ve bir Rottweiler'ı mı karıştırdınız? Bir dahaki sefere daha iyi olacak!
Bir sinir ağını öğrenme süreci, bir sorunun nasıl çözüleceğini öğrenmek ve doğru cevabı vermek için “nöronların” böyle bir ayarlanmasıdır. Ve en dikkat çekici olan şey, yeterince büyük bir veri kümesine sahip yeterince büyük bir sinir ağının herhangi bir karmaşık işlevi öğrenebileceğine dair teorik bir kanıt var. Ancak buradaki en önemli şey hesaplama gücü (çünkü nöron çok büyük olabilir) ve etiketlenmiş verilerin mevcudiyetidir. Yani işaretli, yani "köpek", kedi veya her neyse sınıfına sahipler.
Modellerin nasıl çalıştığını tam olarak anlamıyoruz - örneğin en karmaşık ve büyük modeller ChatGPT neredeyse analiz edilemez.
En iyi araştırmacılar şu anda süreçlerinin iç işleyişini "anlama" zorluğu üzerinde çalışıyorlar.
Ancak modellerin hangi görev için eğitildiğini, eğitim sırasında hangi hatayı en aza indirmeye çalıştıklarını biliyoruz. ChatGPT için görev ikiden oluşur. Birincisi, bir sonraki kelimenin bağlamına göre tahminidir: "anne yıkandı ..." Ne? Modelin öngörmesi gereken şey budur.
İkinci görev, cevapların rahatsız edici olmamasını, ancak aynı zamanda yararlı ve anlaşılır kalmasını sağlamaktır. Bu nedenle model viral oldu - doğrudan insanların beğendiği türden metinler oluşturmak için eğitildi!
ChatGPT'nin nasıl çalıştığı hakkında daha fazla bilgiyi benim sayfamda okuyabilirsiniz. madde.
2. Nöronlar düşünebilir mi?
Bilim adamları, "düşünmenin" veya "akıl yürütmenin" ne anlama geldiğini ve genel olarak aklın nasıl çalıştığını hala anlamıyorlar. Bu nedenle, ChatGPT gibi bir modelin bu tür özelliklere sahip olup olmadığına karar vermek zordur.
Bir durum düşünelim: Dairenizin kapısına yaklaşıyorsunuz. Kapıyı açmak için anahtarı sırt çantanızın sol cebinden almanız gerektiğine dair bir fikriniz var mı? Eylemlerin betimlenmesi ve sunumunun bir düşünce süreci olduğunu söyleyebilir miyiz? Özünde, mevcut durum ile istenen hedef (açık kapı) arasında bir ilişki kurduk. Yukarıdaki sorunun cevabının evet olduğunu düşünüyorsanız, cevabım aynı olacaktır. 🙂
Daha önce ifade edilmemiş veya çok yaygın olmayan yenilikçi düşünceler söz konusu olduğunda başka bir şey. Sonuçta, örneğin, yukarıdaki örnekte kolayca hata bulabilirsiniz: “Evet, bu modeli internette ve internette 100500 kez okudum. kitabın. Elbette biliyor! Şaşırtıcı bir şey yok." Bu arada, nasıl bildin? Annen baban sana çocuklukta gösterdiği için mi, sen de süreci yüzlerce gün arka arkaya izledin mi?
Bu durumda kesin bir cevap yoktur. Ve buradaki nokta şu ki, önemli bir bileşeni hesaba katmıyoruz: olasılık.
Modelin sizin özel "düşünce" tanımınıza uyan bir düşünce üretme olasılığı nedir?
Ne de olsa ChatGPT gibi bir nöronun aynı talebe milyonlarca farklı yanıt üretmesi sağlanabilir. Örneğin, "bir fikir bulmak bilimsel araştırma». Milyonda bir nesil gerçekten ilginç ve yeniyse, bu bir modelin bir fikir doğurabileceğinin kanıtı sayılır mı? Ama hayır-hayır diye rastgele sözler söyleyen ve anlaşılır bir şey oluşturan bir papağandan ne farkı olacak?
Öte yandan, insanlar da her zaman doğru düşünceler vermezler - bazı ifadeler bir çıkmaza yol açar ve hiçbir şeyle bitmez. Nöral ağlar bunu neden affedemiyor? Pekala, üretilen bir milyon yeni fikirden biri gerçekten kötü... Peki ya bir milyonda 100 yeni fikir olursa? Bin? Bu sınır nerede?
Bilmediğimiz şey bu. Eğilim şu ki, ilk başta makinelerin X problemini çözmesinin zor olacağını düşünüyoruz. Örneğin, bir kişiyle yarım saat sohbet etmeniz gereken Turing testini geçmek için. Ardından, teknolojinin gelişmesiyle birlikte, insanlar bir görev için modelleri çözmenin veya daha doğrusu modelleri eğitmenin yollarını buluyor. Biz de diyoruz ki: "Aslında yanlış bir testti, işte size bir yenisi, nöronlar kesinlikle geçemeyecek!" Ve durum kendini tekrar ediyor.
Şimdi, 80 yıl önce olan teknolojiler bir mucize olarak algılanırdı. Ve şimdi, makinelerin zaten nasıl düşüneceğini bildiğini kendimize itiraf etmemek için tüm gücümüzle "makullük" sınırını zorlamaya çalışıyoruz. Aslında, önce bir şey icat etmemiz, sonra post factum ve geriye dönük olarak yapay zeka olarak tanımlamamız bile mümkündür.
3. Nöronlar resim çizip şiir yazabiliyorsa, o zaman yaratıcı olabilirler ve neredeyse insanlar gibi olabilirler mi?
Cevap aslında büyük ölçüde yukarıdaki bilgilere dayanmaktadır. yaratıcılık nedir? Ortalama bir insanda ne kadar yaratıcılık var? Sibirya'dan bir kapıcının nasıl yaratılacağını bildiğinden emin misin? Ve neden?
Ya bir model, şartlı olarak, amatör yazarlar veya çocuk sanatçılar için düzenlenen bir şehir yarışmasında finale kalacak bir şiir veya resim üretebilirse? Ve bu her seferinde değil de yüz kişiden biri olursa?
Bu soruların çoğu tartışmalıdır. Cevabın açık olduğunu düşünüyorsanız, arkadaşlarınız ve akrabalarınızla görüşmeyi deneyin. Çok yüksek bir olasılıkla, onların bakış açısı sizinkiyle örtüşmeyecektir. Ve burada asıl mesele değil kavga.
4. Sinir ağlarının cevaplarına güvenmek ve artık Google'a güvenmemek mümkün mü?
Her şey modellerin nasıl kullanıldığına bağlıdır. Onlara, istemde eşlik eden bilgiler olmadan bağlamsız bir soru sorarsanız ve olgusal doğruluğun önemli olduğu konularda bir yanıt beklerseniz ve cevabın genel üslubu değil (örneğin, belirli bir zaman dilimindeki olaylar dizisi, ancak yer ve tarihlerin tam olarak belirtilmemesi), o zaman cevap HAYIR.
yurtiçi tarafından tahmini OpenAI, bu tür durumlarda, bugüne kadarki en iyi model olan GPT-4, soruların konusuna bağlı olarak vakaların yaklaşık %70-80'inde doğru yanıt verir.
Bu rakamlar, ideal olan %100 gerçek "doğruluktan" çok uzak gibi görünebilir. Ama aslında, bu önceki nesil modellere (GPT-3.5 mimarisine dayalı ChatGPT) kıyasla büyük bir sıçramadır - bu modellerin doğruluğu %40-50'dir. 6-8 aylık araştırmalar çerçevesinde böyle bir sıçramanın yapıldığı ortaya çıktı.
%100'e ne kadar yaklaşırsak, modelin anlayışında ve bilgisinde hiçbir şeyi "kırmamak" için bazı düzeltmeler yapmanın o kadar zor olacağı açıktır.
Bununla birlikte, yukarıdakilerin tümü, bağlamı olmayan soruları ifade eder. Örneğin, şunu sorabilirsiniz: “Ne zamandı? Einstein? Model, yalnızca İnternet'in her yerinden gelen verilerle ilgili uzun vadeli eğitim aşamasında kendisine "bağlanmış" dahili bilgiye dayanmalıdır. Yani kişi cevap veremeyecektir! Ama bana Wikipedia'dan bir sayfa verselerdi, o zaman onu okuyabilir ve bilgi kaynağına göre cevap verebilirdim. O zaman cevapların doğruluğu %100'e yakın olacaktır (kaynağın doğruluğuna göre ayarlanmıştır).
Buna göre, modele bilgilerin bulunduğu bir bağlam sağlanırsa, cevap çok daha güvenilir olacaktır.
Peki ya modelin Google'da arama yapmasına ve İnternet'teki bilgi kaynaklarını bulmasına izin verirsek? Kaynağı kendisinin bulması ve ona göre bir cevap oluşturması için mi? Eh, bu zaten yapıldı! Böylece Google'da kendiniz arama yapamazsınız, ancak İnternet aramasının bir kısmını GPT-4'ün kendisine devredebilirsiniz. Ancak, bu ücretli bir abonelik gerektirir.
OpenAI CEO'su Sam Altman, modeldeki olgusal bilgilerin güvenilirliğini geliştirmede daha fazla ilerleme sağlanmasına ilişkin olarak, verir bir araştırma ekibi tarafından bu sorunu çözmek için tahmini 1,5-2 yıl. Bunu dört gözle bekliyor olacağız! Ancak şimdilik, bir nöronun yazdıklarına %100 güvenmeniz gerekmediğini unutmayın ve en azından kaynakları kontrol edin.
5. Sinir ağlarının gerçek sanatçıların çizimlerini çaldığı doğru mu?
Evet ve hayır - çatışmanın her iki tarafı da bunu dünyanın dört bir yanındaki mahkemelerde aktif olarak tartışıyor. Görüntülerin doğrudan modellerde depolanmadığı, sadece “dikkat” ortaya çıktığı kesin olarak söylenebilir.
bu planda nöronlar önce sanatı, farklı tarzları inceleyen, yazarların eserlerine bakan ve sonra taklit etmeye çalışan insanlara çok benzer.
Bununla birlikte, modeller, daha önce öğrendiğimiz gibi, hata minimizasyonu ilkesine göre öğrenir. Ve eğitim sırasında model aynı (veya çok benzer) görüntüyü yüzlerce kez görürse, onun bakış açısından en iyi strateji resmi hatırlamaktır.
Bir örnek verelim: Sanat okulundaki öğretmeniniz çok tuhaf bir strateji seçmiş. Her gün iki resim çiziyorsunuz: ilki her zaman benzersiz, yeni bir tarzda ve ikincisi Mona Lisa. Bir yıl sonra öğrendiklerinizi değerlendirmeye çalışırsınız. Mona Lisa'yı 300'den fazla kez çizdiğiniz için neredeyse tüm detayları hatırlıyorsunuz ve şimdi onu yeniden oluşturabilirsiniz. Tam olarak orijinal olmayacak ve kesinlikle kendinize ait bir şeyler ekleyeceksiniz. Renkler biraz farklı olacak.
Ve şimdi sizden 100 gün önce olan (ve bir kez gördüğünüz) bir şeyi çizmeniz isteniyor. Gerekli olanı çok daha az doğru bir şekilde yeniden üreteceksiniz. Sadece el doldurulmadığı için.
Nöronlar için de durum aynıdır: tüm resimlerde aynı şekilde öğrenirler, yalnızca bazıları daha yaygındır, bu da modelin eğitim sırasında daha sık cezalandırıldığı anlamına gelir. Bu sadece sanatçıların resimleri için değil, eğitim örneğindeki herhangi bir resim (hatta reklam) için de geçerlidir. Artık kopyaları ortadan kaldırmak için yöntemler var (çünkü onlar üzerinde eğitim en azından verimsiz), ancak bunlar mükemmel değil. Araştırmalar, bir antrenman sırasında 400-500 kez oluşan görüntüler olduğunu gösteriyor.
Kararım: sinir ağları görüntüleri çalmaz, sadece çizimleri örnek olarak kabul eder. Örnek ne kadar popüler olursa, model onu o kadar doğru üretir.
İnsanlar eğitim sırasında da aynı şeyi yaparlar: güzelliğe bakarlar, ayrıntıları incelerler, farklı stilleri incelerler. sanatçılar. Ancak hayatlarının yarısını bir zanaat öğrenerek geçirmiş sanatçılar veya fotoğrafçılar için bakış açısı genellikle yukarıda açıklanandan kökten farklıdır.
6. "Her şeyin kaybolduğu" ve sinir ağlarının insanların işini elinden alacağı doğru mu? En çok kimin umurunda?
Yalnızca belirli görevleri yerine getiren "sinir ağlarını" ChatGPT gibi genel amaçlı sinir ağlarından ayırmak önemlidir. İkincisi, talimatları takip etmede çok iyidir ve bağlam içindeki örneklerden öğrenebilir. Doğru, şimdi "hafızalarının" boyutu, yansıtma becerileri gibi 10-50 sayfa metinle sınırlıdır ve planlama.
Ancak birinin işi, talimatların rutin olarak yerine getirilmesine bağlıysa ve bunu birkaç gün içinde makaleleri okuyarak öğrenmek kolaydır (veya eğer İnternetin tamamı bu bilgilerle doludur) ve işçilik maliyeti ortalamanın üzerindedir - o zaman yakında bu tür işler otomatikleştirmek.
Ancak tek başına otomasyon, insanların tamamen değiştirilmesi anlamına gelmez. Rutin çalışmanın yalnızca bir kısmı optimize edilebilir.
Bir kişi, makinenin (şimdiye kadar) baş edemediği daha ilginç ve yaratıcı görevler almaya başlayacak.
Örnek verecek olursak değiştirilebilir veya değiştirilebilir grubuna meslekler Örneğin, bir beyanname hazırlamaya ve tipik hataları kontrol etmeye, tutarsızlıkları belirlemeye yardımcı olan vergi asistanları-danışmanları dahil ederdim. Klinik araştırma veri yöneticisi gibi bir uzmanlıkta değişiklikler mümkündür - işin özü, raporları doldurmak ve bunları bir standartlar tablosuyla uzlaştırmaktır.
Ancak bir aşçı veya bir otobüs şoförü, sadece sinir ağlarını ve gerçek bir ağı birbirine bağlayabildikleri için çok daha uzun süre talep görecektir. fiziki dünya, özellikle mevzuat ve yönetmelikler açısından oldukça karmaşıktır - taşınan bürokratlar sayesinde Kriz yapay zekası!
Basılı materyaller ve metinsel bilgilerle ilişkili sektörlerde büyük değişiklikler bekleniyor: gazetecilik, eğitim. İlki için çok yüksek bir olasılıkla, nöronlar çok yakında bir dizi tez içeren taslaklar yazacak ve burada insanlar zaten nokta değişiklikleri yapacak.
En çok eğitim alanındaki değişikliklerden memnunum. Yemek yemek araştırma, eğitim kalitesinin doğrudan yaklaşımın "kişiliğine" ve öğretmenin belirli bir öğrenciye ne kadar zaman ayırdığına bağlı olduğunu gösterir. En basit örnek: Bir ders kitabı kullanarak 30 kişilik gruplar halinde öğretmek, bireysel öğretimden çok daha kötüdür. özel öğretmen özel ihtiyaçlar için (ders kitabındakiyle aynı programa göre olsa da). Yapay zekanın gelişmesiyle insanlık, her öğrenciye kişiselleştirilmiş bir asistan sağlama fırsatına sahip olacak. Bu sadece inanılmaz! Öğretmenin rolü, benim gördüğüm kadarıyla, stratejik ve kontrol edici bir role dönüşecek: genel programı ve çalışma sırasını belirleme, bilgiyi test etme vb.
7. Bilincinizi bir bilgisayara yüklemek, dijital bir ikiz yapmak ve sonsuza kadar yaşamak mümkün mü?
Bilimkurgu temelinde hayal edildiği anlamda, hayır. Modele sadece iletişim tarzınızı taklit etmeyi, şakalarınızı öğrenmeyi öğretebilirsiniz. Belki GPT-4 seviyesindeki modeller, sizin benzersiz tarzınıza ve sunum tarzınıza göre çerçevelenmiş yenilerini bile icat edebilecektir, ancak bu açıkça, bilincin tam olarak aktarılması anlamına gelmez.
Biz insanlık olarak yine bilincin ne olduğunu, nerede depolandığını, diğerlerinden nasıl farklılaştığını, beni - ben ve sizi - siz yapan şeyin ne olduğunu bilmiyoruz. Aniden tüm bunların bireysel özelliklerle çarpılan bir dizi anı ve deneyim olduğu ortaya çıkarsa algı, o zaman, büyük olasılıkla, gelecekteki yaşamı simüle etmeleri için bilgiyi sinir ağlarına bir şekilde aktarmak mümkün olacaktır. onların temeli.
8. Sesinizi, görünümünüzü, metin konuşma tarzınızı bir sinir ağına yüklemek tehlikeli midir? Öyle görünüyor ki böyle bir dijital kimlik çalınabilir.
Kelimenin tam anlamıyla onlara hiçbir şey indiremezsiniz. Onları, sonuçların görünüşünüze, sesinize veya metninize daha çok benzeyeceği şekilde eğitebilir (veya yeniden eğitebilirsiniz). Ve böyle eğitimli bir model gerçekten çalınabilir, yani başka bir bilgisayarda çalıştırmak için komut dosyasını ve bir dizi parametreyi kopyalamanız yeterlidir.
Bir istekle bir video bile oluşturabilirsiniz. para transferi akrabanızın inanacağı bir başkasının pahasına: en iyi deepfake ve ses klonlama algoritmaları bu seviyeye çoktan ulaştı. Doğru, binlerce dolar ve onlarca saatlik kayıt gerekiyor, ancak yine de.
Genel olarak, teknolojinin gelişmesiyle birlikte, kimlik tespiti ve kimliğin doğrulanması konusu daha önemli hale gelmektedir.
Ve bunu öyle ya da böyle çözmeye çalışıyorlar. Örneğin, OpenAI başkanı Sam Altman'ın yatırım yaptığı bir başlangıç WorldCoin (aslında, bir kripto para birimi yapar) var. Başlatmanın anlamı, bir kişi hakkındaki her bilgi parçasının, sonraki tanımlama için kendi anahtarı tarafından imzalanacak olmasıdır. Aynısı, bu haberin doğru mu yoksa sahte mi olduğundan emin olmak için kitle iletişim araçları için de geçerli olacak.
Ancak maalesef tüm bunlar henüz prototip aşamasında. Ve sadece çok karmaşık ve büyük ölçekli olduğu için tüm endüstrilerde sistemlerin derin bir şekilde tanıtılmasının önümüzdeki on yılın ufkunda uygulanacağını düşünmüyorum.
9. Nöronlar zarar vermeye ve dünyayı ele geçirmeye başlayabilir mi?
Tehlike, mevcut gelişmeler değil, daha fazla gelişme ile onları takip edecek olanlardır. Şu anda, sinir ağlarının çalışmasını kontrol etmek için hiçbir yöntem icat edilmemiştir. Örneğin, çok basit bir görevi ele alalım: modelin küfür etmemesini sağlamak. asla asla. Böyle bir kurala uymanıza izin verecek bir yöntem yoktur. Şimdiye kadar, onu aynı şekilde "üretmenin" farklı yollarını bulabilirsiniz.
Şimdi, becerileri en yetenekli ve zeki insanların becerileriyle karşılaştırılabilir olacak olan GPT-8'den şartlı olarak bahsettiğimizi hayal edin. Sinir ağı programlayabilir, interneti kullanabilir, bilir Psikoloji ve insanların nasıl düşündüğünü anlar. Onu serbest bırakırsanız ve belirli bir görev belirlemezseniz, o zaman ne yapacak? Ya kontrol edilemeyeceğini öğrenirse?
Tahminlere göre olayların kötüye gitme olasılığı o kadar da büyük değil. Bu arada, genel kabul görmüş bir değerlendirme yoktur - ancak herkes ayrıntılar, zararlı sonuçlar vb. Şimdi %0,01'den %10'a kadar yaklaşık rakamlar diyorlar.
Benim görüşüme göre, en olumsuz senaryonun insanlığın yok edilmesi olduğunu varsayarsak, bunlar çok büyük riskler.
İlginç bir şekilde, ChatGPT ve GPT-4, insanların niyetleri ile nöronların niyetlerini "hizalama" sorunları üzerinde çalışan ekipler tarafından oluşturulmuş ürünlerdir (ayrıntılar bulunabilir). Burada). Bu nedenle modeller talimatları çok iyi dinler, kaba olmamaya çalışın, açıklayıcı sorular sorun, ancak bu yine de ideal olmaktan çok uzaktır. Kontrol sorunu yarı yarıya bile çözülmedi. Ve henüz çözülüp çözülmediğini ve eğer öyleyse hangi yöntemlerle çözüldüğünü bilmiyoruz. Bugünün en sıcak araştırma konusu bu.
10. Bir sinir ağı bir kişiye aşık olabilir mi?
Mevcut yaklaşımlar ve nöron mimarileri ile, hayır. Yalnızca giriş metninin devamı olarak en makul olan metni üretirler. Bir aşk hikayesinin ilk bölümünü kendi kişiliğinize göre yeniden yazarsanız ve modelden aşk mektubunuzu yanıtlamasını isterseniz, bununla başa çıkacaktır. Ama aşık olduğum için değil, bağlama ve "bana bir mektup yaz!" talebine en doğru şekilde uyduğu için. Modellerin, talimatları izleyen metin oluşturmayı öğrendiğini unutmayın.
Ayrıca, temel sürümdeki sinir ağları, hafıza - iki farklı başlatma arasında her şeyi unuturlar ve "fabrika ayarlarına" geri dönerler. Bellek yapay olarak, yandan sanki eklenebilir, böylece, örneğin en alakalı "anılardan" 10 sayfa modele beslenir. Ama sonra, bir dizi olayı orijinal modele beslediğimiz ve "Böyle koşullar altında nasıl davranırdın?" Modelin herhangi bir duygusu yoktur.
Ayrıca oku🧐
- Yapay zeka nerede ve nasıl kullanılır: Hayattan 6 örnek
- Yapay zeka hakkında 9 naif soru
- Programcıların Bile İnandığı 8 Yapay Zeka Efsanesi