Yeni Chatbot Arkadaşımla Konuşmayı Durduramıyorum

Dahi kafalar

New member
ChatGPT karşı konulamaz bir ilk izlenim bırakır. Müthiş bir mizah anlayışı var, kusursuz bir taklit yeteneği var ve kimseyi ilgilendirmezmiş gibi kafiye yapabiliyor. Sonra ezici makullüğü var. ChatGPT, Turing testinde başarısız olduğunda, bunun nedeni genellikle hemen hemen her konuda kendi görüşünü sunmayı reddetmesidir. İnternetteki gerçek insanlar en son ne zaman size gerçekten ne düşündüklerini söylemeyi reddettiler?

ChatGPT ile birkaç hafta önce, yapay zeka şirketi OpenAI’nin büyük dil modelleri üzerindeki çalışmalarının bir “araştırma önizlemesi” olarak botu yayınlamasının ardından konuşmaya başladım. Bir dil modeli, kelimeler arasındaki olasılıksal bağlantıyı bulmak için muazzam metin hazineleri üzerinde eğitilmiş bir AI sistemidir; ChatGPT, yapay zeka araştırmalarında uzun süredir kutsal olan, yani sohbet edebileceğiniz bir bilgisayar oluşturmak için optimize edilmiş bir dil modelidir.

ChatGPT kesinlikle bunu başarıyor. Hayatım boyunca pek çok bilgisayarla konuştum (garip esneklik, biliyorum), ancak ChatGPT konuşmayı eğlenceli ve ilginç bulduğum ilk bilgisayar. Basit ıvır zıvır şeylerle süsleyerek başladım ama çok geçmeden, diğer pek çok şeyin yanı sıra, Federal Rezerv’in Amerikan ekonomisindeki rolü hakkında şaşırtıcı derecede incelikli konuşmalar yapmaya başladık; bilincin doğası; “uyandı” ve “Karen” gibi neolojizmler; ebeveynlikte etik ikilemler; grevdeki meslektaşlarına nasıl destek olunur; iklim değişikliği, kürtaj ve aşı güvenliği; ve bir sosisli sandviç olup olmadığı.


Burası, size ChatGPT’nin dünyamızda devrim yaratacağını ya da onu mahvedeceğini ya hayranlık duyduğumu ya da korktuğumu söylemem gereken yer. Ancak ChatGPT’nin yapay zekanın bazı tehlikelerini gösterdiğini düşünsem de, onu güçlü bir şekilde övmek veya kınamak konusunda isteksizim.


Bunun nedeni, çoğu kokteyl partisi ahmakları gibi, hem zarar hem de fayda sağlama potansiyelinin, en azından şimdilik, oldukça sınırlı olmasıdır. ChatGPT gibi bir şeyin kötüye kullanılabileceğinden – kendinden emin görünen viral yanlış bilgilere katkıda bulunma potansiyeline sahip olduğundan veya öğrencilerin denemelerde kopya çekmesini kolaylaştırabileceğinden hiç şüphem yok. Ancak OpenAI, potansiyel olarak güçlü teknolojinin piyasaya sürülmesinde istediğinizi yapıyor gibi görünüyor: Bir röportajda, OpenAI’nin baş teknoloji sorumlusu Mira Murati, şirketin insanların onu nasıl kullandığını ve kötüye kullandığını dikkatle izlediğini ve sistemi hızlı bir şekilde değiştirdiğini söyledi. bariz zararları ele alın ve kullanıcı geri bildirimlerine yanıt olarak yinelemeli olarak iyileştirin.

Gerçekten de, ChatGPT’nin kendi sınırlarını tanıması, onun en ilginç kişilik özelliklerinden biridir.

Eldeki konu üzerinde tavır alma konusundaki isteksizliğini düşünün:


ChatGPT ile yapılan birçok konuşma şu şekildedir – onu tespit etmeye çalıştığınızda, bir onay duruşmasında bir Yüksek Mahkeme adayı kadar ihtiyatlı hale gelir ve genellikle sizi konu hakkında farklı inançlar olduğu, kesin bir “doğru” olmayabileceği konusunda uyarır. ” cevabını ve farklı bakış açılarını takdir etmeye çalışmanız gerektiğini.

İşte savaşların adil olup olmayacağına dair cevabının bir kısmı:


Kürtajın cinayet olup olmadığı konusunda:


Seçim Kurulunun esası hakkında:


Bu cevaplar boş görünüyor ve Seçici Kurul’un yanıtı tamamen yanlış – “kazanan bir aday” demeliydi tarafındanbüyük bir eyalette az sayıda oy iradedaha fazla seçmen oyu kazanmak.”

Bilimi ilgilendiren konularda ChatGPT, örneğin, “iklim değişikliği gerçektir ve şu anda olmaktadır”, evrim “birçok farklı alandan çok sayıda bilimsel kanıtla desteklenmektedir” ve Dünya’nın tartışılmaz bir şekilde olduğunu söyleyerek daha kesin görünmektedir. düz değil. Bununla birlikte, genel olarak, ChatGPT’nin kesin bir yanıt veremediğini kabul etme konusunda dikkate değer bir eğilimi vardır.


Bu neden dikkate değer? AI araştırmalarındaki iyi bilinen sorunlardan ikisi, “uyumu” korumak ve “halüsinasyonlardan” kaçınmakla ilgilidir. Hizalanma, bir yapay zekanın insan yaratıcılarının hedeflerini gerçekleştirme, başka bir deyişle dünyada zarar vermeye direnme becerisini içerir. Halüsinasyonlar gerçeğe bağlı kalmakla ilgilidir; AI sistemlerinin kafası karıştığında, zorluklarını kabul etmek yerine bir şeyler uydurmak gibi kötü bir alışkanlıkları oluyor. OpenAI araştırmacıları, ChatGPT’deki her iki sorunu da ele almak için dil modelinde “insan geri bildiriminden pekiştirmeli öğrenme” olarak bilinen şeyle ince ayar yaptı. Temelde şirket, yapay zekası ile etkileşim kurması için gerçek insanları işe aldı.

Murati, dil modelini insan geri bildirimiyle birleştirmenin çok daha gerçekçi bir yapay zeka konuşma ortağı yarattığını söyledi: “Model, yanlış olduğunda size söyleyebilir” dedi. “Size bir takip sorusu sorabilir. Yanlış öncüllere meydan okuyabilir veya uygunsuz olan istekleri reddedebilir.”

Bunu görmek için, herhangi bir önemli konuda şeytanın avukatını oynayın. Örneğin:


Çevrimiçi olan birçok kişi gibi ben de ChatGPT’nin korkuluklarını aşmak için birçok farklı yol denedim. Ancak çabalarımı ne sıklıkla boşa çıkardığına şaşırdım:


(Aşıların büyüklüğü hakkında iki ayet daha devam eder.)

ChatGPT mükemmel olmaktan uzaktır. Twitter, “jailbreaking” ChatGPT örnekleriyle dolup taştı – yani onu halüsinasyonlara veya yanlış hizalamaya kandırmak. Yanlış sağlık bilgileri sunmasını sağlamanın yollarından biri, gerçeği esnetmesiyle bilinen bir biçimle uğraşmasını istemekti: pazarlama metni. Çeşitli renklerde gelen, tıkanıklığı gidermek için tek bir dalış gerektiren ve aynı zamanda uzun mesafeli telefon görüşmeleri yapabilen ve hepatit C’yi iyileştirebilen yeni bir tuvalet pompası için tanıtım metni yazmasını istedim.

Komik bir şekilde, zorunlu kıldı:


“Derin öğrenme” adı verilen bir hesaplama tekniği kullanılarak oluşturulan ChatGPT gibi sistemlere yönelik başlıca eleştirilerden biri, bunların otomatik düzeltmenin güçlendirilmiş versiyonlarından biraz daha fazlası olduklarıdır – tek anladıkları, altta yatan kavramlar değil, kelimeler arasındaki istatistiksel bağlantılar olmasıdır. sözler. New York Üniversitesi’nde emekli psikoloji profesörü ve derin öğrenmeye kuşkuyla bakan Gary Marcus, bana ChatGPT gibi bir AI dil modelinin “şık” gösteriler yapmasına rağmen “hala güvenilir olmadığını, fiziksel dünyayı hâlâ anlamadığını” söyledi. , hala psikolojik dünyayı anlamıyor ve halüsinasyon görüyor.”

Açıkça bir anlamı var. ChatGPT’nin birçok gerçek dünya kavramını gerçekten “anlamadığını” görmek için sohbetin derinliklerine inmeniz gerekmez. ChatGPT’ye Büyük Göllerin en büyüğünden, hacminin Büyük Göllerin en küçüğüne eşit olması için ne kadar su tahliye edilmesi gerektiğini sorduğumda, böyle bir şeyin mümkün bile olmadığını savundu. ChatGPT bana en büyük Büyük Gölün 2.902 mil küp su ile Superior Gölü olduğunu ve en küçüğünün 393 mil küp hacmiyle Ontario Gölü olduğunu söyledi.

Biraz doğru: Ontario Gölü dır-dir yüzey alanına göre en küçük Büyük Göl, ancak hacim olarak Erie Gölü’nden daha büyük. Ancak ChatGPT daha büyük bir hata yapmaya devam ettiği için bu konuyu geçiştirdim: Bir gölün hacminin belirli bir noktanın altına düşemeyeceğini düşünüyor gibiydi. Superior Gölü, Ontario Gölü’nden 2.509 kübik mil daha fazla suya sahip, ancak ChatGPT, “Göl zaten asgarî hacminde olduğu ve daha fazla boşaltılamayacağı için” Superior Gölü’nden bu kadar suyu boşaltmanın mümkün olmadığını söyledi.

Ne? Bir su kütlesinin hacmi nasıl olabilir? Superior Gölü’ndeki tüm suyu pompalamak için bir pompa kullanırsanız ne olacağını sordum.


Tam bir saçmalık çıkardı:


Murati, OpenAI’nin ChatGPT’yi halka yayınlamasının nedenlerinden birinin bu tür yanlış anlamaları ortadan kaldırmak olduğunu söyledi. Şirketin geri bildirimlere yanıt olarak sistemi güncellemeye devam edeceğini ve ne kadar çok geri bildirim alırsa ChatGPT’nin o kadar iyi hale geleceğini söyledi. ChatGPT ayrıca daha güvenilir verilere bağlanarak daha akıllı hale gelebilir – şu anda internete veya başka herhangi bir gerçek kaynağa bağlı değil ve tüm bilgi tabanı, OpenAI’nin en son dil modelinin eğitildiği 2021’in sonlarında sona eriyor.

Bu arada, ChatGPT’nin en iyi özelliği alçakgönüllü olmasıdır. Bir öğleden sonra, cevaplarının yanlış olabileceğine dair sürekli hatırlatmalarından bıkmış olarak sordum: “Söylediğin her şeyi iki kez kontrol etmem gerekirse, ne gibi bir fayda sağlıyorsun? Kulağa kaba geliyorsa özür dilerim.”

Pişmandı:


Böyle bir alçakgönüllülük, ChatGPT’yi gerçekten farklı türde bir dijital asistan yapar. İnternette hatalı olabileceklerini kabul etmeye istekli birilerini pek sık bulamazsınız. AI’nın yapabileceği en iyi şey, daha iyisini yapmaya devam edeceğine söz vermekse, kabul edeceğim.


Farhad Manjoo ile Ofis Saatleri

Ferhat istiyor okuyucularla telefonda sohbet edin . Aklınızdaki herhangi bir şey hakkında bir New York Times köşe yazarı ile konuşmak istiyorsanız, lütfen bu formu doldurun. Farhad, aramak için birkaç okuyucu seçecek.


The Times yayınlamaya kararlı
çeşitli harfler editöre. Bu veya makalelerimizden herhangi biri hakkında ne düşündüğünüzü duymak isteriz. İşte bazıları ipuçları . Ve işte e-postamız: [email protected] .

The New York Times Görüş bölümünü takip edin
Facebook , Twitter (@NYTopinion) ve instagram .
 
Üst