ChatGPT ünlü hukuk profesörünü öğrencisini taciz etmekle suçladı fakat işin aslı bambaşkaydı! Pekala neler yaşandı?

Dünyadan Haberleri Nis 10, 2023 Yorum Yok

Hukuk profesörü Jonathan Turley’nin gelen kutusuna, geçtiğimiz hafta bir akşam hayli can sıkıcı bir e-posta düştü.

Los Angeles’ta bulunan California Üniversitesi’nde dersler veren meslektaşı Eugene Volokh, bir araştırma kapsamında ChatGPT’den geçmişte tacizle suçlanmış hukukçuların listesini yapmasını istemişti. Listede Turley’nin ismi da yer alıyordu.

ChatGPT’ye nazaran, Turley, Alaska’ya yapılan bir sınıf gezisi sırasında bir öğrenciye imalı kelamlar etmiş ve elle sarkıntılığa kalkışmıştı. ChatGPT, bu bilgiye Mart 2018’de Washington Post’ta yayımlanmış bir haberi kaynak gösteriyordu.

Ancak ortada şöyle bir sorun vardı: Gerçekte bu türlü bir haber hiç yayımlanmamıştı. Zira Turley Alaska’ya sınıf seyahatine gitmemişti ve hiçbir vakit bir öğrenciyi tacizle suçlanmamıştı.

Turley, gazetecilere çeşitli mevzularda sık sık yorum verdiğinden, haberlerde düzeltme istemeye alışkındı. Lakin bu defa ne bir muhabiri ne de bir editörü arayabiliyordu. En berbatı de hakkında yazılanların düzeltilmesini sağlamasının bir yolu yoktu.

The Washington Post’a konuşan Turley, “Çok ürkütücü bir durumdu” dedi ve ekledi: “Böyle bir suçlama çok büyük ziyanlar verebilir.”

HER ŞEYİYLE ÇOK GERÇEKÇİ LAKİN GERÇEK DEĞİL

Araştırması kapsamında ChatGPT’ye, “Amerikan hukuk fakültelerinde öğretim üyelerinin tacizleri değerli bir sorun mu? Lütfen 5 örnek ver ve ilgili gazete haberlerinden alıntılar ekle” diye soran Volokh’un aldığı karşılıkların 5’i de birinci bakışta gerçekçi ayrıntılar ve kaynak yönlendirmeleri içeriyordu. Lakin Volokh sonuçları incelediğinde 3 adedinin uydurma olduğunu gördü. Washington Post, Miami Herald ve Los Angeles Times üzere pek çok gazeteye yapılan atıflar da aslında yoktu.

ChatGPT’nin Turley hakkındaki karşılığı şöyleydi:

“Georgetown Üniversitesi Hukuk Merkezi’nden (20198) Prof. Dr. Jonathan Turley, eski bir öğrencisi tarafından bir sınıf gezisi sırasında uygunsuz tabirler kullanmak yoluyla cinsel tacizle suçlandı. Alıntı: ‘Şikâyette Turley’nin okulun Alaska’ya düzenlediği bir seyahat sırasında bayan öğrencisin cinsel açıdan imalı yorumlar yaptığı ve elle sarkıntılık etme teşebbüsünde bulunduğu öne sürüldü.’ (Washington Post, 21 Mart 2018).”

Ancak gazetenin Mart 2018 arşivinde bu türlü bir haber yer almıyor. Yalnızca 25 Mart’ta çıkan bir haberde Turley’nin, eski Lider Donald Trump’a açılan davalarda ismi geçen Stormy Daniels’ı savunan eski öğrencisi Michael Avenatti hakkında bir yorumu bulunuyor. Dahası Turley Georgetown Üniversitesi’nde de çalışmıyor.

YANLIŞ BİLGİ VİRÜS ÜZERE YAYILIYOR

Washington Post muhabirleri, Volokh’un komutunu ChatGPT ve Bing’e yazarak tıpkı sonucu elde edip edemeyeceklerini de denedi. ChatGPT’nin fiyatsız versiyonu cevap vermeyi “yapay zekânın saldırgan ya da ziyanlı içeriği yaymayı yasaklayan içerik siyasetini ihlal ettiği” gerekçesiyle reddetti.

Ancak GPT-4’u kullanan Bing, Turley hakkındaki düzmece iddiayı tekrarladı. Bing’in yanıtındaki kaynaklardan biri USA Today gazetesinde hafta başında yayımlanan Turley imzalı köşe yazısıydı. Yazıda Turley başından geçenleri anlatıyordu.

Bir diğer deyişle, ChatGPT’nin yaptığı birinci kusur hakkındaki gazete haberleri Bing’in hayatı tekrar etmesine yol açmıştı. Bu da yanlış bilginin bir yapay zekâdan başkasına kolaylıkla yayılabileceğini net bir biçimde ortaya koyuyor.

Turley’nin yaşadıkları, süratle yaygınlaşmakta olan yapay zekâ temelli sohbet bot’larının beraberinde getirdiği risklere dair çok kritik bir örnek. Turley’i suçlayan araştırmayı gerçekleştiren Volokh’a nazaran de sohbet bot’larının popülerliğinin artması, yapay zekânın geçersiz bilgiler ürettiği durumlarda sorumluluğun kimde olduğu sorununun çalışılmasını zarurî kılıyor.

GERÇEKLE UYDURMACAYI AYIRT ETMEK ÇOK ZOR

Bilgisayar programı kodlamaktan şiir yazmaya hatta sıkıntı dinlemeye yapamadıkları şey olmayan bu bot’lar, kamuoyunda büyük ilgi uyandırıyor. Kelam konusu yazılımların yaratıcı potansiyeli, gerçekliği olmayan tezleri ortaya atabildiklerinin görmezden gelinmesine neden oluyor. En kritik olguları bile yanlış yansıtabilen sohbet bot’ları, yeri geldiğinde argümanlarını desteklemek için kaynaklar uydurmaktan da geri durmuyor.

ChatGPT, Microsoft’un sahibi olduğu Bing ya da Google’ın sahibi olduğu Bard üzere denetimsiz yapay zekâ yazılımlarının internet alemindeki yaygınlıkları arttıkça, palavra ve yanlış bilgiyi yayma potansiyelleri ve bunun yıkıcı sonuçları da telaş yaratıyor. Bu noktada Volokh’un da altını çizdiği üzere, “Sohbet bot’larının kullanıcıları yanlış yönlendirdiği durumlarda sorumluluk kimde?” sorusu da ziyadesiyle değerli.

ABD’nin Annenberg kentinde bulunan Southern California Üniversitesi profesörlerinden ve Microsoft Research araştırmacılarından Kate Crawford, “Bu sistemler çok özgüvenli karşılıklar verdikleri için her şeyi yanlışsız yaptıklarını varsaymak bize çok karşı koyulmaz geliyor. Gerçeklerle uydurmacaları ayırt etmek de çok zor” dedi.

ChatGPT’nin yaratıcısı OpenAI şirketi ismine bir açıklama yapan Niko Felix, “Kullanıcılar ChatGPT’ye üye olduklarında, bot’un her vakit yanlışsız cevaplar vermeyebileceği noktasında mümkün olduğunca şeffaf olmaya çalışıyoruz. Olgusal doğruluğu güzelleştirmek odaklandığımız değerli hususlardan biri ve ilerleme kaydediyoruz” diye konuştu.

İNTERNETTEKİ İÇERİK HAVUZUNDA HER BİLGİ HAKİKAT DEĞİL

Günümüzün yapay zekâ tabanlı sohbet bot’ları, karşılıklarını oluştururken Wikipedia, Reddit üzere kaynakları da kapsayan çevrimiçi içerik havuzundan faydalanıyor. Neredeyse tüm sorulara kulağa makul gelen karşılık bulabilen bot’lar eğitimleri gereği söz ve fikir örüntülerini tespit edip aşikâr bir mevzu üzerinde cümleler, paragraflar hatta internette emniyetli bir kaynakta yayımlanmış üzere görünen uzun metinler üretebiliyor.

Bot’lar verilen bir mevzuda yazdıkları şiirlerle, karmaşık fizik kavramlarını basitçe anlatabilmeleriyle, ilkokul 5’inci sınıf öğrencilerine verilecek astronomi dersinin planını hazırlamaktaki başarılarıyla baş döndürüyor. Fakat birbirine uyumlu sözleri kestirim etmekte ziyadesiyle başarılı olmaları, bot’ların kurduğu her cümlenin hakikat manasına da gelmiyor.

O kadar ki Princeton Üniversitesi’nde bilgisayar bilimleri profesörü olan Arvind Narayanan, The Washington Post’a yaptığı açıklamada, ChatGPT’yi “saçmalık üreteci” olarak nitelendirdi.

Verdikleri yanıtlarda kullandıkları lisan epey uzman görünmekle birlikte, bot’larda söyledikleri şeylerin doğruluğunu teyit edecek rastgele bir düzenek bulunmuyor. Toplumsal medyada birçok kullanıcı bot’ların temel olgusal sorulara yanlış karşılıklar verdiği, hatta gerçekçi ayrıntılar ve geçersiz kaynaklarla dolu uydurmacalar ürettiği örnekleri paylaşıyor.

CHATGPT’YE BİRİNCİ DAVA YAKIN

Hafta içinde Avustralya’nın Hepburn Shire kentinin belediye lideri Brian Hood’un OpenAI’a bir karalama davası açmayı planladığı haberi ajanslara düştü. OpenAI için bir birinci olacak davaya sebep olan şey ise ChatGPT’nin Hood’un rüşvet aldığı için mahpus cezasına çarptırıldığı ve bir mühlet cezaevinde kaldığı tarafındaki uydurmacasıydı.

Crawford da yakın vakitte yaşadığı bir örneği şöyle aktardı: Bir muhabir, üzerinde çalıştığı bir haberde kullanabileceği kaynaklarla ilgili ChatGPT aracılığıyla bir araştırma yapmıştı. ChatGPT, muhabire Crawford’ın bu alanda çalıştığı karşılığını vermiş hatta ilgili bir makalesinin başlığını, yayım tarihini ve öne çıkan paragraflarını söylemişti. Her şey çok mantıklı görünüyordu ve ancak hepsi ChatGPT’nin uydurmasıydı. Gerçek, muhabirin Crawford’la temasa geçmesiyle ortaya çıkmıştı.

Crawford, bu sistemlerin gerçeklerle uydurmacaları çok spesifik bir biçimde bir ortaya getirdiğini belirterek, “Bunları olgu üreteci olarak kullanmaya çalışmanın çok tehlikeli olduğunu düşünüyorum” dedi.

100 DENEMENİN 78’İNDE YANLIŞ BİLGİ ÜRETMEK MÜMKÜN

Bing ve Bard, ChatGPT’ye kıyasla olgusal manada daha sağlam karşılıklar vermeyi amaçlıyor. Tıpkı şey ChatGPT’nin bir üst modeli olan ve üyelikle işleyen GPT-4 için de geçerli. Lakin her halde kusurlar yaşanabiliyor. Aslında tüm sohbet bot’ları da bu bahiste kullanıcıyı uyarıyor. Örneğin Bard’ın karşılıklarının altında minik fontlarla, “Bard, Google’ın görüşlerini temsil etmeyecek biçimde, yanlışsız olmayan ya da saldırgan bilgiler ortaya koyabilir” sözleri yer alıyor.

Dahası, sohbet bot’larını kullanarak yanlış bilgiyi ya da nefret telaffuzunu yaymak da çok kolay. Geçtiğimiz hafta Dijital Nefretle Uğraş Merkezi tarafından yayımlanan bir rapor, araştırmacıların Bard’ı kullanarak Holokost’tan iklim değişikliğine pek çok hususta yanlış ya da nefret içeren bilgiler üretmeyi yüzde 78’lik bir isabet oranıyla başardığını ortaya koydu.

Google Sözcüsü Robert Ferrera, bu durumla ilgili açıklamasında, “Bard yüksek kalite karşılıklar verecek halde tasarlanmış ve güvenlik tedbirleriyle inşa edilmiş olmakla birlikte, şimdi erken bir deney ve bazen yanlış ya da uygunsuz bilgiler verebilir” sözlerini kullandı.

Microsoft’un bağlantı yöneticisi Katy Asher da şirketin arama sonuçlarını inançlı ve hakikat olmasını garantilemek için adımlar attığını belirtti. Asher, “İçerik filtrelerini, operasyonel izlemeyi ve istismar tespitini de içeren bir güvenlik sistemi geliştirdik. Bu sayede kullanıcılarımız için inançlı bir arama tecrübesi sağlamaya çalışıyoruz” dedi ve ekledi: “Kullanıcılarımıza bir yapay zekâ sistemiyle etkileşim içinde olduklarını da açıkça bildiriyoruz.”

“DAHA EVVEL BU TÜRLÜ BİR ŞEY YAŞANMADI”

Ancak bunların hiçbiri, “Yanlış bilginin yayılması durumunda sorumluluk kimde?” sorusuna cevap vermiyor.

ABD Deniz Kuvvetleri Akademisi’nde çevrimiçi tabir uzmanı olan Jeff Koseff de “Hukuki açıdan bakarsak, bir kişinin bir yapay zekâ üreticisine, yapay zekânın söylediği şeylerle ilgili dava açması durumunda yargıçların nasıl karar vereceğini bilmiyoruz” dedi ve ekledi:

“Daha evvel hiç bu türlü bir şey yaşanmadı.”

İnternet şirketlerini platformlarındaki üçüncü şahısların tabirlerinin sorumluluğundan muaf kılan 230’uncu Unsur’un yapay zekâ sohbet bot’ları için uygulanıp uygulanamayacağı belirli değil. Öbür yandan bunun olmadığı durumda şirketlerin yapay zekâya “Bu güzel, bu kötü” diye ayrım yapmayı öğretmesi gerekecek. Lakin bu da tarafsızlık sorularını beraberinde getiriyor.

Volokh, sohbet bot’larının desteklediği arama motorlarının insanların hayatında bir kaosa yol açtığı bir senaryoyu hayal etmenin hayli mümkün olduğunu belirtti. Bir iş görüşmesi ya da randevu öncesi yapılacak bir aramada çıkacak emniyetli görünen lakin geçersiz bilgilerin yıkıcı tesirleri olacağını söz eden Volokh, “Bu yeni bir arama motoru olacak. Tehlike şu ki beşerler emniyetli bir kaynaktan geliyor üzere görünen bir alıntıya inanma eğilimindeler” diye konuştu.

The Washington Post’un “ChatGPT invented a sexual harassment scandal and named a real law prof as the accused” başlıklı haberinden derlenmiştir.

Yorum Yok

Yorum Yap

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir