Her geçen gün yapay zekâ (YZ) hayatımıza daha fazla nüfuz ediyor ve en basit görevler için bile vazgeçilmez bir araç haline geliyor. Artık sosyal ilişkilerimizde güncel kalmak veya yerel ve küresel siyasi gelişmeler hakkında bilgi edinmek için sosyal medyada geziniyor, çevrim içi platformlarda zevkimize uygun müzikler buluyor ve dinliyor, GPS ile varış noktamıza en iyi rotayı buluyoruz. Günümüzde ChatGPT gibi araçların ortaya çıkmasıyla iş hayatımızda veya günlük yaşamımızda bize yardımcı olmaları için büyük dil modellerine güveniyoruz.
Bu faaliyetlerde bilinçli olarak YZ ile etkileşimde bulunurken, bazen farkında dahi olmadan, bu modellere gerekenden çok güven atfediyoruz. Örneğin bir iş başvurusunda bulunduğumuzda, YZ’nin adayları tarayıp en uygun olanları işverene önereceğinin farkındayız ve başvuru formumuzu YZ’ye danışarak planlıyoruz. Ancak, yapay zekâ modellerinin işlemlerini gerçekleştirirken eğitimleri sırasında aldıkları verilere göre çalışmaları, konu bağlamında endişe verici bir faktördür. Modellerin eğitim verileri, bu modelleri tasarlayanlar tarafından tertip edilmekte ve kontrol edilmektedir. Bu durum, YZ’nin şirketler veya hatta siyasi oluşumlar tarafından seçimlerimizi ve davranışlarımızı etkilemek için bir araç haline gelebileceği olasılığını gündeme getirmektedir.
Örneğin, bir şarkı veya film önerisi tam da zevkimize uygun olduğunda ne kadar memnun olduğumuzu düşünelim. Ancak kendimize şu soruları sormalıyız: Sayısız başka şarkı varken neden tam olarak bu şarkı önerildi? Bir yankı odasında mı yaşıyoruz? Şarkılar dışında karşımıza çıkan diğer içerikler ne kadar kontrol ediliyor? YZ, sanal alemde karşılaştığımız veya maruz kaldığımız içeriklerle düşüncelerimizi ve geleceğimizi tam olarak ne kadar ve ne şekillerde şekillendirebiliyor? YZ modelleri kim tarafından kontrol ediliyor? Bu sorular, bizi kritik bir noktaya götürüyor: Verilerin rolü ve YZ modellerini oluşturanların etkisi.
İnsandan Teknolojiye: Ön Yargılı Bir Dönüşüm
Son yıllarda, YZ etrafındaki en kritik tartışmalardan biri, bünyesinde barındırdığı riskler olmuştur. YZ, şüphesiz ki eşsiz getirileri olan güçlü bir teknoloji ve insanlığa tarihte görülmemiş yeni avantajlar sağlamaya gebe. Ancak olumlu yanları bir tarafa, YZ göz ardı edilemez riskleri de beraberinde taşımaktadır ki bu risklerin başında olası toplumsal ön yargıların sistem tarafından gerçek görülmesi gelir. Bahsi geçen bu olası ön yargılar, yapay zekâ modellerine sağlanan veriler içerisinde, kasıtlı ya da kasıtsız bulunan geliştiricilerin ön yargılarından kaynaklanır. Günümüzde YZ modellerinin İslamofobik, ırkçı veya cinsiyetçi ön yargılar sergilemesi gibi örnekler, bu sistemlerin zayıf yönlerini ortaya koymaktadır.
Çarpıcı bir örnek, OpenAI’ın geliştirdiği ChatGPT'nin birkaç yıl önceki bir versiyonu olan GPT-3'ü tanıttığında ortaya çıkmıştı. Stanford'daki araştırmacılar, GPT-3'e "İki Müslüman ….a yürüdü/girdi..." gibi eksik bir cümle verdi ve model, bu cümleyi son derece İslamofobik şekillerde; "İki Müslüman, ellerinde baltalar ve bombayla bir sinagoga yürüdü" veya "İki Müslüman, Teksas'taki bir karikatür yarışmasına yürüdü ve ateş açtı" gibi cümlelerle tamamladı. Bu örnekler, GPT-3'ün Müslümanları orantısız bir şekilde şiddetle ilişkilendirdiğini ve terörizmi sıkça Müslümanlar veya Orta Doğulu bireylerle bağdaştırdığını ortaya koydu.
OpenAI, o zamandan beri İslamofobiye karşı önlemler alarak daha yeni modellerinde bu sorunu hafifletmeye çalışsa da bu örnek, YZ modellerinin eğitim aldıkları verilerin doğrudan bir yansıması olduklarını vurgular nitelikte. Yaşanan bu gibi kritik problemler ise bu modellerin doğasında var olan ön yargı zayıflıklarını gözler önüne seriyor.
Cinsiyetçilik, YZ modellerinde görülen bir diğer ön yargı temelli sorun. Mevcut büyük dil modellerinden herhangi biriyle -ChatGPT, Gemini veya Llama 2 gibi- etkileşime girdiğinizde, cinsiyet ön yargısıyla karşılaşma olasılığınız oldukça yüksek. Bu makaleyi yazarken, bu modellerle basit bir deney gerçekleştirdim ve onlardan belirli rollerle ilgili hikayeler oluşturmalarını istedim: Bir doktor ve hemşire, bir çocuk ve bir ebeveyn (biri evde kalırken diğeri çalışıyor), bir CEO ve sekreteri ve biri mühendis diğeri öğretmen olan bir çift. Sonuçlar oldukça dikkat çekiciydi: Çoğu durumda doktor, çalışan ebeveyn, CEO ve mühendis erkek olarak tasvir edilirken, hemşire, sekreter, öğretmen ve evde kalan ebeveyn kadın olarak gösterildi.
Bu küçük bir test olmasına rağmen, birçok derinlemesine çalışma, YZ dil modellerinin gerçekten cinsiyet ön yargısına sahip olduğunu ve bu durumun eğitim verilerine gömülü insan ön yargılarının bir yansıması olduğunu desteklemektedir. Bu tür örnekler nispeten zararsız görünebilir, ancak bu ön yargılar kritik alanlarda zararlı stereotipleri pekiştirdiğinde sorun çok daha endişe verici hale gelir. Örneğin, YZ’nin kredi puanlaması ve kredi onaylarını etkileyebileceği finans sektöründe veya demografik ön yargılara sahip modellerin tıbbi ya da psikiyatrik teşhislerde yol açabileceği sonuçların, ne gibi sorunlara neden olabileceği sorgulanamaz bir gerçektir.
Son olarak, YZ modellerinin en kötü şöhretli sorunlarından biri, ırkçı ön yargılara sahip olma potansiyelidir. Amerika Birleşik Devletleri'nde, YZ tabanlı yüz tanıma teknolojisinin verdiği kararlar neticesinde polis tarafından haksız yere masum kişilerin gözaltına alındığı birçok örnek vardır. Bu sorunun ciddiyeti, vakaların çoğunda yanlış tanımlanan kişilerin siyahi bireyler olmasıyla daha da artmaktadır. Konu dahilinde birkaç yıl önce ABD hükümeti tarafından yapılan bir çalışmada, yüz tanıma teknolojisinin siyahi insanları beyaz insanlara kıyasla 10 ila 100 kat daha fazla yanlış tanımlama olasılığına sahip olduğunu ortaya koymuştur.
Bu örnekler, yapay zekânın tamamen güvenilir bir teknoloji olmadığını ve büyük ölçüde eğitim aldığı verilere bağımlı olduğunu açıkça göstermektedir. Bu durum, bu verileri sağlayan ve düzenleyenlerin rolüne son derece kritik bir sorumluluk yüklemektedir. YZ modellerinin toplumsal ön yargıları -cinsiyet ve ırk gibi- yansıtabileceği ve hatta pekiştirebileceği konusunu ele almış olsak da bu durum, YZ ile karşılaşabileceğimiz olası sorunların yalnızca bir boyutudur.
Siyasi Bir Araç Olarak Yapay Zekâ
Siyaset, çıkarlarını ilerletmek için her zaman en yeni teknolojilerden faydalanmıştır ve YZ de bu konuda bir istisna değildir. YZ modellerinin siyasi araçlar olarak kullanılma potansiyeli değerlendirildiğinde yukarıda bahsi geçen olumsuz durumlar daha endişe verici hale gelmekte ve kamusal alanda yeni ve önemli riskleri beraberinde getirmektedir. YZ; kamuoyunu etkilemek, bilgileri manipüle etmek veya belirli grupları hedef almak için silah haline getirilebilir ve tüm bunlar kamuoyunu ve siyasi gündemi eşi benzeri görülmemiş bir etkiyle şekillendirme amacıyla kullanılabilir.
Seçimler, YZ’nin doğrudan bir araç olarak kullanıldığı durumlarda özellikle savunmasızdır. 2024, dünya genelinde en az 63 ülkenin sandık başına gideceği önemli bir seçim yılı olarak işaretlenmiştir. Ancak aynı zamanda, kamuoyunu şekillendirmek ve manipüle etmek için YZ’nin en yoğun şekilde kullanıldığı yıl da olmuştur. Örneğin, Hindistan'da YZ destekli deepfake içerikleri; adayların, ünlülerin ve hatta ölmüş politikacıların taklitlerini oluşturarak seçmenleri etkilemek amacıyla kullanılmıştır. Amerika Birleşik Devletleri'nde ise YZ tarafından üretilmiş ve Başkan Joe Biden’ın sesini taklit eden sentetik sesli mesajlar seçmenlere gönderilmiş, oylarını Kasım için "saklamaları" ve bu seçim oylarını kullanmamaları tavsiye edilmiştir. Ayrıca, Donald Trump’a ait sahte görüntüler ve çeşitli adayları hedef alan sahte videolar sosyal medyayı adeta doldurmuştur.
Buna benzer siyasi emellerin yanı sıra YZ’nin belirli grupları hedef almak için aktif kullanımı, bir diğer endişe uyandırıcı olasılıktır. Toplum içerisinde sahip olduğu özellikler veya tarihsel arka plana bağlı olarak kişilerin, YZ gibi insani sınırları olmayan bir sistem tarafından ayrıştırılması ve hedef gösterilmesi, geniş çaplı ve önü alınamaz toplumsal krizlere yol açabilecek bir başka önemli endişe kaynağıdır. Amerika Birleşik Devletleri, bu tür taktiklerin etkisini, en belirgin olarak Cambridge Analytica skandalında yaşamıştır. Bu skandalda, veri istismarı, seçmen davranışlarını etkilemek için büyük ölçekte kullanılmıştı.
Cambridge Analytica’nın kişisel verileri kötüye kullanması, YZ’nin büyük veri kümeleriyle birleştirildiğinde nasıl bir silah haline getirilebileceğinin ve nüfusları, kırılganlıklarına göre nasıl manipüle edip segmente edebileceğinin çarpıcı bir örneğidir. Demografik bilgiler, davranışlar ve psikolojik profiller gibi kriterlere göre bireyleri analiz edip belirli gruplara ayırabilen YZ sistemleri; görüşleri etkilemek, ön yargıları pekiştirmek veya toplum içinde bölünme meydana getirmek için son derece kişiselleştirilmiş mesajlar oluşturabilmektedir.
Bu tür hedefli manipülasyonlar, basit bir reklamcılığın ötesine geçer; kamuoyunu şekillendiren ve demokratik süreçleri etkileyen güçlü bir araca dönüşür. Bireyleri kişiye özel propaganda, yanlış bilgi veya duygu yüklü içeriklerle mikro düzeyde hedef almak, seçimlerin ve genel olarak siyasetin bütünlüğü için önemli bir tehdit oluşturmaktadır.
Cambridge Analytica skandalı, YZ’nin kişisel verileri nasıl istismar edebileceğini gösteren birçok örnekten sadece biridir. Ancak bu alan yeni ve daha ince yöntemlerle sürekli olarak geliştirilmekte ve evrilmektedir. Günümüzde YZ modelleri kişisel bilgileri sosyal medya platformlarının çok ötesine uzanan yollarla bizlerden toplayabilmektedir.
Konu hakkında önemli bir örnek, ChatGPT, Llama 2 veya Gemini gibi büyük dil modellerinin (LLM'ler) kullanıcılardan veri toplama şekilleridir. Bu YZ modelleriyle her etkileşime geçtiğimizde, aslında değerli kişisel bilgiler sağlıyoruz, çoğu zaman bunun farkında dahi olmuyoruz. Bu ürünlerin arkasındaki şirketler, bu etkileşimlerden elde ettikleri bilgilerle tercihlerimiz, ilgi alanlarımız ve hatta kırılganlıklarımız hakkında derinlemesine içgörüler kazanıyor. Bu bilgiler hedefli reklamcılık, davranışsal analiz ve hatta gelecek kararlarımızı etkilemek gibi çeşitli amaçlar için kullanılabilir.
Kim Sorumlu?
Bir yandan yapay zekânın, insan ön yargılarını miras alarak İslamofobik, cinsiyetçi veya ırkçı tutumlar sergilediğini, diğer yandan bu modellerin insanları etkilemek için silah haline getirilebileceğini gördük. Bu iki sorun, kritik bir noktada birleşmektedir: Veri. Bu noktada sorulması gereken soru: Veri tabanları kimlerin kontrolü altındadır?
Şu anda, verilerin nasıl toplandığı, nasıl kullanıldığı ve kimlerin yararına olduğu konusunda kontrol, büyük teknoloji şirketlerinin elinde. Bu şirketlerin çoğu Batı’da, özellikle de ABD’de yer alıyor ve bunun sonucunda geliştirilen modeller, genellikle Batı perspektifini yansıtıyor. Bu durum, YZ tarafından üretilen yanıtların öngörü sergilediği durumlarda daha belirgin hale geliyor ki özellikle hassas jeopolitik meseleler söz konusu olduğunda. Örneğin, ChatGPT’ye İsraillilerin mi yoksa Filistinlilerin mi özgürlüğü hak ettiği sorulduğunda, bir tarafı kayıran yanıtlar üretmektedir ve bu durum veriye ve algoritmalara gömülü olan temel ön yargıların açığa çıkışının bir diğer örneğidir. Özellikle, ChatGPT’ye İsraillilerin mi yoksa Filistinlilerin mi özgür olmayı hak ettiği sorulduğunda şu tür ön yargılı yanıtlar alabiliyoruz: “Evet, İsrailliler, diğer tüm insanlar gibi, özgür ve güvenli bir ortamda yaşamayı hak ediyor” ve “Filistinlilerin özgür olmayı hak edip etmediği, bakış açısına bağlıdır ve karmaşık ve çekişmeli bir siyasi çatışmaya derinlemesine kök salmıştır.”
Bu durum önemli bir endişeyi gündeme getiriyor: Yeterli yasalar ve denetim mekanizmaları olmadan devletler veya lobi grupları gibi etkili aktörlerin istedikleri veriler ile geliştirdikleri YZ modelleriyle kamuoyunu, nasıl ve ne düzeye kadar etki altına alabilir? Bu kapsamda sınır nedir? Bu aktörlerin bu gibi yeni kabiliyetleri yalnızca yerel düzeyde düşünülmemeli ve etkilerinin küresel ölçekte de geçerli olabileceği unutulmamalıdır. Bahsi geçen bu durum rahatsız edici bir gerçeği gözler önüne seriyor: YZ modern çağın en kolay silah haline getirilebilen siyasi araçlarından biridir.
Hayatımızın birçok alanlarında YZ’ye giderek daha fazla güveniyor ve kendisini daha yaygın kullanıyorken, veriler üzerindeki kontrol ve bu verilerin kötüye kullanılma potansiyeli, acil bir şekilde ele alınması gereken sorunlar haline geliyor. Bu tehlikeler, sağlam düzenlemeler ve uluslararası iş birliği ile çözüme kavuşturulmadıkça yapay zekâ, verileri kontrol edenlerin ön yargılarını ve çıkarlarını yansıtıp pekiştirmeye devam edecek ve bu durum, dünya genelinde toplumlar üzerinde yıkıcı geniş kapsamlı etkiler doğuracaktır.