Kriter > Dış Politika |

Yapay Zekâ Hata Yaptığında: İsrail'in Filistin Halkını İnsandışılaştırma Yöntemleri


Yapay zekânın kullanıldığı çeşitli alanlar arasında muhtemelen askeri sektör, en büyük soru işaretlerine sahip ve problematik alandır. YZ’nin yanlış ellere düşmesi veya kötüye kullanılması durumunda yıkıcı sonuçlara neden olabileceği geçmişte göz ardı edilemez bir olasılık olarak değerlendiriliyordu. Ne yazık ki günümüzde Gazze’ye bakıldığında bu durumun yalnızca bir olasılık olmadığı ve sivil kaybın ötesine geçen daha derin bir soruna gebe olduğu anlaşılıyor.

Yapay Zek Hata Yaptığında İsrail'in Filistin Halkını İnsandışılaştırma Yöntemleri
İsrail ordusunun çekildiği Gazze'deki Şifa Hastanesi ve çevresinden geriye enkaz kaldı. (Mahmoud Issa / AA, 21 Nisan 2024)

Yıllar içerisinde yapay zekâ (YZ), günlük yaşamımızın ayrılmaz bir parçası haline gelmiş ve bizlere birçok başlıkta kolaylıklar-avantajlar sağlamaya başlamıştır. Ancak, bu avantajların yanında, YZ'nin insan hayatı için, "Terminator" gibi filmlerde ele alındığı üzere, doğrudan bir tehdit oluşturma potansiyeliyle ilgili endişeleri de beraberinde getirmiştir.

YZ'nin kullanıldığı çeşitli alanlar arasında muhtemelen askeri sektör, en büyük soru işaretlerine sahip ve problematik alandır. YZ’nin yanlış ellere düşmesi veya kötüye kullanılması durumunda yıkıcı sonuçlara neden olabileceği, geçmişte göz ardı edilemez bir olasılık olarak değerlendiriliyordu. Ne yazık ki günümüzde yaşanan İsrail-Filistin çatışmasına bakıldığında bu durumun yalnızca bir olasılık olmadığı ve sivil kaybın ötesine geçen daha derin bir soruna gebe olduğu anlaşılıyor. Bugün YZ’nin operasyonel düzeyde kullanıldığını bildiğimiz İsrail’in Gazze saldırısında ne yazık ki tarifi güç kitlesel can kayıpları ve insanlık dışı kararlar ile karşılaşmaktayız.

İsrail, özellikle son aylarda, HAMAS militanlarını hedef almak için YZ algoritmalarını kullanmış ve bu karar, büyük ölçekli sivil kayıplara neden olmuştur. 7 Ekim 2023'teki HAMAS sınır ötesi baskınından bu yana, çoğunlukla kadın ve çocuklardan oluşan 34 bin 262 Filistinli öldürülmüş ve 77 bin 229 kişi yaralanmıştır. Bu noktada, savaşta YZ’nin yanlış kullanımından kaynaklanan sivil halk arasında kabul edilemez boyutlardaki can kayıpları dışında, ciddi bir başka soruna daha şahit olunulmuştur. Bu sorun, Filistin halkının insandışılaştırılması (dehumanization) olmuştur. Bu insandışılaştırma, son aylarda İsrail tarafından gerçekleştirilen katliamların ölçeğinin ve şiddetinin önemli ölçüde artmasında büyük bir rol oynamıştır.

 

YZ'nin Savaş Üzerindeki Etkileri ve Kullanımı

YZ tek tip veya yalnız tek bir teknoloji değildir. Bunun yerine, bünyesinde çoklu sistem türlerine bilişsel yetenekler kazandıran çeşitli teknolojileri kapsamakta ve bu teknolojileri bir araya getirmektedir. Bu çeşitlilik, YZ'nin askeri sahada önemli avantajlar sağlamasına neden olmaktadır. YZ, askeri sistemlerin bilişsel işlevlerini artırarak büyük miktarda veriyi kısa bir sürede işlemeyi sağlayabilmekte veya insanlar için zorlu olan ortamlarda insan faktörünü elimine ederek operasyonel başarılar elde edebilmektedir. Bu başlıklar dışında YZ, ayrıca, istihbarat-gözetleme-keşif (ISR) faaliyetleri, muharebe ve sürü operasyonları, lojistik ve siber uzay gibi alanlarda da uygulanabilmektedir.

Bugün YZ’nin askeri kullanımlarından biri, birden çok askeri operatörün verimli bir şekilde toplayıp işleyemeyeceği boyutlardaki verileri hızla bir araya getirip analiz etmektir. Bu verilerin analizi sonrası YZ algoritmaları, karar vericilere kritik tavsiyeler sağlayabilmekte ve savaş alanında kritik taktiksel avantajlara kapı aralayabilmektedir.

Sahip olduğu bu geniş kullanım alanıyla YZ, savaşın nasıl yürütüldüğünü doğrudan etkileyebilmektedir. Sunduğu otomasyon sayesinde karar verme sürecinin ayrılmaz bir parçası haline gelmekte ve gözlem, tespit, hedefleme ve karar alım süreçlerinin insan üstü bir hızla gerçekleştirilmesini sağlayabilmektedir ki bu durumun, savaşları insanların takip edemeyeceği bir hız düzlemine sokabileceği ve sistem üstündeki insan kontrolünün kaybına dahi neden olabileceği öngörülmektedir. Hedefleme işlemlerini daha hassas/isabetli hale getirirken ölümcüllüğü artıran YZ, kendisini kimin kontrol ettiğine bağlı olarak sivil kayıpları da çoğaltabilmektedir. Ancak, günümüzde YZ algoritmalarının kendi başına sivil kayıpları doğrudan artırdığı söylenemez. Bunun yerine, savaşta ve sivil kayıplarda derin bir etkiye sahip olan faktör, bu algoritmaların nasıl programlandığına ve hangi verilerden beslendiğine -esasen "algoritmanın arkasındaki el"- bağlıdır. Bu, İsrail'in Filistinlileri hedeflemek için YZ’yi nasıl kullandığını örneklendirmekte ve bu teknolojinin yönlendirilmesinde-sonuçlarında insan denetiminin ne denli önemli olduğunu vurgulamaktadır.

Savaşta yapay zeka

İsrail'in Yapay Zekâ Kullanımı ve Filistinlileri İnsandışılaştırma Yöntemleri

"The Gospel", "Lavender" ve "Where’s Daddy", İsrail’in Gazze'de şüpheli HAMAS askerlerini ve onların ikametgahlarını belirlemek ve izlemek için kullandığı bilinen üç ana YZ algoritmasıdır. Basit bir şekilde ifade etmek gerekirse, "Lavender" bireylere odaklanır ve potansiyel olarak yok etmek üzere bir "öldürme listesi" oluştururken, "The Gospel" HAMAS tarafından kullanıldığı iddia edilen binaları ve tesisleri tanımlamaktadır. "Where’s Daddy?" ise bu hedefleri izler ve İsrail askeri personeline hedeflerin aile ikametgahlarına döndüklerinde uyarıda bulunarak, hedefe saldırıyı kolaylaştırır.

+972 Magazine'de yakın zamanda yayımlanan bir makale, İsrail kaynaklarından rahatsız edici açıklamaları gün yüzüne çıkarmış, rahatsız edici bir gerçekliği de gözler önüne sermiştir: İsrail, eylemlerini haklı çıkarmak için 7 Ekim olaylarını kullanmakta ve nüfusun çoğunluğunu potansiyel hedefler olarak sınıflandırarak, Filistinlileri etkin bir şekilde insandışılaştırmaktadır.

Lavender olarak bilinen YZ sistemi, HAMAS ve İslami Cihad askeri fraksiyonlarının şüpheli üyelerini tespit etmek için tasarlanmıştır ve düşük rütbeli bireyleri bile potansiyel hava saldırıları için hedef olarak göstermektedir. Bu algoritma, binlerce istihbarat görevlisinin kapasitelerini aşacak şekilde büyük miktarda veriyi analiz edebilmekte ve sonrasında potansiyel askeri eylemler için bireyleri belirlemektedir. İsrail ordusu önceden birkaç yıl içinde sadece 50 hedef belirleyebilirken, Lavender sistemi ile şimdi günlük 100 hedef belirleyebilmektedir. Tahminlere göre Lavender, 37 bin Filistinliyi ve onların ikametgahlarını potansiyel hava saldırısı hedefleri olarak işaretlemiştir.

Bu durum içerisinde ana problem, bir HAMAS personelinin kim olduğunun belirlenmesi için Lavender tarafından kullanılan veri analiz metodolojisinden kaynaklanmaktadır. Sistem, bireyleri giyim, telefon kullanımı ve hareket modelleri gibi çeşitli davranışlara dayanarak 1'den 100'e kadar puanlamakta ve HAMAS askeri kanatlarıyla olan muhtemel ilişkilerini tahmin etmektedir. Bu çerçevede bir HAMAS personelini tanımlamakta kullanılan kriterler, 7 Ekim olaylarından bu yana önemli ölçüde genişletilmiştir. Hedef kriterlerinde gidilen bu genişletme sonucu, kamuoyunda hedef sınıflandırmalarının doğruluğu ve etikliği konusunda ciddi endişeler baş göstermiştir.

Lavender sisteminin görünürde yüzde 10 hata oranına sahip olmasına rağmen, İsrail ordusu 7 Ekim saldırılarını bir gerekçe olarak kullanarak bir HAMAS personelini oluşturan özelliklere dair tanımı çok daha genelleştirmiş ve toplumun geniş bir kısmını kapsayıcı bir çapta uygulamıştır. Bu, İsrail için tehdit oluşturmayan ve HAMAS ile bağlantısı olmayan Filistinli nüfusun geniş bir yelpazesinin hedef alınmasına yol açmıştır. İsrail bu bireyleri potansiyel hedefler olarak işaretleyerek bu kişilerin yaşam haklarını fiilen ellerinden almakta; bu şahısları insandışı bir şekilde görmekte ve eylemlerini haklı çıkarmaya çalışmaktadır.

İsrail Savunma Kuvvetleri (İSK), aynı 7 Ekim gerekçesini kullanarak, artık Lavender sisteminin çıktılarını veya altta yatan istihbaratı nadiren doğrulamakta ve bu durum konuyu daha da karmaşık hale getirmektedir. 7 Ekim saldırılarından sonra İSK, personeline hedefleme nedenlerini kapsamlı bir şekilde doğrulama veya ham istihbarat verilerini gözden geçirme zorunluluğu olmaksızın Lavender'in öldürme listelerine güvenmeleri için yetki vermiştir. Artık bireyleri hedef alma kararları, algoritmanın bilinen hata olasılığı göz ardı edilerek ve çoğu zaman bireyin erkek mi kadın mı olduğuna dahi bakılmaksızın sadece 20 saniye içinde alınmaktadır.

Etiklikten uzak bu durum yanı sıra, artık kıdemli veya değil HAMAS personeli olarak tanımlanmış kişiler, bir başka YZ algoritması olan "Where’s Daddy"nin verilerine dayanarak, akşam saatlerinde evlerinde aileleri ile hedef alınmaktadır. İSK, bu bilgilerin doğruluğunu/geçerliliğini doğrulamadan, kendi “stratejik hesaplamalarına” göre, düşük rütbeli hedefler için 15 veya 20 sivili, kıdemli hedefler için ise 100 sivili öldürmeye izin veren saldırılar gerçekleştirmiştir.

Bu strateji, potansiyel olarak masum insanların yaşamlarını görmezden gelmekle kalmamakta, aynı zamanda askeri operasyonlarda YZ kullanımının yürütülmesi ve etik konuları hakkında derin endişeleri beraberinde getirmektedir. Bu tür YZ araçlarının geniş kapsamlı kullanımı, dağıtımlarında düşük seviyeli denetim ve kötüye kullanımlarının bir sonucu olarak, Filistin halkı kollektif bir düzeyde insan dışı görülmekte ve tüm halka evrensel potansiyel hedefler olarak muamele edilmektedir. YZ’nin bu gibi kötüye kullanımı, şu soruyu gündeme getirmiştir: İnsanlar, sistemi programlayıp işletirken etik olarak şüpheli seçimler yapıyorsa, bir algoritma nasıl ve ne kadar adil kararlar verebilir?

 

“Abisinden Ne Gördüyse”

İsrail, askeri operasyonlarda YZ kullanımını benzeri görülmemiş seviyelere çıkarmış olsa da bu uygulama algoritmaların saldırı hedefleri belirlemek için kullanıldığı tarihteki ilk örnek değildir. Benzer strateji, 9/11 sonrasında 2008’de Bush yönetiminin CIA'ya “imza vuruşları” yapma yetkisi vermesiyle uygulanmıştır. Bu saldırılar, onaylanmış kimlikler yerine, şüpheli olarak değerlendirilen “yaşam biçimlerinin”, telefon modellemeleri gibi davranışsal verilere dayanarak bireyleri hedef almıştır. Bu yaklaşım, Afganistan, Pakistan, Irak ve diğer bölgelerde sayısız insansız hava aracı saldırısına yol açmıştır. Bu bölgelerde yaşayan insanlar, yalnızca bu modellemelere dayanılarak potansiyel teröristler olarak etiketlenmiş ve insandışılaştırılmıştır. Hem Bush hem de Obama yönetimleri döneminde bu yöntem yüksek sayıda sivil kaybına neden olmuş, ancak hesap verebilirlik büyük ölçüde eksik kalmıştır. Bugün, İsrail'in stratejisi, bu gibi önceki uygulamaları yansıtmakta ve benzer hesap verebilirlik sorunlarını beraberinde getirmektedir.

Sorunun özü, YZ teknolojisinin kendisi değil, ona programlanan kriterlerdir; bu kriterler kimin militan olarak sınıflandırılacağını ve ne zaman hedef alınacağını belirlemektedir. Gerçek sorun, teknolojinin arkasındaki karar vericilerdedir. Askeri kullanımda YZ'nin düzenlenmesi hakkındaki tartışmalar devam ederken, bu kararların ve sonuçlarının nihai sorumluluğunun, bu YZ sistemlerini tasarlayan ve uygulayan insanlarda olduğunu hatırlamak gerekmektedir.

 


Etiketler »  

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için "veri politikamızı" inceleyebilirsiniz. Daha fazlası