Yapay zeka kullanımı ‘insani hukuku’ ihlal ediyor mu! – Guardian – İsrail 37.000 hedefi belirlemek için AI / yapay zeka kullandı ve sonuç’ Makine bunu soğukkanlılıkla yaptı’ – AI / Yapay zeka ürünü ‘Lavender /Lavanta’ yazılımı İsrail Savunma Kuvvetleri’nin seçkin istihbarat bölümü “Unit 8200” tarafından geliştirildi – Başbakan Rishi Sunak İngiltere’nin İsrail’i silahlandırmaya devam ederek uluslararası hukuku ihlal ettiği konusunda uyarıldı –
Bu sabahki Guardian gazetesine göz attığımda manşetinde “Eski yüksek mahkeme yargıçları İsrail’e silah yasağı çağrılarına, dur seslerini ekledi” başlığı vardı. Aralarında 2020’de emekli olana kadar, Birleşik Krallık Yüksek Mahkeme Başkanı olarak görev yapan Brenda Hale’in de bulunduğu üç eski yüksek mahkeme yargıcı, 600’den fazla avukat, akademisyen ve emekli kıdemli hakim yer alıyor. Hükümetin İsrail’i silahlandırmaya devam ederek uluslararası hukuku ihlal ettiği konusunda uyarıda bulunulduğu, bildiriliyor.
Dün gece Rishi Sunak hükümetinin dikkatine 10 Downing Street’e gönderilen ve hukuki görüş niteliği taşıyan 17 sayfalık mektupta şunlar belirtiliyor: “Hükümetinizin çatışmaların durdurulması ve Gazze’ye engelsiz insani yardım girişi yönünde giderek daha güçlü çağrılarını memnuniyetle karşılarken eş zamanlı olarak iki çarpıcı örnek İsrail’e silah ve silah sistemleri satışı ve Birleşik Krallık’ın (BM yardım kuruluşu) Unrwa’ya yaptığı yardımı askıya alma tehditlerini sürdürmek hükümetinizin uluslararası hukuk kapsamındaki yükümlülüklerini önemli ölçüde karşılamamaktadır.”Eski bir özel kuvvetler üyesi olduğu anlaşılan 57 yaşındaki John Chapman’ın Pazartesi günü İsrail Savunma Kuvvetleri’nin bir insani yardım konvoyuna düzenlediği saldırıda öldürülen yedi ‘World Central Kitchen’ yardım çalışanı arasında yer almasının17 sayfalık mektubu tetikleyip -tetiklemediğini bilemiyorum.Ama İngiltere Başbakanı Sunak üzerinde İsrail’e silah ihracatını durdurması yönündeki siyasi baskı artıyor.
Hemen hemen her sabah Guardian gazetesinin haberlerini tarar göz atarım bu bir alışkanlıktır. 8. sayfada ‘Makine bunu soğukkanlılıkla yaptı’ başlığı altında Bethan McKernan-Harry Davies çift imzalı tam iki sayfa yer verilen habere gözüm takıldı. İlk dört paragrafını bir solukta okudum ve yeri geldi ekliyorum “İstihbarat kaynaklarına göre, İsrail ordusunun Gazze’deki bombalama kampanyası, daha önce açıklanmayan, yapay zeka destekli bir veri tabanını kullandı ve bu veri tabanı, bir aşamada Hamas’la görünürdeki bağlantılarına dayanarak 37.000 potansiyel hedef belirledi. Kaynaklar, “Lavender /Lavanta” adı verilen yapay zeka sistemini kullandıklarından bahsetmenin yanı sıra İsrail askeri yetkililerinin özellikle çatışmanın ilk haftaları ve aylarında çok sayıda Filistinli sivilin öldürülmesine izin verdiğini iddia etti. Alışılmadık derecede samimi ifadeleri altı aylık savaş sırasında hedeflerin belirlenmesine yardımcı olmak için kitlesel gözetleme sistemlerini kullanan İsrail istihbarat yetkililerinin ilk elden deneyimlerine nadir bir bakış sağlıyor. İsrail’in Hamas’a karşı savaşında güçlü yapay zeka sistemlerini kullanması ileri düzey savaşlar için keşfedilmemiş bölgelere girdi bir dizi hukuki ve ahlaki soruyu gündeme getirdi ve askeri personel ile teknoloji arasındaki ilişkiyi dönüştürdü.9. sayfanda ise İrail’e ait F-15 savaş uçağının kalkış anını gösteren ufak fotoğrafının altında AI / Yapay zeka sayesinde hedeflerin vurulduğu yer alıyordu. Sabahın erken saatlerde bu satırlar inanın ruhuma ağır geldi ve diğer haber ajanslarını taramaya başladım.Bir tek 24 saat İngilizce yayın yapan ‘Al Jazeera English’ haber kanalında İbranice yayın yapan medya kuruluşu +972 ve Local Call’un ortaya çıkardığı tek habere rastladım. Hatta haber içeriğinde, UN SR İnsan Hakları ve Terörle Mücadele raportör Profesör Ben Saul’un kısa mesajına da yer verilmişti. Profesör Ben Saul kısaca şunları yazmıştı “Eğer doğruysa İsrail’in Gazze’ye yaptığı saldırıların çoğu orantısız saldırılar düzenlemek suretiyle savaş suçları teşkil edecekti: “Ordu, savaşın ilk haftalarında, her alt düzey Hamas görevlisinin 15 veya 20’ye kadar sivili öldürmesine izin verilebileceğine karar verdi.”Daha sonra BBC – Sky News ve Al Jazeera English ekranlarında Guardian gazetesinin haberine dayanılarak AI / Yapay zeka ürünü ‘Lavender /Lavanta’ yazılımının İsrail Savunma Kuvvetleri tarafından Gazze’deki Filistinli siviller üzerinde kullanıldığı tartışıldı.
İngiliz gazetesi Guardian da haberini İbranice yayın yapan medya kuruluşu +972 ve Local Call’un ortaya çıkardığı” ‘Lavanta‘ İsrail’in Gazze’deki bombalama çılgınlığını yönlendiren AI / yapay zeka makinesidir” başlığı altından verilen ve rapor olduğu belirtilen haberinden izin alarak okuyucularını bilgilendiriyor. “Yuval İbrahim” imzalı ve ‘Lavanta’: İsrail’in Gazze’deki bombalama çılgınlığını yönlendiren AI / yapay zeka makinesi” başlığı altında detaylı haberi okumak isteyenler için link ekliyorum; https://www.972mag.com/lavender-ai-israeli-army-gaza/
Kısaca özetlersek – ‘Lavender’ yazılımında ‘Ne kadar çok bilgi ve çeşitlilik olursa o kadar iyi’ deniliyor – Gazze Şeridi’ndeki 2,3 milyon sakinin çoğundan toplanan bilgileri bir kitlesel gözetleme sistemi aracılığıyla analiz ediyor, ardından her bir kişinin Hamas veya PIJ’in askeri kanadında aktif olma olasılığını değerlendiriyor ve sıralıyor. Kaynaklara göre makine, Gazze’deki hemen hemen her kişiye 1’den 100’e kadar puan vererek onların militan olma ihtimalinin ne kadar yüksek olduğunu ifade ediyor.
‘Local Call’ kendini demokrasiye, barışa, eşitliğe, sosyal adalete, şeffaflığa, bilgi edinme özgürlüğüne ve işgale direnmeye adamış İbranice bir haber sitesi olarak gözüküyor ve aynı ekip +972 dergisini de hazırlıyor. İsrail Benjamin Netanyahu hükümetinin bir kez daha savaş suçu işlediği bir bakıma kanıtlanmış durumda. Şimdi İsrail kendi içlerinden gelen bir bakıma resmi istihbarat görevlilerinin itiraflarıyla insanlık dışı katliamda AI / yapay zeka gerçeğinin ortaya çıkmasıyla yeni bir sarmalın içine girdiğini düşünmemiz gerekir. Bakalım, önümüzdeki günlerde Dünya Mahkemesi olarak da adlandırılan, Birleşmiş Milletler’in evrensel yargı organı İnternational court of justice (ICJ) / Uluslararası adalet divanı bu raporu mercek altına alacak mı!
Guardian gazetesinde tam iki sayfa yer alan haberin ilk dört parağrafı sonrasıyla bıraktığımız yerden devam edelim; Lavender’ı kullanan bir istihbarat görevlisi, “Bu benim hafızamda eşi benzeri olmayan bir şey” dedi ve yaslı bir askerden ziyade “istatistiksel mekanizmaya” daha fazla güvendiklerini ekledi. “Ben dahil oradaki herkes [Hamas’ın 7 Ekim baskınlarında] insanlarını kaybetti. Makine bunu soğukkanlılıkla yaptı. Bu da işimizi kolaylaştırdı.”Başka bir Lavender kullanıcısı seçim sürecindeki rollerinin anlamlı olup olmadığını sorguladı. “Bu aşamada her hedef için 20 saniye ayırırım ve her gün onlarcasını yaparım” dediler. “Onur damgası olmanın dışında insan olarak sıfır katma değerim vardı. Çok zaman kazandırdı.”
Her biri savaştaki potansiyel Hamas ve Filistin İslami Cihad (PIJ) hedeflerini belirlemek için yapay zeka sistemlerini kullanan altı istihbarat görevlisi, İsrail-Filistin yayını +972 Magazine tarafından yayınlanan bir rapor için gazeteci Yuval Abraham ile konuştu. ve İbranice yayın yapan Local Call. İfadeleri yayınlanmadan önce yalnızca Guardian gazetesi ile paylaşıldı.Altısı da Lavender’ın savaşta merkezi bir rol oynadığını, hedef alınacak potansiyel “kıdemsiz” ajanları hızlı bir şekilde belirlemek için yığınla veriyi işlediğini söyledi. Kaynaklardan dördü, savaşın başlarında bir aşamada Lavender’ın AI / yapay zeka sistemiyle Hamas veya PIJ’e bağlanan 37.000 kadar Filistinli erkeği listelediğini söyledi.
Lavanta, İsrail Savunma Kuvvetleri’nin seçkin istihbarat bölümü Unit 8200 tarafından geliştirildi ve ABD Ulusal Güvenlik Ajansı veya Birleşik Krallık’taki GCHQ ile karşılaştırılabilir nitelikteydi.
Kaynakların birçoğu, belirli hedef kategorileri için, IDF’nin, bir saldırıya izin verilmeden önce öldürülebilecek tahmini sivil sayısı için önceden belirlenmiş ödenekleri nasıl uyguladığını anlattı. İki kaynak, savaşın ilk haftalarında düşük rütbeli militanlara yönelik hava saldırılarında 15 veya 20 sivili öldürmelerine izin verildiğini söyledi. Kaynaklar, bu tür hedeflere yönelik saldırıların genellikle “aptal bombalar” olarak bilinen güdümsüz mühimmatlar kullanılarak gerçekleştirildiğini, evlerin tamamının yıkıldığını ve içindekilerin tamamının öldürüldüğünü ekledi ve şöyle devam etti “Pahalı bombaları önemsiz insanlara harcamak istemezsiniz”.
Diğer bir istihbarat görevlisi, ülke için çok pahalı ve [bu bombalarda] kıtlık var” dedi. Bir diğeri, karşılaştıkları temel sorunun sivillere verilen “ikincil zararın” bir saldırıya izin verip vermediği olduğunu söyledi. Çünkü saldırıları genellikle aptal bombalarla yapıyorduk, bu da kelimenin tam anlamıyla tüm evi sakinlerinin üzerine yıkmak anlamına geliyordu. Ancak bir saldırı önlense bile umursamazsınız; hemen bir sonraki hedefe geçersiniz. Sistem gereği hedeflerin sonu gelmiyor. Bekleyen 36.000 kişi daha var.”
Çatışma uzmanlarına göre, eğer İsrail yapay zekanın yardımıyla Gazze’deki militan gruplarla bağlantısı olan binlerce Filistinlinin evlerini yerle bir etmek için dilsiz bombalar kullanıyorsa, savaştaki şaşırtıcı derecede yüksek ölü sayısının açıklanmasına yardımcı olabilir.
Hamasrun bölgesindeki sağlık bakanlığı, son altı ayda çatışmalarda 33.000 Filistinlinin öldürüldüğünü söylüyor. BM verileri, yalnızca savaşın ilk ayında 1.340 ailenin birden fazla kayıp yaşadığını, 312 ailenin ise 10’dan fazla üyesini kaybettiğini gösteriyor. İfadelerin +972 ve ‘Local Call’da yayınlanmasına yanıt veren IDF, yaptığı açıklamada operasyonlarının uluslararası hukuk kapsamındaki orantılılık kurallarına uygun olarak yürütüldüğünü söyledi. Dilsiz bombaların IDF pilotları tarafından “yüksek düzeyde hassasiyet” sağlayacak şekilde kullanılan “standart silahlar” olduğu belirtildi.
Açıklamada Lavender, “terör örgütlerinin askeri görevlileri hakkında güncel bilgi katmanları üretmek amacıyla istihbarat kaynaklarına çapraz referans vermek için kullanılan bir veritabanı” olarak tanımlandı. Bu, saldırıya uygun olduğu onaylanmış askeri ajanların listesi değildir.”IDF terörist ajanları tespit eden veya önceden tahmin etmeye çalışan bir yapay zeka sistemi kullanmıyor.Bir kişinin terörist olup olmadığı” diye ekledi ve devam etti “Bilgi sistemleri, hedef belirleme sürecindeki analistler için yalnızca araçlardır.Ne yaparsanız yapın bombalayın”Israel Defense Forces / İsrail Savunma Kuvvetleri – IDF tarafından yürütülen daha önceki operasyonlarda insan hedeflerinin üretilmesi genellikle daha emek yoğun bir süreçti. Guardian’a önceki savaşlarda hedef geliştirmeyi anlatan birçok kaynak bir kişiyi “suçlama” veya onu hedef olarak belirleme kararının tartışılacağını ve ardından bir hukuk danışmanı tarafından imzalanacağını söyledi. Kaynaklara göre 7 Ekim’den sonraki haftalar ve aylarda insan hedeflerine yönelik saldırıların onaylanmasına yönelik bu model önemli ölçüde hızlandı. İsrail Silahlı Kuvvetleri’nin Gazze’ye yönelik bombardımanı yoğunlaştıkça komutanların sürekli bir hedef hattı talep ettiğini söylediler.Bir istihbarat görevlisi “Sürekli baskı altındaydık: ‘Bize daha fazla hedef getirin’ diye. Bize gerçekten bağırdılar” dedi. “Bize söylendi: Artık bedeli ne olursa olsun Hamas’ı mahvetmemiz gerekiyor. Ne yapabiliyorsan bombala.”Bu talebi karşılamak için Israel Defense Forces / İsrail Savunma Kuvvetleri – IDF bir PIJ veya Hamas militanının özelliklerine sahip olduğuna karar verilen kişilerden oluşan bir veri tabanı oluşturmak için büyük ölçüde Lavender’a güvenmeye başladı. Lavender’ın algoritmasını eğitmek için kullanılan belirli veri türlerine veya programın sonuçlara nasıl ulaştığına ilişkin ayrıntılar +972 veya Local Call tarafından yayınlanan hesaplarda yer almıyor. Ancak kaynaklar savaşın ilk birkaç haftasında Birim 8200’in Lavender’ın algoritmasını iyileştirdiğini ve arama parametrelerini değiştirdiğini belirtti. Rastgele örnek alıp tahminlerini çapraz kontrol ettikten sonra birim Lavender’ın şu sonuca vardığı sonucuna eriştiler. Lavanta sisteminde istihbarat memuru ‘Bize sürekli baskı yapılıyordu: ‘Bize daha fazla hedef getirin talimatı verdiler. Bize gerçekten bağırdılar’Kaynaklar %90’lık bir doğruluk oranına ulaştığını ve bu durumun Israel Defense Forces / İsrail Savunma Kuvvetleri – IDF’nin bunun bir hedef öneri aracı olarak geniş kapsamlı kullanımını onaylamasına yol açtığını söyledi. Lavender’ın ağırlıklı olarak Hamas’ın askeri kanadının düşük rütbeli üyeleri olarak işaretlenen on binlerce kişiden oluşan bir veri tabanı oluşturduğunu da eklediler. Bu bireyler yerine binaları ve yapıları hedef olarak öneren “İncil” adı verilen başka bir yapay zeka tabanlı karar destek sistemiyle birlikte kullanıldı. Anlatılanlar istihbarat görevlilerinin Lavender’la nasıl çalıştığına ve güvenlik ağının erişiminin nasıl ayarlanabileceğine dair ilk elden tanıklıkları içeriyor.Kaynaklardan biri “Sistem zirve noktasında potansiyel insan hedefi olarak 37.000 kişiyi oluşturmayı başardı” dedi. “Fakat rakamlar her zaman değişti çünkü bu, bir Hamas ajanının ne olduğu konusunda çıtayı nereye koyduğunuza da bağlı.” Şöyle eklediler: “Hamas ajanının daha geniş tanımlandığı zamanlar oldu ve sonra makine bize bomba israf etmenin utanç verici olacağı her türden sivil savunma personelini, polis memurlarını getirmeye başladı. Hamas hükümetine yardım ediyorlar ama aslında askerleri tehlikeye atmıyorlar.”
Savaştan önce ABD ve İsrail, Hamas’ın askeri kanadının üyelerinin sayısının yaklaşık 25.000 ila 30.000 kişi olduğunu tahmin ediyordu. Filistinli militanların yaklaşık 1.200 İsrailliyi öldürdüğü ve yaklaşık 240 kişiyi kaçırdığı Güney İsrail’e Hamas liderliğindeki saldırıdan sonraki haftalarda kaynaklar, Hamas’ın askeri kanadıyla bağlantılı Filistinli erkekleri rütbelerine bakılmaksızın potansiyel hedef olarak ele alma kararı alındığını söyledi. İsrail bombardımanının en yoğun aşamasında Israel Defense Forces / İsrail Savunma Kuvvetleri – IDF’nin hedefleme süreçlerinin de gevşetildiği belirtildi.
Bir kaynak, “[Bombalama] operasyonlarındaki kayıplarla ilgili olarak tamamen hoşgörülü bir politika vardı.O kadar hoşgörülü bir politika ki bence intikam unsuru da taşıyordu.”dedi.Düşük rütbeli hedeflerin belirlenmesine yardımcı olmak için Lavanta’nın kullanılmasını haklı çıkaran başka bir kaynak “Konu kıdemsiz bir operasyona gelince, ona insan gücü ve zaman yatırmak istemezsiniz” dedi. Savaş ortamında “her hedefi dikkatlice suçlamak” için yeterli zamanın olmadığını söylediler.Şöyle eklediler: “Yani yapay zeka kullanmanın hata payını göze almaya, ikincil hasar ve sivillerin ölme riskini göze almaya ve yanlışlıkla saldırı riskini göze almaya ve bununla yaşamaya hazırsınız.Bir ailenin evini bombalamak çok daha kolay”+972 ve Local Call tarafından yayınlanan ifadeler son derece cerrahi saldırılar gerçekleştirebilecek silahlar da dahil olmak üzere bu kadar gelişmiş yeteneklere sahip bir ordunun nasıl bu kadar büyük bir insan kaybıyla bir savaş yürüttüğünü açıklayabilir. Düşük rütbeli Hamas ve PIJ militanlarını hedef almaya gelince tercihin kendilerinin evde olduğuna inanılan bir zamanda saldırmak olduğunu söylediler. Bir kişi “[Hamas’ın] görevlilerini yalnızca askeri bir binadayken veya askeri bir faaliyette bulunurken öldürmekle ilgilenmiyorduk.Bir ailenin evini bombalamak çok daha kolay. Sistem bu durumlarda onları aramak üzere tasarlandı.”dedi.
Böyle bir strateji daha yüksek sayıda sivil kaybı riskini taşıyordu ve kaynaklar, Israel Defense Forces / İsrail Savunma Kuvvetleri – IDF’nin tek bir Hamas militanını hedef alan bir saldırıda öldürülmesini kabul edilebilir gördüğü sivillerin sayısına önceden izin verilen sınırlamalar getirdiğini söyledi. Oranın zaman içinde değiştiği ve kıdeme göre değiştiği de eklendi.