Yeni teknolojiler ile birlikte yapay zekanın gelişmesi tıp ve diğer bilim dalları için çok önemli bir adımken, bu durumu fırsata çevirip kötüye kullananlara karşı her zaman tetikte olmak gerekiyor. Birleşik Arap Emirlikleri’nde (BAE) yapay zeka ile şirket yöneticilerinin sesleri taklit edilerek 35 milyon dolarlık (yaklaşık 325 milyon lira) büyük bir soygun gerçekleştirildi. Uzmanlar, oldukça gerçekçi olan sahte derin görüntü ve ses kopyalama tekniklerinin çağımızın en büyük sorunlarından biri olduğu konusunda uyardı.
TANIDIĞI BİR SES TARAFINDAN ARANDI
2020’nin başlarında Birleşik Arap Emirlikleri’ndeki (BAE) Centennial Bank’ta çalışan bir müdür, sesini tanıdığı bir kişi (daha önce konuştuğu bir şirketin müdürü) tarafından arandı. Müdürün iyi haberleri vardı: Şirketi bir satın alma yapmak üzereydi, bu yüzden bankanın 35 milyon dolarlık bazı transferlere izin vermesi gerekiyordu.
Prosedürleri koordine etmek için Martin Zelner adında bir avukat tutulmuştu ve banka müdürü gelen kutusunda Zelner’den gelen e-postaları görebiliyor ve ne kadar miktarda paranın gerekli olduğunu doğrulayabiliyordu. Banka müdürü, her şeyin meşru göründüğünü düşünerek transferleri yapmaya başladı.
Forbes tarafından ortaya çıkarılan bir mahkeme belgesine göre, BAE’li yetkililer, Centennial Bank’ın ABD merkezli hesaplarına giren çalıntı paranın izini sürmek için ABD polisinden yardım istedi.
17 KİŞİNİN KANDIRILDIĞI DÜŞÜNÜYOR
Dubai Başsavcılığı’ndan yapılan açıklamaya göre, soyguncular yapay zekayı sesin değiştirilmesi için kullanarak ayrıntılı bir plan yaptı. Yetkililer, bu şekilde aralarında banka müdürleri ve finans uzmanlarının bulunduğu 17 kişinin dünyadaki çeşitli hesaplara para göndermesi için aldatıldığını düşündüklerini açıkladı. Belgede, kurbanların isimlerine yer verilmedi.
Belgelerde adı geçen ABD’li avukat Martin Zelner ise konuya ilişkin yorum yapmayı reddetti. Zelner’ın şu anda soyguna yardım edip etmediği bilinmiyor. Avukatın da olayın kurbanlarından biri olabileceği değerlendiriliyor.
İLK DEĞİL
Bununla birlikte, söz konusu olay yapay zeka ile sesi manipüle ederek gerçekleştiren ikinci geniş kapsamlı soygun vakası olarak tarihe geçti. 2019 yılında İngiltere’deki bir enerji firmasının CEO’sun sesi taklit edilerek banka hesaplarından 240 bin dolar çalınmıştı. Ancak, uzmanlar BAE’deki soygunun ilkinden çok daha detaylı ve kapsamlı bir dolandırıcılık organizasyonu olduğunu vurguladı.
Diğer taraftan, BAE’deki vaka bu tür yüksek teknoloji dolandırıcılıklarının ne kadar yıkıcı olabileceğini gösteriyor. Güvenlik kuruluşları ve bilişim şirketleri yapay zekanın siber suçlarda derin sahte görüntüler ve sesler oluşturmak için kullanılmasıyla ilgili uyarılarda bulunuyor.
ÇOK BÜYÜK BİR TEHLİKE OLUŞTURUYOR
İngiltere’de eski bir polis memuru olan ve şu anda siber güvenlik uzmanı olarak çalışan Jake Moore, “Sesli ve görsel derin sahtekarlıklar 21. yüzyıl teknolojisinin büyüleyici gelişimini temsil ediyor, ancak aynı zamanda potansiyel olarak inanılmaz derecede tehlikeli. Bu durum kişisel ve işinizle ilgili veriler için büyük bir tehdit oluşturuyor” diye konuştu.
DAHA FAZLA İŞLETME KURBAN OLABİLİR
Moore, ayrıca son zamanlarda sahte derin görüntü ve sahte seslerle yapılan dolandırıcılıkların sayısının gittikçe arttığı konusunda uyararak, “Sesi manipüle etmek, sahta görüntülerle video yapmaktan çok daha kolay. Bu nedenle, önümüzdeki günlerde daha fazla işletmenin zarar göreceğini düşünüyorum. Özellikle, para transferleri gibi kritik işlemler için şirketler çok faktörlü kimlik doğrulaması kullanmalı ve yetki tek kişi ile sınırlanmamalı” dedi.
Öte yandan, daha önceleri 1996 yapımı “Görevimiz Tehlike” gibi kurgusal yapılarda anlatılan ve uzak bir hayalmiş gibi gelen ses değiştirme teknolojisi atık günlük hayatın içine işlemiş durumda.
Londra’daki Aflorithmic’ten Ukrayna’daki Respeecher ve Kanada’daki Resemble AI’e kadar çeşitli teknoloji girişimleri, giderek daha karmaşık yapay ses teknolojileri üzerinde çalışıyor. Aynı zamanda, yapay zekanın kötü niyetli kullanım potansiyelini fark eden siber güvenlik firması Pindrop gibi bir avuç şirket, manipüle edilmiş sesleri algılayabileceklerini ve böylece sahtekarlıkları önleyebileceklerini öne sürüyor.