Hukuk Güncesi

19 Eylül 2024 Tarihinde yazıldı

İki Yüzlü Yapay Zeka Hukukunun İkiyüzlülüğü

AB Yapay Zeka Kanunu[1] (EU AI ACT-2024/1689) nihayet Parlamento ve Konsey onay süreçlerini tamamlayarak 13.6.2024 günü yayımlandı. Kanunun kademeli uygulama süreci başlamış oldu.

Bilişim teknolojileri ile endüstriyi bir araya getiren ve dijital devrim üzerinde yükselen[2] dördüncü sanayi devriminin[3] merkezi teknolojilerden biri olarak tanımlanan Yapay Zeka şüphesiz teknolojik bir devrimi işaret ediyor. Devrim çünkü tüm toplumsal üretim süreçlerini değiştirmekle kalmayacak, bizzatihi kendisi üretici güç bileşeninde ön sıraya geçecektir…  Ancak insanlık tarihi açısından çok önemli bir aşamayı temsil eden bu devrimi kontrol altına almaya çalışan AB’nin nispeten önemli çabasını kenara koyarsak, Yapay Zeka hukukunda küresel bir gelişmenin çok uzağında olduğumuz anlaşılıyor.

Yürürlüğe giren AB Yapay Zeka Kanunu’nun konumuz açısından iki yüzü var.  Sivil-Kamusal alana uygulanacak yüzü i) Yasaklı Yapay Zeka Uygulamaları, ii) Yüksek Riskli Yapay Zeka Sistemleri tanımları etrafında şekilleniyor. Bu tanımlarla YZ alanına bazı kısıtlamalar, yasaklar, izinler ve devletin Yapay Zeka kullanımına ilişkin kurallar getiriliyor. Janus’un ikinci yüzü ise Kanunun askeri ve savunma amaçlı sistemlere uygulanmayacak olmasıyla ortaya çıkıyor. Biri sesle dile getirilen diğeri sessiz kalınan iki yüz…

Yapay Zeka Kanunu’nun 2/3 maddesinde yer alan Bu Tüzük, yalnızca askerî amaçlarla geliştirilen veya yalnızca askerî amaçlar için kullanılan YZ sistemlerine uygulanmaz.” hükmüyle askeri alan Kanunun kapsamı dışına çıkartılmış durumda. Bu kısa yazı, 144 sayfalık Yapay Zeka Kanunu’nda bir cümle ile geçiştirilen, Kanunun askeri ve savunma amaçlı sistemlere uygulanmayacak olmasının ne anlama geldiği üzerinedir.

Askeri Alanın Yapay Zeka Kanunu Kapsamı Dışında Tutulması

Yapay Zeka Kanunu Avrupa’da devlet ve yapay zeka aktörleri için bir dizi kural getiriyor ama “askeri alan” olduğu gibi Kanunun dışında bırakılıyor. Belki denilebilir ki, bu alanı da kontrol eden İnsancıl Hukuk düzenlemeleri var ve diğer  uluslararası düzenlemeler zamanla olgunlaşacaktır…  Ancak 80 yıldır daha nükleer silahlar alanında küresel bir uzlaşma sağlayamamış bir dünyada, Yapay Zeka alanında küresel bir uzlaşma beklemek saflık olmaz mı?

AB’de  çok uluslu şirketler ve devletlerin hukuka aykırı faaliyetleri karşısında hâlâ küçümsenemeyecek demokratik halk refleksi bulunmasına rağmen; savunma veya önleyici müdahale gerekçeleriyle düşmanı (insanları-kitleyi) imha etme anlayışı üzerine şekillenmiş savaş mekanizması kapsam dışında tutuluyor. Asıl tehlikeli sorun, ikiyüzlülük kanımızca burada ortaya çıkıyor. Esasen Yapay zeka ve robotik araçlar zaten uzunca süredir savaş alanında kullanılıyor. İsaac Asimov’un insanlığın yok olmaması için önerdiği üç robot kuralının ilki; “Robotlar insanlara zarar veremez ya da eylemsiz kalarak onlara zarar gelmesine göz yumamaz[4] kuralı peşinen ihlal edilmiş durumda zaten.

Tüm bilimsel devrimleri, imkanları neredeyse her savaşta kullanmış savaş sanayinin Yapay Zeka kullanımı nasıl kontrol altına alınacak? Üstelik bugüne kadar çok önemli teknolojik buluşların, insanlık dışı teknolojik uygulamaların önemli bir kısmı savaşlarda ve insanlar üzerinde yapılan deneylerde geliştirilmişken…

AB’nin Ortak Güvenlik ve Savunma Politikası ve Yapay Zeka Kanunu

Öyle anlaşılıyor ki, Yapay Zeka’nın askeri alanda kullanımı, AB Anlaşması m.42/1 de yer alan “Ortak güvenlik ve savunma politikası, ortak dış ve güvenlik politikasının ayrılmaz bir parçasıdır. Ortak güvenlik ve savunma politikası, Birliğe sivil ve askeri imkanlara dayanan operasyonel kabiliyet sağlar.” hükmüne ve bu kapsamdaki düzenlemelere bırakılıyor. Üye devletler birbirlerine, “askeri kabiliyetlerini aşamalı olarak geliştirmeyi taahhüt” (m.42/3) ediyorlar. 45/1-c hükmü uyarınca, “savunma sektörünün endüstriyel ve teknolojik temelinin güçlendirilmesi ve askeri harcamaların etkililiğinin artırılması için her türlü yararlı tedbirin belirlenmesine ve gerektiğinde uygulanmasına katkıda bulunma” Avrupa Savunma Ajansı görevleri arasında sayılıyor. Yapay Zeka’nın merkezinde bulunduğu insansız ordular, otonom silahlar sürecinin hızla gelişmesi önünde bir engel bulunmamaktadır.

Avrupa Birliği hukuku Yapay Zeka’nın savaş dışı kullanımını Kanunla kontrol altına almaya çalışırken, savaş sektöründe kullanımını, geliştirilmesini teşvik etmektedir. Bir diğer deyişle Yapay Zeka kullanımı sivil-kamusal alanda kurallara tabi, “askeri/insan öldürme alanında”serbest. Bu durumu  ikiyüzlülük kavramı ile tanımlıyorum.

Yapay Zeka İnsancıl Hukuk Karşısında

Bilindiği üzere savaşlarda uygulanacak hukuk “insancıl hukuk” veya zaman zaman “silahlı çatışmalar hukuku” olarak tanımlanıyor. II.Dünya Savaşından sonra akdedilen Uluslararası Cenevre Sözleşmeleriyle imzalanan ve kendisinden önceki 19.yy. metinlerinin yerini alan, süreç içinde birçok ek protokol, uluslararası belge ile zenginleşen; savaşlarda dikkat edilecek kuralları toplayan hukuka, insan hakları hukuku terimiyle karışmaması için “insancıl hukuk” deniliyor. Temel ilkelere göre, ordular düşman muharip ve sivil ayrımı yapmak sivil zayiatı önlemek için gerekli tedbirleri almakla yükümlüdürler. Savaşlarda “Gereksiz acının önlenmesi” ilkesi uygulanmalıdır. Düşman üzerinde lüzumsuz hasara neden olan silahları kullanılmamalıdır[5]. Bir diğer ilke savaş dışı hale gelen düşman muharip askerlerine zarar vermeme ilkesidir. 1993-1994 yılında eski Yugoslavya ve Ruanda’da işlenen savaş suçlarını yargılamak için kurulan özel uluslararası ceza mahkemelerini takiben 1998 yılında aynı suçlar kapsamında yetkili olmak üzere Uluslararası Ceza Mahkemesi (UCM) kuruldu. İnsanlığa karşı suçlar, soykırım suçları, savaş suçlarını cezalandırmakla yetkili[6] bu mahkeme küresel gelecek açısından hayati öneme sahiptir. 

Bugün için Yapay Zeka-robot[7] teknolojisi kullanan otonom silahları doğrudan yasaklayan bir uluslararası sözleşme olmamakla birlikte uluslararası alanda sürdürülen, savaşlarda insancıl hukukun ilke ve kurallarını oluşturma, kurumlaştırma çabalarını küçümsememek gerekiyor. Ancak bu ilkelerin ve UCM’nin gücü, amacını gerçekleştirecek düzeyde değildir. ABD gibi bazı ülkeler UCM’nin yetkisini henüz kabul etmemiştir. Bu kuralların bugün açık ihlallerde bile dikkate alınmadığına ilişkin bir örnek vermek gerekirse, halen devam eden İsrail-Hamas savaşında İsrail’in Filistin halkına karşı ısrarlı, kasti ve acımasızca sürdürülen insancıl hukuk ihlalleri UCM kararına rağmen hâlâ devam etmektedir. Bu durumda UCM güçlendirilmedikçe müeyyide gücü artırılmadıkça Yapay Zeka-robot uygulamalarıyla yol açılacak insancıl hukuk ihlallerinin kontrolü mümkün görünmemektedir.    

Otonom Silahlar ve Yapay Zeka

Yapay Zeka’nın askeri alanda getirdiği en büyük tehlikelerden biri otonom silahlardır. Yapay Zeka kullanan otonom silahları tanımlamada bazı teknik sorunları olsa da[8] şu şekilde ifade edebiliriz: İnsan müdahalesi olmadan insan hedeflerinin yerini belirleyen seçen ve yok eden silah sistemleri[9]. Yapay Zeka-robot ifadesiyle kendi kendine karar verip hedefini yok eden katil robotlardan, robot ordulardan, inorganik varlıklardan bahsediyoruz.

Hatırlatmak isterim ki; bu kez karşı karşı olduğumuz teknolojik devrim diğerlerinden farklı dinamikler içeriyor. Bu dinamiklerden ilki insanlık tarihinin tüm bilgi birikimine ve bu bilgi birikimini işleyerek sonsuz bilgi üretme kapasitesine sahip bir Yapay Genel Zeka’ya doğru, bir diğeri ise kendi kendine üretim aracı üretebilecek bir Yapay Zeka’ya doğru gelişimdir. Böylesi bir niteliksel gelişim “insanı” merkez alan felsefeyi, insan bilimlerini de kökten değiştirme gücüne sahiptir.

Bu konuda en kötü senaryo bu alana büyük yatırımlar yapan Elon Musk tarafından da ifade edilmişti: “Şayet Yapay Zeka gelişmesi süreci kötüye giderse sonsuza kadar ölümsüz bir süper diktatör sahibi olma riskini üzerimize alırız.[10]

Sonuç Yerine

Yapay Zeka karşısında iki farklı söylem gelişiyor. İlki bu konuya kafayı fazla takmayın, teknoloji kendi yolunu bulur “biz işimize bakalım” (liberal) söylemidir.  Diğeri ise Yapay Zeka gelişimi üzerinde her düzeyde yerel ve küresel kontrol mekanizmaları kurulmalıdır ve bu acil bir görevdir (toplumcu) söylemi.

Liberal düşünce tarzı Yapay Zeka’nın silah ve savunma sektöründeki gelişmesine itiraz da etmeyecek  hatta bunu fırsat bilip kârını artırma, bundan yararlanmayı hedefleyecektir.  Neticede firmalar bu alandan da para kazanacaktır. Yani Asimov’in ilk robot kuralı “insan öldürmeyeceksin” kuralı daha başlangıçta çöp tenekesine atılmış olacaktır. Aynı cümle Kutsal Kitaplarda da yazmıyor muydu zaten? Tabii olarak sorun kuralın çöpe atılması değil, Yapay Zeka’nın insan öldürme alanındaki gelişiminin artık insan neslinin geleceğini tehdit eder hale gelmesidir. Ayrıca belirtmek gerekir ki,  bir başka tehlike, askeri-savunma alanı için serbestçe yapayzeka-robot geliştiren firmaların bunu sivil alanda kullanmayacaklarının en azından kullanılabilir hale getirmeyeceklerinin garantisinin bulunmamasıdır. Belki bundan da büyük tehlike, devletlerin savunma-savaş amacıyla geliştirdikleri yapay zeka sistemlerinin her zaman el altında tutulan terör-savaş gerekçesiyle kendi halkına uygulama imkanı yaratılmasında ortaya çıkmaktadır. Otoriter rejimlerde bunu kontrol edecek bir mekanizma aramak neredeyse imkansız olacaktır.

İkinci yolu izleyenler ise şimdiden savunma dahil tüm toplumsal faaliyet alanlarında Yapay Zeka gelişiminin kontrol altına alınması için çaba gösterecekler, kontrol refleksini kurumlaştırmaya çalışacaklardır.

İlginç olan Üniversite’nin de kendisini “ağırlıklı olarak” sadece birinci yüzle görevli/sınırlı sayması. İnsanlık için tehlikeli İkinci yüzü “esaslı konu” seçmemesidir.

Özetle AB Yapay Zeka Kanunu ile kurulmaya başlanan Yapay Zeka Hukuku, sivil-kamusal hayat içindeki Yapay Zeka uygulamalarını, gelişmesini güya üst düzeyde kontrol altına alıyor gibi görünse de; askeri-savunma alanındaki Yapay Zeka uygulamaları, gelişmesi kapsam dışında tutuluyorsa, hatta hatta tam tersine sınırsız biçimde teşvik ediliyorsa; ikiyüzlülük tam da burada ortaya çıkmaktadır.

 Av. Haluk İnanıcı

Not: Bu kısa yazının bir kısmının içinde yer aldığı Yapay Zeka konusunu değerlendirdiğim yazımı okumak isteyenler için kaynak: Haluk İnanıcı, Yapay Zeka Gelişimi Kontrol Altına Alınabilir mi?, Birikim Dergisi, Mayıs 2024, 421. Sayısı.  

 



[1] AB hukukunda tüzükler tüm üye devletlere ve vatandaşlarına doğrudan uygulanma gücüne sahip olduğu  ve üye devletler iç hukukuna göre üstün hukuk niteliği taşımasından dolayı metinde Kanun olarak yer almıştır.  

[2] Klaus Schwab, Dördüncü Sanayi Devrimi s.16, Optimist Yayınları, 20.23.

[3] Sanayi 4.0: İnternet ve internet teknolojilerindeki gelişmeler de büyük veri ve analizi, robot teknolojileri, nesnelerin interneti, yapay zeka, sanal gerçeklik, artırılmış gerçeklik gibi kavramların kullanıldığı, bu olguların iç içe geçtiği, kaynaştığı aşama; Prof.Dr.Gonca Telli, “Bu Kitap Niye Yazıldı”, Yapay Zeka ve Gelecek, s.19, Doğu Kitabevi, 2019.

[4] Isaac Asımov, Ben Robot, İthaki Yayınları, 2016.

[5] Françoise Bouchet-Saulnier, “İnsancıl Hukuk Sözlüğü”,  Uluslararası İnsancıl Hukuk, s.398; Paul Scharre, İnsansız Ordular, s.330, Kronik Yayınları, 2021.

[7] Robot-Yapay Zeka ilgili etik kurallar, AB Parlamentosu’nun Robotikle ilgili medeni hukuk kurallarına ilişkin Komisyona tavsiyeler içeren 16 Şubat 2017 tarihli Avrupa Parlamentosu kararında yer almıştır,  https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_FR.html?redirect

[8] Michael Woodloridge, Bilinçi Makinelere Giden Yol, s.236, Metis Yayınları, 2021.

[9] Stuart Russell, “İnsanlık İçin Yapay Zeka”, s.137, Buzdağı Yayınları, s.137.

 
 

Diğer Yazılar

 
 
Copyright © İnanıcı - Tekcan Avukatlık Bürosu Uyarı
Mahmut Yesari Sok. No:47 Koşuyolu 34718 Kadıköy/İSTANBUL - Tel : 0 216 340 82 15 - Fax : 0 216 340 82 20
 
 

Copyright © İnanıcı - Tekcan Avukatlık Bürosu

Mahmut Yesari Sok. No:47 Koşuyolu 34718 Kadıköy/İSTANBUL - Tel : 0 216 340 82 15 - Fax : 0 216 340 82 20