İnsanlar için hayati kıymet taşıyan sorunlarda yapay zekanın kelam sahibi olması artık yalnızca bilim kurgu sinemalarından bir kesit olmayabilir. Çünkü, hukuk üzere kritik bir alanda bile dünyada kimi bölgelerde pilot uygulamalarla yapay zeka kullanılmaya başlandı.
İnsan davranışlarını taklit eden algoritmaların mahkeme kararlarında bile kelam sahibi olmasının etik olup olmadığı tartışılıyor.
Hukuk alanında, davalara sürat kazandırması ve rutin işleri otomatik hale getirmesi üzere hususlarda avantaj sağladığına inanılan yapay zeka, dünyanın farklı bölgelerinde çeşitli pilot uygulamalarla insanoğlunun karşısına çıkıyor. Bunlardan birkaçını Çin, Estonya ve Malezya’da görmek mümkün.
Estonya’da küçük davaları pahalandıran “robot hakimler”, Kanada’da robot arabulucular, Çin’de yapay zeka yargıçları ve Malezya’da yapay zeka yargılama sisteminin denenmeye başlamasıyla algoritmaları artık adalet sisteminde de hissetmek mümkün.
Çin’in başşehri Pekin’de, 2019’da, İnternet Mahkemesine bağlı çevrim içi dava hizmeti merkezinde, davaların açılması ve sürece konulması üzere rutin hukuk süreçlerinde kararlara yardımcı olmak için yapay zeka teknolojisini kullanan bir yazılım modülü kullanılmaya başlandı.
Benzer bir durum tekrar birebir yıllarda Estonya’da başladı. Estonya’daki mahkemelerde vazife yapmaya başlayan yapay zeka takviyeli robot yargıçlar, 7 bin avrodan daha az dengeli uyuşmazlıklarda yasal evrakların incelenmesi ve tahlil edilmesi konusunda mahkemelere takviye veriyor.
Malezya’da 2022’de ülkenin birtakım eyaletlerindeki mahkemelerde yapay zeka yargılama sisteminin pilot uygulamaları başlandı.
Yapay zekanın adalet sisteminde yer alması cezaları daha dengeli hale getirmesi, yığılan davaların süratli ve daha masrafsız bir halde ilerlemesi açısından yardımcı olduğu tabir edilse de bu durumun hukuk etiği açısından gerçek olup olmadığı tartışılıyor.
Yapay zekada en değerli nokta, hukuktan evvel “etik denetimi”
İstanbul Medipol Üniversitesi Hukuk Fakültesi Öğretim Üyesi Prof. Dr. Ahmet Ulvi Türkbağ, yapay zekanın ahlak kontrolü ile ilgili belli prensiplerin olduğunu belirterek “Bunlardan en değerlisi yapay zekanın transparan olması. Kesinlikle ve kesinlikle denetlenebilir olması, bu koşul. Zira bir kararı niçin verdiğini bilmiyorsak bu değişik bir mantık olur ve o kararın doğruluğu ile ilgili bir yargıda bulunamayız. Bu da hayli tehlikeli sonuçlara yol açabilir.” değerlendirmesinde bulundu.
Yapay zekanın sürpriz karar verebilme gücüne sahip olduğunu ve bu yüzden algoritmaların verdiği kararların beşerler tarafından ulaşılabilir olması gerektiğini söz eden Türkbağ, bunun “alt rutin” ismi verilen küçük programlarla sağlanabileceğini söyledi.
Türkbağ, algoritmalar tarafından verilen önemli mahkeme kararlarının insan zekası tarafından denetlenebilir olması gerektiğini belirtti.
Algoritmaların uygun bir halde denetlenebileceğini söz eden Türkbağ, bunun iki halde olabileceği varsayımında bulunarak “Birincisi, tıpkı antivirüs programlarında olduğu üzere, bir resmi ya da özel bir etik kontrol programı sizin yapay zeka programınızı denetler ve buradan bir etik derecelendirme sertifikası alırsınız. Yani programınızın etik güvenilirliği derecelendirilmiş olur ve buna bağlı muhakkak alanlarda kullanılabilir. Örneğin ağır cezayı gerektiren hatalarda ya da dava konusunun yüksek pahada olduğu uyuşmazlıklarda en muteber yapay zeka programları, örneğin testten tam not alanlar, 5. derece etik güvenilirliğe sahip programlar kullanılır. Yani etik kontrol programları genel ya da özel emelli yapay zeka programlarını denetlerler. Günümüzde intihal programları tam da bu mantıkla çalışmaktadır. Kontrol programı onay verirse yapay zeka piyasaya sürülür.” dedi.
Türkbağ, itik kontrolün hayati olduğunu vurgulayarak “Hukuk kontrolünden daha kıymetlidir. Kesinlikle bizim yapay zekayı etik kontrole tabi tutmamız lazım.” diye konuştu.
Konuya ait diğer bir varsayımda bulunan Türkbağ, “Siz arabanın dış ısıyı ölçmesini istiyorsanız bir yazılım eklersiniz, bir de derece koyarsınız, varsayım olarak söylüyorum 5 dakikada bir o bilgiler ekrana yansıtılır, bu bir alt rutindir.” diyerek yapay zekanın hukuk alanında kullanımı sonrası verilen kararın alt rutin yardımıyla geriye dönük olarak karara varma adımlarını gösterebileceğini belirtti.
Yapay zekanın manipüle edilmesi ve mahremiyet endişeleri
ABD’de kar gayesi gütmeyen Yapay Zeka ve Dijital Siyaset Merkezi (CAIDP), Federal Ticaret Kuruluna (FTC) yaptığı müracaatta, yapay zeka geliştirme şirketi OpenAI’ın yapay zeka robotu ChatGPT’nin yeni sürümü GPT-4’ün kullanımının durdurulmasını istedi.
CAIDP, FTC’ye şikayet müracaatında OpenAI şirketini FTC’nin haksız ve aldatıcı iş uygulamaları kanunuyla yapay zeka eserlerine ait yönergeleri ihlal etmekle suçladı. OpenAI şirketinin en yeni GPT modeli olan GPT-4’ün “aldatıcı olduğunu, mahremiyet ve kamu güvenliği için risk oluşturduğunu” savunan CAIDP, şirketin yapay zeka eserlerinin FTC’nin kılavuzundaki “şeffaf, açık ve hesap verebilirlik” standartlarını karşılamadığını argüman etti.
Bazı kesim uzmanları da bilgisayar teknolojisinin “insanlar tarafından manipüle edilmesinden” telaş duyuyor.
Prof. Dr. Türkbağ, “Yapay zekanın manipüle edilmemesi lazım, bu çok kıymetli. Yapay zekadan bir insanı kurtarmasını istediniz ve bu kişinin bir de beslediği hayvanı var, adamı kurtarırken hayvanı da öldürmemesi lazım.” tabirlerini kullandı.
Yapay zeka kararının üst mahkemeye taşınması
Türkbağ, varsayım olarak, yapay zeka tarafından verilmiş bir karara itiraz edilip üst mahkemeye taşınması durumunda davanın insan zekası tarafından devralınması gerektiğini belirtti.
“İlk derecede yapay zekayı kabul ediyorsak da itiraz edildiğinde bunun beşere gitmesi lazım katiyetle, hukukun mantığı bunu gerektirir.” diyen Türkbağ, davaların kıymetine nazaran yapay zekanın geniş çaplı bilgi tabanı taraması yapması gerektiğini söyledi.
Türkbağ, bunun üzerine yapay zekanın hiyerarşi geliştirebileceğini, algoritmalarla verilen karar beşerler tarafından itiraz edilmediğinde bunun artı bir puan olarak algılanacağını kaydederek “Daha sonra içtihat oluşacak zira artılara daha çok yer verecek. Nasıl artı puan aldıysa o örneklerin üzerinden gidecek. Eksi puan oluştuğunda da o kararın kuşkulu olduğunu düşünecek ve onu daha az ihtimal olarak karar vermeye başlayacak. Yapay zeka beşerden farklı olarak her örnekte teğe bir öğreniyor ve asla unutmuyor.” dedi.
Yapay zekanın geliştirdiği kendi içtihadına da bakacağını belirten Türkbağ, yapay zeka tehlikeli durumlarda daha evvel ne yaptıysa yeniden o yaptığını taklit edeceğini ve şayet tehlikeli durumlarda ne yapılacağına dair bir öncelik verilmediyse bunun çok büyük problemler ortaya çıkaracağını kaydetti.
Türkbağ, örnek olarak, seyir halinde ilerleyen bir otomobil olduğunda yapay zekanın otomobilin içindekileri mi, dışındakileri mi koruyup korumayacağının kıymetli sorun olduğunun altını çizdi. Bu bahsin mühendislik işi olmadığını bunun büsbütün etik bir sorun olduğuna dikkati çeken Türkbağ, “Bizim için her ikisini de kurtarması lazım, ne olursa olsun.” değerlendirmesini yaptı.
Türkbağ, “Benim korktuğum, mesela VIP araçlardaki yapay zekaya farklı programlar verilebilir, “tamamen içerdekileri koru” komutu verilebilir, “dışardakine ne olursa olsun” mantığı beni gerçekten korkutuyor, insanların tekrar yapay zekayı manipüle etme ihtimali” dedi.