Bilişim Hukuku

Yapay Zekanın Yargı Sistemlerinde Kullanılmasına İlişkin Avrupa Etik Şartı

Av. Gizem Yılmaz
Topuz Hukuk ve Danışmanlık Bürosu

Öz

Yapay zekâ, bugün kullandığımız pek çok teknolojinin içinde bulunmakla birlikte verilerin analizi ve saklanması ile sistemler arası kurduğu bağlantılar sayesinde yargı organlarının işini de kolaylaştırarak adalet sistemine hizmet etmektedir. Özellikle Amerika Birleşik Devletleri’nde ve Çin’de, avukat robotlar ile hukukî danışmanlık hizmeti verildiği ve karar verme yetisine sahip yapay zekâ yazılımlarının geliştirildiği görülmektedir. Yapay zekânın yetkilerinin artırılması ve kullanımının bu kadar yaygınlaşması ise beraberinde güvenilirliğinin sorgulanmasına ve taşıdığı risklerin tartışılmasına yol açmaktadır. Öyle ki, yapay zekâ yazılımlarının yol açacağı zararların tazmini bakımından sorumluluğun kime veya neye ait olacağı konusu bile tek başına hukuk sistemlerinde yeni kabuller gerektirmektedir. Yapay zekânın hayatımıza dahil olduğu bu yeni toplum modelinde, hukuk kurallarının hangi eksende düzenlenmesi gerektiği ise benimsenecek etik kurallar çerçevesinde belirlenecektir. Bu anlamda, yapay zekâ ile insan hakları arasındaki etik prensiplerin oluşturulması ve yapay zekânın yargı sistemlerinde kullanılması için önemli bir adım atan Avrupa Birliği, önce yapay zekâ teknolojilerinin hukuk dünyasında yargılamaya hizmet ederken tâbi olacağı kuralları belirlemek üzere bir İşbirliği Bildirgesi oluşturmuş, sonra ise “insan odaklı etik” anlayışıyla Yapay Zekâ Etik Şartı’nı yayımlamıştır. Bu iki temel metin, Avrupa Birliği’nde bundan sonraki yapay zekâ çalışmalarına ışık tutacak nitelikte olduğundan özel bir öneme sahiptir.  

Anahtar Kelimeler

Avrupa Birliği Etik Şartı, Avrupa Yapay Zekâ Bildirgesi, Güvenilir Yapay Zekâ, Yargıda Yapay Zekâ, Robot Etik Kuralları.

Abstract

Artificial intelligence, which is included in many technologies we use today, serves the justice system by facilitating the work of the judicial organs thanks to the analysis, storage and connections between the systems. Especially in the United States and China, it is seen that legal counseling services are provided with lawyer robots and artificial intelligence software with the ability to make decisions is developed. Increasing the powers of artificial intelligence and the widespread use of it also lead to questioning its reliability and discussing the risks it carries. So that, even the issue of who/what will be the responsibility for the compensation of damages caused by artificial intelligence software requires new acceptance in legal systems alone. In this new society model in which artificial intelligence is included in our lives, legal rules will be regulated within the framework of ethical rules to be adopted. In this sense, the European Union, which has taken an important step to establish ethical principles between artificial intelligence and human rights and to use artificial intelligence in judicial systems, has first created a Declaration of Cooperation to determine the rules that artificial intelligence technologies will follow while serving the judiciary in the legal world and then “human-oriented ethics” with the understanding of Artificial Intelligence has published the Ethical Charter. These two basic texts are of particular importance, as they will shed light on future artificial intelligence studies in the European Union.

Key Words

Ethical Charter on Artificial Intelligence, Robot Ethics Rules, Artificial Intelligence in Judiciary, European Declaration of Cooperation on Artificial Intelligence, Trustworthy AI.

Konunun Takdimi

Yapay zekâ ve robotlar, bugüne kadar çeşitli felaket senaryolarına konu edilmiş olsa da aslında bugün kullandığımız pek çok teknolojinin içinde bulunmaktadır ve biz farkında olmadan günlük hayatımızın içine yerleşmiş durumdadır. Akıllı saat, akıllı telefon gibi kendi kendine öğrenebilen pek çok akıllı sistem hâlihazırda hayatımızdadır ve bugün pek çoğumuzun, bilgisayarlarımız ya da akıllı telefonlarımız olmadan işlerimizi yetiştirmekte zorluk çekeceği muhakkaktır. Yapay zekâ, bu anlamda zamandan ve iş gücünden tasarruf ederek daha kısa sürede daha kaliteli işler yapmamızı ve tabii ki daha çok üretmemizi sağlar. İş hayatında sağladığı faydaların yanı sıra, tıp tedavilerinden bilimsel araştırmalara kadar her alanda insanlığa hizmet eden yapay zekâ uygulamaları, verilerin analizi ve saklanması ile sistemler arası kurduğu bağlantılar sayesinde mahkemelerin, avukatların ve bilirkişilerin işini de kolaylaştırarak adalet sisteminde hukukçulara hizmet etmektedir. Bunun bir adım ötesi ise ister kabul edelim ister etmeyelim, karar verme mekanizmasına ve yetisine sahip yapay zekâ yazılımlarının kullanılacak olmasıdır. Bu noktada, hayatımızın her alanına nüfuz eden bir aktör haline gelen yapay zekâ uygulamalarının birtakım kurallarla sınırlandırılması gerekip gerekmediği sorunu ortaya çıkmaktadır.

Nasıl ki insanların toplum halinde bir arada uyum içinde yaşayabilmesi için kamu düzeni kavramı etrafında etik kurallar kabul edilmişse, yapay zekâ ve robotların da bu toplum düzenine uyum sağlayabilmesi için birtakım kurallara bağlı kılınması gerekir. Yapay zekâ teknolojilerinin kime ne şekilde hizmet edeceği konusu ile sınırlarının belirlenmesi ve kullanım alanlarının geliştirilmesi önemlidir. Anılan hususta farklı yaklaşımlar bulunmaktaysa da en genel ifadeyle yapay zekâ yanlıları ve yapay zekâ karşıtları olarak bir belirleme yapılabilir. Yapay zekâ karşıtları, yapay zekânın insanoğlundan daha zeki bir varlık olarak ortaya çıkacağı yönünde korkularını dile getirmekteyken[1]; yapay zekâ yanlıları, yapay zekânın insanoğlunun yardımcısı pozisyonunda yer alarak gereksiz tüketimin önlenmesini, çevre kirliliğinin azaltılmasını, küresel ısınmanın kontrol altına alınmasını sağlayacağını savunmaktadır. Hatta bu iyimser yönde görüş bildiren gruba göre, yapay zekânın geliştirilmesiyle yeni mesleklerin ortaya çıkması, böylece farklı alanlarda iş sahası açılması, yapay zekâya dayalı uygulamalar ile insanın kas gücüne duyulan ihtiyacın en aza indirilmesi ve insanların daha az enerji sarf ederek daha verimli olabilecekleri alanlarda çalışması, dolayısıyla yaşam kalitesinin de artması sağlanabilir. Yapay zekâ taraftarı olan bir başka grup ise; yapay zekâ teknolojilerine dünyadaki olumsuzlukları minimize edecek bir kurtarıcı olarak bakmakta[2] (Kılınç ve Ünal, 2020) ve bu teknolojilerin geliştirilmesi ve kontrollü bir şekilde kullanılması sayesinde Dünya’daki yaşam süresinin uzayacağı beklentisini taşımaktadır[3].

Varoluşumuzun yapay zekâ ile birlikte ne şekilde sürdürülebileceği hakkındaki araştırma ve gelişmeleri yakından takip eden Avrupa Birliği (AB), bu teknolojinin etik kullanımı için çalışmalar yürütmeye başlamış ve insanlığın hayatını kolaylaştırması bakımından kullanımının kaçınılmaz olduğu anlaşılan yapay zekâ yazılımlarının hangi kurallar ve şartlar dahilinde kontrol altında tutulması gerektiğine yönelik bir çerçeve sözleşme kabul etmiştir. Bu yönde, öncelikle bir İşbirliği Deklarasyonu (bildirgesi) oluşturulmuş, daha sonra Etik Şart yayımlanmıştır. Böylece yapay zekâ etik kuralları, Etik Şart’a taraf olan ülkelerin iç hukuk sistemlerinde doğrudan uygulama alanı bulmuştur.

Hayatımıza yeni bir aktör olarak giren ve yakın gelecekteki rolü yadsınamaz olan yapay zekânın yargıda kullanılması meselesi, üzerinde çokça çalışılması gereken hukukî bir alandır. Bu nedenle kaleme alınan çalışmamızda, yapay zekânın tâbi olması gereken etik kurallara dair AB mevzuat çalışmalarına yer verildikten sonra, yapay zekânın yargı sistemlerinde kullanılmasına dair örnekler ve yapay zekânın yargıda alabileceği rollere dair beklentiler ele alınacaktır. Yapay zekâ ve robot hukuku ise genel olarak kapsamlı bir çalışma alanı olup üzerinde çokça bilimsel inceleme yapılmış olduğundan bu makalenin konusu dışında bırakılmıştır.

Avrupa Birliği Yapay Zekâ Etik Şartı

Etik Şart Öncesi Çalışmalar

İnsanlığın ulaşması gereken erdemin ne olduğu sorusuna filozoflarca çağlar boyu cevap aranmış ve iyilik, doğruluk, hakikat ve güzellik kavramları üzerinde tartışılmışsa da ortak bir sonuç üzerinde fikir birliğine varılamamıştır. Bu nedenle, sıfırdan ortak bir etik üretme çabası yerine, ahlaklı olma erdemi (Tuncay, 2015: 61) gibi genel bir etik kabul edilmiş ve bazı temel etik ilkeler belirlenerek daha iyi bir dünya modeline ulaşmak hedeflenmiştir (Tegmark, 2019: 345-347).

Hukukî etik, tüm insanları bağlayıcı ve evrensel nitelikte olup kendisine saygı gösterilmesini ve kurallarına uyulmasını bekleme gibi özellikler gösterir (Tuncay, 2015: 21-22). Bu özelliklerin yapay zekâ ve robotlar üzerinde uygulanıp uygulanamayacağı ise tartışmalıdır (Ersoy, 2017: 146). Bazı düşünürler, insanlara özgü ahlakî değerlerin kodlanabilecek şeyler olmadığını ve roboetik kavramının savunulamayacağını ileri sürerken (Asaro, 2006: 10-11. Ruffo, 2012: 90. Yasalara uygun davranan robotlara yasal robot denebileceğini, ancak bunun o robotu etik robot haline getirmeyeceği hakkında bkz. Ruffo, 2012: 4), buna karşın bazı düşünürler ise robotların insanlardaki fiziksel ve duygusal nedenlerden kaynaklanan muhakeme bozukluklarından arındırılmış olması nedeniyle ahlakî değerlendirmeleri daha tutarlı yapabileceğini savunmakta ve hatta robohâkimleri buna örnek göstermektedir (Tegmark, 2019: 142-144)[4].

Yapay zekâ ve robotlar etik kuralları uygulamaya elverişli olsa da olmasa da ortada bir gerçek vardır ki, o da makinelerimizin artık ne yaptığı bilgisine sahip olabilecek kadar zeki olduklarıdır. Bu sefer insanoğlunun ürettiği bir makine, öncekilerden farklı olarak kendi kendine öğrenebilme yetisine sahiptir (Koç ve Kasap, 2019: 36). Bu nedenle, artık onlara da sınırlarını öğretme zamanının geldiği belirtilebilir. Fakat burada mesele, kendi etiğimizi, bizden çok daha akıllı olacak varlıklara empoze etmenin (Tegmark, 2019: 351) işe yarayıp yaramayacağı sorunundan ortaya çıkmaktadır. Nitekim etik kavramının içinde bulundurduğu ilkeler; adalet, eşitlik, dürüstlük, tarafsızlık, sorumluluk, insan hakları, hukukun üstünlüğü, laiklik, demokrasi, insana ve emeğe saygı şeklinde kendini göstermektedir (Tuncay, 2015: 50). İnsanlar için uygulanan etik ilkelerin, yapay zekâ ve robotlarda aynı duygu-biliş sistemi ve onlara özgü ayrı bir hak mekanizması bulunmadığından en azından şimdilik işe yaramayacağı düşünülmektedir.

Genel kabul gören etik ilkeleri, geleceğin yapay zekâsına uygun bir formda tamamıyla kodlamak oldukça zordur, ancak bir yerden başlamak gerektiği de açıktır. Bu kapsamda, “anaokulu etiği” şeklinde ifade edilen temel etik kuralların yapay zekâ teknolojilerine yüklenmesi gerektiği konusunda tereddüt bulunmamaktadır. Yapay zekâ etiği ile insanlar ve robotlar arasındaki kuralları belirlemek kastedildiğinden, etik kuralların temelinde Isaac Asimov’un ileri sürdüğü Üç Robot Yasası’nda[5] olduğu gibi insanın korunması öncelikli olarak yer almaktadır[6]. Bu nedenle, yapay zekâ etik kurallarının, “insan odaklı etik” kapsamında şekillendiği söylenebilir. Buna göre, yapay zekâ yazılımlarının amacı, insanın yeteneklerini ve potansiyelini artırmak olmalıdır (Koç ve Kasap, 2019: 109 vd.). Aksi halde, dikkatli olunmaz ise yapay zekâ sistemleri de girilen verilerden elde ettiği öğrenmeler neticesinde tıpkı insanlardaki önyargılarda olduğu gibi ırkçı ya da cinsiyetçi sonuçlara ulaşabilir (Koç ve Kasap, 2019: 111)[7]. Nitekim, Asimov’un Üç Robot Yasası’na dair hikâyelerinde de genellikle bu yasaların nasıl problematik çelişkilere yol açtığı görülmektedir.

Günümüzde, yapay zekânın her gün gelişen teknolojisi ve yaygınlaşan kullanımı karşısında çelişkilere ve tereddütlere yer bırakma gibi bir lükse sahip olmadığımızı ifade etmek gerekir. Bu farkındalığa ulaşan kuruluşlar, son yirmi yıl içinde kanunlaştırma çalışmalarına başlamış durumdadır[8]. Bu anlamda, Amerika Birleşik Devletleri (ABD) ve Çin’in, yapay zekâya dair mevzuatlarda başı çeken ülkelerden olduğunu söylemek mümkündür. Nitekim ABD, 2009 yılında Ulusal Robotik Girişimi ilan etmiş, 2016’da Amerika Robotik Yol Haritası ile insan-robot etkileşimi ve bunun eğitim, yaşlı ve çocuk bakımı, arama kurtarma, sağlık hizmetleri ve güvenlik alanlarında kullanımına ilişkin etik ve hukukî prensipleri ortaya koymuş, ilerleyen dönemde ise Yapay Zekânın Geleceğine Hazırlık konulu bir rapor yayımlayarak, yapay zekâ araştırma geliştirme faaliyetlerine ilişkin bir ulusal strateji planı hazırlamıştır (Ünsal, 2019). 2018 yılında, Bilim ve Teknoloji Politikaları Genel Müdürlüğü Başkanlığında bir Yapay Zekâ Komitesi kurulmuş, Yapay Zekâ Ulusal Güvenlik Komisyonu kurulmasına ilişkin Ulusal Güvenlik Yetkilendirme Kanunu çıkarılmıştır. Bununla birlikte ithalata konu kanunlarda da yapay zekâ teknolojilerinin kullanılmasının ön plana çıkarılmasına dair kanun değişiklikleri yapılmış, sürücüsüz araçlara ilişkin mevzuat düzenlemeleri geliştirilmiştir. Hollanda, Japonya, Avustralya ve Birleşik Krallık da sürücüsüz araçlara hazırlıkta öne çıkan ülkeler arasında yer almaktadır ve hatta bu ülkelerin, 2021 yılında sürücüsüz araçları kontrollü şekilde trafiğe çıkarması beklenmektedir (Ünsal, 2019)[9].

Dünyada yapay zekâ ve robotlar üzerine çalışmalarını yoğun olarak sürdüren bir diğer ülke ise Japonya’dır. 2015 yılında Robot Devrimi Girişimi’ni açıklayarak Ulusal Robot Stratejisi’ni yayımlayan Japonya, bu stratejinin uygulanması için bir kurul oluşturmuş, bu kurul ise Robot Düzenleme Reformu Uygulama İlkelerini ortaya koymuştur. Bunun yanı sıra, sosyal hayatı ilgilendiren pek çok alanda yasa görüşmeleri yapılmaya devam etmektedir.

Avrupa Birliği ise yapay zekâya dair mevzuat çalışmalarında özellikle ABD ve Çin’in gerisinde kaldığını kabul ederek, yapay zekâ teknolojilerinin sağlayacağı ekonomik faydalardan yararlanabilmek ve bu yeni teknoloji için gerekli olan etik unsurların şekillenmesinde öncülük etmek üzere harekete geçmiştir. Bu itibarla, 2012 yılında RoboLaw Project[10] ile dünyadaki yapay zekâ çalışmaları sahnesinde yerini almış ve bu projenin sonucu olarak 2014 yılında Robotik Alanın Hukukî Düzenlenmesi Rehberini yayımlamıştır. Söz konusu projeyi takiben 2013 yılında Avrupa Komisyonu’nun, şirketlerin ve bir araştırma kuruluşu olan EuRobotics‘in katılımıyla SPARC isimli dünyanın en büyük sivil robotik programı hayata geçirilmiştir[11]. 2014 yılından bu yana robotik çalışmalar üzerinde devam etmekte olan en önemli araştırma-yenilik programının ise 80 milyar Euro yatırım değeri olan Horizon 2020 olduğu görülmektedir. Horizon 2020 programı sayesinde kamu sektörü ve özel sektörlerin inovasyonu sağlamak için birlikte çalışmasını kolaylaştırarak, Avrupa’nın, yapay zekâya dair birinci sınıf bilim üretmesi ve geleceğimize yapılacak yatırım konusunda küresel rekabette ön plana çıkması amaçlanmaktadır (What is Horizon 2020?; 2018).

Birliğin mevzuat çalışmaları projelerle sınırlı kalmamıştır. Avrupa Parlamentosu, Robotlara İlişkin Medeni Hukuk Kuralları Tasarı Raporu (Civil Law Rules on Robotics 2015/2103 (INL)) üzerine, Şubat 2017’de, robotlara bir “elektronik kişilik” tanınarak özel vergi sistemine tabi olmalarını gündeme getirmiştir[12]. AB Ekonomik ve Sosyal Komitesi’nin 31 Mayıs 2017 tarihli bir Tavsiye Kararında yapay zekânın etiği konusuna değinilmiş, 10 Nisan 2018 tarihinde ise üye devletlerce Yapay Zekâ İşbirliği Bildirgesi imzalanarak sosyal, ekonomik, etik ve hukukî konularda birlikte hareket etme iradesi ortaya konulmuştur.

İşbirliği Bildirgesi ile Avrupa devletleri, Avrupa Birliği’ni evrensel ölçekte ön plana taşıyacak yenilikçi iş modellerini teşvik etmenin, ekonomik büyümenin gerçekleştirilmesi için yapay zekâ konusundaki teknoloji ve endüstri kapasitesini artırmanın ve kamu sektörü verilerine daha hızlı erişim sağlanmasının gerekli olduğunu kabul etmiştir. Bununla beraber, işgücü piyasasının dönüşümü ve AB vatandaşlarının becerilerinin artırılması için Avrupa’daki eğitim ve öğretim sistemlerinin modernize edilmesi, şeffaflık ve hesap verebilirlik gibi prensiplerin yanı sıra kişisel verilerin gizliliği ve korunması da dahil olmak üzere AB temel hak ve değerlerini temel alan yeterli yasal ve etik bir çerçeve sağlanması gerektiği tespit edilmiştir. Bunun için; ulusal politikaların gözden geçirilmesi ve yapay zekâ ile uyumlu hale getirilmesi, yapay zekâ konusundaki tartışma ve gelişmelerin ekonomiye ve topluma sağladığı faydaların en üst düzeye çıkaracak şekilde teşvik edilmesi ve farkındalık yaratmak amacıyla bir Avrupa Yapay Zekâ İttifakı oluşturularak çeşitli paydaşlar topluluğunun gelişiminin desteklenmesi, araştırma merkezlerinin güçlendirilmesi için Ar-Ge fonlarının tahsisinin göz önünde bulundurulması, Avrupa düzeyinde yoğun bir Dijital İnovasyon Merkezi ağının kurulmasına katkıda bulunulması, yapay zekânın insan odaklı karar verme mekanizmasına sahip olmasının sağlanması, yapay zekâ uygulamalarının zararlı sonuçlarının ve kullanımının önlenmesi, sürekli bilgi alış verişi ile yapay zekâ konusunda Komisyon ile diyalog halinde olunması gerekliliği öngörülmüştür.

Üye devletler, söz konusu amaçların gerçekleştirilebilmesi için bilimsel ve hukukî çalışmalar yapmak üzere 2020 yılından itibaren 20 milyar Euro bütçe oluşturmayı taahhüt etmiştir (EU Member States Sign Up to Cooperate on Artificial Intelligence; 2018).

Bildirgeyi takip eden süreçte, 16 Mayıs 2018 tarihinde AB Tüketici Danışma Grubunun görüşünde (Policy Recommendations for a Safe and Secure Use of Artificial İntelligence, Automated Decision-Making, Robotics and Connected Devices in a Modern Consumer World; 2018: 1-21) ve 19 Eylül 2018 tarihinde AB Ekonomik ve Sosyal Komitesi Tavsiye Kararı’nda (Artificial intelligence: Anticipating It’s Impact on Work to Ensure a fair Transition; 2018: 1-7), yapay zekâ ve robot biliminin yükselişiyle eş zamanlı olarak gerçekleşecek sosyal dönüşümlerin temelini atma çabalarına katkıda bulunma isteği ve bu yöndeki öneriler dile getirilmiştir.

Süreç içinde ortaya konulan görüş ve tavsiyelerin birlikte değerlendirilmesiyle nihayet, 3-4 Aralık 2018 tarihli “Yapay Zekânın Yargı Sisteminde Kullanılmasına Dair Avrupa Etik Şartı” kabul edilmiştir (European Ethical Charter on The Use of Artificial Intelligence in Judicial Systems and Their Environment; 2018: 1-79). Böylece, Avrupa Konseyi Avrupa Adalet Verimliliği Komisyonu (CEPEJ), yargı sistemlerinde yapay zekânın kullanımına ilişkin etik ilkeleri belirleyen ilk Avrupa metnini kabul etmiştir. Bu metin ile yasa koyucu ve uygulayıcılarına ulusal yargı süreçlerinde rehberlik edebilecek çerçeve ilkeler sunulmaktadır. Nisan 2019’da ise; 2018’de AB Komisyonu tarafından kurulan Yapay Zekâ Üst Düzey Uzman Grubu (AI-HLEG), Güvenilir Yapay Zekâ Etik Rehberi’ni yayımlayarak pilot uygulamasını başlatmıştır.

Etik Şart ve Hedeflenen Öncelikler (European Ethical Charter on The Use of Artificial Intelligence in Judicial Systems and Their Environment)

Avrupa Birliği’nde 2012 yılından bu yana tartışılan yapay zekânın yargı sistemlerinde kullanımına ilişkin etik prensipleri düzenleyen Etik Şart, Aralık 2018’de kabul edilmiştir. Yapay zekâ yazılımlarının en az risk ile en üst fayda elde edecek şekilde kullanımını amaçlayan etik şart, bu yazılımların hangi kurallar çerçevesinde ve nasıl kullanılması gerektiğine yönelik rehber olma özelliği taşımaktadır.

CEPEJ’e göre, yargıda yapay zekânın kullanımı için yargı kararlarının ve verilerinin algoritmalarla işlenmesinde ve bu kararların kullanımında uyum sağlanması gereken beş temel prensip;

        • temel haklara saygı[13],
        • ayrımcılık karşıtı olma[14],
        • kalite ve güvenlik[15],
        • şeffaflık, tarafsızlık ve adalet[16],
        • kullanıcı kontrolü altında olma[17]

şeklinde açıklanmıştır. Bu ilkeler; yapay zekâ araç ve hizmetlerinin tasarım ve uygulanmasında temel haklarla uyum ilkesi (1), bireyler veya gruplar arasında ayrım yapmama ilkesi (2), yargı kararları ve verilerin işlenmesinde disiplinli bir şekilde tasarlanmış modellerle kalitenin sağlanması ve sertifikalı kaynakların kullanılacağı teknolojik ortamın güvenli olması ilkesi (3), veri işleme yöntemlerinin erişilebilir ve anlaşılır olması ile şeffaflık, tarafsızlık ve adalet ilkesi (4) ve kullanıcıların seçimlerini kontrol etmelerini sağlama ilkesi (5) olarak ele alınmaktadır (CEPEJ European Ethical Charter on the Use of Artificial Intelligence (AI) in Judicial Systems and Their Environment; 2018: 7-13).

Etik Şart’ta kabul edilen bu prensipler biraz daha yakından incelendiğinde, yapay zekânın etik kullanımı konusunda insanların denetimi ve kontrolü elden bırakmayacağı, insan haklarına ve değerlerine saygılı, şeffaf, güvenilir ve hesap verebilir bir sistem oluşturma hedefinde olunduğu anlaşılmaktadır. Bunun için, yapay zekânın aldığı kararların herkes tarafından kolayca anlaşılabilir ve operatörleri tarafından açıklanabilir olması gerekir.

Yapay zekânın, insanlar tarafından manipüle edilerek yanıltılamayacak bir korumaya sahip olması, güvenilir ve doğru sonuçlar vermesi beklenir. Yapay zekâ tarafından toplanan kişisel verilerin güvenle saklanıp korunabilmesi, cinsiyet, ırk, yaş veya herhangi bir ayrım gözetmeksizin herkese eşit uygulanması ve önyargılardan arındırılmış olması önemlidir. Bununla birlikte belki de en önemlisi, yapay zekânın denetlenebilir ve hesap verebilir olması için olumsuz etkilerinin hızla fark edilip raporlanması ve aldığı kararlar sebebiyle müdahale edilerek kontrolün sağlanabilmesi gerekir.

Yapay zekâ sistemlerinin kullanımı ile en üst seviyede fayda elde edilmesi planlandığı için, yapay zekânın içinde bulunduğu toplumun gelişimine katkı sağlayarak ileri taşıyacak nitelikte ve sürdürülebilir olması beklenmektedir.

Etik Şart Üzerindeki Güncel Çalışmalar

Aralık 2018’de kabul edilen AB Etik Şartı, 2019 yılında çıkarılan iki adet düzenleme ile geliştirilmiş ve daha detaylı hale getirilmiştir. Avrupa Birliği’nin 52 kişiden oluşan Yapay Zekâ Üst Düzey Uzman Grubu (AI-HLEG) tarafından oluşturulan bu düzenlemelerden birincisi, 8 Nisan 2019’da  Güvenilir Yapay Zekâ için Etik İlkeler (Ethics Guidelines for Trustworthy AI) adıyla oluşturulmuş, bunu takip eden ikinci düzenleme ise  26 Haziran 2019’da Güvenilir Yapay Zekâ için Politika ve Yatırım Tavsiyeleri (Policy and Investment Recommendations for Trustworthy AIadıyla ilan edilmiştir. Etik ilkeler ve yeni tavsiyeler, aşağıda ayrıntılı olarak incelenecektir.

Güvenilir Yapay Zekâ için Etik İlkeler Rehberi (Ethics Guidelines for Trustworthy AI)

Yapay zekâ ile daha hızlı, etkili ve en önemlisi güvenilir bir adalet sistemine ulaşmak isteyen AB, bu itibarla yerine getirilmesi gereken yedi temel gereksinim belirlemiştir. Nisan 2019’da açıklanan etik ilkeler, yapay zekâ yazılımcıları, uygulayıcıları ve kullanıcıları için adeta bir rehber olma özelliği göstermektedir. Bu nedenle bunlara kılavuz ilkeler de denilmektedir. Etik İlkeler Rehberi’nin birinci bölümünde; insan anatomisine saygı ve zararı önleme ile adil ve açıklanabilir olma prensipleri benimsenmiş, ikinci bölümünde ise gizlilik ve veri yönetimi, şeffaflık, hesap verebilirlik, eşitlik, teknik dayanıklılık ve güvenlik gibi gereklilikler işlenmiştir. Yargıda kullanılacak yapay zekâ yazılımlarında aranması gereken bu ilkeler, daha ayrıntılı olarak aşağıdaki gibi açıklanmaktadır (Ethics Guidelines For Trustworthy AI; 2019,  Requirements of Trustworthy AI; 2019, Building Trust in Human-Centric AI, Kurultay Sonuç Bildirgesi; 2018):

1. İnsan unsuru, denetim ve temel haklar: Yapay zekâ sistemleri, insanları güçlendirmeli, bilinçli kararlar almalarına ve temel haklarını geliştirmelerine olanak tanımalıdır. Aynı zamanda, sistemi içeriden kontrol edebilen, sistemin içinde olmayıp da sistemi dışarıdan kontrol edebilen ve kararı doğrudan verebilen insan yaklaşımları ile gerçekleştirilebilecek uygun gözetim mekanizmalarının sağlanması gerekir. Böylece yapay zekâ sistemlerinin demokratik, gelişen ve eşitlikçi bir topluma olanak sağlayacak şekilde hareket etmesi sağlanmış olur.

Birçok teknoloji gibi, yapay zekâ sistemleri de temel hakları eşit derecede etkinleştirebilir ve engelleyebilir. Örneğin, kişisel verilerini izlemelerine yardımcı olarak ya da eğitimin erişilebilirliğini artırarak insanlara fayda sağlayabilir. Bununla birlikte, yapay zekâ sistemlerinin erişim ve kapasitesi göz önüne alındığında, temel hakları olumsuz da etkileyebileceği söylenebilir. Bu tür risklerin olduğu durumlarda, temel haklara etki değerlendirmesi yapılmalıdır. Ayrıca, temel hakları ihlal etme potansiyeline sahip yapay zekâ sistemleri hakkında harici geri bildirimler alabilmek için denetim ve gözetim mekanizmaları oluşturulmalıdır.

Kullanıcılar yapay zekâ sistemleri hakkında bilinçli olarak bağımsız kararlar alabilmelidir. Yapay zekâ sistemlerini tatmin edici derecede kavramak ve onlarla etkileşime geçmek için gerekli bilgi ve araçlar sağlanmalıdır. Yapay zekâ sistemleri, bireyleri hedeflerine uygun olarak daha iyi ve daha bilinçli seçimler yapmaya yöneltmelidir. Böyle bir kuralın olmaması halinde yapay zekâ, bireysel bağımsızlığı tehdit edebilecek çeşitli haksız manipülasyon, aldatma, sürü ve koşullandırma biçimleri de dahil olmak üzere bilinçdışı süreçler kullanılarak tespit edilmesi zor mekanizmalar yoluyla insan davranışını şekillendirmek ve etkilemek için kötüye kullanılabilir. Bu nedenle, kullanıcı bağımsızlığı ilkesi, sistemin işlevselliğinin merkezinde olmalıdır. Bunun anahtarı ise, söz konusu yapay zekâ yazılımının kullanıcılar üzerinde yasal sonuçları olan etkiler oluşturması veya kullanıcıları benzer şekilde önemli derecede etkilemesi halinde, kullanıcıların doğrudan otomatik olarak belirlenecek bir karara tabi tutulmama hakkının kabul edilmesi olarak ifade edilmektedir.

Bu madde içinde son olarak özellikle ifade edilen “insan gözetimine olan gereksinim”, bir yapay zekâ sisteminin insan otoritesinin bağımsızlığını zedelemesini veya başka olumsuz etkilere yol açmasını engellemeye yardımcı olacaktır. Sistemi “içeriden kontrol edebilen insan” ifadesi, sistemin her karar döngüsünde insan müdahalesinin mümkün olması anlamına gelen bir yönetişim mekanizmasıdır ve genellikle uygulanması mümkün olmayan ve tercih edilmeyen bir durumdur. Sistemin içinde olmayıp da sistemi “dışarıdan kontrol edebilen insan” ifadesi ise gerek sistemin oluşturulmasında gerekse sistemin çalışması sırasında insanın müdahale yetkisinin bulunduğu anlamına gelir. Bu sistem ile birlikte insanın karar vererek doğrudan müdahale yetkisinin bulunduğu mekanizmalar, insanın, yapay zekâ sisteminin genel aktivitesini denetleme imkânını ve belirli bir durumda sistemi ne zaman ve nasıl kullanacağına karar verebilme yeteneğini ifade eder. Bu, bir yapay zekâ sistemini belirli bir durumda kullanmama, sistemin kullanımı sırasında insanın inisiyatif seviyelerini belirleme veya bir sistem tarafından alınan bir kararı geçersiz kılma şeklinde olabilir.

2. Teknik sağlamlık ve güvenlik: Yapay zekâ sistemlerinin esnek, saldırılara dayanıklı ve güvenli olması gerekir. Bir şeylerin yanlış gitmesi durumunda doğru, güvenilir ve tekrarlanabilir olmaları için güvenli olmaları gerekir. Kasten verilecek zararın en aza indirgenmesini ve önlenmesini sağlamanın tek yolu budur.

Güvenilir yapay zekâ elde etmenin önemli bir unsuru, zararın önlenmesi ilkesiyle yakından bağlantılı olan teknik sağlamlıktır. Teknik sağlamlık, yapay zekâ sistemlerinin riskleri azaltırken ve beklenmedik zararın oluşmasını önlerken güvenilir bir şekilde tasarlanmış olmalarını ifade eder. Bu, çalışma ortamlarındaki olası değişiklikler veya sistemle ters bir şekilde etkileşime girebilecek diğer ajanların (insan ve yapay zekâ ajanlarının) varlığı için de geçerli olmalıdır.

Bununla birlikte yapay zekâ sistemleri, tüm yazılım sistemleri gibi, rakipler tarafından istismar edilmelerine izin verebilecek güvenlik açıklarına karşı korunmalıdır. Saldırılar, verileri (veri zehirlenmesi), modeli (model sızıntısı) veya altta yatan altyapıyı (yazılım ve donanım) hedefleyebilir. Bir yapay zekâ sistemine saldırı varsa, sistem davranışının yanı sıra veriler de değişebilir, bu da sistemin farklı kararlar almasına veya tamamen kapanmasına neden olabilir. Sistemler ve veriler de kötü niyetle veya beklenmedik durumlara maruz kalınarak bozulabilir. Yetersiz güvenlik süreçleri hatalı kararlara veya hatta fiziksel zarara neden olabilir. Yapay zekâ sistemlerinin güvenli kabul edilmesi için, yapay zekâ sisteminin istenmeyen olası uygulamaları ve sistemin kötü niyetli aktörler tarafından potansiyel olarak kötüye kullanılması dikkate alınmalı, bunları önlemek ve hafifletmek için adımlar atılmalıdır.

Yapay zekâ sistemleri, bir sorun ile karşılaşması durumunda geri dönüş planı sağlayan güvenlik önlemlerine sahip olmalıdır. Bu, yapay zekâ sistemlerinin istatistikselden kural tabanlı prosedüre geçtiği anlamına gelebilir veya eylemlerine devam etmeden önce bir insan operatöre ihtiyaç duymasını gerektirebilir. Sistemin, canlılara veya çevreye zarar vermeden yapılması gerekeni yapması sağlanmalıdır. Bu, istenmeyen sonuçların ve hataların en aza indirgenmesini içerir. Ayrıca, çeşitli uygulama alanlarında yapay zekâ sistemlerinin kullanımı ile ilişkili potansiyel risklerin açıklığa kavuşturulması ve değerlendirilmesi süreçleri oluşturulmalıdır. Gereken güvenlik önlemlerinin seviyesi, bir yapay zekâ sisteminin maruz kaldığı riskin büyüklüğüne bağlıdır, bu da sistemin yeteneklerine bağlıdır. Geliştirme sürecinin veya özellikle sistemin kendisinin yüksek riskler oluşturacağı öngörülebilirse, güvenlik önlemlerinin proaktif olarak geliştirilmesi ve test edilmesi büyük önem kazanır.

Doğruluk, bir yapay zekâ sisteminin doğru kararlar verme yeteneğiyle, örneğin bilgileri doğru kategoriler halinde doğru bir şekilde sınıflandırabilme veya veri veya modellere dayalı olarak doğru tahminler, öneriler veya kararlar verebilme yeteneğiyle ilgilidir. Açık ve iyi biçimlendirilmiş bir geliştirme ve değerlendirme süreci, yanlış tahminlerden kaynaklanan istenmeyen riskleri destekleyebilir, azaltabilir ve düzeltebilir. Zaman zaman hatalı tahminlerden kaçınılamıyorsa, sistemin bu hataların ne kadar olası olduğunu göstermesi önemlidir. Yapay zekâ sisteminin insan yaşamını doğrudan etkilediği durumlarda doğruluk düzeyinin şüpheye yer bırakmayacak derecede yüksek olması gerekir.

Yapay zekâ sistemlerinin sonuçlarının güvenilir olduğu kadar tekrarlanabilir olması da önemlidir. Farklı girişlerde ve çeşitli durumlarda düzgün çalışan bir sistem, güvenilir bir sistemdir. Tekrarlanabilirlik, bir yapay zekâ deneyinin aynı koşullar altında tekrarlandığında aynı davranışı gösterip göstermediğini tanımlar. Bu, aynı zamanda, bilim insanlarının ve politika yapıcıların yapay zekâ sistemlerinin ne yaptığını doğru bir şekilde takip edebilmesini de sağlar.

3. Gizlilik ve verilerin korunması: Verilerin korunması ile mahremiyete saygının yanı sıra, verilere yasal erişimin sağlanması ve verilerin kalitesi ve bütünlüğü göz önünde bulundurularak veri yönetim mekanizmalarının oluşturulması gerekli görülmektedir.

Zararın önlenmesi ilkesiyle yakından bağlantılı olan gizlilik ilkesi, özellikle yapay zekâ sistemlerinden etkilenen temel bir haktır. Yapay zekâ sistemleri, sistemin tüm yaşam döngüsü boyunca gizliliği ve veri korumasını garanti etmelidir. Bu, kullanıcı tarafından başlangıçta sağlanan bilgileri ve sistemle etkileşimleri sırasında kullanıcı hakkında oluşturulan bilgileri (örneğin; yapay zekâ sisteminin belirli kullanıcılar için oluşturduğu çıktılar veya kullanıcıların belirli önerilere nasıl yanıt verdiğini) içerir. İnsan davranışlarının dijital kayıtları, yapay zekâ sistemlerinin sadece bireylerin tercihlerini değil, aynı zamanda cinsel yönelimlerini, yaşlarını, cinsiyetlerini, dini veya siyasi görüşlerini de ortaya çıkarmasına izin verebilir. Bireylerin veri toplama sürecine güvenmelerine izin vermek için, onlar hakkında toplanan verilerin yasalara aykırı veya haksız bir şekilde kullanılmayacağının garanti edilmesi gerekir.

Burada, kullanılan veri setlerinin kalitesi de yapay zekâ sistemlerinin performansı için çok önemlidir. Veri toplandığında, sosyal olarak oluşturulmuş önyargılar ve hatalar içerebilir. Herhangi bir veri seti ile eğitimden önce bunun ele alınması gerekir. Ayrıca, verilerin bütünlüğü sağlanmalıdır. Bir yapay zekâ sistemine kötü niyetli verilerin beslenmesi, özellikle kendi kendine öğrenme sistemlerinde davranışını değiştirebilir. Kullanılan süreçler ve veri setleri, planlama, eğitim, test ve dağıtım gibi her adımda test edilmeli ve belgelenmelidir. Kişilerin verilerini işleyen herhangi bir kuruluşta (birisi sistemin kullanıcısı olsun ya da olmasın), veri erişimini düzenleyen veri protokolleri oluşturulmalıdır. Bu protokoller, verilere kimlerin erişebileceği ve hangi koşullar altında erişebileceğini özetlemelidir.

4. Şeffaflık: Bu gereksinim açıklanabilirlik ilkesi ile yakından bağlantılıdır ve bir yapay zekâ sistemiyle ilgili öğelerin (verilerin, sistemin ve iş modellerinin) şeffaflığını kapsar. Açıklanabilirlik, hem bir yapay zekâ sisteminin teknik süreçlerini hem de ilgili insan kararlarını (örneğin; bir sistemin uygulama alanlarını) açıklama kabiliyetiyle ilgilidir. Teknik açıklanabilirlik, bir yapay zekâ sistemi tarafından alınan kararların insanlar tarafından anlaşılmasını ve izlenmesini gerektirir. Ulaşılmak istenilen şeffaflık, izlenebilirlik mekanizmaları ile sağlanabilir.

Ayrıca, bir sistemin açıklanabilirliğini arttırmak (doğruluğunu düşürebilir) veya açıklanabilirlik pahasına doğruluğunu arttırmak arasında bir değiş-tokuş yapılması gündeme gelebilir. Bir yapay zekâ sistemi, insanların yaşamları üzerinde önemli bir etkiye sahip olduğunda, yapay zekâ sisteminin karar verme sürecine dair uygun bir açıklama yapılması talep edilebilmelidir. İnsanlar bir yapay zekâ sistemi ile etkileşime girdiklerinin farkında olmalı ve sistemin yetenekleri ve sınırlamaları hakkında bilgilendirilmelidir. Bu bilgilendirmenin zamanında yapılması önemlidir.

5. Çeşitlilik, ayrımcılık yapmama ve adalet: Yapay zekâ uygulamalarında oluşacak haksız önyargılar ile savunmasız grupların marjinalleştirilmesinden ayrımcılığın şiddetlenmesine kadar birçok olumsuz etki söz konusu olabileceğinden, çeşitlilik teşvik edilmeli ve tüm katılımcılara eşit muamele yapılması sağlanmalıdır. Bu gereklilik, adalet ilkesiyle yakından bağlantılıdır.

Tarihi önyargı veya eksikliklerin yapay zekâ sistemleri tarafından kullanılan veri kümelerine dahil edilmesi nedeniyle belirli gruplara veya insanlara karşı istenmeyen önyargı ve ayrımcılığa yol açabilir. Söz konusu zarar, tüketicilere ait önyargıların kasıtlı olarak kullanılması veya fiyatların gizli anlaşma veya şeffaf olmayan bir pazar yoluyla homojenleştirilmesi gibi haksız rekabet oluşturmaktan da kaynaklanabilir. Sistemin bu şekilde kötüye kullanılmasının veya hukuka aykırı sonuçlar doğurmasının önüne geçebilmek için; sistemin amacının, kısıtlamalarının, gereksinimlerinin ve kararlarının açık ve şeffaf bir şekilde analiz edilmesi ve gözetim süreçlerine tabi tutulması gerektiği önerilmektedir.

Özellikle işletme-tüketici alanlarında, sistemlerin kullanıcı merkezli olması ve yaş, cinsiyet, yetenek veya özelliklerinden bağımsız olarak tüm insanların yapay zekâ ürünlerini veya hizmetlerini kullanmasına izin verecek şekilde tasarlanması gerektiği belirtilmektedir. Tüm toplumsal gruplarda bulunan engelliler için bu teknolojiye erişilebilirlik özellikle önemlidir. Bunun için yapay zekâ sistemleri, erişilebilirlik standartlarını izleyerek mümkün olan en geniş kullanıcı aralığına yönelik Evrensel Tasarım prensiplerini göz önünde bulundurmalıdır. Bu şekilde, mevcut ve gelişmekte olan bilgisayar aracılı insan faaliyetlerine ve yardımcı teknolojilere ilişkin olarak tüm insanların eşit erişimi ve aktif katılımı sağlanacaktır.

6. Toplumsal ve çevresel fayda: Yapay zekâ sistemleri gelecek nesiller de dahil olmak üzere tüm insanlara fayda sağlamalıdır. Dolayısıyla yapay zekânın sürdürülebilirliği ve ekolojik sorumluluğu teşvik edilmelidir. Bu anlamda, yapay zekânın, Sürdürülebilir Kalkınma Hedefleri gibi küresel kaygı alanlarına yönelik araştırmalara yönlendirilmesi gerekli görülmektedir. Ayrıca, bir yapay zekâ sisteminin gelişiminin ve kullanımının bireyler üzerindeki etkisinin yanı sıra, kurumlar, demokrasi ve toplum üzerindeki etkisi de dikkate alınarak toplumsal bir perspektiften değerlendirilmesi gerekir.

7. Hesap verebilirlik: Bu ilke, yukarıdaki diğer ilkelerin tamamlayıcısı niteliğinde olup özellikle adalet ilkesiyle yakından bağlantılıdır. Yapay zekâ sistemleri ve sonuçları için geliştirme, devreye alma ve kullanım öncesinde ve sonrasında sorumluluk ve hesap verebilirlik sağlayacak mekanizmaların oluşturulmasını gerektirir. Algoritmaların, verilerin ve tasarım süreçlerinin değerlendirilmesini sağlayan denetlenebilirlik, özellikle temel hakları etkileyen kritik uygulamalarda önemli bir rol oynar. İç ve dış denetçiler tarafından yapılan değerlendirme ve bu tür değerlendirme raporlarının bulunması, teknolojinin güvenilirliğine katkıda bulunabilir. Böylece, raporlama sayesinde olumsuz etkilerin en aza indirilmesi sağlanabilir. Haksız bir olumsuz etki meydana geldiğinde ise yeterli telafi sağlayan ve erişilebilir mekanizmalar öngörülmelidir. İşler ters gittiğinde telafisinin mümkün olduğunu bilmek, güven verici bir anahtardır.

Yapılan bu incelemelerden sonra, yukarıdaki yedi temel ilkeye göre yapay zekânın güvenilir olduğu sonucuna ulaşılabilmesi için genel olarak;

        • Yürürlükteki mevzuata uygun yani yasal olması,
        • Etik ilkelere ve değerlere saygılı olması,
        • Sosyal ve teknik açıdan dayanıklı olmasının arandığı söylenebilir.

Güvenilir Yapay Zekâ için Politika ve Yatırım Tavsiyeleri (Policy and Investment Recommendations for Trustworthy AI)

Dijital Avrupa Pazarı’nda bütünlüğü sağlamak amacıyla güvenilir yapay zekâ kavramını geliştirmek ve yapay zekânın olanak sağladığı hizmetleri kullanmak için Birlik içinde ortak bir mevzuata gereksinim duyulmuştur. Bu saikle hareket geçen Avrupa Birliği Komisyonu uzman grubu, Nisan 2019’daki Etik İlkeler Rehberi’nin ardından, Haziran 2019’da ikinci bir rapor daha oluşturmuştur. Bu raporda, ilk rapordaki etik çerçevesine ek olarak; yapay zekâ finansmanı, nitelikli iş gücü, altyapı yatırımları, uygun yönetişim yapısı ve yasal konulara da değinilmektedir.

Raporun giriş kısmında, potansiyel olarak hızlı çözüm bulunması gereken alanlara ilişkin üst seviye önerilerin listelendiği belirtilmektedir. Genel toplum, özel sektör, kamu sektörü ve üniversiteler olmak üzere dört alana ilişkin otuz üç (33) önerinin yer aldığı raporda, ana hatlarıyla ele alınan konular şöyledir (Hidvegi ve Leufer: 2019, Ethics Washing Made in Europe; 2019):

        • Yapay zekâ teknolojileri ile birlikte insanları ve toplumu güçlendirmek ve bu teknolojinin karanlık tarafına karşı korunmak;
        • Yapay zekâya ayrılan fon ve yatırımlar ile araştırma geliştirme faaliyetlerini artırmak;
        • Yapay zekâ uygulamaları için gerekli görülen eğitimlerin sağlanması ve yetkinliklerin belirlenmesi,
        • Verilerin işlenebilmesi için gerekli olan altyapıyı geliştirmek;
        • Sürdürülebilir büyüme ve inovasyon için kamunun imkanlarından faydalanabilmek;
        • Özel sektörde yapay zekâ kullanımını artırmak;
        • Uygun bir yönetişim yapısını ve yasal çerçeveyi oluşturmaktır.

Avrupa İttifak Meclisi (The European Alliance Assembly):

Avrupa İttifakı, üç binden fazla Avrupa vatandaşı ve katılımcısı ile yapay zekâ Avrupa’daki geleceği hakkında diyalog oluşturan bir forumdur. Bu forum, Avrupa Yapay Zekâ Stratejisi’nin başlatılmasının ardından kurulan uzman grubunun hazırladığı etik ilkeler rehberi ve diğer taslak metinler üzerinde istişareler gerçekleştirilmesini ve gerek kamu gerekse özel sektör kuruluşlarının yapay zekâ politikalarını geliştirmeye yardımcı olmasını sağlamakta önemli bir işlev görmektedir. Yapay Zekâ Politikasının ve Yatırım Önerilerinin son halinin verilmesinde, Avrupa İttifak Meclisi’ndeki öneri ve sonuçların dikkate alındığı belirtilebilir (The First European AI Alliance Assembly; 2019).

Buraya kadar açıkladığımız belge ve çalışmalar, günümüz itibariyle gelinen noktayı göstermektedir. Avrupa Komisyonu, yapay zekânın güvenilirliğinin geliştirilmesi için 2020 yılına kadar katılım sağlanması amacıyla hayata geçirdiği pilot uygulamayı neredeyse tamamlamıştır. Bundan sonraki süreçte ise 2030 yılına kadar söz konusu yatırımların daha da artırılması ve böylece Avrupa Birliği’nin yapay zekâ çalışmalarında öne çıkan ve belirleyici konumda olan siyasi aktörlerden biri olması hedeflenmektedir.

Yargı Sistemlerinde Yapay Zekâ Kullanımına Dair Dünyadan Örnekler:

Yapay zekâ, yazılıma sunulan verileri toplayarak algoritmayı yapar ve tahmin oluşturur. Bu anlamda, yapay zekâ bakımından hukukî süreçler bir nevi hesaplama olarak düşünülebilir. Davaya ilişkin iddia, savunma, deliller ve talepler yapay zekâya girdi olarak verilir ve karşılığında çıktı olarak bir karar alınır.

Tablo 1: Yapay zekâ yazılımı işlem aşamaları

Yapay zekâ yazılımı işlem aşamaları:

1-Veri toplama işlemi
2-Öğrenme işlemi
3-Sonuç üretme işlemi

Kaynak: Kütahya Barosu’nun Kurultay Sonuç Bildirgesi (2018) temel alınarak hazırlanmıştır.

Yapay zekânın adalet sisteminde kullanılması gerektiğini savunanlara göre;  böyle bir hukukî sürecin işletilmesi halinde, insanlara özgü olan önyargı, fiziksel etkenler (yorgunluk, hastalık, açlık, duygusal durum bozukluğu, psikolojik sorunlar gibi) yeterli bilgi arşivine ve güncel gelişmelere vâkıf olamama gibi hatalı kararlar verilmesine yol açacak risklerin önlenmesi, muhakeme farklılıkları dolayısıyla çelişkili kararlar ortaya çıkmasının engellenmesi ve yapay zekâ sayesinde herkese aynı kalitede ve eşit olarak uygulanacak hızlı ve etkili bir adalet sistemine ulaşılması mümkün olabilir. Hatta ancak bu şekilde herkesin yasalar önünde eşit olmasının sağlanabileceği belirtilmektedir (Tegmark, 2019: 142).

Gerçekten de yapay zekâ yazılımlarından oluşan robohâkimlerin insan hâkimler karşısında daha güvenilir olup  olmadığı yönünde yapılan araştırmalarda, insanların açlık seviyesinin karar verme eğilimini olumsuz etkilediği ve daha sert kararlar verilmesine sebep olduğu[18], insanların vakıanın tüm ayrıntısını incelemek için yeterli zamanı bulamadığı ve teknik bilgi gerektiren uzmanlık alanlarının tümüne vâkıf olamayacağı gibi son teknoloji ile gelişen teknik bilgileri takip etmesinin de her zaman mümkün olamayacağı ifade edilmektedir. Bunlara karşılık robohâkimlerin açlık ve yorgunluk gibi fizyolojik ihtiyaçları olmayacağından verilecek kararların herkese eşit şekilde uygulandığı konusunda şüphe bulunmayacağı, zaman bakımından ise her davanın kendisine ait bir robohâkime sahip olabileceği ve dosyaların hızlıca taranarak gerekli verilerin işlenebileceği, bunun yanında  sınırsız bellek ve öğrenme kapasitesine sahip robohâkimler ile en güncel teknik imkânların bile takip edilerek bu imkânlardan faydalanılabileceği, ayrıca robohâkimlerin tecrübeli avukatlar tarafından manipüle edilmesinin de söz konusu olamayacağı öngörülmektedir. Böylece yargılama prosedürleri azaltılarak hız kazanmanın yanı sıra dava maliyetlerinin de düşürülebileceği tahmin edilmektedir (Tegmark, 2019: 143).

Robohâkim fikrinin yanı sıra, yapay zekânın özellikle dosya tasnifi, karar destek sistemi gibi uygulamalar ile hukuk ve yargılama alanına destek olabileceği tartışmasız kabul görmektedir. Buna örnek olarak içtihat tarama programları gösterilebilir. Belirli bir geçmişten günümüze kadar verilmiş yargı kararlarının sisteme girilmesi neticesinde, bu sistemi içeren programların kullanıcıları tarafından dünya üzerindeki yargı kararlarına saniyeler içinde ulaşılabilmektedir. Böylece, yargı kararlarının anahtar kelimeler veya karar künyesi kullanılarak bulunmasını sağlayan içtihat tarama programları, binlerce sayfa karar arşivini araştırıp bulup okumak yerine, hukukçuların diledikleri ülkedeki geçmiş kararlara ulaşmasını sağlayan oldukça pratik bir uygulama olarak hukuk dünyasındaki yerini almıştır.

Yapay zekâ yazılımlarının yargılamanın birer aracı olarak kullanılması da söz konusu olabilir. Bu anlamda, bir davanın hakikati ortaya çıkarmak için yıllarca süren uğraşı yerine yapay zekâ destekli beyin görüntüleme sistemleriyle dakikalar içerisinde gerçeklerin ortaya çıkarılabileceği görüşü ileri sürülmektedir (Tegmark, 2019: 145). Bunun gibi bir yazılımın kullanılması durumda, yapay zekânın insanların kişisel mahremiyet alanına ne kadar müdahale edebileceğine dair sınırların belirlenmesi gerekliliği kendini gösterir. Toplumun üstün yararı ve adaletin sağlanması için kişilik haklarına ne kadar müdahale edilebileceği meselesi, yapay zekânın yargıda kullanımına dair etik prensipler içinde ayrıca ele alınması gereken bir sorun olarak ilerleyen zamanlarda gündeme getirilebilir.

Yapay zekânın yargı sahnesinde büründüğü bir diğer rol ise avukat robotlardır. Bu robotlara yüklenecek veriler sayesinde veri setlerinin kapsadığı hukukî konularda hukukî danışmanlık hizmeti verebildikleri, tüketiciler tarafından bilgisayar üzerinden girilen soruları mevcut yasal düzenlemeler çerçevesinde yanıtlayabildikleri, bir sözleşme inceleme ve değerlendirme üzerine programlanmış bir yapay zekâ yazılımının ise deneyimli avukatlara kıyasla daha hızlı ve etkili sonuçlara ulaşabildiği kanıtlanmıştır[19]. “DoNotPay.com” adlı bir İngiliz sitesi tarafından geliştirilen “The World’s First Robot Lawyer” isimli yazılım bunun açık bir örneğini oluşturur. Park cezalarına itiraz konusunda insanlara hukukî danışmanlık hizmeti sunmayı amaçlayan yazılım, dünyanın ilk robot avukatı olarak faaliyet göstermektedir (https://donotpay.com/learn). Üstelik yazılım tarafından verilen hukukî danışmanlık hizmetinin büyük oranda doğru sonuçlar verdiği de daha sonra açılan davalar neticesinde yapılan karşılaştırmalar ile ortaya konmuştur[20].

Amerika Birleşik Devletleri’nde yargı sistemlerinde kullanılmak üzere geliştirilen üç büyük yazılım olduğu bilinmektedir. Bunlar; IBM tarafından üretilen ilk yapay zekâlı sanal avukat olan Ross, veri toplayıp analiz eden Lex-Machina ve sözleşme analiz zekâsı olarak bilinen Kira sistemidir. Ross sistemi, ABD avukatlık sisteminde kullanılan, doğal dil işlemcisi bulunan, hukukî araştırma yapabilen ve sorulan sorulara belgelerle cevap verebilen bir donanıma sahiptir. Veri azaldıkça daha da zekileşen bu sistem, 1 saniyede 1 milyar belge tarayabilmektedir (A Visual Guide to AI). Lex-Machina sistemi de ABD’de uygulanmakta ve 24 saatte bir beş ayrı kurumdan veri toplamakta, topladığı verileri işleyip hukukî analiz yaparak sonuçlarını hukukçularla paylaşmaktadır. Program, bir öngörü sistemine sahiptir ve bu sayede, topladığı verilerin analizinden elde ettiği sonuçlara göre hukukî uyuşmazlık hakkında yüzdesel başarı oranı belirlemekte, eksiklikler varsa bunları tespit ederek dava kazanma stratejileri konusunda avukatlara yardımcı olmaktadır (What We Do). Kira ise sözleşme zekâsı olarak kullanılmaktadır[21]. Yazılım, çok geniş bir veri setine sahip olup kendisine yüklenen sözleşmeyi yüzlerce farklı açıdan inceleyerek gerekli değişiklik ve eklemeleri yapmakta ve varsa sözleşmedeki zayıf unsurları bulup iyileştirmektedir (How Kira Works).

Yukarıda incelenen her üç yazılım da ABD’deki avukatların işini son derece kolaylaştırarak daha hızlı ve öngörülebilir bir yargı sağlamıştır. ABD’de 2016 yılında yapılan araştırma sonuçlarına göre, anılan bu yapay zekâ sistemlerinin aktif kullanımı sayesinde; avukatların çalıştıkları ofislerdeki kişi başı maliyetin senelik 13 bin dolar düştüğü, avukatların doğal dil işleme sayesinde kazandığı zaman oranının %22,3 olduğu ve hukuk şirketlerinin hizmet üretme hızlarındaki kârlarının %30 olduğu tespit edilmiştir (Kurultay Sonuç Bildirgesi).

Yapılan bu incelemelerden sonra, yapay zekânın sağladığı faydaların yadsınabilir derecede olmadığını ifade etmek gerekir. Dokümanları hızlıca tarayarak zamandan tasarruf anlamında sağladığı fayda ve bilgiye erişimde sağladığı kolaylık, yargı sistemini yöneten oyun kurucu avukat, hâkim ve savcıların daha az yorulmasına ve işlerini daha kaliteli yapmalarına olanak sağlamaktadır.

Yapay Zekânın Yargı Sistemlerinde Kullanımına Yönelik Güncel Eleştiri ve Tartışmalar:

Yapay zekânın yargı sistemlerinde hangi görevleri yerine getirmesinin uygun olacağı; güvenilir muhakeme yapabilmesine, mevzuata ve içtihada hâkim olabilme ve somut olayın özelliklerine göre değerlendirme yapabilme derecesine göre belirlenebilecek bir meseledir. Az önce ifade ettiğimiz gibi yapay zekâ yazılımları ve robotların, yargılama sisteminde bilirkişilik yapabileceği, hukuk ofislerinde yardımcı olarak kullanılabileceği, hukuk danışmanlığı yapabileceği ve daha da ileri gidilerek robohâkim olarak davalarda karar verebileceği savunulmakta ve hatta bazı ülkelerde bu yönde çeşitli uygulamalar kullanılmaktadır[22].

Avrupa Birliği ise konuya ihtiyatlı yaklaşmaktadır. Clementina Barbaro[23] ve birçok hukukçu akademisyene göre, hâlihazırdaki yapay zekâ uygulamaları, ayrımcılık kavramını sert algıladığından davalarda adalet ve hakkaniyeti tesis edecek kararlar vermesi zordur (Yapay zekânın ayrımcılık oluşturacak şekilde algoritmik karar oluşturmasına yönelik riskler hakkında bkz. Borgesius, 2018). Nitekim yapay zekânın, davanın taraflarının eğitim durumunu, işsiz olup olmadığını, gelir seviyesini ve ceza yargılamasına konu bir davada kişiyi suça yöneltebilecek diğer faktörleri gerektiği şekilde dikkate alıp değerlendiremediği ve bu sebeple de aldığı kararların doğruluk payını saptamada risk taşıdığı endişesi dile getirilmektedir. Londra Kolej Üniversitesi tarafından yapılan bir araştırma ise bu endişeyi kısmen de olsa haklı çıkarmaktadır. 584 dava üzerinde yapılan araştırmaya göre, bilgisayarlar tarafından verilen kararların doğruluk payı %79 olmuştur (The Guardian, 2016. Congar, 2019). Bu oran, mevcut yapay zekâ yazılımları ile adil sonuçlar alınma olasılığının ne kadar düşük olduğunu göstermektedir.

Yapay zekâ yazılımları, önceki verileri, karara konu doneleri, dava özelliklerini ve mevzuatı tarayarak hâkimin nasıl karar vereceğini tahmin etmeye çalışacaktır. Ancak hâkimler, her durumda doğrudan mevzuatı uygulamamakta ve hukukun kendilerine izin verdiği ölçüde takdir hakkını kullanarak da hüküm kurabilmektedirler. Bu durumda, yapay zekânın yaptığı tahminler ile insan hâkimler tarafından verilen kararlar birbiriyle çelişebilir. Böyle bir çelişkinin doğması halinde ise kararların meşruiyetine gölge düşeceğinden yapay zekânın bir karar mekanizması olarak kullanılması imkânsız hale gelecektir (Reiling, 2009: 47-81). Zira ABD’de yapılan bir araştırma çalışmasında, önceki olaylardan yapay zekâ yazılımına girilen veriler neticesinde, şartlı tahliye edilenlerden suç işlemeye geri dönme eğilimine sahip kişiler yazılım tarafından tespit edilmiştir. Ancak bu tespite dayalı yargılama yapıldığında, Afrikalı-Amerikalılara karşı sistemde adil olmayan bir önyargı oluştuğu ve dolayısıyla haksız cezaların uygulanmasına neden olduğu görülmüştür[24].

Kanaatimizce, yapay zekânın güvenilir bir karar verici olup olamayacağı meselesi, somut olayların ve her bir davada kişilerin özel durum ve şartlarını ne kadar değerlendirip hükmü nasıl kurduğuyla doğrudan ilgilidir. Nitekim adaletin sağlanması için somut olay adaletinin sağlanması gerekir, bunu sağlayan da hakkaniyettir. Hakkaniyet ise her bir somut olayın kendi şartları içinde değerlendirilmesi ile bulunabilir. Roma Hukukundan günümüze gelen “summum ius summa iniuria” düşüncesine göre, hukuk kurallarının tüm somut olaylara katı ve şekilci olarak aynı biçimde uygulanması, adaletten uzaklaşılmasına ve eşitsizliklere yol açabilir (Uçaryılmaz, 2018: 54). Zira hukukun herkese aynı şekilde uygulanması, birbirinden farklı koşul ve şartlara sahip kişiler bakımından farklı sonuçlar doğuracağından gerçek anlamda eşitlik ve adaletin sağlanmasına yetersiz kalmaktadır.

Bize göre, yapay zekâ teknolojilerinin odağında insan bulunmak zorundadır. Bu teknolojilerin asıl faydası, yapay zekânın insan becerilerinin yerine geçmesi değil, bilakis onları destekleyip geliştirmesi ve güçlendirmesiyle kendini gösterecektir (Wilson ve Daughtery, 2020: 171). Nitekim insanların, düşünüp yorumlamak ve duygusal zekâlarını kullanmak gibi doğal olarak yapabileceği şeyler makineler için zor olabilirken; makinelerin yaptıkları da (gigabaytlarca verinin saniyeler içinde analizi gibi) insanlar için imkânsız olabilir (Wilson ve Daughtery, 2020: 172). Bu nedenle yaşadığımız çağ itibariyle yapay zekâ ve insanlar arasında işbirliğinin geliştirilmesi kaçınılmaz görünmektedir. İnsanlar, yapay zekânın güçlendirilmesi, insanları anlaması ve faydalı hale getirilebilmesi için, yapay zekâyı belli görevleri yerine getirecek şekilde eğitmeli ve bu amaçla yapay zekâya kapsamlı veri setleri yüklemelidir. Ancak bilişsel insan gücünü üst seviyelere çıkararak insani yetkinliklerle donatılan bir yapay zekânın insanların gerçek anlamda yardımcısı olabileceği söylenebilir. Böylece yapay zekâ, insanlara fazladan zaman yaratarak insanların daha sofistike işlere yoğunlaşabilmesini sağlayabilir (Wilson ve Daughtery, 2020: 202).

Sonuç

Yapay zekâya dair gelişmeler gün geçtikçe büyük bir hızda artmaktadır. Bu hız karşısında yapay zekânın geleceğini şekillendirebilmek için, şimdiden gerekli düzenlemeler yapılarak tedbirler alınması önemlidir. İnsan merkezli bir yapay zekâ sistemi oluşturabilmek ve yapay zekâyı kontrol altında tutabilmek için, insan ve yapay zekâ ilişkilerini düzenleyecek etik kurallara duyulan ihtiyaç, artık bir zorunluluk halini almıştır. Bu husus, yapay zekânın derin öğrenme becerisi sayesinde kendisini geliştirerek insanlardan daha zeki bir varlık olarak vücut bulması tehlikesini bertaraf edebilmek için de gereklidir.

Yapay zekânın geliştirilmesinin kendi içinde bir araç olarak görülmesi halinde, insan-üstü zekâ seviyesine ulaşarak kontrolden çıkması ve kıyamet senaryolarına yakın sonuçlar ile karşılaşılması söz konusu olabilir. Bu nedenle, içinde bulunduğumuz teknoloji çağının bize sunduğu imkânlardan en üst seviyede faydalanabilmek için riskleri en aza indirmemiz gerektiği açıktır. Bunun sağlanması için de en azından şimdilik yapay zekânın insanlığa hizmet etmekten başka bir amacının ve yetisinin bulunmayacak şekilde tasarlanması gerektiği söylenebilir.

Yapay zekânın insanlığa hizmet edebileceği en önemli alanlardan biri, adaletin sağlanması için gerçekleştirilen yargılama faaliyeti olarak kendini göstermektedir. Yargılama faaliyetinde yapay zekânın temel işlevi, tıpkı “Minority Report” filminde olduğu gibi öngörü ve tahminde bulunmak olarak benimsenmiştir. Ancak Amerika ve Çin örneklerinde görüldüğü gibi yapay zekânın işlevi öngörüyle sınırlı tutulamaz. Yargılamanın çeşitli aşamalarında fayda sağlayan yapay zekâ, etik prensipler içinde kalmak kaydıyla pek çok işlevi yerine getirebilmektedir.

Burada ayrıca ifade etmekte fayda gördüğümüz üzere, yapay zekânın yargı sistemlerinde kullanılmasında kişilik haklarına ve kişinin mahremiyetine ne denli müdahale edebileceği meselesine ilişkin olarak, toplumun üstün yararı karşısında bireylerin haklarının konumu dikkate alınarak yine etik prensiplere göre bir belirleme yapılması gerekebilir.

Dünya üzerindeki örneklerden ve Avrupa Etik Şartı prensiplerinden yola çıkılarak, yapay zekâ hizmetlerinin yargı sistemlerinde güvenle kullanılabilmesi için, “insan odaklı etik” anlayışıyla temel insan haklarına saygının ve kişisel verilerin gizliliğinin birinci derecede korunması, yapay zekânın veri işleme metotlarının anlaşılabilir, gözlemlenebilir, şeffaf ve ayrımcılık karşıtı olmasının sağlanması gerektiği belirtilebilir. Ancak bu şekilde “güvenilir yapay zekâ” oluşturularak yapay zekânın kötüye kullanımının ve zararlı sonuçlarının önlenmesi ile yargılamanın adil, bağımsız ve güvenilir olması hedefine ulaşılabilecektir.

Tüm bu incelemeler ışığında ulaştığımız sonuç ve kanaatler, ana hatlarıyla aşağıdaki gibi ifade edilebilir:

          1. Yapay zekâ ve insanlar arasında işbirliği yapılması ve geliştirilmesi kaçınılmazdır.
          2. Yapay zekânın gelişmesini kontrol altında tutup geleceğini şekillendirebilmek için, şimdiden gerekli düzenlemeler yapılarak tedbirler alınması önemlidir.
          3. Yapay zekâ etik kuralları, Asimov’un ileri sürdüğü Üç Robot Yasası’nda olduğu gibi “insan odaklı etik” kapsamında şekillendirilmelidir. Riskleri en aza indirmek için yapay zekânın insanlığa hizmet etmekten başka bir amacının ve yetisinin bulunmayacak şekilde tasarlanması gerektiği söylenebilir. İnsanlar, yapay zekâyı faydalı olacak şekilde eğitmeli ve bu uğurda kapsamlı veri setleri yüklemelidir. Yapay zekâ yazılımlarının amacı, insanların yerine geçmek değil; insanların yeteneklerini ve potansiyelini artırmak olmalıdır.
          4. Yapay zekânın insanlığa hizmet edebileceği alanlardan biri de adaletin sağlanması için gerçekleştirilen yargılama faaliyetidir; ancak yapay zekânın buradaki rolü, ABD ve Çin örneklerinde görüldüğü gibi öngörü işleviyle sınırlandırılamaz. Yapay zekânın zamandan tasarruf ederek sağladığı fayda ve bilgiye erişimde sağladığı kolaylık, yargı sistemini yöneten avukat, hâkim ve savcıların daha az yorulmasına ve işlerini daha kaliteli yapmalarına olanak sağlamaktadır.
          5. Yapay zekânın güvenilir bir algoritmik karar verici olup olamayacağı meselesi, her bir somut olayın kendi özel durum ve şartlarını değerlendirebilme ve hakkaniyeti takdir edebilme kabiliyetiyle doğrudan ilgilidir.
          6. Yapay zekânın yargıda kullanılabilmesi için kişilik haklarına ne ölçüde müdahale edebileceğinin belirlenmesi gerekir. Toplumun üstün yararı ve adaletin sağlanması uğruna kişilik haklarına ne kadar müdahale edilebileceği meselesi, etik prensipler içinde ayrıca ele alınması gereken bir sorun olarak ilerleyen zamanlarda gündeme getirilebilir.
          7. Yargının adil, tarafsız ve bağımsız yapısının zarar görmemesi için “güvenilir yapay zekâ” oluşturulmalıdır. Yapay zekânın kötüye kullanımının ve zararlı sonuçlarının önlenmesi, temel insan haklarına saygının sağlanması ve ayrımcılığın önlenmesi, şeffaflık ve tarafsızlık ile veri işleme metotlarının anlaşılabilir, açıklanabilir ve denetlenebilir olması sağlanarak yargı sisteminde güvenilir yapay zekâ oluşturulabilir.

Bu makale ilk olarak İstanbul Medipol Üniversitesi Hukuk Fakültesi Dergisi, Cilt: 7, Sayı: 1’de yayınlanmıştır. 

Kaynaklar ve Dipnotlar

Kaynakça

(Literatürde, yapay zekâ ve robotlar üzerine özellikle kişisel verilerin korunması kapsamında yazılmış çeşitli eserler bulunmasına rağmen, makalede işlediğimiz konuya temas edilmemiş olması nedeniyle bu eserlerden yararlanılmamış ve bu sebeple de söz konusu eserlere kaynakçada yer verilmemiştir. Huzurdaki makale spesifik bir incelemeye dayalı olarak kaleme alınmış olduğundan, yapay zekâ ve robot hukukuna ilişkin genel kapsamlı çalışmalar, bu makale ile yakından ilişkili değildir. Eldeki araştırma makalesi, genel itibariyle doğrudan kaynaklar tercih edilerek Avrupa Birliği metinleri üzerinden yapılan incelemeler sonucunda oluşturulmuştur.)

Allen, C. Varner, G. ve Zinse J. (2000) “Prolegomena to Any Future Artificial Moral Agent”, Journal of Experimental ve Theoretical Artificial Intelligence, Sayı: 12/3: 251-261. <https://researchgate.net/publication/220080115_Prolegomena_to_any_future_artificial_moral_agent> (01.02.2020).

Anderson, K. ve Waxman, Law and Ethics for Robot Soldiers”, Hoover Institution Policy Review. <https://hoover.org/research/law-and-ethics-robot-soldiers> (01.02.2020).

Angwin, J., Larson, J., Mattu S. and Kirchner, L. (2016), “Machine Bias”, May 23, <https://propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing> (05.02.2020).

Arkın, R.C. “Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative/Reactive Robot Architecture”, Technical Report GIT-GVU-07-11. <https://cc.gatech.edu/ai/robot-lab/online-publications/formalizationv35.pdf> (01.02.2020)

Asaro, P.M. (2006) “What Should We Want From a Robot Ethic?”, International Review of Information Ethics, Cilt 6 Sayı:12/2006: 9-16. <https://peterasaro.org/writing/Asaro%20IRIE.pdf> (01.02.2020).

BBC News (2019) “Elon Musk and Jack Ma Disagree About AI’s Threat”, August 29, <https://www.bbc.com/news/technology-49508091> (14.08.2020).

BBC News Technology (2014) “Stephen Hawking Warns Artificial İntelligence Could End Mankind”, December 2, <https://bbc.com/news/technology/30290540> (14.08.2020).

Congar, K. (2019) “Yapay Zekanın Avrupa Mahkemelerinde Kullanılması Riskli mi?”, 30 Ocak, <https://tr.euronews.com/2019/01/30/yapay-zekanin-avrupa-mahkemelerinde-kullanilmasi-riskli-mi> (05.02.2020).

Der Tagesspiegel (2019), “Ethics Washing Made in Europe”, April 8, <https://tagesspiegel.de/politik/eu-guidelines-ethics-washing-made-in-europe/24195496.html> (05.02.2020).

Danziger, S., Levav, J. and Liora Avnaim-Pesso, L. (2011) “Extraneous Factors in Judicial Decisions”, Proceedings of the National Academy of Sciences of the USA (PNAS), April 26, 108 (17): 6889-6892, https://doi.org/10.1073/pnas.1018033108 (05.02.2020).

Ersoy, Ç. (2017) Robotlar, Yapay Zekâ ve Hukuk, (İstanbul: On İki Levha Yayıncılık).

European Commission (2018) 237 final “Artificial Intelligence for Europe”, April 25, <https://ec.europa.eu/transparency/regdoc/rep/1/2018/EN/COM-2018-237-F1-EN-MAIN-PART-1.PDF> (01.02.2020).

European Commission (2019) “Building Trust in Human-Centric AI” <https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top> (04.02.2020).

European Commission for the Efficiency of Justice (CEPEJ), “CEPEJ European Ethical Charter on the Use of Artificial Intelligence (AI) in Judicial Systems and Their Environment <https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/1680 8f699c> (03.02.2020).

European Commision (2018) “EU Member States Sign Up to Cooperate on Artificial Intelligence”, April 10, <https://ec.europa.eu/digital-single-market/en/news/eu-member-states-sign-cooperate-artificial-intelligence> (01.02.2020).

European Commission (2019) “Requirements of Trustworthy AI” <https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines/1> (02.02.2020).

European Commission (2019) “The First European AI Alliance Assembly”, June 26, <https://ec.europa.eu/digital-single-market/en/news/first-european-ai-alliance-assembly> (05.02.2020).

European Commision (2018) “What is Horizon 2020?”, <https://ec.europa.eu/programmes/horizon2020/what-horizon-2020> (01.02.2020).

Future of Life Institute “An Open Letter: Research Priorities For Robust And Beneficial Artificial Intelligence”, <https://futureoflife.org/ai-open-letter/> (14.08.2020).

Galeon, D. (2017), “An AI Completed 360,000 Hours of Finance Work in Just Seconds”, Futurism, 08.03.2017, <https://futurism.com/an-ai-completed-360000-hours-of-finance-work-in-just-seconds> (05.02.2020)

Harvard Business School Digital Initiative (2018) “JP Morgan Coin: A Bank’s Side Project Spells Disruption for the Legal Industry”, November 13, <https://digital.hbs.edu/platform-rctom/submission/jp-morgan-coin-a-banks-side-project-spells-disruption-for-the-legal-industry/> (05.02.2020).

Harvard Law Today (2017) “HLS Students Harness Artificial Intelligence to Revolutionize How Lawyers Draft and Manage Contracts”, December 20, <https://today.law.harvard.edu/evisort/> (06.02.2020).

Hidvegi F. ve Leufer D. (2019), “European Union: More Big Words on AI, But Where Are The Actions?”, Access Now, 26 Haziran, <https://accessnow.org/european-union-more-big-words-on-ai-but-where-are-the-actions/> (14.08.2020).

High-Level Expert Group on AI (AI HLEG) (2019) “Policy and Investment Recommendations for Trustworthy AI”, June 26, <https://ec.europa.eu/digital-single-market/en/news/policy-and-investment-recommendations-trustworthy-artificial-intelligence> (04.02.2020).

High-Level Expert Group on Artificial Intelligence (2019) “Ethics Guidelines For Trustworthy AI”, April 8, <https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai> (02.02.2020).

Kılınç, İ. ve Ünal, A. (2020). “Reflections of Artificial Intelligence on C-suite”, Nitel Sosyal Bilimler, 2(1): 1-18 <https://dergipark.org.tr/tr/pub/nsb/issue/53158/674120> (14.08.2020).

Kızrak, M.A. (2019) “Hukuk ve Teknoloji İlişkisi”, Yapay Zekâ Çağında Hukuk, İstanbul Ankara ve İzmir Baroları Çalıştay Raporu. <http://ankarabarosu.org.tr/upload/HD/ Donem65/Duyurular/20191221_yapayzekâraporu.pdf> (06.02.2020).

Kira, “How Kira Works”, <https://kirasystems.com/how-it-works/contract-analysis/> (05.02.2020).

Koç, O ve Kasap, M. (2019). Daha İyi Bir Dünya İçin Yapay Zekâ, 8. Baskı, (İstanbul: Doğan Kitap).

Kütahya Barosu (2018), Kurultay Sonuç Bildirgesi, 22 Aralık, <http://kutahyabarosu.org.tr/Print.aspx?ID=106310veTip=> (01.02.2020).

LawGeex (2018) “Comparing the Performance of Artificial Intelligence to Human Lawyers in the Review of Standard Business Contracts”, February 2018, <https://images.law.com/contrib/content/uploads/documents/397/5408/lawgeex.pdf> (06.02.2020)

Lex Machina, “What We Do”, <https://lexmachina.com/about/> (05.02.2020).

Moltzau, A. (2019). “AI Strategy in EU Towards 2020: A Summary of the Various Strategies and Policies Relating to Artificial Intelligence 2018–2019”, Medium, 28.12.2019, <https://towardsdatascience.com/ai-strategy-in-eu-2018-2019-44393b7eaf28> (14.08.2020).

NTV (2016) “İlk Robot Avukat Göreve Başlıyor”; May 16, <https://ntv.com.tr/teknoloji/ilk-robot-avukat-goreve-basliyor,0cvqy_XBnUesBjsVu1izQQ> (05.02.2020).

Reiling, D. (2009), Technology For Justice: How Information Technology Can Support Judicial Reform, (Leiden University Press).

Ross, “A Visual Guide to AI”, <https://rossintelligence.com/what-is-ai.html> (05.02.2020).

Ruffo, M.D.N. (2012). The Robot, A Stranger to Ethics. In AISB/IACAP World Congress 2012 – The Machine Question: AI, Ethics and Moral Responsibility, Part of Alan Turing Year 2012: 87-91. <http://crid.be/pdf/public/8530.pdf> (01.02.2020).

SCI POL (2020) “Elon Musk and Stephen Hawking Warn of Artificial Intelligence Arms Race”, <https://scipol.org/content/elon-musk-and-stephen-hawking-warn-artificial-intelligence-arms-race> (14.08.2020).

South China Morning Post “AI Won’t Outstrip Mankind That Soon, Facebook’s founder Mark Zuckerberg Tells China Development Forum”, <https://www.scmp.com/news/ china/economy/article/1927591/ai-wont-outstrip-mankind-soon-facebooks-founder-mark-zuckerberg> (14.08.2020).

Tegmark, M. (2019) Yaşam 3.0- Yapay Zekâ Çağında İnsan Olmak (Ekin Can Göksoy, Çev.), (İstanbul: Pegasus Yayınları).

The Guardian (2016), “Artificial Intelligence ‘Judge’ Developed by UCL Computer Scientists”, October 24, <https://www.theguardian.com/technology/2016/oct/24/artificial-intelligence-judge-university-college-london-computer-scientists> (05.02.2020).

Tuncay, A.C. (2015) Hukuksal Etik (Legal Ethics) Dersleri, Genişletilmiş 2.Baskı, (İstanbul: Beta Yayıncılık).

Uçaryılmaz, T.Ş. (2018) “Roma Hukukundan Günümüz Hukukuna Dek Bona Fides İlkesi”, yayımlanmamış Doktora Tezi, İhsan Doğramacı Bilkent Üniversitesi Ekonomi ve Sosyal Bilimler Enstitüsü, Ankara.

Ünsal, B. (2019) “Yapay Zekâ ve İnsan Haklarında Eksen Kayması”.  <https://adhocdergi.com/yapay-zekâ-ve-insan-haklarinda-eksen-kaymasi/> (02.02.2020).

Wilson, H.J. ve Daughtery, P. (2020) “İşbirliğine Dayalı Zekâ”, içinde Harvard Business Review (der.), Dijital Dönüşüm Yapay Zekâ (Levent Göktem, Çev.), (İstanbul: Optimist Yayıncılık), 169-203.

Xinhua (2019), “Beijing Internet Court Launches AI Judge”, June 26, <http://xinhuanet.com/english/2019-06/27/c_138178826.htm> (06.02.2020).

Dipnotlar

[1] Bu yönde görüş hakkında Future of Life Institute (Yaşamın Geleceği Enstitüsü) Danışma Kurulu üyeleri olan Elon Musk ve Stephen Hawking’in uyarı ve önerileri, Future of Life Institute “An Open Letter: Research Priorities For Robust And Beneficial Artificial Intelligence”, <https://futureoflife.org/ai-open-letter/> (14.08.2020); BBC News Technology (2014) “Stephen Hawking Warns Artificial İntelligence Could End Mankind”, 2 Aralık, <https://www.bbc.com/news/technology/30290540> (14.08.2020), SCI POL (2020) “Elon Musk and Stephen Hawking Warn of Artificial Intelligence Arms Race”, <https://scipol.org/content/elon-musk-and-stephen-hawking-warn-artificial-intelligence-arms-race> (14.08.2020) web adresleri üzerinden incelenebilir.

[2] Mark Zuckerberg ve Jack Ma tarafından savunulan görüş için bkz. BBC News (2019) “Elon Musk and Jack Ma Disagree About AI’s Threat”, 29 Ağustos, <https://www.bbc.com/news/technology-49508091> (14.08.2020); South China Morning Post “AI Won’t Outstrip Mankind That Soon, Facebook’s founder Mark Zuckerberg Tells China Development Forum”, <https://www.scmp.com/news/china/economy/article/1927591/ai-wont-outstrip-mankind-soon-facebooks-founder-mark-zuckerberg> (14.08.2020). Avrupa Birliği de bu görüşü savunanlar arasında yer almaktadır. Birliğe göre, yapay zekânın büyük miktarda veriyi anında işleyebilmesi, sağlık, enerji, tarım, eğitim ve çevre koruma gibi birçok alanda verimliliği önemli ölçüde artırma potansiyeline sahiptir. Örneğin, araştırmacılar şu anda hasattan birkaç ay önce mahsul verimlerini tahmin etmek için tarım sektöründe yapay zekâ kullanarak çiftçilerin verimliliği artırmasına, bilinçli ekim kararları vermesine ve sonuçta gıda güvenliğini artırmasına yardımcı olduğunu ortaya koymaya çalışmaktadır.

[3] Avrupa Birliği’nin 10.04.2018 tarihli Yapay Zekâ Bildirgesi’nde bu görüş açıkça ifade edilerek yapay zekânın, sürdürülebilir sağlık hizmetlerinden iklim değişikliğine ve siber güvenlikten sürdürülebilir göçe kadar önemli toplumsal zorlukları da çözebileceği ve teknolojinin, toplum ve ekonomik büyüme için kilit bir itici güç haline geldiği belirtilmiştir.

[4] Amerika’da yapılan bir gözlemde, kahvaltıdan sonra karnı tok olan hakimlerin şartlı tahliye verme oranlarının %80’in üzerinde olduğunu, buna karşılık öğle yemeği saati yaklaştığında gelişen açlıkla birlikte şartlı tahliye verme oranlarının %30’lara düşerek daha sert bir tutum içine girdikleri ortaya konmuştur (Arkın, 2000: 260.  Anderson ve Waxman, 2012: 11).

[5] Asimov’un Üç Robot Yasası şöyledir:

 1) Bir robot bir insana zarar veremez ya da hareketsiz kalarak bir insanın zarara uğramasına izin veremez.

 2) Bir robot ilk yasayla çelişmediği takdirde insanlar tarafından verilen emirlere uymak zorundadır.

  3) Bir robot ilk ve ikinci yasayla çelişmediği sürece kendi varlığını korumak zorundadır.

[6] Örneğin; duran nesnelere çarpması yasak olan uçakların oto pilotları, kendilerini duran nesnelere kodlayarak yönlendiren kötü niyetli veya sakar insan pilotlara karşı, Asimov’un Üç Robot Yasası’ndan ikincisini uygulayarak bu komuta itaat etmeyip uçaktaki veya çarpılması muhtemel yerdeki insanların hayatını kurtarabilir.

[7] Örneğin, açık pozisyonlara doğru adayları bulmak için işçi arayan bir şirketin kullandığı yapay zekâ sistemine, daha önce işe alınan çalışanların cinsiyet, hobi, eğitim ve tecrübe gibi verileri girildiğinde bu verilerin büyük çoğunluğu erkek çalışanlardan geliyorsa, sistemin gerçekleştireceği işe alımlardaki cinsiyet oranı kadından çok erkek olacaktır. Kanaatimizce bu durumda, kadınların çalıştırılmadığı muhafazakâr toplumlarda geçmişten gelen erkek baskın iş ortamını değiştirmekte yetersiz kalacak, siste kendini tekrar edecektir.

[8] INTEL (2017), IBM (2018), Google (2018), Microsoft (2018) örnek verilebilir.

[9] Bu makalenin tebliğinden sonra Dünya Sağlık Örgütü tarafından genel pandemi olarak ilan edilen koronavirüs salgın hastalığı nedeniyle söz konusu proje ertelenmiştir.

[10] Proje, Avrupa Parlamentosu’nun da katkılarıyla 1.497.966.-Euro finansman ile başlatılmıştır. Bu projeyle gelişmekte olan robotik ve nano-teknolojilerin hukukî ve ahlaki etkileri incelenerek mevcut hukukî düzenlemelerin yeterli olup olmadığı ve hangi yönlerden geliştirmeye ihtiyaç duyulduğu, bunun insanlar için önemli olan sosyal değerlere ve süreçlere etkilerinin neler olduğu araştırılmıştır.

[11] Projeye Avrupa Komisyonu 700.000.000.-Euro ve diğer kuruluşlar toplam 2,8 milyar Euro yatırım yapmıştır.

[12] Ancak Komisyon, otonom özellikli robotlara elektronik kişilik yasal statüsü verilebileceğini, günümüzde ise henüz bu seviyede otonom robot bulunmadığından henüz robotlara yasal kişilik tanınamayacağını belirtmiştir.

[13] Principle of respect for fundamental rights.

[14] Principle of non-discrimination.

[15] Principle of quality and security.

[16] Principle of transparency, impartiality and fairness.

[17] Principle “under user control”.

[18] Bu konuda örnek olarak İsrail hâkimleri üzerinde yapılan araştırma makalesi için Danziger, Levav and Avnaim-Pesso, 2011.

[19] IBM tarafından geliştirilen Ross isimli robot, ABD’de bir hukuk bürosunda işe alınmış ve icra ve iflas hukuku alanında çalışan elli avukata yardımcı olmuştur. Hatta ABD’nin en büyük dolandırıcılık davası olan Bernie Madoff davasında avukatlara sağladığı kolaylıklar sayesinde oldukça faydalı olduğu ifade edilmiştir (NTV, 2016). Bir başka örnek, LawGeex Şirketi tarafından 20 deneyimli Birleşmiş Milletler Avukatı ile kendi yapay zekâ sistemlerinin performans karşılaştırması olarak verilebilir. Günlük yasal risk tespitine ilişkin karşılaştırmada, insan avukatların başarı oranının %94-%64 arasında ve ortalama %85 olduğu, buna karşın yapay zekânın başarı ortalamasının %94 olduğu tespit edilmiştir. Üstelik insanların bu iş için ortalama 92 dakikaya ihtiyacı olmasına karşın yapay zekânın aynı işlemi yapması 26 saniye sürmüştür (LawGeex, 2018: 14-15).

[20] Buna örnek olarak, 2017’de Londra’da bir kredi kartı usulsüzlüğüne dair Finans Ombudsmanı’na yapılan başvuruların kabul edilip edilmeyeceğini öngörebilme konusunda yüzden fazla avukatın katıldığı bir deneyde, eğitilmiş yapay zekâ programının %86 oranında doğru tahminde bulunduğu, buna karşın insanların doğru tahmin oranının %66,3 olduğu ortaya konmuştur (Kızrak, 2019).

[21] Bu yönde ayrıca, Harvard Law School öğrencileri tarafından kurulan Evisort Şirketinde, hukuk yazışmaları için doğal dil işleme sayesinde derin öğrenme ve makine öğrenmesi modellerinin kullanılması ile avukatların zamanından en az 10 yıl tasarruf edildiği belirtilmiştir (Harvard Law Today, 2017). Sözleşmeler üzerinde kullanılan bir diğer program ise CO-IN (Contract Intelligence) olmuştur. Program, avukatlar ve banka memurları tarafından 360.000 saatte gözden geçirilebilen finans verilerini saniyeler içinde inceleyebilmektedir (Galeon, 2017, Harvard Business School, 2018).

[22] Çin’de “Yapay Zekâ Yargıç” modeli ile davaların açılması gibi işlemlerde internet üzerinden yasal destek sağlanmaktadır. Böylece sistemin, prosedür işlemler hakkında karar verilmesine ilişkin olarak hâkimlerin iş yükünü azalttığı ve daha verimli çalışmalarını sağlayarak verdikleri kararların kalitesinin artmasına yardımcı olduğu belirtilmektedir (Xinhua, 2019).

[23] Avrupa Konseyi Yargı Reformu Kurumu Ünite Başkanı.

[24] Angwin, J., Larson, J., Mattu S. and Kirchner, L. (2016), “Machine Bias”, May 23, <https://propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing> (05.02.2020).

Bir Cevap Yazın