“Bu konu da nereden çıktı, üstelik güncel sorunlar bu kadar ağırlaşmış iken”; ya da “Ne alaka!” denilebilir ama, dört bir yanımız “yapay zeka” uygulamaları ile dolmuşken, bir erken uyarı yapmak yerinde olur.
Çok teknik detaylara girmeden birkaç tanım ile asıl meseleye, yani “ahlak” konusuna geleceğim.
Yapay zekanın akademik arka planı 1950’lere kadar dayanır. 1956 yılında, ABD’de Dartmouth College’da, beyin fırtınası yapan 11 matematikçi, bu kavramın ilk temellerini ortaya attı. Öyle ki, 1958 yılında, Ord. Prof. Cahit Arf Erzurum’da, Atatürk Üniversitesi’nde bir halk konferansı verdiği sırada, “Makine düşünebilir mi ve nasıl düşünebilir” adında eşsiz bir sunum da yaptı. Merak edenler sunumun aslını aşağıdaki linkten indirebilir.
https://www.slideshare.net/CuneytGoksu/makine-dsnebilir-mi
Yapay zekanın bir cümle ile tarifi şudur:
- İnsan davranışını taklit eden, öğrenebilen, tahmin geliştiren metotlar ve sistemler bütünü.
Yapay zeka 1980’lerin sonlarına kadar akademik ve bilimsel seviyede kaldı, güncel hayata çok katılamadı. Sebebi, bilgisayarların ve saklama alanlarının yeterince güçlü ve kapasiteli olmayışıydı. Günümüzde bu sorunların üstesinden gelindiği ve “kuantum bilgisayar”ları konuştuğumuz için, “yapay zeka” artık yaşamın her anında, bankacılık, üretim, hizmet sektörü, eğitim, güvenlik vs. yerini aldı. Özellikle sağlık, eğitim, ulaşım ve çevre/iklim alanlarında çok başarılı uygulamalar var.
Şu da var ki, bu kadar büyük çeşitlilik ve yararın yanında, bu teknolojinin yarattığı endişeler de mevcut. Hızlı gelişen ve yayılan bütün yeni teknolojilerde olduğu gibi, yanlış yapılan uygulamalar, geri dönülmez hatalara da yol açıyor. Yapay zeka sistemlerinin sebep olabileceği olası yanlışlıklar ve potansiyel riskler şu şekilde gruplanabilir:
ÖN YARGI VE AYRIMCILIK
Yapay zeka uygulaması bir modeldir. Yani, yukarıdaki tarifimi hatırlarsanız, insanın hangi davranışını modellemek istiyorsanız, o davranışa temel oluşturan bir veri seti ile “model eğitimi” yapılır. Dolayısıyla bu modeller o programı yazanların ya da girdi olarak kullanılan veri setinin “ön yargı ve ayrımcılık” eğilimlerine göre eğitilebilir. Örneğin, ABD’deki bazı insan kaynakları uygulamalarında, CV’lerin ön incelemesini ve elemesini yapan yapay zeka uygulamalarında, beyazların tercih edildiği ya da fotoğraftaki görüntüye göre ön eleme yapıldığı anlaşıldı. Yine bir başka CV tarayan yapay zeka uygulamasında teknik roller için erkeklerin, kadınlara göre tercih edildiği ortaya çıktı.
Bu sorunun üstesinden gelmek için;
- Programı yazanların “kişisel ya da kurumsal tercihlerinin” modele yansıtılmadığının denetlenmesi,
- Model eğitiminde çeşitli ve farklı disiplinlerden sağlanan verilerin kullanıldığının onaylanması,
- Yapay zekanın verdiği kararın “ön yargı ve ayrımcılık”tan uzak olduğunun kanıtlanması gereklidir.
ŞEFFAFLIK EKSİKLİĞİ
Yapay zeka sistemleri bir hata payı ile çalışır ve henüz mükemmel değildir. Bazen kullanıcının ya da geliştirenlerin açıklayamadığı hatalar yaparlar; öyle ki, yanlış sonuç ürettiklerinde de insan hayatını etkileyen sonuçları olabilir. Örneğin, kişinin tahlillerini ve geçmiş bilgilerini alarak hastalık teşhisi koyan; sosyal medyayı izleyip yazılanlardan kişinin davranış analizini yapan; ya da dava dosyalarını inceleyip geçmiş davalarla karşılaştırıp karar yönlendirici tavsiyelerde bulunan yapay zeka uygulamalarını düşünün. Bütün bu uygulamalardaki “şeffaflık eksikliği” ve “denetimsizlik” kişilerin hayatını doğrudan etkiler ve geriye dönük takibi de oldukça zordur.
ÖZEL HAYATIN İHLALİ
Yapay zeka modelleri veri ile eğitilir ve kullanıma sokulur. Bu sebeple “kişisel bilgilerin”, özellikle de gizli kalması gerekenlerin kullanıldığı bu model eğitimlerinde, özel hayat ve özel bilgi ihlalleri gerçekleşir. Çoğunlukla, bilginin sahibine sorulmadan ya da onay alınmadan bunlar kullanılabilir. Örneğin, kişisel sağlığımız, hastalıklarımızın tarihçesi, kullandığımız ilaçlar vb. bütün bu kişisel bilgiler, bizlerin izni alınmadan, bilgimiz dışında kullanılıp, hastalık tedavisi için kullanılacak bir modelin girdisi olabilir. Bu iyi niyetli uygulamanın aksine, veriler bölgesel olarak kullanılacak bir biyolojik silah üretiminin modellemesinde de kullanılabilir.
Albert Einstein'ın ünlü E=mc2 formülü, bir atom bombası patladığında ortaya çıkacak enerjiyi açıklar ama bu bombanın nasıl yapılacağına dair bir ipucu vermez; yine de bombayı imal edenlere ilham olmuştur. Yapay zeka sistemleri de henüz, hangi alanlarda ve ne amaçla kullanıldığında, ne sonuç vereceği açıklanıyor da olsa, ahlaki bir kurallar bütünü ile imal edilemediklerinden insan ve insanlığa zarar verecek şekilde kullanılması yönünde bir engel de yoktur.
Bu açıdan, yapay zeka sistemlerinin geliştirilmesi ve kullanılmasının kesinlikle bir kurallar bütününe bağlanması, özellikle insan hayatını doğrudan etkileyen alanlarda kullanımında geriye doğru denetlenebilecek alt yapılarla hem devlet kurumları hem de küresel bağımsız denetçiler gibi, birden fazla kurum ve kuruluş tarafından denetlenmesi gereklidir. Bu denetimlerde, “hakkaniyet, saydamlık, izlenebilirlik, sorgulanabilir olmak” gibi birçok başlığın olması şarttır.
Son olarak şunu da not etmek gerekir: Günümüzün, insanı taklit eden yapay zeka uygulamaları insan davranışının sadece belli bir bölümüne, daraltılmış bir alana odaklanır. Örneğin, iyi bir satranç oyuncusu olarak eğitilen bir yapay zeka uygulaması sadece satranç oynayabilir. Kasparov'u yenen “Deep Blue” satranç dünya şampiyonu olabilir ama tavla oynayamaz, araba kullanamaz ya da bilimsel bir buluş yapamaz. Bir arı, kovan inşa etmede ustadır; bir kunduz baraj inşa etmesini iyi bilir ama bir arı baraj inşa edemez ya da bir kunduz kovan yapmayı öğrenemez. Fakat izlemesini iyi bilen bir insan her ikisini de yapmayı öğrenebilir. Bu açıdan bakınca, günümüzün bütün gelişkin yapay zeka algoritmaları bütün biyolojik yaşam formlarına benzeyebilir ama bütüncül olarak bir “Homo sapiens” gibi davranmalarına, daha çok zaman var ve kendiliklerinden ahlaklı olmaları da henüz öngörülememekte.
O yüzden bu sistemlerin yukarıda belirttiğim çerçevede ahlaki çalışabilmeleri, bu sistemleri üretenlerin ahlakına kalmış durumda!