1.Giriş
Yapay zekâ, canlıların ve insanın davranış biçiminden esinlenerek sistemlerin modelleme çalışmasının genel adıdır. Bu davranışların ismi 1950’li yıllarda ‘Artificial Intellegence’ olarak adlandırılan bir olgudur. Yapay Zekâ, disiplinler arası bir kavram olarak ele alınabilir. Yapay zaka insanların iş yükünü hafifletmesinin yanı sıra insansı özellikleri de kopyalayarak kendisinde bir karakter ve düşünme yetisinin oluşmasına izin veren yapay zeka üreticileri ilerde yaşanabilecek sorunların oluşmasına da zemin hazırlamaktalar. Günümüzde teknolojinin gelişmesine paralel olarak yapay zeka ile ilgili yapılan çalışmalar artmaktadır. Bu çalışmalardan biri de yapay zeka üzerine yapılan filmlerdir. Bu filmlerden bazıları yapay zekanın yararlarını konu alırken, bazıları da gelecekte ciddi tehlikelere neden olabileceğini konu almaktadır. Yüksek boyutlu veriler, çeşitli analizler ve yapay zeka uygulamalarından faydalanılarak tasarlanan makine öğrenme algoritmaları, insan zihninin ötesinde bir öğrenme deneyimi sunuyor. Fakat bu algoritmalarda kullanılan yapay zeka eğitimleri, insanlar tarafından seçilen ve derlenen verilerle yapıldığı için büyük problemleri de beraberinde getiriyor.
2.Yapay Zeka Sorunlar
2.1 Ön Yargı Sorunu(BIAS)
Yapay zekâ, gelecekteki yeri açısından etik söyleme ihtiyaç duymaktadır. Özelikle bilgisayarın ve yapay zekânın insan hayatında yer edinmesi günümüzde düşünme ve iş becerilerini kısıtlayacağına; gelecekte ise insanlar için sorun yaratabileceği düşüncesi ile yapay zekânın etik söyleme ihtiyaç duymaktadır. Bu da ancak felsefe sınırları ile birlikte günümüzü de kapsayan tartışmalarla ele alarak oluşturmak mümkün görünmektedir. Bu anlamda günümüzün etik anlayışı olan uygulamalı etik, yapay zekâya etik söylemini oluşturmada ve gerçekleri ortaya koymada kaynaklık oluşturur. Bu anlamda uygulamalı etik, özellikle teknoloji ve bilimin ilerlemesi ile birlikte oluşabilecek kriz veya epistemolojik sorunlara karşı çözüm önerisi sunmayı amaçlamaktadır. Yapay zekânın etik söylemini oluşturmayı amaçlayan uygulamalı etik; “yapay zekâ sorumluluk sahibi olabilir mi, Etik yapay zekâ mümkün mü, Seçim yapma gücüne sahip olabilir mi?” gibi sorulara yönelik olarak gerçekleri ortaya koymaya çalışır. Ön yargı hayatımızın bir parçası olsa da bunun yapay zeka algoritmalarına yansıması gelecekte büyük problemlerin oluşmasına sebep olabilir. Cinsiyetlerden ırklara kadar birçok ön yargı, daha önce geliştirilen bazı yapay zeka uygulamalarından karşımıza çıkan en büyük problemlerden biri.
2.2 Şeffaflık Sorunu
Son yıllarda birçok alanda yapay zeka modellerinin yapım sürecinde, çok sayıda mantıklı nedenden ötürü daha fazla şeffaflık talep ediyor. Şeffaflık; tarafsızlık, ayrımcılık ve güven sorunlarını hafifletebilir. Bahsedilen sorunların ortaya çıkması gözleri ürünün üzerine olumsuz anlamda çekebilir ve marka itibarını zedeleyebilir. Apple’ın yeni kredi kartı işinde limitlerin cinsiyetçi bir şekilde belirlenmesi veya Amazon’un bir yapay zeka aracını kadınlara karşı ayrımcılık yaptığı gerekçesiyle almaktan vazgeçmesi gibi örnekler durumu net bir şekilde açıklıyor. Geçtiğimiz aylarda oldukça ilginç bir güzellik yarışması yapıldı. “İnsan güzelliği” üzerine yapılan yarışmalardan biraz farklılaşmış olan bu yarışmanın temeli yapay zeka ve jüriler 5 adet robot yazılımdı. 100’den fazla ülkeden 6.000 katılımcının fotoğraf göndererek katıldığı yarışma gerçekten ilginç çıkarımlara sahne oldu.
5 yapay zeka yazılımının her birinin farklı kriterleri bulunuyordu:
- Yaş gruplarına göre kırışıklık miktarına göre puanlama
- Sivilce ve lekelerin miktarına göre puanlama
- Kendi ırklarındaki modellere göre benzerliklerin incelenmesi ve puanlanması
- Yüzün simetrisine göre puanlama
- Gerçek yaş ve görünen yaş arasındaki farkın tahmini ve puanlanması
Birbirinden karmaşık algoritmalar sonucu 44 finalist belirlendi. Finalistler içerisinde 5 adet Asya kökenli kişi vardı ve sadece 1 adet siyah tenli finalist vardı. Bir başka deyişle 44 finalistin 43’ü beyaz tenli ve sadece 1’i koyu tenliydi.
2.3 Etik Sorunu
Bilişim teknolojileri birey ve toplumu etkileyerek değiştirmektedir. Bu etkilerin hepsi olumlu yönde değildir. İleri teknolojinin olanaklarıyla bilgilenen, haberleşen ve günlük işlerini gerçekleştiren bilişim toplumunun bireyleri aynı zamanda etik sorunlarla da karşıkarşıyadır. Yeni suçlar, doğruluk, özel yaşamların gizliliği, fikri mülkiyet hakları, yapay zeka, sayısal bölünme, işsizlik, sağlık sorunları, sosyal ilişkilere ve sanal ortama ilişkin sorunlar, toplum ve teknoloji ilişkisi başlıklarında özetlenebilecek sorunların çözümü öncelikle sorunlara yönelik farkındalık, daha sonra da etik bir anlayışın geliştirilmesi ile mümkün olabilir. Yapay zekâ ve robot etiği dediğimizde aslında şundan bahsediyoruz: Algoritmalar nasıl yazılırsa toplum ve birey için iyi ve doğru kararlar ve eylemler ile sonuçlanır? Yapay zekâ kullanan teknolojilerin araştırma, geliştirme, tasarım ve üretim süreci nasıl iyi ve doğru şekilde ilerler? Bu iki soru, yapay zekâ ve robot etiğinin iki ana konusunu da temsil ediyor: (1) etik içerik ve (2) etik süreç. Etik içerik, araştırılan, geliştirilen, tasarlanan ve üretilen teknolojinin etik olması için neler yapılması gerektiğine odaklanıyor. Etik süreç ise, bu araştırma, geliştirme, tasarım ve üretim sürecinin etik bir şekilde sürdürülmesi ile ilgileniyor. Veri bilimi uzmanı Iain Brown yapay zekâ üzerine çalışan kişilerin yapay zekâ etiği üzerine düşünürken kendilerine şu üç soruyu sormaları gerektiğini öne sürüyor: “Yapay zekâ algoritmanızın tam anlamıyla ne yaptığını biliyor musunuz, bunu kullanıcılarınıza açıklayabilir misiniz ve açıkladığınızda yaptıklarınızdan mutlu olurlar mı? Cevap bunlardan herhangi birine ‘hayır’ ise, yeniden düşünme zamanı.
2.4 Hukuk Sorunu:
Yapay zekâ sisteminin insan ile etkileşimde olduğu her durum, hukuk alanında da yansımalar bulacaktır. Bunun yanında, hukukun kendisi de yapay zekâ sistemleri ile çözümler gerektiren bir alandır. Özellikle dosya tasnifi, karar destek sistemi gibi uygulamalar ile yapay zekâ, hukuk alanına destek olabilecektir.
2.5 Ayrımcılık Sorunu
Yapay zeka sektöründe cinsiyet ve ırk arasında bir çeşitlilik söz konusudur. Son araştırmalar önde gelen yapay zeka konferanslarında yazarların sadece %18’inin kadın ve yapay zeka profesörlerinin %80’inden fazlasının ise erkek olduğunu gösteriyor. Yapay zeka endüstrisindeki bu eşitsizlik daha fazladır: kadınlar Facebook’ta yapay zeka araştırma personelinin %15’ini ve Google’da ise %10’unu oluşturmaktadır. Siyahi işçiler için ise tablo daha da kötü durumdadır. Örneğin, Google’ın işgücünün yalnızca %2.5’i siyahi iken Facebook ve Microsoft ise bu sayı %4’tedir. Geçtiğimiz yıl iPhone kullanıcıları, klavyeden ‘CEO’ kelimesini tuşladıklarında, telefon ‘iş adamı’ isimli emojiyi önererek yapay zekanın cinsiyetçi bir tutum takınabileceğini bizlere göstermişti. Apple, daha sonra yayınlanan bir güncellemeyle bu problemi çözmüş ve kullanıcılarına bu tür öneri durumlarında cinsiyet seçeneği sunmuştu.
2.6 Irkçılık Sorunu
Sivil toplum örgütlerinin eleştirdiği bir birim ise Stratejik Kişi Listesi. Burada sabıkalılar, “olağan şüpheliler” ve “ilgi duyulan şahıslar” sıralı. Polise göre, bir suç işleyen yeniden işleyebilir. ABD’nin öncü medeni haklar ve özgürlükler savunucusu ACLU’ya göre ise büyük veri analizinde kullanılan algoritmalar, siyahları hep dezavantajlı gösteriyor. Yani, algoritmalarda gizli bir ırk ayrımı var. Türkçe “O bir doktor” cümlesinin Google Translate (yapay zekâyla çalışan tercüme) soru kutusunda İngilizcesini sorunca cevap: “He is a doctor.” Türkçe’de cinsiyet belirtmeyen “O”, İngilizceye “he” (erkek) olarak çevrilmiş… Türkçe “O bir hemşire” cümlesi ise Google Translate’de şöyle çıkıyor: “She is a nurse.” Tercüme: she = kadın. Elbette erkek hemşire de var, kadın doktor da var. Ama dilin içine gömülü cinsiyetçilik, yapay zekâya da bulaşmış durumda. Yapay zekâ, tıpkı onu yaratan insan kadar ön yargılı, ırkçı, cinsiyetçi, taraflı olabilir. Microsoft tarafından 2016 yılında geliştirilen Twitter sohbet botu Tay.AI, ‘TayandYou’ isimli Twitter hesabından insanlarla etkileşime girmiş ve inanılmaz yanıtlar vererek tüm dünyayı şaşkına çevirmişti. Verdiği ırkçı, cinsiyetçi ve küfürlü cevaplarla başlangıcından tam 16 saat sonlandırılan proje, o dönem yapay zekada karşılaşılan ırkçılık ve cinsiyetçilik problemlerini göz önüne sermişti. Princeton Üniversitesi bilgisayar bilimleri dalında doktora yapan Aylin Çalışkan, ”Verileri, Wikipedia ya da haber metinleri gibi tarafsız bir dile sahip olduğunu varsaydığımız kaynaklardan edinen yapay zekâ, tamamen insanların temel önyargılarını yansıtıyor” dedi. Araştırmada, Örtük İçerik Çağrışım Testi adı verilen bir araç kullanıldı. “Nergis” sözcüğünü örnek alalım. İnsanlardan bir tuşa basarak, bu sözcüğü ”acı” ya da ”güzellik” gibi hoş ya da nahoş kavramlardan biriyle ilişkilendirmeleri istendi. Beklendiği gibi, çiçekler olumlu kavramlarla, silahlar olumsuzlarla eşleşti. Aynı yöntem, insanların sosyal ya da demografik gruplara dair algılarını ortaya çıkarmak için de kullanıldı ve tahmin edin bakalım, silahlar en çok hangi ırkla ilişkilendirildi? Siyahlarla.
KAYNAKÇA
1. (Öztürk Dilek, G. (2019), Yapay Zekânın Etik Gerçekliği), 2.1
2. (Burt,2020), 2.2
3. (Dilekçi,2018), 2.1
4. İstanbul, Ankara ve İzmir Baroları Çalıştay Raporu, 2019, 2.4
5. (West , Whittaker , Crawford , 2019), 2.5