Pandemi ile mücadelede sayısal verilerle yapılan analizler bir kenara doğal dil işleme çeşitli start-up’ların yapay zeka uygulamalarında boy göstermeye başladı. BlueDot isimli Kanada firması, halk sağlığına dair riskleri öngörmede “Salgın Önleme Merkezleri”nden daha başarılı adımlar attı. Wired’in haberine göre ortaya çıkan yeni virüs türünün de tespitinde günler öncesinde firma gerekli uyarıları yapmıştı. Firma 65 farklı dilde yazılan 100.000 makaleyi de analiz ederek salt sayısal veri analizi ile elde edilen sonuçları, doğal dil işlemenin gücünden de faydalanarak yeni bir boyuta taşıdı.
Metabiota isimli bir başka firmada uçuşlarla salgının daha çok yayılabileceğine ve yayılımının nasıl olacağına dair tahmin ve analizlerini ilk resmi raporlar ve tedbir önerileri gelmeden önce paylaşmış. Firma ortaya çıkan minik vakaların ve ülkeler arasındaki uçuş trafiğinden yola çıkarak, online yayınlanan raporları işleyerek, sosyal medya verilerini kullanarak kendi kapsamlı yapay zeka uygulamasını beslemiş. Metabiota’nın CEO’su akan veriler sayesinde ölü oranlarının varabileceği ve ekonominin nasıl etkileneceğine dair daha ayakları yere basan analizler yaptıklarını iddia ediyor.
- Derin öğrenme chatbotu; öğrenme süreçleri derin öğrenme yapısı baz alınarak geliştirilen chatbot türüdür. Diğer bir deyişle chatbot’un öğrenme süreci sadece veri üzerinden gerçekleşmemekte olup, insanlar arası diyalogunda kullanılması kastedilmektedir. COVID19 nedeniyle dijital dünyada katlanan veri miktarı, yapay zekanın öğrenmesi için gerekli verinin de daha detaylı ve hedef odaklı süzülmesine neden oluyor. Çünkü pandemi öncesi, çeşitli nedenlerden ötürü dijital dünyada yer almayan bireyler, bu dünyadan süzülen veri kümesinde yer almadıkları için, geliştirilen pek çok uygulamada eksiklikler ve yanlışlar meydana geliyordu. Sosyal izolasyon nedeniyle dijital dünyanın kullanımı mecburiyete dönüşünce veri kümesindeki çeşitlilikte artmış oldu. Bu durum daha detaylı, öğrenme kümesi daha güçlü chatbotlar geliştirilmesinde önemli fırsatları barındırıyor. Bir derin öğrenme chatbotu geliştirirken aşağıdaki adımlar izlenebilir:
- Verinin Ön İşlemesi (insanlar arasındaki pek çok yazışmadan önce bir odak nokta belirleyerek verinin toplanması, süzülmesi. Ontoloji oluşturma adımı olarak da nitelenen bu kısım toplanabildiği kadar etkileşimin toplanmasına odaklanmakta)
- Verinin Yeniden Şekillendirilmesi (Derlenen mesajların, içerik/mesaj ve verilen cevap şeklinde sınıflandırılması. Böylede ne tür bir etkiye ne tür bir tepki verilmeli kurgusunun oluşturulması mümkün hale geliyor. Burada etki tepki kurgusunu oluştururken iki kişi arasındaki konuşmalar şeklinde gruplamak, veriyi bir bütün gibi düşünmekten daha etkili çözümler yaratabilir. Bu adımdan sonra veriniz Şekil 1’deki hale dönüşmüş olacak)
- Önişleme (Bu adımda dilin gramer anlamındaki özelliklerinin makineye kazandırılması ifade ediliyor. Sonuçta kişiler arası yazışmalarda yapılan gramer hatalarının tespit edilmesi ve makinenin/chatbotun hatalardan ayıklanmış şekilde öğrenmesinin sağlanması gerekli. Bu adımda doğal dil işleme süreçlerinin bilindik işlemleri olan tokenizing, stemming, ve lemmatizing devreye alınmalı. Bu işlemler sayesinde iki insan arasındaki yazışma makine için daha okunabilir hale gelmiş olacak. Bu noktada dilerseniz NTLK’yı tercih edebilirsiniz (http://www.nltk.org/). Son olarak da derin öğrenme chatbotunuzun referans alabilmesi için yapılan konuşmaların ağacını parse etmeniz işinizi kolaylaştıracak.
- Chatbot Türünün Seçilmesi (Bu son adımda generative mi yoksa retrieval tabanlı mı olması gerektiği kararını vermelisiniz. Generative türde, chatbot önceden tanımlı herhangi bir repositoryi kullanmadan, derin öğrenme yardımıyla cevap üretmesi kastedilmektedir. Retrival tabanlıda ise generativein aksine önceden belirli bir kaynağa dayanarak cevap üretilmektedir. Özellikle bu türde geliştirici, bir soru karşısında en uygun responsu seçmek zorundadır ki, chatbot gerekli tamamlamayı yapabilsin.
- Kelime Vektörlerinin Oluşturulması (bu noktada chatlerdeki yazışmalarda kullanılan kısaltmalara dikkat edilmesi gerektiğini unutmayalım. LOL gibi bu kısaltmalar, öğrenme için seçilen çeşitli veri kümelerinin bir üyesi olmayabilirler. Bu aşamada Python ile kendi Word2Vec modelinizi oluşturabilir ya da TensorFlow Seq2Seq’i kullanabilirsiniz. Özellikle TensorFlow Seq2Seq’i seçerseniz örnek bir githup uygulamasını sizlerle paylaşıyorum: https://github.com/adeshpande3/Facebook-Messenger-Bot/blob/master/Seq2Seq.py
- Geleceğin dünyasında yeni nesil sömürge anlayışının veriye dayalı olacağı, insanların kendilerine sunulan imkanlara daha fazla erişmek adına verilerini isteyerek sunacaklarını görüyoruz, görmeye de devam edeceğiz. Corona gibi pek çok salgın dijital dünyayı kullanmayı ya da bu dünyada ağırlıklı olarak var olmayı arzu etmeyenleri bile mecbur hale getirdi. Nitekim Harari’nin Davos’taki Dünya Ekonomi Zirvesi’ndeki konuşmasında “ortak bir akıl/değer üretilmezse yapay zeka devriminin, veri ile gelen değişimin sınıflar arası farklılığı daha baskın hale getireceği, hatta ülkelerin belli sınıflara dahil olacağını” yönündeydi. Bu konuşmadan özetle şu soruyu yöneltsem yanlış olmaz: Dijital diktatörlüğe doğru adım adım gidiyor muyuz? Harari’nin Davos 2020 konuşması için: https://www.youtube.com/watch?v=JHrvlYK45mU
- Pandemi günlerinde en popüler mesleklerden biri de hiç kuşkusuz içerik üreticiliği oldu. Ancak insanların evlerinde kalması ile dijital dünyaya yüklenmeleri de bu mesleği bir o kadar zor hale getirdi. Yapay zeka bu anlamda da destek verebilecek ve içerik üreticiliğini yeni bir boyuta taşıyacak gibi gözüküyor. Özellikle müşterilerle etkileşimin arttırılmasında içeriklerin üretilmesi tarafında Reach-Convert-Engage üçgeninde zaten gündeme alınan yöntemlerin, daha çok bireye erişmek ve yeni nesil habercilik yapısını güçlendirmek için de kullanılmaya başlanmış “AI-powered content marketing” olarak adlandırılan bu hareket; videolardan resimlere, metinlerden sloganlara bilindik her yapıyı yenileyecek gibi gözüküyor. Bu anlamda içerik geliştiricilerin yerini alabilecek yapay zeka tabanlı araçlar ise şöyle:
- Quill (beynin çalışma prensiplerini taklit ederek doğal dil işleyen bir platform olarak sunuluyor)
- Wordsmith (veriden ilginç anlatımların üretilmesi)
- Articoolo (insan gibi makale yazımı)
- Word AI
- Canva (sadece metin yazımı değil, metne uygun tasarım)
- it
- TubeBuddy
- Quuu Promote
YAPAY ZEKA ve CORONA
- Wuhan’da başlayan ve sonrasında tüm dünyaya yayılan COVİD-19 ile ilgili toplanan tüm veriler ışığında önemli yapay zeka uygulamaları geliştirildi. Bu uygulamaların bazıları büyük teknoloji firmalarından gelirken bazıları da startuplardan geldi, hatta pandemi yeni startupların doğmasına da neden oldu. Geliştirilen uygulamaları sizler için sınıflandırmaya çalıştım.
- İzleme, tanımlama ve tahminleme
- Virüs teşhisi
- Sağlık hizmetlerinde süreç yönetimi ve talep işleme
- Medical ürünlerin dronla teslimi
- Sterilize edilmiş robotların kullanımı (yiyecek teslimi vb)
- İlaçların geliştirilmesi
- Koruyucu özellikli kumaşların geliştirilmesi
- Hasta olanlar ve hasta olma potansiyeli bulunanların izlenmesi
- Bilginin paylaşılmasında chatbotların geliştirilmesi
- İlaç geliştirme süreçlerinde süper bilgisayarın kullanılması
- Infekte olmamış bireylerin durumlarının korunması
- Geliştirilen yapay zeka uygulamalarının açıklanabilirliği, yorumlanabilirliği son derece önemli. Klasik makine öğrenmesi uygulamalarında bu kısım kolaylıkla çözümlenebilir durumda. Çünkü veriden öğrenen algoritmaların ürettiği modellerin ne anlama geldiği, kurallarının nasıl ilerlediğini, örneğin karar ağacında, alanın uzmanı olmayan bir kişi bile anlayabilir, anlatabilir. Interprtability konusunda Glassbox model olarak adlandırılan bu modeller ile çalışmakta, onları açıklamakta gayet kolay. Fakat söz konusu karakutu olarak adlandırılan modeller olduğunda süreç bu kadar kolay değil. Çünkü başarısı yüksek olan bu modellerin kararı/sonucu neye göre ürettiği çoğu zaman belirsiz (Bu konuda daha detaylı bilgi edinmek için Deniz Kılınç ile birlikte yazdığımız Geleceğin Meslekleri Kitabı syf 85-92). Bu kara kutu modeller geçtiğimiz yazdan beri MIT tarafında oldukça sık tartışılıyordu. Bu tartışmalar en sonunda meyvesini vermiş ve birkaç araç geliştirilmişti. Şu zamana kadar geliştirilen tüm bu yöntemler “Blackbox Explainers (karakutu açıklayıcılar)” başlığı altında toplanıyor. Bu yötemler:
- LIME
- SHAP
- Partial Depence
- Sensitivity Analysis
- Global Surrogate
- Feature Permutation
- Bu konu ilginizi çektiyse şu linke bir göz atmanızı tavsiye ederim. https://github.com/interpretml
CORONA ZAMANLARINDA YAPAY ZEKA
- Pandemi yeni startupların doğuşunu hızlandırmaya devam ediyor. Tabi ki süreçte kimin ayakta kalıp başarılı olacağına kimin tarihin sayfalarına gömüleceğini bilemiyoruz. Bu alandaki yeni startuplar/yeni denemeler şöyle:
- CoRover
- Biletleme işlemlerinde kolaylık sağlamak üzere chatbot geliştiren firma bu deneyimini, bir videobot geliştirmeye aktarmış. Fortis Healthcare’da çalışan bir doktorla iş birliği yapan firma, doktorun görüntüsünü kullanarak gelen soruları yanıtlayan bir videobot oluşturmuş.
- Club First isimli firma, hastanelerdeki çeşitli işlerin devralınması yoluyla sosyal mesafeyi hastane çalışanları arasında da sağlamaya odaklanmış. İlk denemeler Sawai Man Singh hastanesinde yapılıyormuş. Firma tarafından tasarlanmış robotlar hastalara ilaç, yemek, su gibi ihtiyaçları anlamında hizmet sunuyormuş.
- Innoplexus AG, Almanya merkezli startup, yapay zeka tabanlı ilaç keşif platformu geliştirmiş. Klinik denemelerdeki sürenin kısaltılmasına odaklanan firma, yapay zekanın farklı kombinasyonlardan ürettiği tavsiyeler üzerinden danışmanlık sağlıyormuş.
- Gerçek mi umut tacirliği mi?
- Bu eleştirinin ana nedeni dijital dünyadaki pek çok kanalda, aşının geliştirilmesinde, hastalığın seyrinde, vaka sayısının gidişatını anlamada, virüsün izleyeceği yolu tespit etmede yapay zeka kullanıldığına dair her gün çok sayıda haber/duyuru okumak mümkün. Ancak bu uygulamaların nasıl olduklarına dair hiçbir açıklama mevcut değil. Konferansta bu uygulamalara yönelik olarak, bu haberleri yapanlar ve/veya malzeme olanlar tarafından aşağıdaki noktalar aydınlatılmalı görüşü yaygındı:
- Elimizdeki yapay zeka, yapay dar zeka olduğu için manipülatif olup olmadığını, doğru bir şekilde öğrenip öğrenmediğini anlamak için hangi verilerden öğreniyor sorusunun cevabı verilmeli.
- Matematiksel altyapılarına dair de bir enformasyon mevcut değil. Oysa geliştirildiği iddia edilen bu uygulamalar, matematiksel tarafıyla ispatlanabilir olmalı.
- Hizmet veren, vereceğini iddia eden uygulamalar güvenlikli olmalı (verilerden öğrenme sürecinde topladığı verileri nasıl elde ettiği, bu anlamda bireylerin/sağlık kurumlarının mahremiyet alanlarına girip girmediği, girdi ise bu verileri korunaklı bir biçimde tutması gerektiği)
- Tüm bu soru işaretleri yapay zeka ile ilgili yapılan haberlerin gerçekliğine gölge düşürüyor. Ancak ana sorun bununla da sınırlı değil. Çünkü insanların/toplumların yapay zekaya dair okudukları her haberle kat be kat artan umutları hüsranla sonuçlanır ise, yapay zeka ile toplum arasındaki bağ zedelenir. Zaten kaygan bir zeminde olan bu bağ, bir de pandemi sürecinde yapay zekanın “sonuç alınamayan”, “dipsiz kuyu” damgası yemesi ile giderek zayıflar. Bunun sonucunda da insanlık yeni bir kışa girmese de ilk yapay zeka sonbaharına girebilir. Buradaki sonbahar atfından kastım şöyle:
- Tüm çalışmaların durması yapay zekanın kışıdır.
- İnsanlık pandemi sonrası kayıpları ile birlikte “insan seviyesinde bir yapay zeka geliştirme” düşüncesinden vazgeçebilir, ya da daha kritik konulara eğilmek varken bu konuya eğilmeyi gereksiz masraf, zaman kaybı olarak görebilir.
- Yapay zekanın özü olan insan zekasını taklit etme fikri ötelendiğinde, kullandığımız tüm yöntemler yapay dar zekanın sınırları içinde kalır.
- Böylece yapay dar zekadaki yöntemlerin daha da iyileştirilmesine odaklanılabilir. Bunun sonucu olarak yapay zeka popülerliğini yitirmeye başlar, matematik, istatistik, veri bilimi öne çıkar. Bir süre sonra makine öğrenmesi konusu veri biliminin bir alt dalı gibi konuşulmaya başlanabilir.