Yapay zekâ insanları nasıl anlar ya da anlamaya çalışır?

Yapay zekâ insanları nasıl anlar ya da anlamaya çalışır?

Machine learning algoritmaları, kalıpları, üzerinde çalıştıkları insanlardan çok daha iyi tanıyabilir. Verilerden yola çıkarak yüksek riskli durumlarda tahminler üretmek ve kararlar. Örneğin elektrikçiler, müşterilerin ihtiyaçlarını tahmin etmek için IBM Watson’un tahmin yeteneklerini kullanır; Uber’in kendi kendine sürüş sistemi, yolcuları hedeflerine en hızlı şekilde hangi rotanın ulaştıracağını belirler.

Veriye dayalı öğrenme sistemleri gelişmeye devam ettikçe algoritmaların sentezleyebileceği veri miktarının artırılması, desen tanımlamalarının etkinliğini çoğalması gibi teknik gelişmeleri “başarı” olarak tanımlamak yeterince kolay olacaktır. Makine öğrenimi sistemlerinin gerçekten başarılı olabilmesi için insani değerlerini anlamaları gerekir. Daha da önemlisi makine en çok hangi sonuçlara değer verdiğimizi anlamalı ve buna göre hareket etmelidirler.

Verileri anlama

ML sistemleri mücadele ettiği etik karar verme türlerini vurgulamak için Finlandiya’da Foundational Research Institute için çalışan bir araştırmacı olan Kaj Sotala trafik analizine ve sürücüsüz arabalara yöneliyor. İşe gidip gelmeden beş dakika sonra traş etmek için ücretli bir yol kullanılmalı mı yoksa paradan tasarruf etmek için daha uzun rotayı kullanmak daha mı iyi? Maalesef cevap gözüktüğü kadar kolay değil.  

Örneğin A Kişisi, beş dakika kazandıracaksa beş dolara mal olan bir paralı yolu tercih edebilir fakat on dolara mâl olması durumunda paralı yolu kullanmak istemeyebilir. Öte yandan B Kişisi, zamanına her şeyden çok değer verdiğinden, fiyattan bağımsız olarak her zaman en kısa yolu tercih edebilir.

Kaj Sotala, “ML sisteminden insanların neye daha çok değer verdiğini belirlemesini istiyoruz. Bu da Zaman veya para”. Sonuç olarak hızlı bir şekilde hangi yola girileceğine dair basit bir soru gibi görünen şey bir ton ihtimal sayesinde karmaşık bir analiz haline gelir. 

Makine öğrenimi sistemlerinin verileri tartması ve tüm kararlarında bazı seçeneklerden feragat etmesi gerekiyor. Sistemlerin uğraştığı görevler araştırmacıların gerekli veri bilgilerini manuel olarak girebilecekleri kadar basittir. Fakat yapay zekâ araçlarının karmaşıklığı arttıkça, değerlerimizi kendi başlarına hesaplayıp tartabilmeleri gerekecektir.

Yardımcı Program Tabanlı Sistemleri Anlama

Değerleri birleştirme de söz konusu sorunun, yapay zekanın nasıl karar verdiğine bağlı olduğudur. Örneğin bir termostat önceden belirlenmiş bir sıcaklık nedeniyle bir evi ne zaman ısıtmaya başlayacağını bilir- termostat, ısıtma sistemini belirli bir sıcaklığın altına düştüğünde açar ve belirli bir sıcaklığın üzerine çıktığında kapatır-. Hedefe yönelik temsilciler ise belirli hedeflere ulaşmaya dayalı kararlar verir. Mesela işi bir alışveriş listesindeki her şeyi satın almak olan bir kişi her ürünü alana kadar aramaya devam edecektir.

Faydaya yönelik sistem, hedefe yönelik sisteme göre bir adım ötede. Yine bir örnek verecek olursak, “Gün içinde yiyecek almak, yeni ayakkabı almaktan daha önemli olduğu yadsınmaz. Fakat ayakkabı mağazasına bakkaldan daha yakınım ve her iki mağaza da kapanmak üzere. Ayakkabıları zamanında almam yiyecek almaktan daha kolay.” Gibi türden bağlantılar olabilir. Her karar noktasında, hedefe yönelik sistemde seçim yapılması gereken bir dizi seçenekle sunulur. Her seçenek belirli bir “fayda” veya ödülle ilişkilendirilir. Yapay zekâ hedeflerine ulaşmak için toplam ödülleri en üst düzeye çıkaracak karar yolunu izler.

Teknik bir bakış açısından sistemler karar vermek için “utility functions”a güvenirler. Utility functions sistemlerin verilerini sentezlenmesi, değişkenleri dengelenmesi ve ödülleri en üst düzeye çıkarmak için kullandığı formüllerdir. Sisteme öğretilen seçim yolu en çok ödülü veren yoldur. Sistem bu yolu seçtiğinde görevini tamamlar.

Yardımcı sistemler, kalıpları bulmada ve ödüllere yanıt vermede başarılı olsalar da Kaj Sotala mevcut hizmet sistemlerin sabit bir öncelik kümesi üstlendiğini iddia ediyor. Bu yöntemler, özerk bir şekilde hareket eder. Dolayısıyla AGI sistemleri söz konusu olduğunda insanların değerlerinin ne zaman değişip değişmediğine dair daha gelişmiş bir anlayışa sahip değildir.

Bir kişi paradan tasarruf etmek için ücretli bir otoyoldan geçmek yerine daha uzun rotayı seçebilir ancak rahatsızlık geçiriyor ve acil servise gitmeye çalışıyorsa parayı önemsemeden o otoyoldan gider. Bir yapay zekâ zaman ve paranın önemimin değiştiği durumları nasıl tahmin edip anlar? Bu mesele daha da karmaşıktır. İnsanlar genellikle nesnelere ödülleri olup olmadığından bağımsız olarak değer verirler. Bazen bazı açılardan zarar verebilecek şeylere bile değer verir. Mahremiyete değer veren, ancak doktoru veya terapistinin samimi ve derin kişisel bilgilere- hayat kurtarıcı olabilecek bilgilere- erişmesi gerekebilecek bir yetişkin düşünün. AI temsilcisi özel bilgileri ifşa etmeli mi, açıklamamalı mı?

Herhangi bir sonuca varırsak elimizdeki bilgiler yardımcı program tabanlı sistemlerin çok basit olduğunu ve insan davranışının kökenine inmediğidir. “Fayda fonksiyonları, davranışın nedenlerinden ziyade davranışı tanımlar “. Yapay zekâ yolcuların para biriktirmeyi tercih ettiğini fark etse de nedenini anlamaz ve bu nedenle diğer değerlerin “para tasarrufu” nu ne zaman geçersiz kıldığını tahmin edemez veya belirleyemez.

Bu gönderiyi değerlendirmek için tıklayın!
[Değerlendirme: 3 Puan: 5]