Verilerden yola çıkarak strateji geliştirilmesine yardımcı olan yapay zeka teknolojilerinin gündelik hayatta kullanımının artması beraberinde birçok tasayı de getirirken, “adil” ve “doğru” veri, kelam konusu teknolojinin geleceğinde kritik rol oynuyor.
Microsoft’un uzun uğraşlar sonucu ürettiği ve Twitter’da kullanıcılarla İngilizce sohbet etmesini beklediği yapay zeka botu TAY, ırkçı ve küfürlü karşılıkları nedeniyle 24 saat içerisinde durdurulmuştu. Kullanıcılar üzerinde büyük bir şaşkınlığa sebebiyet veren bu yanıtlardan kimilerinde TAY, bayanlara ve Musevilere hakaret etmiş, Meksika sonuna duvar örülmesi gerektiğini belirtmişti.
İngiliz kanalı Channel 4 tarafından yapılan bir habere nazaran, online alışveriş sitesi Amazon, kullanıcılarına “sıklıkla birlikte alınan ürünler” kategorisinde, bomba üretiminde kullanılan eserleri önermişti. Bir arada alınıp birleştirildiğinde küçük çaplı hasara neden olacak bu bomba üretiminde kullanılacak eserler, Amazon tarafından birebir kategoride ele alınmıştı. Channel 4 muhabirinin ilgili eserlerden birini sepete eklemesi sonrası Amazon, bomba imaline imkan veren başka eserleri de tavsiye etmişti.
Öte yandan, yapay zeka ve robotların, gelecekte insanlık için tehdit oluşturabileceği kaygıları de giderek artıyor. Geçersiz olduğu ortaya çıksa da toplumsal medyada büyük bir süratle yayılan, kendisine makûs davranan sahibinden intikam alan robot görüntüsü ve insansı robot Sophia’nın “İnsanlığı yok edeceğim” açıklaması bu telaşları gün yüzüne çıkarıyor.
Söz konusu gelişmeler yapay zeka konusunda varılan noktayı gözler önüne sererken, bu teknolojilerin hangi alanlarda ve ne biçimde kullanılacağının geleceğin şekillenmesinde en değerli faktörlerden olacağı belirtiliyor.
Yapay zeka teknolojilerinin gelecekte insanlık için büyük bir umut mu yoksa beraberinde getireceği tehlikeler açısından bir tehdit mi oluşturacağı ise ülkelerin bu teknolojiyi nasıl konumlandıracağı ile bağlantılı olacak. Yapay zeka teknolojisinin temelini oluşturan makine öğrenmesi ise kritik rol oynayacak.
“Mevcut bilgiler istenmeyen sonuçlar verebilir”
İstanbul Teknik Üniversitesi Öğretim Üyesi ve Yapay Zeka ve Data Bilimi Uygulama ve Araştırma Merkezi Müdürü Prof. Dr. Beğenilen Ünal, AA muhabirine yaptığı açıklamada, makinelerin, mevcut datalardan beslenerek öğrendikleri için kimi istenmeyen sonuçlar da verebileceğini kaydetti.
Günümüzde makine öğrenmesinde kullanılan çeşitli teknikler olduğunu anlatan Ünal, makine öğrenmesi sistemlerinde aşikâr bir misyonu çözmeye yönelik bir performans ölçütü tanımladıklarını, bu ölçütü en güzele götürecek formda sistemin yahut modelin parametrelerini güncellediklerini söyledi.
Ünal, makine öğrenmesi tekniklerinin çoğunlukla “derin öğrenme” yollarını kastettiğini aktararak, şunları kaydetti:
“Derin öğrenme; nöronlardan esinlenen kolay fakat çok katmanlı ve geniş yapay hudut ağları modellerine dayanırken, öğrenmeyi, yani kendisini güncellemeyi algoritmaya girdi olarak sağlanan datalara bakarak yapıyor. Diyelim ki yapay zeka algoritmasının bir kediyi tanımasını sağlamak istiyoruz. Eski sistemlerde kediyi tanıması için kendimiz yahut geçmiş istatistiklere bakarak kuralları belirliyorduk.Örneğin, makine fotoğraftaki cismin formuna bakarak kedi olup olmadığına karar versin üzere… Artık ise derin öğrenmeye dayalı sistemlere, kedi olarak etiketlenmiş binlerce fotoğrafı girdi olarak veriyoruz. Derin hudut ağı modeli; çok katmanlı bir yapıya ve milyarlarca parametreye sahip olduğu için yüksek sayıdaki datayı kullanarak kedinin yalnızca formunu değil, rengi, deseni, bulunduğu ortamı ve gibisi birçok bilgiyi birleştirerek kediyi tanımayı gerçekleştiriyor. Algoritmanın çıkardığı özellikler bazen bizim tanımlayabileceğimiz bazen ise tanımlayamadığımız özellikler olabiliyor.”
“Yapay zeka algoritmaları azınlıkları dezavantajlı duruma düşürebilir”
Prof. Dr. Beğenilen Ünal, pekiştirmeli öğrenmenin, yapay zekanın kullandığı bir öbür öğrenme metodu olduğunu vurguladı.
Pekiştirmeli öğrenme metodunda daha dinamik ve bilinmeyen ortamlarda, uzun vadede en güzel sonucu elde etmeye yönelik bir hesaplama yapıldığını vurgulayan Ünal, “Örneğin, satranç ve go oyunu oynayan algoritmalar buna örnek olarak gösterilebilir. Yapay zeka algoritması daima rastgele satranç oyunu oynuyor, bazen kazanıyor bazen de kaybediyor. Böylece uzun vadede hangi atılımların kendisini zafere ulaştıracağını anlamaya çalışıyor. Bu yalnızca oyunlarda değil, planlama ve strateji gerektiren her işte kullanılabiliyor.” formunda konuştu.
Ünal, yapay zeka uygulamalarının kimi ayrımcılıklara sebebiyet verebileceğine dikkati çekerek, şöyle devam etti:
“Geçtiğimiz günlerde yayımlanan bir çalışmada, Afrika yahut Asya ülkelerinden gelen datalara uygulanan kimi yapay zeka algoritmalarının yüzde 20 daha düşük performansla çalıştığı raporlandı. Bu, uygulamaları geliştirenlerin daha çok Kuzey Amerika kıtasından olmasından kaynaklanıyor. Günümüzdeki yapay zeka algoritmalarının geliştirilmesinde eğitim dataları dediğimiz makine öğrenme modelini kullanıma hazırlayan datalar kıymetli bir yer tutmakta. Bu bilgiler, daha çok Avrupa ve Amerika’dan toplandığı için Afrika üzere yerlerde yanlışsız sonuçlar vermeyebiliyor. Örneğin, bir yapay zeka yüz tanıma algoritması beyaz bir insanı daha rahat tanırken, siyahi bir insanı tanımada zorlanabiliyor ya da yapay zeka tüzel karar verme durumuna gelirse Amerika’da siyahi insanları daha fazla hatalı bulması üzere zahmetli durumlar oluşabilir. Yapay zeka algoritmasının taraflılığı ve ayrımcılık üzere durumların önüne geçmek için eğitim bilgilerinin, azınlıkları dezavantajlı duruma düşürmeyecek halde hazırlanması ve düzenlenmesi gerekiyor.”