Facebook'un kullandığı yapay zekaların kendi dilini geliştirdiği haberleri dünyanın hemen her yerinde basın organlarında kendine yer buldu.
Gerçekten de tüm bu haberler, bir bilimkurgu filminden fırlamış gibiydi. Hatta bazı gazetelerde habere korkunç görünümlü robot fotoğrafları eşlik ediyordu.
Peki, makinelerin dünyanın sonunu getireceğini düşünüp paniğine kapılmalı ve buna karşı hazırlıklara başlamalı mıyız?
Bu sorunun yanıtı: Henüz değil.
Her ne kadar Stephen Hawking gibi dünyanın önde gelen bilim insanları, bir gün yapay zekanın insanlığa tehdit oluşturabileceği yönünde uyarılar yapsa da, Facebook meselesinin bu kadar korkutucu bir yanı yok.
Facebook Haziran ayında, insanlarla ya da diğer robotlarla kısa metinler kullanarak, sohbet eden ya da sorulara yanıt veren sohbet robotu programlarıyla ilgili yaptığı araştırmalardan elde ettiği ilginç bulgularla ilgili bir blog yazısı yayınladı. Bu yazı, New Scientist gibi bazı bilim-teknoloji yayınlarında haber oldu.
Facebook yaptığı deneyde, sanal eşyaların sahipliği konusunda robotların birbirleriyle nasıl müzakere ettiğini inceliyordu.
Bu deneyin amacı, müzakerelere katılan taraflar açısından bu tarz tartışmalarda dilin nasıl bir rol oynadığını ve daha önemlisi dilin, sohbet etmeye programlanan robotların tartışmadaki hakimiyetini nasıl etkilediğini anlamaktı.
Deneyin başlamasından birkaç gün sonra, bazı durumlarda robotların kendi aralarındaki sohbetin ilk bakışta anlamsız bir hal aldığı görüldü:
Her ne kadar bazı haberlerde tam da bu noktada robotların insan yaratıcılarını atlatmak için yeni bir lisan geliştirdiği ima edilmiş olsa da, bunun altında yatan gerçek nedeni sinir (nöral) ağların, daha etkin bir etkileşim kurmak amacıyla insanların kullandığı dili değiştirmesi oluşturuyor.
Teknoloji haberleri yayınlayan internet sitesi Gizmodo, "Birbirlerinden öğrenme çalışmaları sırasında robotlar kendi türettikleri kısaltmalarla sohbet etmeye başladılar. İlk etapta ürkütücü görünse de olan biten aslında bundan ibaret" dedi.
Yapay zekaların verilen komutu daha iyi bir şekilde yerine getirebilmek için İngilizce'yi farklılaştırarak kullanmaları yeni değil.
Google, tercüme yazılımının geliştirme aşamasında bu tarz değişikliklere başvurduğunu daha önce açıklamıştı.
2017'nin ilk aylarında da Wired dergisi, OpenAI'da çalışan bir araştırmacının yapay zekaların kendi dillerini oluşturarak, bilgiyi daha hızlı bir şekilde proses etme kabiliyetlerini iyileştirdikleri ve böylece zorlu sorunları daha etkin bir şekilde çözebildikleri bir sistem üzerinde çalıştığını bildirmişti.
Aslında yapay zekalar ve dil arasındaki ilişkiye dair bulgular çok yeni olmasa da bu konu son dönemde tekrar ısıtılarak gündeme getirildi.
Bunda büyük ihtimalle Facebook CEO'su Mark Zuckerberg ile teknoloji girişimcisi Elon Musk'ın yapay zekanın potansiyel tehlikeleriyle ilgili girdikleri söz düellosunun rolü oldu.
Ancak son haberin yazılma biçimine bakıldığında olgulardan çok, makinelerle ilgili kültürel korkular ve önyargıların ağır bastığı görülüyor.
Dahası, kabul etmek gerekir ki, makineler sinemada şahane kötü adamlar olabiliyor.
Gerçek dünyada ise yapay zeka şu anda üzerinde çok fazla araştırma yapılan devasa bir alan. Tasarlanan ve test edilen sistemler giderek daha da gelişmiş bir hal alıyor.
Bunun bir sonucu da, aynı Facebook deneyinde olduğu gibi, sinir ağlarının insan müdahalesi olmadan birbirleriyle etkileşime geçerek ortaya çıkardıkları üretimi nasıl yaptıklarının halen henüz tam olarak anlaşılamaması.
Bazılarının otonom silahlar gibi sistemlerde yapay zeka kullanımının tehlikeli olduğu yönünde görüş bildirmesinin arkasında da bu belirsizlik yatıyor.
Ayrıca, yapay zekanın giderek daha çok hayatımıza girmesine bağlı olarak bunun etik taraflarıyla ilgili tartışmalar da büyüyor.
Ancak Facebook'un sistemi, halka açık bir uygulama olarak değil, kapalı devre tamamen araştırma amaçlı kullanılıyordu. Ekibin yaptığı çalışmayla alakası olmayan işler üretmeye başladıktan sonra da kapatıldı.
Dahası, sohbet robotları geliştirmenin çok zor olduğunu da akıl tutmakta fayda var.
Elbette ki, sohbet robotları insanmış gibi davranacak şekilde programlanabilir ve bazı durumlarda bizi kandıracak kadar iyi olabilirler.
Ancak henüz bir isyan çıkaracak durumda olmadıkları da kesin.
En azından Facebook'un elindekilerin...