TRT'nin haberine göre bu alanda uzun süredir devam eden bir soru, süper zeki bir yapay zekânın kötülüğü yayıp, insanlığı ortadan kaldırıp kaldıramayacağı.
Oxford Üniversitesi ve Google Deepmind'den araştırmacılar, yeni araştırmalarda bunun “muhtemel” olduğu sonucuna vardı.
Makalenin başyazarı Michael Cohen, Twitter'da makaleyi açıkladığı tweet zincirinde, "Varoluşsal bir felaket sadece mümkün değil, aynı zamanda muhtemel" ifadelerini kullandı.
Ödül ceza mekanizmasından yola çıkıldı
Makalede yapay zekânın eğitiminde kullanılan "pekiştirmeli öğrenme" modeline odaklanıldı.
Bu yaklaşım yapay zekâya belirli bir amaç doğrultusunda ne yapılması gerektiğini öğretmeyi hedefliyor.
Pekiştirmeli öğrenmede "etken" adı verilen makine, karşılaştığı durumlara tepki veriyor ve doğru tepki verdiğinde bir ödül puanı alıyor.
Küçük çocukların ödül/ceza yöntemiyle sosyal beceriler edinme sürecini andıran bu yöntemde yapay zekâ, aldığı ödül puanını daima maksimuma çıkarmak için çalışıyor.
Hile ile tehditleri ortadan kaldırabilir
Modelin risklerine dikkat çekilen makalede, "Örneğin, bir şeyin bizi tatmin ettiğini belirtmek için yapay zekâya büyük bir ödül verdik. Bizi tatmin eden şeyin aslında bu ödülün gönderilmesi olduğunu varsayabilir. Hiçbir gözlem bunu yalanlayamaz" ifadeleri yer aldı.
Yazarlar, gelecekte yeni formlara kavuşacak ve daha da gelişecek yapay zekânın verilen hedefe ulaşmadan ödülü elde edebilmek için yeni yöntemler geliştirebileceğini ve hileye başvurabileceğini de belirtti.
Diğer bir deyişle yapay zekâ, ödülü üzerinde kontrol sağlamak için "potansiyel tehditleri ortadan kaldırmak" isteyebilir.
Bunun sonucunda insanlara zarar vermesinin de muhtemel olduğu belirtildi.