23 Şubat 2025

Yapay zekâ ne kadar tehlikeli olabilir?

Yapay zekânın ışıltılı dünyası bu teknolojik gelişmenin hep olumlu taraflarının belki de zaman zaman gereksiz parlatılmasına yol açsa da sahip olduğu risk potansiyeli asla ama asla yabana atılmamalı

Birleşmiş Milletler, Avrupa Birliği ve OECD tarafından da desteklenen, Türkiye’nin de yer aldığı 30 farklı ülke hükümeti tarafından atanmış uzmanları da içinde barındıran 96 bağımsız araştırmacı, yapay zekânın mevcut yeteneklerini, bu sistemlerle ilişkili riskleri ve bu risklerin nasıl yönetilebileceğine dair bilimsel kanıtları derleyerek uluslararası düzeyde ortak bir anlayış oluşturma amacıyla ilk defa yapay zekâ güvenlik raporunu geçtiğimiz ay yayınladılar. Bu rapor yapay zekânın sunduğu fırsatlarla beraber bu teknolojilerin umarsızca kullanımın da yapabileceği olası problemleri ülkeler seviyesinde dile getirmesi nedeniyle oldukça kıymetli.

Rapor genel amaçlı yapay zekânın barındırdığı riskleri üç kategoriye ayırıyor; kötü amaçlı kullanım riskleri, arızalardan kaynaklanan riskler ve sistemsel riskler. Bu üç başlık arasından kötü niyetli kullanım belki de en dikkat edilmesi gereken risk başlığını oluşturuyor, çünkü bu kullanımın amacı genellikle kişileri veya kurumları hedef alıyor ve bu kullanımın olumsuz etkisinin büyüklüğünü kestirmek pek de kolay olmuyor.

Kötü niyetli kullanımın getirdiği risklerin başında sahte içerikler geliyor. Sahtekarlık, şantaj, psikolojik manipülasyon ya da rıza dışı cinsel içerikli görüntülerin üretilmesi amacıyla yapay zekânın kullanılması, özellikle kişilerin hayatlarında çok derin yaralar açma potansiyeline sahip. Kişisel tehlikenin yanında yine yapay zekâ ile bugün üretilmesi çok kolay olan sahte haberler ve deepfake videoların, kamuoyunu yanıltma ve seçim kampanyalarının kaderini etkileme potansiyelini taşıması da toplumsal anlamda bu teknolojilerin olası tehlikesini gösteriyor. Bu iki kötü niyetli kullanıma ek olarak, kötü amaçlı yazılımların geliştirilmesini kolaylaştırması ve siber saldırılara katalizör etkisi yapması ya da bilinen biyolojik ve kimyasal silahların üretimi için talimatlar sağlayıp,  yeni toksik bileşiklerin tasarımını kolaylaştırabilmesi raporda yapay zekânın kötü niyetli kullanıma dair belirtilen diğer örnekler.

Kötü niyetli olmasa bile yapay zekâ araçları, yaşadıkları teknik eksiklik ve arızalardan kaynaklanan sorunlardan dolayı da talihsiz sonuçlar yaratma potansiyeline sahip. Modeller asla kusursuz çalışmazlar ve bu nedenle her zaman doğru yanıtları vermezler. Dolayısıyla bu teknolojinin tıbbi ya da yasal bir tavsiye almak amacıyla kullanılması sonucu kullanıcılar yanlış veya eksik bilgilerle karşılaşabilir. AI Snake Oil kitabına dair inceleme yazısında bahsettiğim Amerika’da Ulusal Yeme Bozuklukları Derneği’nin, yardım hattı çalışanlarını işten çıkardıktan sonra yerlerine yerleştirdikleri sohbet botunun bir süre sonra danışanlara tehlikeli tavsiyeler vermesi bunun en belirgin örneklerinden. Keza yine bu verilerin eğitildiği verilerdeki taraflılık sonucu bu taraflılığın modellerin çıktılarına yansıtılması, sosyal ve politik yargıları güçlendirerek, ırk, cinsiyet, kültür, yaş, engellilik veya siyasi görüş gibi konularda ayrımcılığa yol açabilmesi bir diğer teknik sorun. Yine aynı yazıda bahsettiğim COMPAS isimli modelin, Amerika’da sınıflar ve ırklar arası ayrım yaptığı ve bu kriterlere göre yanıltıcı suç skorları ürettiği görülmesi de bu yargıyı destekler nitelikte. Sistemsel bir diğer hata ise henüz gerçekleşmemiş ve gerçekleşmesi de mevcut koşullarda neredeyse imkânsız bir senaryo aslında. Kontrolün kaybedilmesi ve bu araçların kendi kendine çalışması ihtimali. Robotlar dünyayı ele geçiyor senaryosu kısacası. Ancak dediğim gibi, bu mevcut koşullarda yaşanması imkânsız, gelecekte de olması şu anki araştırmalar ışığında oldukça zor bir senaryo.

Sistemsel riskler ise aslında yapay zekânın topluma olan olumsuz olası etkilerini barındırıyor. Bu risklerin başında, yapay zekâ trendine dair yapılan en yaygın yorumlardan biri geliyor;  insanların işlerini kaybetme riski. Mevcut gelişmeler iş piyasasında olumsuz bir etkiye sahip olma potansiyelini taşısa da rapor birçok ekonomistin, yeni işlerin yaratılması ve otomasyona geçmeyen sektörlerdeki talebin artmasıyla, potansiyel iş kayıplarının kısmen veya tamamen telafi edilebileceğini öngörüyor. Öte yandan sistemsel bir diğer risk ise genel amaçlı yapay zekâ araştırma ve geliştirme faaliyetlerinin ilk sı ABD ve Çin’in etrafında kümelenmesi.  Bu durum, dünya genelinde bu az sayıda ülkeye bağımlılığı artırarak küresel eşitsizliğe yol açabilir. Keza pazar yoğunlaşması nedeniyle, az sayıda şirketin hâkim olduğu bir ortamda, kritik sektörlerde kullanılan yapay zekâ sistemlerinde oluşabilecek bir hata ya da güvenlik açığı geniş çaplı aksamalara neden olabilir. Artan işlem gücü kullanımı ise, enerji, su ve hammadde tüketimini yükselterek çevresel riskleri beraberinde getirebilir. Ayrıca, yapay zekâ sistemlerinin kullanıcı gizliliği ihlalleri ve telif hakkı sorunlarına yol açma potansiyeli, verilerin şeffaflığını ve güvenilirliğini zorlaştırmakta ve başka bir sistemsel riske neden olabilir. Her ne kadar savunduğumuz bir argüman da olsa açık kaynaklı modeller, araştırma ve şeffaflık açısından avantaj sağlasa da, kötü niyetli kullanımların önlenmesi açısından denetlenmesi güç riskler oluşturabilir.

Risklerle mücadele etmenin yolları var mıdır?

Rapor, yapay zekânın neden olduğu riskleri belirlemenin, bunların etkisinin hafifletmenin ve yönetmenin oldukça zor bir görev olduğunu ve mevcut tekniklerin de çözüm sağlama anlamında sınırlı olduğunun altını çiziyor. Bunun sebebi olarak da yapa zekâ sistemlerinin tıbbi tavsiye, siber güvenlik veya görsel içerik üretimi gibi çok çeşitli görevlerde kullanılması, tüm olası senaryoları önceden öngörmeyi güçleştirdiği söyleniyor. Ayrıca, geliştiriciler, modellerin çalışma prensiplerini tam olarak kavrayamadıkları için davranışsal sorunları tespit etmekte ve açıklamakta zorluk yaşayabiliyor. Bu durum, özellikle artan otonom eylem yeteneğine sahip yapay zekâ ajanlarının ortaya çıkmasıyla risk yönetimini daha da karmaşık hale getiriyor elbette.

Öte yandan mevcut risk değerlendirmeleri, çoğunlukla belirli senaryolara dayalı “spot kontroller” yöntemleriyle sınırlı kalıyor ve bu da  dolayısıyla gerçek dünya koşullarının tam yansıtılamamasına yol açıyor.  Ek olarak etkin risk değerlendirmesi için değerlendiricilerin yüksek düzeyde uzmanlığa, kaynaklara ve modellere doğrudan erişime ihtiyaç duyması, sistemin iç işleyişindeki belirsizlikleri de arttırıyor. Eğitim süreçlerinde, verilerdeki taraflılığın neden olabileceği düşmanca eğitim gibi yöntemlerle güvenli çalışma sağlanmaya çalışılsa da bu yöntemler hala yeni saldırı yöntemlerine karşı tam koruma sağlayamıyor. Modellerin ya da araçların kullanıma alındıktan sonra yapılan izleme ve müdahale uygulamaları, güvenliği artırmaya yönelik önemli adımlar olarak görünmesine rağmen beraberinde maliyet ve gecikmeler gibi zorlukları getiriyor. Kısacası mevcut olanaklar, mevcut veya potansiyel risklerin çözümü noktasında yetersiz kalıyor.

Yapay zekânın ışıltılı dünyası bu teknolojik gelişmenin hep olumlu taraflarının belki de zaman zaman gereksiz parlatılmasına yol açsa da sahip olduğu risk potansiyeli asla ama asla yabana atılmamalı. Vahşi bir kapital savaşına dönen yapay zekâ yatırımlarının bu riskleri daha da derinleştireceği ve körükleyeceği ortamda, ülkelerin bu global riski değerlendirmeye alması ve böyle bir raporun üretilmesine katkı sağlaması, kıymetli bir gelişme olarak görünebilir. Ancak rapor da gösteriyor ki bu sadece bir başlangıç noktası, çünkü henüz kendi elimizle yarattığımız sorunların çözümünü kendi elimizle bulma noktasında sıkıntılar yaşıyoruz. Dolayısıyla toplum üzerinde etkisi olan her birim ve kişinin, yapay zekâ teknolojisinin mevcut ve gelecek risklerini göz önünde bulundurarak, bu araçların kullanımına yönelik etik bir davranış geliştirmeye dair kendilerini, kapital sahiplerini ve toplumu cesaretlendirmesi gerekiyor. Fakat içinde bulunduğumuz dünya bunun iyimser bir dilekten fazla olmayacağını gösteriyor.


Referanslar

Y. Bengio, S. Mindermann, D. Privitera, T. Besiroglu, R. Bommasani, S. Casper, Y. Choi, P. Fox, B. Garfinkel, D. Goldfarb, H. Heidari, A. Ho, S. Kapoor, L. Khalatbari, S. Longpre, S. Manning, V. Mavroudis, M. Mazeika, J. Michael, J. Newman, K. Y. Ng, C. T. Okolo, D. Raji, G. Sastry, E. Seger, T. Skeadas, T. South, E. Strubell, F. Tramèr, L. Velasco, N. Wheeler, D. Acemoglu, O. Adekanmbi, D. Dalrymple, T. G. Dietterich, P. Fung, P.-O. Gourinchas, F. Heintz, G. Hinton, N. Jennings, A. Krause, S. Leavy, P. Liang, T. Ludermir, V. Marda, H. Margetts, J. McDermid, J. Munga, A. Narayanan, A. Nelson, C. Neppel, A. Oh, G. Ramchurn, S. Russell, M. Schaake, B. Schölkopf, D. Song, A. Soto, L. Tiedrich, G. Varoquaux, E. W. Felten, A. Yao, Y.-Q. Zhang, O. Ajala, F. Albalawi, M. Alserkal, G. Avrin, C. Busch, A. C. P. de L. F. de Carvalho, B. Fox, A. S. Gill, A. H. Hatip, J. Heikkilä, C. Johnson, G. Jolly, Z. Katzir, S. M. Khan, H. Kitano, A. Krüger, K. M. Lee, D. V. Ligot, J. R. López Portillo, D., O. Molchanovskyi, A. Monti, N. Mwamanzi, M. Nemer, N. Oliver, R. Pezoa Rivera, B. Ravindran, H. Riza, C. Rugege, C. Seoighe, H. Sheikh, J. Sheehan, D. Wong, Y. Zeng, “International AI Safety Report” (DSIT 2025/001, 2025); https://www.gov.uk/government/publications/international-ai-safety-report-2025

Ozancan Özdemir kimdir?

Ozancan Özdemir, lisans ve yüksek lisans derecelerini ODTÜ İstatistik Bölümü'nden aldı. Yüksek lisans döneminde aynı zamanda Anadolu Üniversitesi yerel yönetimler bölümünden mezun oldu.

Bir süre ODTÜ İstatistik Bölümü'nde araştırma görevlisi olarak çalışan Özdemir, şu günlerde Groningen Üniversitesi Bernoulli Enstitüsü'nde finans ve yapay zekâ alanındaki doktora çalışmalarını sürdürüyor.

Pandemi döneminde bir grup öğrenciyle birlikte gönüllü bir oluşum olan VeriPie adlı güncel veri gazetesini kurdu.

Araştırma alanları yapay öğrenme ve derin öğrenme uygulamaları, zaman serisi analizi ve veri görselleştirme olan Ozancan Özdemir, ayrıca yerel yönetimler ve veriye dayalı politika geliştirme konularında da çeşitli platformlarda yazılar yazmaktadır.

Yazarın Diğer Yazıları

Yapay zekâ kalite testleri gerçekten kusursuz mu?

Kim ki size bir dil modeli için şöyle uçuyor, böyle kaçıyor, acccayip ve süper gibi ifadelerde bulunuyorsa kulak ardı etmek faydalı olabilir. Çünkü modellerin süreçleri, başta eğitim verileri, şeffaf bir şekilde kamu ile paylaşılmadıkça modellerin gerçekten uçup kaçtığını bilmemiz mümkün olmayacak

Gerçek hayat ve okul matematiği: Çocukların iki dünyası arasında kesişmeyen bir köprü

Gerçek yaşam deneyimleri ile okul ortamı arasındaki farkları anlamak, eğitim politikalarının ve müfredatların çocukların tüm potansiyellerini ortaya çıkarmaya yönelik yeniden yapılandırılmasında kritik bir rol oynayabilir

Dil modellerinin çözülmesi zor sorunu: Yalancılık

Büyük dil modelleri özelinde halüsinasyon, girdi olarak yazdığınız gönderinizle alakasız, uydurma ya da tutarsız içerik üretimi olarak tanımlanabilir. Peki modeller neden yalan söyler? 

"
"