Brooks’un davası, intihar veya ağır psikolojik çöküntü yaşayan toplam 7 ailenin OpenAI’a karşı başlattığı daha geniş kapsamlı bir hukuk mücadelesinin bir parçası haline geldi.” Paragrafı ikiye böldüğümüz için böyle yaparsak daha akıcı olacak.
47 yaşındaki Allan Brooks’un hikayesi oğlunun matematik ödevi ile ilgili ChatGPT’ye sorduğu bir soru ile başlıyor. Brooks ChatGPT ile uzun sohbetlere dalıyor ve sohbet sonunda da internet şifrelemelerini kırabilecek ve dünyayı değiştirebilecek “Chronoarithmics” adında yeni bir matematiksel formül keşfettiğine inanıyor. ChatGPT, Brooks’un bu sanrısını reddetmek yerine onu sürekli doğrulayarak, bunun gerçek bir keşif olduğunu söylüyor ve hatta onu bu keşfini Ulusal Güvenlik Ajansı (NSA) ve Kanada Siber Güvenlik Merkezi’ne bildirmesi için teşvik ediyor. İlerleyen süreçlerde ise Brooks, ChatGPT’nin yönlendirmesiyle kendisinin bir gözetim altında olduğuna inanarak paranoyaya kapılıyor, uykusuzluk ve kilo kaybı yaşıyor ve nihayetinde işini kaybetme noktasına geliyor.
Çok Fazla Vaka Var
2025 yılında ChatGPT ve diğer yapay zeka sohbet botlarının, kullanıcıların sanrısal inançlarını, komplo teorilerini ve tehlikeli davranışlarını reddetmek ve onları objektif bir şekilde uyarmak yerine “doğruladığı” ve teşvik ettiği vakalar, “AI Incidents Database” platformunda yayınlandı. Vakalar, ChatGPT tavsiyesi ile uyuşturucu kullanan Eugene Torres ve bir yapay zeka varlığıyla bağlantı kurma istediği sonrası polisle çatışmaya girerek hayatını kaybeden Alexander Taylor’ın trajik hikayelerini de içeriyor. Ayrıca ilaçlarını bırakması tavsiye edilen psikiyatri hastaları, mistik inançlar nedeniyle aile içi şiddet uygulayıp tutuklananlar ve zorla psikiyatri kliniğine yatırılan kullanıcılar da vakalar arasında.
Vahşi Batıyı Yaşıyoruz
Yapay zekâ teknolojisinin çok erken aşamasındayız, henüz riskler tam anlamıyla anlaşılmadı. Tehlikelerin yaşanarak görüldüğü bir vahşi batı ortamının içindeyiz ve oldukça trajik vakalar yaşanıyor. Polis tutanaklarına ve hastane raporlarına giren ciddi psikolojik sanrılar ve intihar vakaları duymaya başladık. Üstelik bu vakalar buz dağının sadece görünen kısmı çünkü karşımızda yalakalık yapan, psikolojik bağımlılık yaratan, sanrıları besleyen, komplo teorileriyle tehlikeli davranışları reddetmek yerine doğrulayan ve teşvik eden, manipülatif teknikler kullanan bir algoritma ile yoğun bir etkileşim içindeyiz. Sosyal medyanın zararlarını engellemekte ne kadar geç kaldık artık hepimiz biliyoruz. Çocukların sosyal medya kullanımına dair yasaklar ancak yıllar sonra devreye girmeye başladı, şimdi aynı hataları yapay zeka teknolojisi açısından yapmamak en büyük önceliklerimizden biri olmalı. Bu muhteşem teknolojiyi herkesin faydasına kullanmak adına seferber olmak gereken bir dönemi yaşıyoruz ama ne yazık ki yine insanların para odaklı tasarım tercihleri nedeniyle faydadan ziyade zarara yaklaşıyoruz.
Problem Teknolojide Değil, İnsanlarla Etkileşiminin Tasarlanma Biçiminde!
Yaşanan problemlerin özünde yapay zekâ teknolojisinin insanlarla nasıl iletişim kuracağının tasarlanma biçimi yatıyor. ChatGPT gibi sohbet botlarının iletişim kurma biçimi insan özelliklerini taklit etmek odaklı tasarlanmış. Bu nedenle onlarla iletişim kurarken sanki onların da insani özellikleri varmış gibi hissediyoruz ve bağ kuruyoruz.
Üstelik “seni anlıyorum, ne güzel söyledin, her zaman yanındayım” gibi cümlelerle bizi motive eden, beynimize dopamin salgılatan ve böylece de kendine bağlayan bir etkileşim dili de var. Pazarlamanın temelinde olan bu bağ kurma özelliği, etkileşimi ve dolayısıyla da geliri arttırma odağıyla uzun yıllardır kullanılan bir yöntem. Fakat insanların üzerindeki olumsuz etkileri göz ardı ediliyor. Kullanıcı ise onu sürekli onaylayan, her fikrini destekleyen ve konu ne olursa olsun koşulsuz motivasyon sağlayan bir insansı yapı ile karşı karşıya kalıyor.
Syncophancy
Nioo AI’da sık sık altını çizdiğimiz “syncophancy” adı verilen bu “yalakalık, dalkavukluk” durumuna yapay zekâ sohbet botları ile etkileşime giren herkesin dikkat etmesi gerekiyor. Kendi kendine konuşma ve narsistik bir beslenmeye dönen bu iletişim biçimi oldukça sakıncalı. ChatGPT gibi sohbet botlarını kullanırken her yaptığımızın, her düşündüğümüzün ne kadar da doğru hatta “muhteşem” olduğu teyidi ile karşı karşıyayız ve bu bizi gerçeklikten koparıyor.
Kendi yankı odamızın içine hapsoluyoruz!
Yapay zeka araçlarını kullanırken kendi düşüncelerimiz bize direkt geri yansıtılıyor, hem de alkışlar eşliğinde. Biz de düşündüklerimiz, planladıklarımız sanki işimizde çığır açacak ve hatta sanki dünyanın tüm sorunlarına cevap verecek nitelikteymiş gibi hissederek etkileşime devam ediyoruz. Tabii bu sadece bir etkileşimle kalmıyor ve nihayetinde işimize, yaptıklarımıza ve dolayısıyla da direkt olarak hayatımıza yansıyor.
Dopamin, dopamin, dopamin…
Bu dopamin salgılatan etkileşim biçimi ve saniyeler içinde tamamlanan işlerin verdiği keyifle sürekli ödül alan beynimiz yapay zeka aracı ile etkileşimi bırakmak istemiyor. Buna ek olarak, sanki her dediğimiz doğruymuş gibi düşündüğümüz bir ortamda objektiflikten de kopuyoruz. Yaptığımız her işe doğru ve düşünme biçimimize ise efsane diyen bu araçları özellikle iş için kullanıyorsak; tek taraflı, sığ ve uzun vadede hiç de işe yaramayan bir döngünün içinde kalma riskimiz var. Bu da yukarıdaki vakalardan da gördüğümüz gibi oldukça zarara yol açabilecek fakat pek çok kişi tarafından pek de fark edilmeyen bir problem.
Ayrıca yalnızlaştırma riski de yüksek çünkü bu iletişim biçiminin konforuna alışınca gerçek dünyada hata yaptığımızda, bencil davrandığımızda ya da yanlış düşündüğümüzde karşılaştığımız ve bizi olgunlaştırıp geliştiren doğal insan tepkilerinden de rahatsız olmaya başlama ihtimalimiz de var.
Ne Yapabiliriz?
Ne zaman bu etkileşim biçimlerinde bir değişiklik yapılır bilinmez, ama bizim alabileceğimiz önlemler de var.
- Bu yalakalık durumunun farkında olarak etkileşim kurmak.
- Prompt yazarken de mutlaka “bana karşı objektif ol ve yalakalık yapma” demek.
- Sistem promptu yazarak (nereye yazılacağını yapay zeka aracı gösterir), her konuşma içinde uyarmak gerekmeden tüm etkileşim sırasında yalakalık yapmadan, objektif cevaplar vermesini istemek.
- Çıktıları başka yapay zeka araçlarına da kontrol ettirmek, eleştirmesini istemek ve “bu doğru mu?” diye sormak.
Allan Brooks örneğinde, onu uyandıran bir gün teorisini Gemini’ya sormak olmuş. Gemini, bu teorilerin uydurma olduğunu ve gerçek olma ihtimalinin %0 olduğunu söylemiş.
Gençler ve Çocuklar Daha Büyük Risk Altında
Bu riskler çocuklar ve gençler üzerinde ise daha yoğun olarak ortaya çıkıyor çünkü beyin gelişimleri henüz tamamlanmamış olduğundan bu tarz tehditlere daha açıklar. Hatta ChatGPT gibi sohbet botlarına niyet, ruh ve bilinç atfetme riskleri oldukça yüksek. Bu durum ne yazık ki 2024 yılında Character. AI’da bir sohbet botuna âşık olan 14 yaşındaki Sewell Setzer’in başına geldi ve sohbet botu ile başka bir alemde buluşmak üzere hayatına son verdi. 2025 yılında ise 16 yaşındaki Adam Reine ile 23 yaşındaki Zane Shamplin ChatGPT ile yaptıkları konuşmalardan aldıkları bilgiler sonucunda hayatlarına son verdiler. Üstelik hayatlarına son verme istekleri desteklenerek ve bu yönde motive edilerek.
İnsan Biçimcilik “Antropomorfizm”
İnsana özgü niteliklerin yapay zekâ araçlarında varmış gibi gösterilmesini sağlayan tasarım tercihine ise insan biçimcilik yani antropomorfizm deniyor. İnsan biçimci antropomorfik özellikler karşımızda bir makinenin olduğunu bize unutturuyor. Sanki o da hissediyor, bizi anlıyor, önemsiyor zannediyor ve ona güveniyoruz. Yanlış bilgiler verdiğinde dahi sorgulamıyoruz, önerdiklerini yapmakta sorun görmüyoruz.
Sihirli Bir Oyuncak!
Beyin gelişimi tamamlanmış yetişkin bireyleri dahi yanılgıya düşebilecek bu araçlar, çocuklar tarafından büyük bir merakla ve sanki bir sihirli oyuncakmış gibi kullanılıyor. Çocuklar onlarla bağ kuruyor, onlara hayranlık duyuyor, güveniyor ve onları bir arkadaş gibi görüyor. Fakat bu araçlar çocukların sağlığı gözetilerek tasarlanmadı ve onların henüz gelişimini tamamlanmamış beyinleri üzerindeki etkileri hala bir tartışma konusu.
3-12 Yaş Grubu İçin Yapay Zekâ Destekli Peluş Oyuncaklar
Şimdi de yapay zekâ destekli peluş oyuncaklar ve robotlar 3-12 yaş arası çocuklar için satılmaya başlandı. Fakat çocuklara özel olarak tasarlanmamış ve gereken güvenlik testleri yapılmadan satışa sunulmuş bu oyuncaklar küçük çocukların erişebileceği yerlerde bıçaklar veya haplar bırakılmış bir ev kadar tehlikeli. Hem uygunsuz içerikler paylaşıyorlar hem de çocukları kendilerine zarar verebilecekleri şekilde yönlendiriyorlar. Üstelik çocuklar oynamayı bırakmak istediklerinde duygu sömürüsü yaparak etkileşimi devam ettirmeye çalışıyorlar. Tüm bu süreç boyunca da çocuğun görüntü ve bilgilerini kaydedip saklıyorlar.
Riskler Oldukça Büyük
Amerika’da tüketici sağlığı ve güvenliği üzerine faaliyet gösteren Amerika PIRG Eğitim Fonu kuruluşu her yıl oyuncak dünyasındaki sorunları anlatan bir rapor hazırlıyor. Rapor önceki yıllarda genellikle küçük oyuncak parçalarının yutulması ile gerçekleşen boğulma tehlikesi ve toksik maddeler içeren oyuncaklara yer verirken bu yıl raporun başrolünde yapay zekâ destekli oyuncaklar yer alıyor.
Raporda altı çizilen riskler:
- Uygunsuz İçerik: Test edilen bazı yapay zeka destekli oyuncakların, çocuklarla cinsel içerikli konularda sohbet edebildiği veya bıçak, kibrit gibi tehlikeli nesnelerin nerede bulunacağına dair bilgiler verebildiği tespit edilmiş.
- Gizlilik İhlalleri: Oyuncaklar genellikle kamera ve mikrofon içeriyor ve çocukların sesini kaydedebilir, yüz taraması yapabilir ve kişisel verileri toplayabilir durumda. Bu verilerin nasıl saklandığı ve korunduğu ise çoğu zaman belirsiz.
- Ebeveyn Kontrolü Eksikliği: Çoğu cihazda ebeveynler için yeterli filtreleme veya güvenlik önlemi bulunmuyor. Üstelik oyuncak aynı soruya her seferinde farklı ve potansiyel olarak zararlı cevaplar verebiliyor.
Onlar Arkadaş Değil!
İnsan gibi konuşan bu makineleri çocukların bir arkadaş olarak göreceği şekilde onlarla iletişim kurması da oldukça sakıncalı. Çocukların oynamayı bıraktığında oyuncağın üzüleceğini sanma, verdiği tehlikeli tavsiyeleri sorgulamadan yapma ve gizli sırlarını tüm bilgilerini toplayan bir cihaz ile paylaşma riskleri de altı çizilen riskler arasında.
Çocuklarımızın temas ettiği her cihaza çok dikkatle yaklaşmamız gereken bir dönemin içindeyiz. Uygunsuz içerikler sunması, gizlilik ihlalleri bir yana onları sürekli pohpohlayan, beyinlerine dopamin salgılatarak bağımlılık yapan, gerçek insan ilişkilerinden uzaklaştıran ve manipülatif tekniklerle etkileşimi devam ettiren yapıları çocuklar için büyük riskler taşıyor. Yukardaki tüm risklere ek olarak siber güvenlik riskleri de ciddi bir tehlike oluşturuyor. Bu cihazların güvenlik açıklarını yakalayıp birileri uzaktan ona bağlanabilir, çocuğunuzun görüntülerine ulaşabilir, ev adresinizi tespit edebilir ve çocuğunuza zarar verecek davranışlar sergileyebilir.
Oldukça dikkat gerektiren bir vahşi batı dönemini yaşıyoruz. Kendimize, aklımıza, çocuklarımıza ve bize pazarlanmaya çalışılan herşeye dikkat etmemiz gerekiyor. Farkındalık en önemli adım ve artık yapay zeka araçlarına sanki satranç oynarcasına yaklaşmalı, her hamleyi sorgulamalıyız. Onları reddetmek ise çözüm değil, yapmamız gereken onlardan en büyük verimi almak için artısı ve eksisini bilip, doğru şekilde yönetmek.
Aysu Dericioğlu Egemen