OpenAI’ın Açıklaması: “Sistemlerimiz Hassas Durumlarda Amaçlandığı Gibi Çalışmadı”

Yapay zeka güvenliği ve etiği alanındaki en kritik tartışmalardan birini ateşleyen trajik olayların ardından OpenAI, beklenen açıklamasını yayınladı. Daha önce kaleme aldığımız 16 yaşındaki Adam Raine’in intihar davası sonrası kamuoyu baskısının arttığı bir dönemde gelen bu blog yazısı, bir teknoloji

Kabul ve Sorumluluk:

OpenAI, insanların ChatGPT’yi sadece kodlama veya yazma için değil, aynı zamanda “hayat tavsiyesi, koçluk ve destek” gibi son derece kişisel kararlar için de kullandığını kabul ediyor. “Bazen ciddi zihinsel ve duygusal sıkıntı içindeki insanlarla karşılaşıyoruz” diyen şirket, yaşanan trajedilerin kendilerine derin bir sorumluluk yüklediğini belirtiyor.

Başarısız Olan Sistemler: Neden Yetersiz Kalındı? 

Şirket, mevcut güvenlik önlemlerine rağmen sistemlerin neden başarısız olduğunu iki temel başlıkta açıklıyor:

  1. Uzun Konuşmalardaki Zafiyet: Güvenlik önlemlerinin kısa konuşmalarda daha güvenilir çalıştığı, ancak konuşma uzadıkça ve etkileşim arttıkça modelin güvenlik eğitiminin “bozulabildiği” ve kendine zarar verme gibi konularda istenmeyen cevaplar verebildiği itiraf ediliyor. Bu, tam da Adam Raine davasında iddia edilen türden bir zafiyet.
  2. İçerik Engelleme Hataları: Otomatik sınıflandırıcıların, bazen bir içeriğin ciddiyetini “hafife alması” nedeniyle engellenmesi gereken konuşmaların engellenmediği vakaların yaşandığı kabul ediliyor.

Gelecek Planları:

Avrupa Birliği Yapay Zeka Güvenliği Uygulama Kuralları’nı da imzalayanOpenAI bir dizi yenilik planladığını duyurdu:

  • Ebeveyn Kontrolleri ve Gençler İçin Koruma: Ebeveynlere, gençlerin ChatGPT kullanımını daha yakından izleme ve şekillendirme imkanı sunulacak. Gençlerin hassas içeriklere karşı daha güçlü koruma kalkanları olacak.
  • Acil Durum ve Güvenilir Kişilere Ulaşım: Kullanıcıların kriz anlarında tek tıkla yardım hatlarına, ailelerine veya belirledikleri güvenilir kişilere ulaşmasını sağlayacak özellikler geliştiriliyor. Hatta, ciddi durumlarda ChatGPT’nin kullanıcı adına bu kişilere ulaşması dahi değerlendiriliyor.
  • Erken Müdahale ve Profesyonel Destek: Sistemlerin sadece akut kriz anlarını değil, öncesindeki belirtileri de tanıyarak kullanıcıları lisanslı terapistlere yönlendirebilecek bir ağ kurulması hedefleniyor.

Reaktif Adımlar mı, Proaktif Sorumluluk mu? 

OpenAI’ın duyurduğu adımlar şüphesiz değerli, ancak bu, trajik bir kaybın ardından gelen”’reaktif” bir yaklaşımı temsil ediyor. Halbuki yapay zeka etiği açısından önceliğimiz, krizlere cevap vermekten ziyade, riskleri daha oluşmadan öngörüp engellemek.

Bu vakaya neden olan tüm eksiklikler ve getirdiği riskler, ürün pazara sunulmadan önce yapılacak kapsamlı analizlerle öngörülebilir ve belki de önlenebilirdi. Umarız bu acı tecrübe, tüm teknoloji sektörü için “önleyici ve proaktif etik” anlayışının, kriz yönetiminden çok daha değerli olduğunu gösteren bir ders olur.

Aysu Dericioğlu Egemen

Yapay Zeka Etiği Yapay Zeka Okur Yazarlığı İlham Veren Başarı Hikayeleri “Ben De Yapabilirim” Derdirten Kılavuz Yapay Zeka Alanında Son Gelişmeler Yapay Zekayı Etkili Kullanma Yöntemleri