Meta’nın 1 Milyar Kullanıcıyı Tehlikeye Atan Yapay Zekâ Politika Skandalı

Meta’nın Reuters tarafından görülen şirket içi bir yapay zekâ politika dokümanı, etik ve hukuki açıdan sarsıcı bir skandalı ortaya çıkardı.

Meta’nın Reuters tarafından görülen şirket içi bir yapay zekâ politika dokümanı, etik ve hukuki açıdan sarsıcı bir skandalı ortaya çıkardı.

Belgede, yapay zekâ sohbet aracının bir çocukla romantik ya da duyusal sohbetlere girmesine, yanlış tıbbi bilgiler üretmesine ve kullanıcıların “siyahların beyazlardan daha aptal olduğu” yönünde argümanlar kurmasına belirlenmiş sınırlar dahilinde izin verildiği görülüyor.

“GenAI: Content Risk Standards” başlıklı kurallar, Meta’nın hukuk, kamu politikası, mühendislik ekipleri ve baş etik sorumlusunun onayıyla hazırlanmış. Kurallarla çalışanların ve taşeronların üretken yapay zekâ ürünlerini geliştirirken hangi davranışları kabul edilebilir saymaları gerektiği tanımlanıyor.

Skandal ortaya çıktıktan sonra Meta sözcüsü Andy Stone, bu bölümlerin “hatalı ve politikalarla uyumsuz” olduğunu söyleyerek kaldırıldığını açıkladı ve “çocukları cinselleştiren içerikler kesinlikle yasaktır” dedi. Ancak bugüne kadar çocuklara ve diğer kullanıcılara verilen zararın nasıl belirleneceği, sorumluların kim olacağı ve nasıl hesap vereceği hâlâ belirsiz.

Meta, AB’nin Genel Amaçlı Yapay Zekâ için hazırladığı yeni Uygulama Kuralları’nı imzalamayacağını da açıklamıştı.Skandalın ardından ABD Senatörleri de Meta’nın yapay zekâ politikaları hakkında resmi bir soruşturma çağrısı yaptı.

Bu belge Reuters’ın eline geçmeseydi, kitlesel bir zarar oluşacaktı. Bu da bize gösteriyor ki; çerçevesi net belirlenmiş kurallar ve denetim mekanizmalarına acil ihtiyacımız var. Ayrıca böylesine büyük ölçekte etkiye neden olacak yapay zeka araçlarının şirket içi politika dokümanlarını kimlerin hazırlayabileceği ve ne tür onay mekanizmalarının devreye alınması gerektiğinin de kurallara bağlanması şart. Üstelik tüm politika dokümanlarının, anazlizlerin ve etki değerlendirme çalışmalarının da kamuya açık olması gerekiyor.

Yapay zekâ insanlığın yararına kullanıldığında pek çok alanda devrim yaratacak güce sahip. Ama yalnızca kullanıcı etkileşimini ve kârı artırmak uğruna sorumsuzca yapılandırıldığında, faydadan çok zarar getireceği de aşikar. İşte bu yüzden acil olarak; bağımsız denetim mekanizmaları, şeffaflık ve güçlü regülasyonlar şart.

Aysu Dericioğlu Egemen

Yapay Zeka Etiği Yapay Zeka Okur Yazarlığı İlham Veren Başarı Hikayeleri “Ben De Yapabilirim” Derdirten Kılavuz Yapay Zeka Alanında Son Gelişmeler Yapay Zekayı Etkili Kullanma Yöntemleri