Teknoloji

Yapay Zeka Şirketlerinin Çocuk İstismarı Konusundaki Taahhütleri

AI teknolojisinin hızla geliştiği bu çağda, çocuk istismarı konusunda endişeler de artıyor. Ancak işlerin nasıl kontrol altında tutulacağına dair ümit verici gelişmeler de yaşanıyor. Önde gelen yapay zeka şirketleri, OpenAI, Microsoft, Google, Meta ve diğerleri, çocukların istismar edilmesini ve çocuk istismarı materyallerinin üretilmesini engellemek için taahhütte bulunuyor. Bu girişim, çocuk güvenliği konusuna odaklanmış kar amacı gütmeyen bir kuruluş olan Thorn ve sorumlu teknolojiye odaklanmış bir kar amacı gütmeyen kuruluş olan All Tech Is Human tarafından yönlendirildi.

Thorn'un belirttiğine göre, AI şirketlerinin taahhütleri "endüstride çığır açıcı bir örnek teşkil ediyor ve generatif AI'nın çocukları cinsel istismardan koruma çabalarında önemli bir adımı temsil ediyor". Bu girişimin amacı, çocuklarla cinsel içerikli materyal oluşturulmasını engellemek ve bunları sosyal medya platformları ve arama motorlarından kaldırmak. Thorn'un verilerine göre, sadece 2023 yılında ABD'de 104 milyon'dan fazla şüpheli çocuk istismarı materyali dosyası bildirildi. Toplu hareket alınmaması durumunda, generatif AI'nın bu sorunu daha da kötüleştirmesi ve zaten gerçek kurbanları tanımlamakta zorlanan yasal güçleri zorlaması bekleniyor.

Thorn ve All Tech Is Human, "Generatif AI için Tasarıma Göre Güvenlik Çocuk Cinsel İstismarını Önleme" adlı yeni bir makale yayınladı. Bu makale, AI araçları, arama motorları, sosyal medya platformları, barındırma şirketleri ve geliştiricilerin, generatif AI'nın çocuklara zarar vermesini engellemek için adımlar atmaları için stratejileri ve önerileri ortaya koyuyor.

Örneğin, şirketlerden AI modellerini eğitmek için kullanılan veri setlerini dikkatlice seçmeleri ve sadece CSAM vakalarını içermeyen yetişkin cinsel içeriğinden kaçınmalarını isteniyor. Thorn ayrıca sosyal medya platformlarından ve arama motorlarından, insanların çocukların "çıplaklık" görüntülerini oluşturabilen web siteleri ve uygulamalara yönlendiren bağlantıları kaldırmalarını istiyor. Makaleye göre AI tarafından oluşturulan CSAM materyalinin akışı, gerçek çocuk istismarı mağdurlarının tanımlanmasını daha da zorlaştıracak.

Thorn'un veri bilimi başkan yardımcısı Rebecca Portnoff, Wall Street Journal'a yaptığı açıklamada, "Bu proje, elini kollarını sallama ihtiyacı olmadığını açıkça göstermek amacıyla yapıldı. Bu teknolojinin mevcut zararlarını dizlerinin üzerinden kesmek istiyoruz" dedi. Portnoff'a göre, bazı şirketler zaten çocukları içeren görüntüleri, videoları ve sesleri yetişkin içeriği içeren veri setlerinden ayırmayı kabul etti. Diğerleri, AI tarafından oluşturulan içeriği tanımlamak için filigranlar ekliyor, ancak bu yöntem kusursuz değil filigranlar ve metadata kolayca kaldırılabilir.

Bu taahhütler ve önerilen stratejiler, AI öncüleri arasında bir dönüm noktası olabilir. Bu, endüstrinin çocukların güvenliğini korumak için sorumluluğunu üstlendiğini ve çözüm odaklı adımlar attığını gösteriyor. Bu tür çalışmaların devam etmesi, AI teknolojisinin tedbirli ve sorumlu bir şekilde kullanılmasını sağlamak açısından kritik öneme sahip.

Bu tür adımlar, AI teknolojisinin sadece ilerlemeler getirmekle kalmayıp aynı zamanda toplumun genel güvenliği için de birer kalkan olabileceğini gösteriyor. Belirtilen önerilerin gerçekleştirilmesi, AI teknolojisinin olası kötüye kullanımını en aza indirme ve çocuk istismarını önleme konusunda önemli bir adımdır.

Bu şekilde, AI şirketlerinin çocukları cinsel istismardan korumak için attığı adımlar ve bu konudaki çalışmaları hakkında detaylı bir makale oluşturabiliriz. Önerilerin gerçek hayata geçirilmesi ve bu sorunu tüm dünyada etkin bir şekilde çözmek, gerçek anlamda toplumun refahı için önemli bir adım olacaktır.

Paylaş: