Teknoloji

OpenAI'den Yapay Zeka ve Manipülasyonun Gözü Son İncelemeler

Yapay zeka dünyasının öncü isimlerinden biri olan OpenAI, son dönemde yaptığı açıklamalarla dikkatleri üzerine çekmeye devam ediyor. Şirket, gerçekleştirdiği incelemeler sonucunda Rusya, Çin, İran ve İsrail kaynaklı beş farklı gizli etki operasyonunu ortaya çıkardı. Bu operasyonlar, genellikle toplumun görüşlerini manipüle etmeyi ve siyasi sonuçları etkilemeyi hedefliyordu. OpenAI, söz konusu operasyonları 2023 ve 2024 yılları arasında durdurmayı başardıklarını açıkladı.

Şirketin yayınladığı rapora göre, bu operasyonlar OpenAI'nin model ve hizmetlerini kullanarak özellikle sosyal medya platformlarında kötü niyetli faaliyetlerde bulundu. Ancak, yapılan incelemeler sonucunda söz konusu operasyonların hedefledikleri etkiyi sağlama konusunda başarısız olduğu görüldü. OpenAI'nin raporunda, bu tür kötü niyetli faaliyetlerin tespit edilmesinde, teknoloji sektörü, sivil toplum ve devletlerle işbirliği içinde hareket edildiği de özellikle vurgulandı.

OpenAI'nin bu açıklamaları, özellikle 2024 yılında ABD ve diğer ülkelerde gerçekleştirilecek seçimler öncesinde, yapay zekanın siyasi etkileri konusundaki endişeleri artırmış durumda. Şirketin incelemeleri, genetik yapay zeka kullanımının özellikle seçim süreçlerinde nasıl bir etki yaratabileceği konusunda dikkat çekici detaylara ışık tutuyor. OpenAI'nin raporuna göre, bu operasyonlarda insan ağlarının yapay zeka kullanarak metin ve görsel içerikler ürettiği ve sosyal medya üzerinde sahte etkileşimler oluşturduğu görülüyor.

OpenAI'nin İstihbarat ve Araştırma ekibinin başı Ben Nimmo, yaptığı bir basın toplantısında yaptığı açıklamada, "Son bir buçuk yıl içinde, yapılan etki operasyonlarının yapay zeka kullanımıyla nereye varabileceği konusunda birçok soru ortaya çıktı. Bu raporla, bu konudaki bazı boşlukları doldurmayı amaçlıyoruz," dedi.

Özellikle "Doppelganger" adı verilen Rus operasyonunda, OpenAI'nin modellerinin Ukrayna'ya yönelik destek zayıflatmak için başlıklar oluşturduğu, haber makalelerini Facebook gönderilerine dönüştürdüğü ve çok dilli olarak yorumlar ürettiği belirtiliyor. Diğer bir Rus grubu ise, OpenAI'nin modellerini kullanarak, İngilizce ve Rusça olarak Ukrayna, Moldova, ABD ve Baltık Devletleri'ni hedef alan kısa politik yorumlar yazan bir Telegram botu için kodlar geliştirdi. Çinli ağ "Spamouflage" ise Facebook ve Instagram'da etki çalışmalarıyla bilinen, sosyal medya aktivitelerini araştırmak ve çeşitli platformlarda çok dilli içerik üretmek için OpenAI'nin modellerinden yararlandı. İran'ın "Uluslararası Sanal Medya Birliği" adlı ağı ise, birden fazla dilde içerik üretmek için yapay zekayı kullandı.

OpenAI'nin bu tür açıklamaları, diğer teknoloji şirketlerinin de zaman zaman yaptığı benzer raporlarla paralellik gösteriyor. Örneğin, Meta tarafından yayınlanan son raporda, İsrail merkezli bir pazarlama firmasının sahte Facebook hesaplarını kullanarak ABD ve Kanada'daki insanları hedef alan bir etki operasyonu yürüttüğü ortaya çıkarılmıştı.

Şirketler arası rekabetin sınırları her geçen gün daha da belirsizleşirken, yapay zeka konusundaki gelişmelerin etik ve toplumsal boyutları üzerine odaklanmak, teknolojinin geleceğini şekillendirmede önemli bir adım olarak karşımıza çıkıyor. OpenAI'nin gerçekleştirdiği tespitler, sadece teknolojinin değil, toplumun geleceği açısından da oldukça önemli bir konuyu gündeme getiriyor.

Paylaş: