Slack, kullanıcı mesajları, dosyalar ve diğer içerikleri açık izin olmadan makine öğrenimi modellerinde eğitiyor. Bu eğitim, varsayılan olarak devre dışı bırakılabilen bir süreç, yani özel verileriniz varsayılan olarak izinsiz bir şekilde kullanılıyor. Dahası, şirketin bu eğitimi durdurması için organizasyonunuzun Slack yöneticisine (insan kaynakları, BT vb.) e posta göndermesi gerekiyor. (Bunu kendiniz yapamazsınız.) Yeni yapay zeka eğitim verilerinin karanlık tarafına hoş geldiniz.
DuckBill Group'un yöneticilerinden Corey Quinn, Slack'in Gizlilik İlkeleri'nde bu politikayı fark etti ve PCMag üzerinden konuyla ilgili bir gönderi yayınladı. Söz konusu bölüm şu şekilde (vurgular bizden), "AI/ML modellerini geliştirmek için sistemlerimiz Slack'e gönderilen Müşteri Verilerini (örneğin mesajlar, içerik ve dosyalar) ve Kullanım Bilgileri dahil, Gizlilik İlkemizde ve Müşteri Sözleşmenizde tanımlandığı şekilde Diğer Bilgileri analiz eder."
Bu devre dışı bırakma süreci, verilerinizi korumak için tüm işleri sizin yapmanızı gerektiriyor. Gizlilik bildirimine göre, "Devre dışı bırakmak için lütfen Org veya Çalışma Alanı Sahipleriniz veya Ana Sahip, [email protected] adresine Workspace/Org URL'niz ve 'Slack Global model opt out request' başlığı ile şirketimize e posta gönderin. Talebinizi işleyeceğiz ve devre dışı bırakma tamamlandıktan sonra size geri dönüş yapacağız."
Şirket, Quinn'in gönderisine yanıt vererek, “Slack'in kanal ve emoji önerileri ile arama sonuçları gibi platform düzeyinde makine öğrenimi modelleri bulunmakta. Evet, müşteriler bu (üretken olmayan) makine öğrenimi modellerini eğitmeye kendi verilerini dışarıda bırakabilirler" açıklamasını yaptı.
Salesforce'a ait olan bu şirketin, bu maddeyi sözleşmelerine nasıl sızmış olduğu belirsiz. Şirket çalışanlarını "müşteri" olarak nitelendirmek, en hafif tabirle şirket içinde çalışanları içermeyerek yanıltıcı bir ifade kullanmaktır. Bu durumda, Slack erişimini yöneten herhangi bir kişiden istekte bulunmaları gerekiyor.
Slack'in gizlilik politikalarındaki tutarsızlıklar, kafa karışıklığına neden oluyor. Bir bölümünde, "AI/ML modelleri geliştirirken veya Müşteri Verisini diğer şekilde analiz ederken, Slack, altta yatan içeriğe erişemez. Bunu önleyen çeşitli teknik önlemlerimiz bulunmaktadır" ifadesine yer verilirken, makine öğrenimi modeli eğitim politikası, bu ifadeyle çelişiyor ve karışıklık için alan bırakıyor.
I'm sorry Slack, you're doing fucking WHAT with user DMs, messages, files, etc? I'm positive I'm not reading this correctly. pic.twitter.com/6ORZNS2RxC
— Corey Quinn (@QuinnyPig) May 16, 2024
Ayrıca, Slack'in premium üretken AI araçlarını tanıtan web sayfasında, "Endişe etmeden çalışın. Verileriniz sizin verilerinizdir. Slack AI'yı eğitmek için kullanmıyoruz. Her şey, Slack'in güvenli altyapısında, Slack'ın kendisiyle aynı uyumluluk standartlarını karşılayarak işler." ifadesi yer alıyor.
Şirket, bu durumda premium üretken AI araçlarından ayrı olarak, açık izin olmadan eğittiği makine öğrenimi modellerini kastediyor. Bununla birlikte, tüm verilerinizin AI eğitiminden güvende olduğunu ima etmek, şirketin hangi AI modellerinin bu ifadeyi kapsadığına karar verdiğinde en hafif tabirle yanıltıcı bir ifade oluyor.
Slack'le birçok kanal aracılığıyla iletişime geçmeye çalıştı ancak yayına hazırlandığı zaman cevap alamadı. Eğer bir geri dönüş olursa, bu hikayeyi güncelleyeceğiz.