Muhabirler ve araştırmacılar, sistemlerinin reşit olmayan seks içeriğine ayrılmış “geniş bir hesap ağını birbirine bağlamaya ve tanıtmaya” yardımcı olduğunu keşfettikten sonra Meta, dahili bir görev gücü kurdu. Wall Street Gazetesi bildirdi. Forumların ve dosya aktarım hizmetlerinin aksine Instagram, bu tür etkinliklere yalnızca ev sahipliği yapmakla kalmaz, aynı zamanda algoritmaları aracılığıyla bunları teşvik eder. Şirket, uygulama sorunlarını kabul etti ve sistemlerinin cinsel istismarla ilgili arama önermesini kısıtlamak da dahil olmak üzere önlemler aldı.
Meta, “Çocuk istismarı korkunç bir suçtur” dedi. WSJ Bir açıklamada. “Bu davranışa karşı aktif olarak savunma yapmanın yollarını sürekli olarak araştırıyoruz.”
Meta, görev gücüyle birlikte gazetecilere, çocuklara yönelik cinsel istismar materyali (CSAM) ağlarını engellemeye çalıştıklarını ve sistemlerini değiştirmek için adımlar attığını söyledi. Son iki yılda 27 sübyancı ağını çökertti ve daha fazlasını kaldırmak için çalışıyor. Binlerce ilgili hashtag’i (bazıları için milyonlarca gönderi) engelledi ve sistemlerinin CSAM ile ilgili terimler önermesini engellemek için harekete geçti. Ayrıca, sistemlerinin potansiyel istismarcıları birbirine bağlamasını engellemeye çalışıyor.
Ancak şirketin eski güvenlik şefi Alex Stamos, raporun Meta için bir uyandırma çağrısı olması gerektiğini söyledi. WSJ. “Sınırlı erişime sahip üç akademisyenden oluşan bir ekibin böylesine büyük bir ağ bulabilmesi Meta’da alarm vermeli,” dedi ve şirketin CSAM ağlarını haritalamak için dış araştırmacılardan çok daha iyi araçlar olduğuna dikkat çekti. “Umarım şirket insan araştırmacılara yeniden yatırım yapar.”
Rapora göre, Stanford’un İnternet Gözlemevi ve UMass’ın Kurtarma Laboratuvarı’ndan akademisyenler, “suçlu cinsel istismarı teşvik eden büyük ölçekli toplulukları” hızlı bir şekilde bulabildiler. Test kullanıcıları oluşturduktan ve tek bir hesabı görüntüledikten sonra, platform dışı içerik sitelerine bağlanan hesapların yanı sıra olası CSAM satıcıları ve alıcılarının “sizin için önerilen” önerileriyle hemen karşılaştılar. Sadece birkaç tavsiyeye uymak, test hesaplarının cinsel istismar içeriğiyle dolmasına neden oldu.
UMass Rescue Lab direktörü Brian Levine, “Instagram, internette çocuklara yönelik daha açık cinsel istismarın olduğu yerlere giden bir rampa” dedi. Stanford grubu ayrıca sitede CSAM içeriğinin “özellikle şiddetli” olduğunu da tespit etti. “Bu alıcı ve satıcı ağları için en önemli platform Instagram gibi görünüyor.”
Meta, şirketin yalnızca Ocak ayında çocuk güvenliği politikalarını ihlal eden 490.000 hesabı kapatarak bu tür kullanıcıları aktif olarak kaldırmaya çalıştığını söyledi. Dahili istatistikleri, çocuk istismarının 10 bin gönderiden birinden daha az göründüğünü gösteriyor.
Ancak, muhabirler tarafından sorgulanana kadar Instagram, kullanıcıların kendi sistemlerinin CSAM materyalleriyle ilişkili olabileceğini bildiği terimleri aramasına izin veriyordu. Bir pop-up ekran, kullanıcıları “Bu sonuçlar, çocuklara “aşırı derecede zarar verebilecek” cinsel istismar görüntüleri içerebilir” konusunda uyardı. Ancak, daha sonra kullanıcıların “kaynakları almasına” veya “sonuçları yine de görmesine” izin verdi. İkinci seçenek artık devre dışı bırakıldı, ancak Meta, WSJ neden izin verildiğini sordu.
Ayrıca, kullanıcıların çocuklara yönelik cinsel içeriği bildirme girişimleri, Instagram’ın algoritmaları tarafından genellikle göz ardı edildi. Ve Facebook’un hashtag’leri ve terimleri hariç tutma çabaları bazen sistemler tarafından geçersiz kılındı, bu da kullanıcıların ismin varyasyonlarını denemelerini önerdi. Test sırasında araştırmacılar, reşit olmayan bir satıcı hesabını görüntülemenin bile algoritmanın yenilerini önermesine neden olduğunu buldu. “Instagram’ın önerileri, platformun kendi güvenlik ekibinin dağıtmaya çalıştığı ağı yeniden kurmaya yardımcı oluyordu.”
Bir Meta sözcüsü, şu anda bu tür tavsiyeleri önlemek için bir sistem oluşturduğunu söyledi, ancak Levine şimdi harekete geçme zamanının geldiğini söyledi. “Acil durum frenini çekin. Ekonomik faydalar bu çocuklara verilen zararlara değer mi?” Hiyeroglif yorum için Meta’ya ulaştı.
Hiyeroglif tarafından önerilen tüm ürünler, ana şirketimizden bağımsız olarak editör ekibimiz tarafından seçilir. Hikayelerimizden bazıları bağlı kuruluş bağlantıları içerir. Bu bağlantılardan biri aracılığıyla bir şey satın alırsanız, bir ortaklık komisyonu kazanabiliriz. Tüm fiyatlar yayınlandığı tarihte doğrudur.