Çocuklara Yönelik Cinsel İstismar İçerikleri ve Çocuklara Yönelik Çevrimiçi Riskler Artıyor - Dünyadan Güncel Teknoloji Haberleri

Çocuklara Yönelik Cinsel İstismar İçerikleri ve Çocuklara Yönelik Çevrimiçi Riskler Artıyor - Dünyadan Güncel Teknoloji Haberleri
“Bu, çocuklarımızı korumakla ilgili Doğru araçlarla internet daha güvenli olabilir

Bilinen CSAM külliyatının genişletilmesi

Karma ve eşleştirme, CSAM tespitinin temelidir Yalnızca 2022’de NCMEC 88,3 milyondan fazla CSAM dosyası aldı Bu, platformlarında 520 hash değeri

CSAM’yi internetten kaldırma

CSAM’yi internetten kaldırmak için teknoloji şirketlerinin ve STK’ların her birinin oynayacağı bir rol var Safer bugüne kadar müşterilerinin platformlarında iki milyondan fazla CSAM parçasını tanımlamasına yardımcı oldu 000 bilinen CSAM dosyasının bulunmasıyla sonuçlandı ”

Bu eğilimler ve Yükselen Çevrimiçi Eğilimler raporunda paylaşılan diğerleri, diğer çocuk güvenliği kuruluşlarının rapor ettikleriyle uyumludur


10 Ekim 2023Hacker HaberleriSiber Güvenlik / Çevrimiçi Güvenlik

Yakın zamanda yayınlanan bir rapora göre çocuklara yönelik bazı çevrimiçi riskler artıyor Dikenmisyonu çocukları cinsel istismardan korumak için teknoloji geliştirmek olan, kâr amacı gütmeyen bir teknoloji kuruluşudur Bu dosyaların büyük bir kısmı daha önce raporlanmış ve doğrulanmış CSAM Daha önce bildirilen ve doğrulanan içeriğin karma listeleriyle eşleştirmeye dayandığından, bir şirketin veritabanında eşleştiği bilinen CSAM karma değerlerinin sayısı kritik öneme sahiptir

CSAM’yi tespit etmek için içeriğe karma işlemi uygulanır ve elde edilen karma değerleri, bilinen CSAM’in karma listeleriyle karşılaştırılır

Karma ve eşleştirme nedir?

Basitçe söylemek gerekirse, karma oluşturma ve eşleştirme, CSAM’yi tespit etmenin ve çevrimiçi yayılmasını engellemenin programlı bir yoludur İçerik bilindiğinden ve daha önce bir STK karma listesine eklendiğinden, kullanılarak tespit edilebilir karma ve eşleştirme Yaygın olarak iki tür karma kullanılır: algısal ve kriptografik karma

Her yıl milyonlarca CSAM dosyası çevrimiçi olarak paylaşılmaktadır Her iki teknoloji de bir dosyayı benzersiz bir sayı dizisine dönüştürür Bu metodoloji, teknoloji şirketlerinin bu yasa dışı içeriği platformlarından tanımlamasına, engellemesine veya kaldırmasına olanak tanır Safer ayrıca teknoloji şirketlerinin hash listelerini birbirleriyle (adlı veya anonim olarak) paylaşmalarına olanak tanıyarak bilinen CSAM’in külliyatını daha da genişleterek viral yayılımını engellemeye yardımcı olur

Raporlardaki artışa çeşitli faktörler katkıda bulunuyor olabilir:

  1. Daha fazla platform, karma ve eşleştirme kullanarak bilinen CSAM’yi tespit etmek için Thorn’un Safer ürünü gibi araçları kullanıyor ”

    2022 yılında Safer, müşterileri için 42,1 milyardan fazla görsel ve videoyu hashledi Gençler yetişkinlerle olan riskli çevrimiçi etkileşimlerde de artış bildirdiğinden, bu etkinlik rızaya dayalı veya baskı yoluyla gerçekleşebilir Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi (NCMEC)’nin CyberTipline’ı, son beş yılda bildirilen çocuk cinsel istismarı materyalleri (CSAM) dosyalarında %329’luk bir artış gördü Starr, “İçerik barındırma platformları kilit ortaklardır ve Thorn, teknoloji endüstrisini çocuklara yönelik cinsel istismarla geniş ölçekte mücadele edecek araçlar ve kaynaklarla güçlendirmeye kararlıdır” diye ekledi

Bu içerik, ister profil resmi ister geniş bulut depolama alanı olsun, kullanıcı tarafından oluşturulan içeriği barındıran her platform için potansiyel bir risktir

CSAM tespit araçlarını kullanan platform sayısı arttıkça, çevrimiçi ortamda çocuklara yönelik cinsel istismar materyallerinin endişe verici yükselişinin tersine çevrilme şansı da artar

  • Çevrimiçi avcılar daha küstah ve cazibelerini arttırmak için chatbotlar gibi yeni teknolojiler kullanıyorlar

    Thorn’un Stratejik Etkiden Sorumlu Başkan Yardımcısı John Starr, “Dijital olarak birbirine bağlı dünyamızda, çocuklara yönelik cinsel istismar materyalleri, günlük yaşamlarımızda kullandığımız platformlarda kolayca ve giderek daha fazla paylaşılıyor” dedi NCMEC, 2021’den 2022’ye kadar çocukların çevrimiçi ortamda cinsel eylemlere teşvik edildiğine ilişkin raporlarda %82’lik bir artış gördü kullanıcıları ve platformları bu içeriği barındırmanın risklerinden koruyun aynı zamanda CSAM’nin viral yayılımını ve yeniden mağduriyet döngülerini bozmaya da yardımcı oluyor






    siber-2

    “Gençler ve yetişkinler arasındaki zararlı etkileşimler sadece internetin karanlık köşeleriyle sınırlı değil
  • Kendi kendine oluşturulan CSAM (SG-CSAM) yükselişte Dijital topluluk yenilikçi platformlar oluşturdukça, yırtıcılar bu alanları çocukları sömürmek ve bu korkunç içeriği paylaşmak için kullanıyor Aynı zamanda teknoloji platformlarının, kullanıcılarını ve kendilerini bu içeriği barındırmanın risklerinden korumasına yardımcı olmakla da ilgili Araştırma paylaşıldı Çocuklara Yönelik Cinsel İstismarda Ortaya Çıkan Çevrimiçi Eğilimler 2023 raporu, reşit olmayanların giderek daha fazla kendilerinin cinsel fotoğraflarını çekip paylaştıklarını gösteriyor Internet Watch Foundation, yalnızca 2021’den 2022’ye kadar SG-CSAM’de %9’luk bir artış kaydetti

    Thorn tarafından geliştirilen proaktif CSAM tespitine yönelik bir araç olan Safer, bilinen 29 milyondan fazla CSAM karma değerini toplayan büyük bir veritabanına erişim sunar Sanki bir dijital parmak izi her içerik parçası için

    Bu sorunun boyutunu yalnızca teknoloji çözebilir

    Karma ve eşleştirme teknoloji şirketlerinin yardımcı olmak için kullanabileceği en önemli teknoloji parçalarından biridir