Sosyal Medya

Irkçılığın Sinsi Ortağı: Algoritmalar Nefreti Nasıl Besliyor?

Dijital platformlar, kullanıcıları benzer içeriklerle çevreleyerek giderek daralan bilgi alanları yaratıyor. Algoritmaların şekillendirdiği bu ekosistemde farklı görüşlerin görünürlüğü azalırken, tek yönlü söylemler güç kazanıyor. Peki bu yapı, ırkçı fikirlerin pekişmesine ve daha da yaygınlaşmasına nasıl zemin hazırlıyor?

Irkçılığın Sinsi Ortağı: Algoritmalar Nefreti Nasıl Besliyor?
Fotoğraf: rudall30 - Shutterstock.

Irkçı şiddetin izini sürdüğümüzde, Almanya’da Solingen ve Hanau’dan aşırı sağcı NSU cinayetlerine, Yeni Zelanda’daki Christchurch saldırısından Norveç’te Breivik’in aşırı sağcı saldırılarına kadar uzanan kanlı bir hatla karşılaşırız. Bu ırkçı saldırılar genellikle yerel siyasi iklimler veya bireysel patolojiler üzerinden okunsa da günümüzde şiddetin çok daha sinsi ve küresel bir ortağı vardır: Dijital platformların algoritmik mimarisi.

Irkçılık artık sadece geleneksel bir nefret zemini üzerinde yükselmekle kalmıyor. Bugün ırkçılık algoritmalarla şekillenen ve büyütülen bir fenomen hâline gelmiş durumda. Bireylerin kendi kapalı dünyalarında, yani yankı odalarında tek taraflı bir söylem trafiğine maruz kalmalarıyla şekillenen bu süreçte dijital izolasyon alanları, kişiyi farklı görüşlerden arındırarak radikal fikirlerin sürekli teyit edildiği bir zemin hazırlıyor. Böylece birey adım adım şiddet eylemine yaklaşıyor. İnternet ekosisteminde olgunlaşan nefret, platformların etkileşim odaklı yapısıyla birleştiğinde; şiddet eylemi sistemin beslediği ve yaygınlaştırdığı bir “algoritmik çıktı” niteliği kazanmış durumda.

Çevrim İçi Nefretin Çevrimdışı Eyleme Dönüşümü

Araştırmalara göre, radikal içeriklere maruz kalmak; beyaz üstünlükçü ve Neonazi gruplar nezdinde ekstremist tutumları ve siyasal şiddet riskini artırıyor. İnternet, çevrim dışı faktörlerle birleştiğinde, bireyin şiddet eylemine yönelik nihai karar alma (decision-making) sürecini şekillendiriyor. Nitekim yapılan bir diğer araştırma da beyaz milliyetçiliğinin yükselişini hem yüzyıllardır süregelen yapısal ırkçılığın bir devamı hem de algoritmalarla desteklenen yeni bir medya ekosisteminin sonucu olarak tanımlıyor.

Peki algoritmalar, ırkçı nefreti eyleme kadar uzanan yolda nasıl destekliyor?

Bu radikalleşme sürecinde algoritmalar; doğrulama, hızlandırma ve güçlendirme şeklinde üç temel işlev görerek bireyin karar alma sürecini teknik bir boyuta taşır. İlk olarak sistem, radikal fikirleri arayan bireyleri benzer topluluklara yönlendirerek bu düşünceleri doğrular ve bir bağlantı ağı kurar. Ardından, başlangıçta marjinal kalan sembollerin veya “meme” (yazılı espriyle paylaşılan görsel) içeriklerinin hızla yayılmasını sağlayarak radikalleşmeyi hızlandırır. Son aşamada ise bu söylemleri ana akım siyasi tartışmaların merkezine taşıyarak güçlendirir. Bu evrede, radikal bir fikir veya sembol, sıradan kullanıcılar ya da medya tarafından tartışılmaya başlandığında, bu durum beyaz milliyetçiler tarafından stratejik bir zafer olarak kaydedilir. Zira başlangıçta marjinal kabul edilen bir konunun ana akım gündemine sızması, çok daha uç ve tehlikeli söylemlerin tartışılabilir hâle gelmesine giden yolu açmakta, nefret söyleminin kamusal alandaki sınırlarını adım adım genişletmektedir.

Her ne kadar radikal materyali aktif olarak arayanlar ile pasif maruz kalanlar arasında şiddete yönelme riski açısından belirgin bir fark gözlemlense de algoritmik yönlendirmeler bu iki grup arasındaki sınırı belirsizleştirir. Sistem, pasif bir kullanıcıyı adım adım daha uç içeriklere maruz bırakarak bu radikalleşme sürecine dahil edebilme potansiyeline sahiptir.

Süreç, nefret söyleminin şiddeti tetiklemesiyle sınırlı kalmayan, çift yönlü bir etkileşim döngüsü üzerine kuruludur. Veriler, büyük çaplı terör eylemlerinin ardından dijital platformlarda şiddeti doğrudan teşvik eden nefret söylemlerinde sistematik bir artış yaşandığını da doğrulamaktadır. Bu dinamik, fiziksel şiddet eyleminin kendisinin dijital alanda yeni bir radikalleşme dalgasını tetiklediğini ve bir sonraki eylem için gerekli olan toplumsal kutuplaşmayı beslediğini göstermektedir. Dolayısıyla şiddet ve nefret söylemi, birbirini sürekli olarak yeniden üreten bir döngü içerisinde hareket etmektedir.

Irkçı Nefretin Beslenmesinde “Filtre Balonları”

Elbette algoritmalar bu karmaşık sorunun tek kaynağı olmamakla birlikte; var olan toplumsal gerilimleri dijital dünyada körükleyen bir altyapı sağlayıcısı olarak işlev görüyorlar.

Radikalleşme süreci, genellikle masum bir merakın algoritmik bir tuzağa düşmesiyle, yani “tavşan deliği” (rabbit hole) etkisiyle derinleşiyor. Etkileşimi maksimize etme odaklı tavsiye sistemleri, kullanıcıları olumsuz içeriklere daha yoğun şekilde yönlendirerek ırkçı ideolojinin normalleşmesini kolaylaştırıyor. Araştırmalarfiltre balonları” gibi mekanizmaların özellikle politik/ideolojik konularda kutuplaşma ve radikalleşmeyi beslediğini gösteriyor.

Filtre balonları; kişiselleştirilmiş öneri algoritmaları aracılığıyla kullanıcının geçmiş davranışlarına uygun içerikleri sürekli öne çıkararak karşıt görüşlerin görünürlüğünü sistematik olarak düşürür. Bu durum, bireyin sadece kendi ön kabullerini doğrulayan bir “epistemik izolasyon” içine girmesine ve dış dünyaya kapalı bir bilgi evreninde yaşamasına neden olur. Bu teknolojik yalıtım, sosyolojik bir katman olan yankı odalarıyla birleştiğinde radikalleşme hız kazanır. Benzer düşünen kullanıcıların oluşturduğu bu kapalı sosyal yapılar içerisinde, ırkçı söylemler sürekli olarak birbirini teyit ederken, dışarıdan gelen her türlü eleştirel ses veya karşıt veri peşinen dışarıda bırakılır.

Özellikle günümüzde genç kuşağın en yoğun kullandığı platformların başında gelen TikTok gibi mecralar üzerine yapılan incelemeler, TikTok’un da kullanıcıyı belirli kategorilere hapsederek fikirlerini sürekli pekiştirdiğini göstermektedir. Bu mekanizma, kullanıcıyı adım adım daha sert içeriklere taşıyan yapısıyla bir “radikalleşme boru hattı”na (radicalization pipeline) benzetilmektedir.

Bu sistemde algoritma, kullanıcıyı geçmiş beğenilerine göre aşırı sağ içeriklere sürükleyen “radikalleşme hatları” içine yerleştirir. Sistem, kullanıcılara sürekli olarak kendi fikirlerini destekleyen ve sayısı giderek artan videolar sunar. Dahası, bu öneriler sadece “benzer” değil, kademeli olarak daha radikal ve uç noktalara kayabilir.  

Mizahın Arkasına Gizlenmek: “Irkçılık Değil, Sadece Bir Şaka”

Dijital çağda ırkçı söylem, filtrelere takılmamak için mizah ve “meme” kültürü üzerinden estetize edilmektedir. Araştırmalara göre, radikal ideolojiler “sadece bir şaka” kisvesi altına gizlenerek toplumsal denetim mekanizmalarını baypas etmektedir. Bu strateji, nefret söylemini ironi kalkanı arkasına saklayarak radikal fikirlerin geniş kitleler için meşru birer alt kültür öğesi gibi sunmaktadır. Çeşitli mecralardan sızan bu içerikler, algoritmaların etkileşim odaklı yapısı sayesinde hızla ölçeklenerek siyasi tartışmaların içine sızmakta; böylece şiddeti teşvik eden uç fikirler, mizahi bir ambalajla normalleştirilmektedir.

Bu süreçte otomatik içerik moderasyon sistemlerinin de nötr bir pozisyonda olmadığı görülmektedir. Bu sistemler, hangi ifadelerin kamusal alanda yer bulacağını ve hangilerinin bastırılacağını belirleyen, doğası gereği politik mekanizmalardır. Yapılan çalışmalar, teknik olarak “iyi optimize edilmiş” sistemlerin bile platform politikalarındaki yapısal sorunları hafifletmek yerine daha da derinleştirebileceğini göstermektedir. Bunun temel nedeni, nefret söylemi gibi karmaşık toplumsal olguların “eşleştirme” (matching) ve “tahmin” (prediction) gibi istatistiksel yöntemlere indirgenmesidir.

Algoritmalar, temelde bir içeriği incelerken elindeki devasa veri yığınlarına bakarak bir “tahmin” yürütür. Eğer bu veriler, toplumdaki mevcut önyargıları barındırıyorsa, makine bu ayrımcılığı “teknik bir kural” sanarak daha da büyütebilmektedir. Dilin bağlamsal derinliğini her zaman kavrayamayan bu sistemler, eleştirel söylemleri veya dezavantajlı grupların ifadelerini de yanlışlıkla “zararlı” olarak etiketleyerek “aşırı engelleme” (overblocking) yaratabilmektedir.

Sonuç olarak, bugün nefretin dijital sistemlerle ne kadar hızlı yayıldığı ortada. 2019’daki Christchurch saldırısında teröristin katliamı kask kamerasıyla Facebook’tan yayınlamasına veya saldırganların eylemden hemen önce internete ırkçı manifestolar saçmasına bakarsak, bu kişiler âdeta birer “dijital içerik üreticisi” gibi hareket ediyor.

Bu durum, faillerin silah çekmeden çok önce dijital dünyada bir kimlik kurduklarını ve bu karanlık sistemin bir parçası olduklarını kanıtlıyor. Bu durum, gelecekte şiddetin hangi biçimlere evrileceğine dair ürkütücü bir belirsizlik yaratıyor. Mevcut tabloda net görebildiğimiz şey ise; algoritmaların yalnızca teknik araçlar değil, aynı zamanda toplumsal sonuçlar üreten politik sistemler olduğu.

Rumeysa Nur Rakipoğlu

Rumeysa Nur Rakipoğlu, Bremen Üniversitesi Dijital Medya ve Toplum bölümünde yüksek lisans eğitimine devam etmektedir. Aynı zamanda ZeMKI bünyesinde lisans araştırma asistanı olarak akademik çalışmalara katkı sağlamaktadır.

Yazarın diğer yazıları
Bu yazıyla ilgili yorumunuzu paylaşabilirsiniz. Bunu yaparken Yorum Kurallarımızı dikkate alın lütfen.
Yorum adedi #0

*Tüm alanları doldurunuz

Son Yüklenenler