(Adnkronos) – Un’indagine condotta da NewsGuard, un’organizzazione dedicata al monitoraggio della disinformazione, hanno sollevato preoccupazioni riguardo alla diffusione di informazioni errate pubblicate su X, il social media precedentemente noto come Twitter. Secondo il rapporto di NewsGuard, alcuni utenti “premium” di X, quelli cioè che pagano un abbonamento al social e hanno il badge blu, hanno pubblicato contenuti che promuovono teorie cospirazioniste riguardanti la guerra tra Israele e Hamas. Questi post, seguiti da NewsGuard dal 13 al 22 novembre, hanno totalizzato oltre 92 milioni di visualizzazioni. Le indagini si sono concentrate su 10 account con oltre 100.000 seguaci ciascuno, identificati da NewsGuard come i maggiori diffusori di fake news sulla guerra. Veena McCoole, vicepresidente delle comunicazioni di NewsGuard, ha espresso preoccupazione per il fatto che questi post sono pubblicati con l’intento di promuovere informazioni fuorvianti o discorsi d’odio, e che tali contenuti possano essere eleggibili per un programma di condivisione delle entrate pubblicitarie di X. Il rapporto ha anche evidenziato la presenza di pubblicità di aziende come Pizza Hut sotto questi post controversi. Questo solleva interrogativi su come X gestisce la pubblicità in relazione a contenuti potenzialmente nocivi. La situazione è aggravata da recenti azioni legali intentate da X contro Media Matters, dopo un rapporto che mostrava contenuti pubblicitari di grandi aziende associati a messaggi pro-nazisti. Interrogativi simili emergono riguardo alla politica di X sulla condivisione delle entrate. Elon Musk, proprietario di X, aveva precedentemente dichiarato che i post corretti attraverso lo strumento di moderazione crowd-sourced Community Notes non sarebbero stati idonei per la condivisione delle entrate. Tuttavia, il rapporto di NewsGuard mostra che questa politica potrebbe non essere applicata in modo coerente. Inoltre, il rapporto di NewsGuard mette in luce la complessità e l’ambiguità dell'”Accordo Utente X”, che a volte sembra riferirsi a un singolo documento, mentre altre volte a un insieme di regole distribuite su diverse pagine. Questo rende difficile per gli utenti comprendere pienamente quali comportamenti siano in violazione delle norme della piattaforma. Queste rivelazioni sono particolarmente rilevanti in un contesto in cui la disinformazione online può avere impatti reali e gravi sulla società. Il caso di X dimostra l’importanza di una governance trasparente e responsabile delle piattaforme di social media, soprattutto quando si tratta di gestire contenuti potenzialmente dannosi e le loro implicazioni economiche. —tecnologiawebinfo@adnkronos.com (Web Info)
Articoli correlati
Napoli, blitz a Caivano: al setaccio il Parco Verde
(Adnkronos) – Dall’alba è in corso un’operazione ad “alto impatto” della Polizia di Stato, dell’Arma dei Carabinieri e della Guardia di Finanza a Caivano, in provincia di Napoli. L’area interessata è quella del “Parco Verde” […]
Dopo lesione parte del cervello si addormenta: “Svegliarla si può”
(Adnkronos) – Uno studio italiano, finanziato dall’Ue, getta nuova luce su quello che succede dopo una lesione cerebrale: una parte del cervello si addormenta, quindi riuscire a ‘risvegliare’ le zone dormienti migliorerebbe l’efficacia degli interventi […]
Fondazione Entain al fianco di ASD Sportinsieme Roma nella seconda edizione del Torneo Europeo di Padel MIXTO
(Adnkronos) – Nella cornice dell’ALLIANZ MICO di Milano si è svolta la competizione continentale, supportata dal CSR Award della Fondazione Alcuni dipendenti Entain sono stati coinvolti in attività di formazione e volontariato Roma, 22 gennaio 2024 […]
Commenta per primo