Rome Times

The Eternal Voice of Italy
Tuesday, Nov 18, 2025

Internet sta affogando nella falsità — Può essere salvato?

Internet, un tempo celebrato come uno spazio di democratizzazione per l'espressione libera e l'accesso aperto, sta ora affrontando una profonda crisi di credibilità. Gli esperti avvertono che la disinformazione, i bot e i contenuti deep-fake stanno erodendo la fiducia in tutto ciò che vediamo online.
Le piattaforme che dovevano dare potere agli utenti e diffondere conoscenze sono diventate sempre più inondate da disinformazione, reti di bot organizzati e così detti account "sock-puppet" che servono agende politiche o commerciali.

Riceratori e decisori politici avvisano che potremmo essere rapidamente vicini a un punto di non ritorno: entro pochi anni, il volume e la sofisticazione della disinformazione sopraffaranno talmente il sistema che “nulla visto online potrà essere considerato attendibile”.

Come ha evidenziato un recente summit in India, i social media stanno diventando rapidamente la principale fonte di informazioni per molte persone, eppure molti mancano delle competenze di alfabetizzazione digitale necessarie per identificare contenuti manipolati o fuorvianti.

Questo è particolarmente rilevante nelle regioni semi-urbane e rurali dove la regolamentazione e l'educazione degli utenti sono deboli.

Gli strumenti di intelligenza artificiale generativa hanno amplificato il problema.

Queste tecnologie possono creare testi, immagini e audio falsi credibili su larga scala, consentendo ad attori malintenzionati di impersonare voci, fabbricare eventi o dirotta narrazioni.

Il ciclo di vita di una campagna di disinformazione ora include creazione, amplificazione tramite sistemi di raccomandazione algoritmica e persistenza anche dopo il debunking.

Il risultato: fiducia erosa nelle istituzioni, nei media e tra le persone.

Governi, regolatori dei media e accademici concordano che il rischio è alto.

Il World Economic Forum identifica la disinformazione come un rischio globale a breve termine di alto profilo, capace di minare la democrazia, la coesione sociale e la sicurezza pubblica.

Stanno emergendo quadri normativi — come il Digital Services Act dell'Unione Europea e l'Online Safety Act del Regno Unito — ma sono indietro rispetto alla velocità del cambiamento tecnologico.

Le piattaforme e i regolatori stanno ancora adattandosi a caratteristiche come i deepfake, bot alimentati dall'IA e sistemi di raccomandazione che privilegiano l'engagement rispetto all'accuratezza.

Gran parte del modello di business attuale delle principali piattaforme alimenta la tendenza: gli algoritmi premiano la polarità, il sensazionalismo e la diffusione rapida, mentre i regimi di monetizzazione traggono profitto da volumi elevati di clic degli utenti indipendentemente dalla veridicità.

Questa dinamica crea forti incentivi a produrre e amplificare la disinformazione, spesso con poca responsabilità.

Nel frattempo, le piattaforme esternalizzano frequentemente la moderazione o si affidano a sistemi opachi i cui funzionamenti interni non sono soggetti a audit indipendenti.

Alcuni esperti sostengono che la sfida non sia semplicemente quella di più correzioni fattuali, ma di ricostruire un intero ecosistema di fiducia.

Programmi di alfabetizzazione mediatica, design algoritmico trasparente, attriti nella diffusione virale e migliori strumenti per gli utenti sono spesso citati come parte della soluzione.

Ad esempio, un quadro di ricerca classifica gli interventi in tre fasi: quelli che preparano le persone a resistere alla manipolazione, quelli che limitano la diffusione e quelli che rispondono a narrazioni false una volta che sono attive.

Eppure, nonostante queste prescrizioni, molti osservatori rimangono pessimisti riguardo alle prospettive a breve termine.

Uno studio commissionato dal governo ha avvertito che poiché la manipolazione digitale diventa automatizzata e scalabile, il calcolo costi-benefici per gli attori malintenzionati diventa sempre più favorevole — il che significa che gli interventi potrebbero faticare a tenere il passo a meno che non vengano apportate modifiche strutturali.

La domanda ora è se le società agiranno in tempo.

Le piattaforme possono modificare i loro incentivi di profitto?

I governi applicheranno una regolamentazione significativa senza soffocare la libertà di parola?

I cittadini individuali possono acquisire le competenze necessarie per discernere il credibile dal fabbricato?

Senza un intervento serio, la possibilità di un mondo in cui “nulla online può essere considerato attendibile” si avvicina, e con essa la stessa possibilità di una democrazia informata.

In questo senso, la crisi della verità online non è solo un problema tecnologico — è un problema sociale, politico e morale.

E la finestra per l'azione si sta restringendo.
AI Disclaimer: An advanced artificial intelligence (AI) system generated the content of this page on its own. This innovative technology conducts extensive research from a variety of reliable sources, performs rigorous fact-checking and verification, cleans up and balances biased or manipulated content, and presents a minimal factual summary that is just enough yet essential for you to function as an informed and educated citizen. Please keep in mind, however, that this system is an evolving technology, and as a result, the article may contain accidental inaccuracies or errors. We urge you to help us improve our site by reporting any inaccuracies you find using the "Contact Us" link at the bottom of this page. Your helpful feedback helps us improve our system and deliver more precise content. When you find an article of interest here, please look for the full and extensive coverage of this topic in traditional news sources, as they are written by professional journalists that we try to support, not replace. We appreciate your understanding and assistance.
Newsletter

Related Articles

Rome Times
×