Navigation
Blog FIDA
Conoscenza - Storie di successo - Whitepaper
newspaper Panoramica chevron_right Blog
Person vor vielen Monitoren
Lazy_Bear
Blog

Manipolazione dei media: come può l'intelligenza artificiale scoprirla e prevenire la diffusione di fake news?

Vi è mai capitato di vedere un video che vi ha totalmente catturato emotivamente, per poi scoprire che non era reale? O di aver letto una notizia che poi si è rivelata una deliberata disinformazione? Allora avete già sperimentato cosa significa oggi manipolazione dei media.

La manipolazione dei media non è più un fenomeno marginale. Ha luogo ovunque: sui social network, nei gruppi di messaggeria, sui siti di notizie e persino nei commenti ai post di tutti i giorni. Dietro questa manipolazione sistematica ci sono vari attori, come gruppi statali e non, influencer, partiti politici e altri gruppi di interesse che esercitano un'influenza mirata sulla formazione dell'opinione pubblica.

Ciò che rende la situazione particolarmente insidiosa è che i contenuti manipolati appaiono spesso più credibili della verità. Un video abilmente montato, una citazione falsa o una foto apparentemente autentica sono sufficienti a scatenare emozioni e quindi a controllare il comportamento. I media manipolati vengono utilizzati in modo mirato per influenzare la formazione delle opinioni e possono quindi compromettere in modo significativo i processi democratici come le elezioni o i dibattiti sociali.

Per voi, come utenti dei media, questo significa che non è più sufficiente "pensare in modo critico". La rapidità e la professionalità con cui la disinformazione viene prodotta e diffusa travolge anche i giornalisti più esperti.

È proprio qui che entra in gioco la tecnologia moderna. Grazie alle analisi supportate dall'intelligenza artificiale e all'autenticazione automatica dei media, software come fraudify possono contribuire a rendere visibile la manipolazione sistematica e a rimettervi in condizione di decidere da soli di quali contenuti fidarvi.

Tuttavia, la responsabilità di fermare la manipolazione dei media non è solo vostra. Potete imparare a controllare le fonti, a scrutare criticamente i titoli dei giornali o a verificare i fatti - e questo è importante. Ma anche l'occhio più attento a un certo punto raggiunge i suoi limiti. La vera responsabilità risiede nel luogo in cui le informazioni vengono create e diffuse: le aziende, le piattaforme e le organizzazioni dei media che pubblicano o inoltrano milioni di contenuti ogni giorno e le cui pubblicazioni affidabili svolgono un ruolo centrale nel formare l'opinione della società.

Il pericolo per la nostra democrazia non deve essere sottovalutato: La manipolazione dei media non solo minaccia le istituzioni democratiche, ma può anche causare gravi danni agli individui, ad esempio quando i deepfake vengono utilizzati appositamente per screditare le persone.

Le aziende del settore dei media, le autorità e le piattaforme devono essere in grado di riconoscere e filtrare automaticamente i media manipolati prima che diventino virali. È qui che entrano in gioco soluzioni software specializzate come fraudify, che non solo smascherano le informazioni false a posteriori, ma le identificano anche durante il processo di creazione, ripristinando così la fiducia nella comunicazione digitale.

Grafik medienmanipulation

Che cos'è la manipolazione dei media? - Definizione, forme, obiettivi e meccanismi

La manipolazione dei media è molto più della semplice diffusione di fake news. Comporta l'alterazione, la distorsione o l'invenzione mirata di informazioni al fine di influenzare la percezione della realtà.

Un esempio: quando si parla di elezioni, si può creare un'immagine specifica dei candidati attraverso la selezione mirata di immagini o citazioni. In questo caso si possono utilizzare tecniche molto diverse, dalle immagini manipolate e i video falsi alle campagne controllate da algoritmi.

Alla base della manipolazione dei media ci sono sempre tre cose: attenzione, emozione e influenza, in quasi tutti i settori della società, come la politica, l'economia o la cultura.

  • Attenzione: i contenuti manipolati sono progettati per distinguersi. Utilizzano immagini estreme, titoli provocatori o rivelazioni apparentemente esclusive per generare click.

  • Emozione: i fatti da soli raramente convincono. La manipolazione funziona perché fa appello alle emozioni: rabbia, paura, compassione o indignazione.

  • Influenza: il vero obiettivo è influenzare le decisioni - politiche, sociali o economiche.

Il rispetto dei principi giornalistici è essenziale per garantire un'informazione obiettiva e prevenire la manipolazione.

In questo modo si confondono i confini tra disinformazione (contenuti deliberatamente falsi), disinformazione (informazioni false diffuse involontariamente) e manipolazione attraverso lo spostamento deliberato del contesto. Una foto reale può improvvisamente diventare un messaggio politico attraverso una didascalia fuorviante.

Anche l'influenza mirata sulla selezione e sulla ponderazione degli argomenti nelle notizie è una tecnica comune per controllare la percezione pubblica.

E qui la questione si fa critica: più i media visivi - cioè le immagini e i video - vengono utilizzati nella comunicazione, più la nostra percezione diventa suscettibile. Ciò che vediamo, lo crediamo automaticamente vero.

Le moderne tecniche di manipolazione, come i deepfakes o le voci generate sinteticamente, rendono quasi impossibile verificare l'autenticità di un mezzo con il solo occhio o orecchio. I deepfakes permettono anche di manipolare le azioni delle persone nei video o nei film, creando così deliberatamente false impressioni. Ciò che prima richiedeva ore di elaborazione delle immagini ora può essere fatto in pochi secondi da un'intelligenza artificiale.

Il ruolo della stampa è fondamentale in questo caso, in quanto l'influenza esterna può portare a orientare le notizie e quindi avere un impatto duraturo sull'opinione pubblica.

Ma proprio come l'intelligenza artificiale ha creato queste sfide, ora fornisce anche la risposta: soluzioni software come fraudify aiutano a riconoscere con precisione questi inganni, prima che possano causare danni.

Come funzionano sistematicamente le fake news e i deepfake

La manipolazione dei media raramente avviene per caso. C'è un sistema dietro molte informazioni false, spesso con una strategia e un obiettivo chiari. I tempi in cui qualcuno condivideva una foto falsa su Internet per divertimento sono ormai lontani.

Oggi, intere reti di bot, troll e account automatizzati utilizzano strutture complesse per diffondere contenuti manipolati in modo mirato. Rivolgendosi a gruppi target specifici e aumentando la portata attraverso i social media e i siti web, questi contenuti vengono posizionati in modo particolarmente efficace.

L'obiettivo è generare attenzione, minare la fiducia e influenzare il sentiment. Questo avviene su più livelli contemporaneamente:

  • Distribuzione attraverso gli algoritmi: Le piattaforme favoriscono i contenuti che hanno un forte impatto emotivo. È proprio questo che i manipolatori sfruttano. Le fake news spesso diventano virali perché scatenano l'indignazione - e l'indignazione genera click. La ponderazione degli argomenti gioca un ruolo fondamentale in questo caso, poiché gli algoritmi si concentrano specificamente su determinate narrazioni.

  • Rafforzamento attraverso le camere dell'eco: Sui social network, gli utenti con opinioni simili si confrontano ripetutamente con gli stessi contenuti. Questo crea l'impressione che le informazioni false siano confermate "ovunque".

  • Inganno attraverso l'autenticità: i deepfake, le registrazioni audio false o le immagini generate dall'intelligenza artificiale appaiono oggi ingannevolmente reali. Un'intervista falsificata, un video che mostra una persona in un contesto falso - e la percezione è già ribaltata.

  • Manipolazione attraverso la ripetizione: più spesso sentiamo o vediamo qualcosa, più ci appare credibile. Questo effetto psicologico viene deliberatamente sfruttato per rafforzare le narrazioni.

Questi meccanismi rendono i media manipolati così pericolosi: sfruttano i nostri automatismi umani e rendono plausibili le bugie. Anche per gli utenti più esperti è difficile riconoscere quando un mezzo di comunicazione è stato manipolato. I pericoli per le democrazie, la fiducia nei media e l'integrità delle elezioni sono particolarmente critici.

Ed è proprio per questo che non bastano il buon senso o le capacità di ricerca. Abbiamo bisogno di una tecnologia che riconosca i modelli prima che ci ingannino.

Perché i classici fact check non sono più sufficienti

Le verifiche dei fatti sono importanti, non c'è dubbio. Ma spesso arrivano troppo tardi. Una volta che la disinformazione è stata condivisa centinaia di migliaia di volte, il danno è già stato fatto. Anche una correzione di solito raggiunge solo una frazione delle persone che hanno visto il contenuto manipolato.

Il fact-checking tradizionale si basa su persone che ricercano, confrontano e raccolgono prove. Tuttavia, con la velocità con cui oggi vengono creati nuovi contenuti, questo approccio sta raggiungendo i suoi limiti. Ogni giorno vengono pubblicati in tutto il mondo oltre 500 milioni di tweet, 300 ore di video al minuto su YouTube e innumerevoli post su altre piattaforme. Nessun team editoriale al mondo può controllare tutto questo manualmente. Per contrastare efficacemente la minaccia dei media manipolati, è necessaria una serie di misure e la loro coerente attuazione.

Inoltre, i truffatori stessi stanno diventando sempre più sofisticati. I testi generati dall'intelligenza artificiale, i video deepfake e le voci sintetiche sono spesso così realistici che anche gli esperti difficilmente riescono a riconoscere le differenze senza aiuti tecnici.

I controlli dei fatti sono quindi reattivi: agiscono dopo che la manipolazione è già avvenuta. Tuttavia, per combattere efficacemente la disinformazione sistematica sono necessarie soluzioni proattive: Un software che riconosca i modelli di manipolazione, analizzi automaticamente i contenuti dei media e ne valuti l'autenticità in tempo reale.

Questo è esattamente ciò che offrono i sistemi di intelligenza artificiale come fraudify. Integrano la valutazione umana con un riconoscimento automatico basato sui dati, consentendo di fermare la disinformazione prima che si diffonda.

Esempio 1: programmi di notizie false di gruppi terroristici

L'organizzazione terroristica ISIS ha prodotto video che assomigliano a vere trasmissioni della CNN o di Al Jazeera, compresi logo, news ticker e design professionale, manipolando deliberatamente le notizie e la copertura della stampa nel contesto della guerra e della propaganda. Questi falsi sono stati distribuiti attraverso i canali YouTube e i social network per diffondere la propaganda e minare la fiducia nei media affidabili. Pubblicazioni di questo tipo possono avere un impatto significativo sulla percezione e sull'opinione pubblica in tempi di guerra... Continua a leggere

Wetter Bilder

Esempio 2: immagini generate dall'IA e disinformazione durante i disastri meteorologici

Per diversi uragani negli Stati Uniti sono state utilizzate immagini false, alcune delle quali create con l'aiuto dell'IA. Le pubblicazioni che si rivolgono a temi specifici svolgono un ruolo centrale nella diffusione della disinformazione. Ad esempio, sono state diffuse false scene di inondazioni a Disney World che non si sono mai verificate. Queste immagini manipolate rafforzano la paura, il panico o le critiche - e influenzano la percezione pubblica - spesso prima ancora che venga fatta una precisazione ufficiale. Queste pubblicazioni comportano notevoli pericoli per la formazione delle opinioni e la fiducia nei media... Continua a leggere

Brainwash Grafik

Esempio 3: Operazione "Doppelganger" - media clonati e disinformazione

Nell'ambito della campagna russa "Doppelganger", i siti web dei principali media e i profili dei social media sono stati imitati o falsificati. I siti web e i social media svolgono un ruolo centrale nella diffusione della disinformazione e nella pubblicazione di contenuti manipolati. Questi cloni diffondono notizie false o contenuti manipolati (ad esempio, articoli falsi con contenuti distorti) per spingere determinate narrazioni... Continua a leggere

Grafik Interview

Esempio 4: video deepfake di Zelensky e dichiarazioni manipolate

Durante la guerra in Ucraina, è circolato un video deepfake in cui il presidente ucraino Volodymyr Zelensky viene esortato ad arrendersi. Questo travisamento faceva parte di una campagna di disinformazione mirata per creare confusione e indebolire la fiducia nelle fonti legittime. Questi deepfake rappresentano una grave minaccia per la democrazia e l'integrità delle elezioni, soprattutto in un contesto di guerra... Continua a leggere

Esempio 5: falsa prima pagina di un giornale in Camerun

Falsa prima pagina di un giornale in Camerun In Camerun, la prima pagina di un noto quotidiano è stata manipolata: I titoli e i contenuti sono stati falsificati per ottenere un effetto politico. La falsa copertina sembrava ingannevolmente reale ed è stata condivisa sui social media. L'editore è stato addirittura arrestato in questo contesto perché accusato di aver deliberatamente ingannato il pubblico... Continua a leggere

Social media Logos

Il ruolo dei social media nella diffusione dei media manipolati

Oggi i social media sono il moltiplicatore centrale dei contenuti manipolati. Piattaforme come Facebook, Twitter, Instagram e TikTok diffondono informazioni a milioni di utenti in pochi secondi, indipendentemente dal fatto che siano autentiche o manipolate. Gli algoritmi spesso premiano i contenuti che suscitano emozioni, generano clic o vengono condivisi, il che rende le fake news e i deepfake particolarmente virali.

fraudify - Come un software intelligente rende visibili i media manipolati

Immaginate di poter riconoscere a colpo d'occhio se un'immagine, un video o un testo sono stati manipolati - in modo completamente automatico, senza ore di ricerca. Questa è l'idea alla base di fraudify, il software intelligente di rilevamento delle frodi di FIDA.

fraudify è stato sviluppato per rendere trasparente e verificabile il crescente flusso di contenuti digitali. Il sistema analizza i media alla ricerca di sottili cambiamenti, schemi nascosti e tracce digitali che possono sfuggire anche a occhi esperti. Offre quindi una soluzione tecnica a una delle maggiori sfide del nostro tempo: la manipolazione sistematica dei media.

Ecco una panoramica di come funziona fraudify:

  • Analisi forense a livello di pixel e metadati: fraudify riconosce deviazioni minime in immagini e video, come tracce di ritocco, artefatti di compressione o cambiamenti di luce, ombra e struttura.

  • Riconoscimento di contenuti sintetici: Utilizzando modelli di deep learning, fraudify identifica le caratteristiche tipiche dei media generati dall'intelligenza artificiale o compositi, come transizioni innaturali, incongruenze anatomiche o sequenze di movimento difettose.

  • Riconoscimento di riprese in green screen: fraudify è in grado di riconoscere quando persone o oggetti sono stati collocati davanti a sfondi inseriti artificialmente. Analizzando le fonti di luce, la profondità di campo, i bordi del colore e i riflessi, il software riconosce le manipolazioni dello schermo verde anche se a prima vista sembrano realistiche. Questo aiuta a smascherare video presumibilmente "autentici" che in realtà sono stati registrati in contesti completamente diversi.

  • Valutazione automatica della fiducia: fraudify crea un punteggio di autenticità da tutte le analisi, che mostra immediatamente la probabilità che un mezzo sia autentico o manipolato.

La particolarità: fraudify funziona in tempo reale e può essere integrato in modo flessibile nei sistemi esistenti, come piattaforme editoriali, strumenti di monitoraggio dei social media o processi di comunicazione interna. Ciò consente alle case editrici, alle autorità o alle aziende di riconoscere le manipolazioni prima che si diffondano.

L'implementazione mirata di misure tecniche con fraudify offre alle istituzioni nuove opportunità per rafforzare in modo duraturo la fiducia nei media e contrastare la manipolazione in una fase iniziale.

In questo modo, fraudify non offre solo precisione tecnica, ma anche un reale valore aggiunto: crea fiducia in un mondo digitale.

Lupe mit fraudify Logo

Conclusione - Riconoscere la manipolazione sistematica dei media e riconquistare la fiducia con fraudify.

La manipolazione dei media non è più un fenomeno marginale: riguarda tutti noi, sia che si tratti di privati cittadini, di giornalisti o di decisori aziendali.

Immagini falsificate, deepfake o campagne mirate di fake news possono distruggere rapidamente la fiducia e influenzare le decisioni. La manipolazione sistematica dei media rappresenta una grave minaccia per la democrazia e la fiducia nei media.

Non è più sufficiente affidarsi solo all'attenzione o al buon senso: La marea di contenuti digitali cresce ogni giorno e le tecniche di manipolazione diventano sempre più sofisticate.

È proprio qui che entra in gioco la forza di fraudify. Il software analizza in modo affidabile i contenuti visivi, rileva le manipolazioni più sottili - dal ritocco agli elementi generati dall'intelligenza artificiale, fino alle riprese su schermo verde - e ne valuta l'autenticità in tempo reale.

Per le organizzazioni dei media, le piattaforme, le autorità e le aziende, ciò significa che è possibile controllare i contenuti prima che vengano pubblicati o condivisi e prevenire attivamente la diffusione della disinformazione. Misure mirate e la loro coerente attuazione sono fondamentali per rafforzare la formazione delle opinioni e garantire la fiducia nei media a lungo termine.

FAQ - Domande frequenti sulla manipolazione dei media

La manipolazione dei media si riferisce all'alterazione, alla distorsione o all'invenzione mirata di informazioni con l'obiettivo di influenzare le percezioni. Ciò include immagini o video manipolati, citazioni false, campagne controllate da algoritmi e altro ancora.

  • Ladisinformazione è la diffusione deliberata di informazioni false.

  • Ladisinformazione si riferisce a informazioni false condivise involontariamente.

  • Fake news è un termine collettivo, spesso utilizzato per contenuti deliberatamente fuorvianti. L'articolo spiega come la manipolazione avvenga anche attraverso lo spostamento del contesto, ad esempio quando un contenuto reale viene distorto da didascalie false o dalla scelta selettiva di argomenti.

Perché i fact check sono di solito reattivi: Hanno effetto solo quando il contenuto è già stato ampiamente diffuso. Nel mondo digitale, ogni giorno vengono creati innumerevoli nuovi contenuti e molte manipolazioni si diffondono molto rapidamente, spesso tramite algoritmi e social media. Per questo motivo è necessaria una tecnologia lungimirante per riconoscere i contenuti prima che vengano diffusi.

Soluzioni software come fraudify utilizzano l'intelligenza artificiale e l'analisi forense per verificare la presenza di sottili manipolazioni nei contenuti visivi, dal livello dei pixel ai metadati e agli elementi sintetici. Creano un punteggio di autenticità e consentono di valutare l'autenticità di immagini, video o testi. Spesso funzionano anche in tempo reale e possono essere integrati nei sistemi esistenti.

Alcune tecniche utilizzate di frequente sono

  • Selezione e prioritizzazione degli argomenti (quali storie vengono mostrate)

  • Uso di immagini o titoli emozionali

  • distribuzione attraverso bot, reti di troll e amplificazione algoritmica

  • Camere dell'eco in cui gli utenti vedono contenuti simili più e più volte

  • Ripetizione di informazioni false per costruire credibilità

Questi attori hanno una grande responsabilità quando creano, distribuiscono o abilitano i contenuti. Devono utilizzare strumenti adeguati, rispettare gli standard e lavorare in modo trasparente, affinché i contenuti manipolati vengano riconosciuti e bloccati prima che causino danni.

I singoli possono ad esempio

  • Verificare le fonti (chi c'è dietro il contenuto?)

  • Esaminare in modo critico titoli e immagini

  • Verificare se i contenuti sono confermati anche da media o esperti affidabili.

  • Prestare attenzione alle avvertenze e alle caratteristiche di autenticità

  • Essere consapevoli dei contenuti emotivamente carichi

Gli algoritmi favoriscono i contenuti che hanno un forte impatto emotivo o che generano molte interazioni. Questo favorisce la diffusione di contenuti manipolativi. I social media consentono inoltre una rapida diffusione, soprattutto quando i membri di grandi reti condividono i contenuti. L'effetto camera d'eco può rafforzare le opinioni ed esacerbare le divergenze.

Sì, i contenuti manipolati dei media rappresentano una seria minaccia per i processi democratici, ad esempio quando le elezioni vengono influenzate o la fiducia nelle istituzioni e nei media viene minata. Le campagne sistematiche di disinformazione che modificano l'opinione pubblica sono particolarmente pericolose.

Informazioni sull'autore

Paul Wettstein lenkt bei der FIDA die digitalen Marketingbereiche SEO, SEA und Social Ads in die richtige Spur. Als begeisterter Radsportler kombiniert er Ausdauer, Strategie und den Blick fürs Detail – Qualitäten, die ihn sowohl auf der Straße als auch in der digitalen Welt auszeichnen.

Articoli correlati

Software Dokumentation
Blog
Come si crea la documentazione del software?

Il codice da solo non basta: senza una documentazione chiara e strutturata, anche il miglior software diventa rapidamente una scatola nera. Che si tratti di sviluppatori, tester o futuri membri del team, la documentazione crea trasparenza.

Per saperne di più
Dekoratives Bild zum Thema Prototyping
Blog
Prototipazione efficiente nello sviluppo del software

Test più rapidi, sviluppo migliore: vi mostriamo perché la prototipazione è indispensabile nello sviluppo del software. Nello sviluppo del software non conta solo ciò che viene costruito, ma anche la rapidità e l'efficienza con cui le idee vengono rese tangibili.

Per saperne di più
Leuchtende Cloud-Illustration über digitale Datenströme in Blau- und Violetttönen.
Blog
Veloce, snello, capace di adattarsi al cloud: Creazione nativa Java con Quarkus

Veloce come un fulmine nel cloud: il Native Build di Quarkus non solo consente di compilare le applicazioni Java con prestazioni migliori, ma anche di renderle pronte per il cloud, senza grandi sforzi.

Per saperne di più