Al tavolo del Ministero del Turismo si discute di manipolazione, astroturfing, piattaforme e nuovi scenari normativi
La reputazione di una struttura turistica non si costruisce più soltanto con le stelle ufficiali o le guide di settore, ma attraverso il giudizio espresso dagli utenti. Le recensioni online, oggi, influenzano in modo significativo le scelte di consumo, tanto nei viaggi quanto nella ristorazione. I clienti si aspettano autenticità e coerenza tra quanto promesso e quanto vissuto.
Questo vale a maggior ragione in Europa, dove la frammentazione dei sistemi di classificazione rende difficile un confronto oggettivo tra le strutture. Così, piattaforme come TripAdvisor, Booking.com, Google Reviews, Trustpilot, Airbnb, Yelp, Expedia e Amazon si trasformano da semplici vetrine in arbitri digitali dell’affidabilità.
La zona grigia del profitto
Ma quanto sono davvero interessate le piattaforme digitali a eliminare le recensioni false? Il dubbio è legittimo. Più traffico generano, più aumentano visibilità, interazioni e — soprattutto — introiti pubblicitari o percentuali sulle prenotazioni. In questo sistema, la reputazione diventa una leva di business, e non sempre la trasparenza coincide con il profitto. Secondo uno studio della Harvard Business School, una stella in più su Yelp può aumentare le prenotazioni di un ristorante dal 5 al 9%. Perciò anche una singola recensione falsa, positiva o negativa, può spostare decine di migliaia di euro.
Un’inchiesta del Financial Times del 2023 ha rivelato che alcune piattaforme di e-commerce e servizi — tra cui Amazon, Trustpilot e Google Reviews — hanno mostrato ritardi sistematici nell’intervento contro i recensori sospetti, specie quando si trattava di utenti “attivi” che generavano traffico e engagement.
Il rischio è quindi quello di un conflitto d’interessi strutturale, dove chi dovrebbe controllare ha anche interesse a lasciar correre. Le piattaforme si difendono parlando di “miglioramento continuo dei sistemi di verifica”, ma finché non saranno obbligate da norme stringenti, sanzioni reali e trasparenza algoritmica, il sistema resterà vulnerabile. E chi ci rimetterà, come sempre, saranno le imprese oneste e i consumatori inconsapevoli.
Il mercato nero delle recensioni (false)
Cinquemila euro per mille recensioni false di hotel e alberghi, centinaia di commenti positivi sul soggiorno che però non c’è mai stato. «Dietro ci sono sempre agenzie fasulle che ci contattano e provano a venderci pacchetti di giudizi per favorire noi oppure sfavorire altri». È la denuncia di Giuseppe Roscioli, presidente di Federalberghi Roma, che spiega il racket che colpisce molti albergatori romani. Una storia purtroppo simile a quella raccontata dal Gambero Rosso qualche mese fa e che ha riguardato i ristoratori della Capitale, minacciati di essere “affossati” con commenti negativi sulle piattaforme online se si fossero rifiutati di pagare un obolo da 400 euro.
Molti albergatori hanno provato a denunciare, ma «quello che gli è stato detto dalle forze dell’ordine è che risalire a chi c’è dietro è molto complicato». Le proposte arriverebbero via email da indirizzi stranieri, difficili da rintracciare. Allo stesso tempo, anche i potenziali clienti vengono colpiti dal racket. «Da mesi – spiega Barbara Strappato, vicedirettore della Polizia Postale e per la Sicurezza Cibernetica – riceviamo segnalazioni da tutta Italia, e anche da Roma, di persone che ricevono messaggi WhatsApp sui loro smartphone da parte di numeri stranieri», in cui gli viene chiesto di inserire recensioni fasulle sui portali di prenotazione – pro o contro gli hotel – in cambio di denaro. Il corrispettivo può andare dai «30 ai 300 euro al giorno».
Una fiducia sempre più fragile
Ma cosa succede quando il sistema viene manipolato? Le recensioni false, acquistate o pilotate, sono ormai un’emergenza globale. Secondo un report di BusinessDit, il 30% delle recensioni online è ritenuto non autentico. Il danno economico complessivo supera i 150 miliardi di dollari. Nel 2022 Amazon ha bloccato 200 milioni di recensioni sospette, Google ne ha rimosse 115 milioni, e TripAdvisor ha cancellato 1,3 milioni di giudizi fraudolenti.
Il fenomeno delle recensioni false, detto astroturfing, è una tecnica di marketing che mira a costruire consenso artificiale tramite recensioni pagate, percepite come spontanee. In Italia, questa pratica non è ancora considerata reato specifico, ma può rientrare nelle fattispecie di concorrenza sleale o pratica commerciale scorretta. La crescente attenzione normativa, anche in ambito europeo, mira a contrastarla. In Francia vige l’obbligo di trasparenza, in Germania esiste un organismo di vigilanza specifico, in Spagna sono già state comminate sanzioni.
L’intelligenza artificiale può salvarci?
Le grandi piattaforme si affidano sempre di più a algoritmi predittivi e sistemi di intelligenza artificiale per individuare e bloccare le recensioni sospette. Booking, TripAdvisor e Amazon utilizzano filtri basati su pattern linguistici, geolocalizzazione e cronologia degli utenti per rilevare anomalie. Ma l’IA, da sola, non è infallibile. Può identificare un linguaggio ripetitivo o incoerente, ma fatica a riconoscere l’intenzione dietro una recensione apparentemente impeccabile.
Una valutazione positiva scritta con tono naturale e dettagli realistici, ma commissionata ad arte, può sfuggire ai controlli automatici — soprattutto se a scriverla non è un bot, ma un essere umano pagato per farlo. È il fenomeno dei cosiddetti “bot umani”, spesso reclutati tramite gruppi Telegram o piattaforme parallele, che ricevono compensi per produrre recensioni “emozionali”, calibrate sulle esigenze dei committenti.
C’è poi un nuovo fronte ancora più insidioso: quello delle deepfake review. Con l’evoluzione dei modelli generativi, l’IA può oggi scrivere testi con uno stile credibile, contestualizzato, persino coerente con il tono di chi recensisce abitualmente. Un utente “sintetico” può quindi generare decine di recensioni diverse, tutte verosimili, tutte tracciabili come vere… ma mai accadute.
La fiducia oggi è tutto e aumenta con l’aumento delle recensioni, ma è sempre vulnerabile, perché si basa su una forma di reputazione collettiva costruita nel tempo: non più le stelle degli esperti, ma il guest rating, l’intelligenza collettiva, la media matematica delle esperienze vissute.
Intanto anche i tribunali si muovono: da quello di Roma, che ha sanzionato l’abuso di recensioni negative da parte di un’azienda contro un’altra, a quello di Milano, che ha chiuso il sito Realreviews.it per aver venduto pacchetti di recensioni false a pagamento, commettendo concorrenza sleale. Le grandi piattaforme, per proteggersi da responsabilità legali e mantenere la fiducia degli utenti, investono sempre più in strumenti di verifica: algoritmi, intelligenza artificiale, team di moderatori.
Italia e Unione Europea alla prova della trasparenza
Finalmente in Italia lo scorso 14 gennaio 2025,è stato approvato il Ddl, dal Consiglio dei Ministri, su proposta del ministro Adolfo Urso, che stabilisce che solo i consumatori che dimostrano l’effettivo utilizzo di un servizio o prodotto potranno rilasciare una recensione. Le recensioni – si stabilisce ancora nel Ddl – devono essere dettagliate e pertinenti e pubblicate entro quindici giorni dall’utilizzo del servizio o dall’acquisto del prodotto. Le strutture recensite hanno il diritto di replicare alle recensioni e di richiedere la cancellazione di quelle false, ingannevoli, non veritiere o eccessive, o di quelle non più attuali (oltre due anni) o relative a situazioni modificate. Il Ddl vieta l’acquisto e la vendita di recensioni, anche tra imprenditori e intermediari, l’attribuzione di recensioni a prodotti o servizi diversi da quelli effettivamente valutati, e la promozione o il condizionamento delle recensioni tramite incentivi.
L’Autorità per le Garanzie nelle Comunicazioni (Agcom) definirà codici di condotta per i gestori delle piattaforme online e i soggetti attivi nella diffusione di recensioni, per garantire l’identità dei recensori, l’autenticità delle recensioni, la trasparenza e l’imparzialità nella gestione e dettagli utili per il contraddittorio. L’Autorità Garante della Concorrenza e del Mercato (Agcm) vigilerà sul rispetto di queste norme e potrà sanzionare le violazioni. Le nuove disposizioni non si applicano alle recensioni già pubblicate prima dell’entrata in vigore della legge.
Ma tutto questo basterà? Probabilmente no, se non cambia anche la nostra cultura digitale. Il passaparola è diventato globale e algoritmico, ma resta uno degli strumenti più potenti – se autentico. La vera sfida, oggi, è difendere la trasparenza in un mondo dove la reputazione è moneta e la fiducia si può comprare. Ma si può anche perdere, con un click.

Giornalista, autrice e conduttrice tv ha prodotto per quasi un decennio un noto programma televisivo sull’arte e la cultura in Sicilia, Profile Magazine tv.
Scrive per diverse testate ed è stata Direttore Responsabile di CulturaIdentità.
Oggi è Coordinatore Nazionale e responsabile della comunicazione dell’Unione Nazionale Vittime(UNAVI).