‘AI Slop’: il boom dei contenuti generati male sta rovinando l’advertising? | Promos Rimini

Compatibilité
Sauvegarder(0)
partager

Negli ultimi mesi, navigando nei feed o guardando la TV, molti avranno incrociato contenuti “strani”: immagini insanamente deformate, gesti innaturali, persone con cinque o sette dita. Non è arte astratta: è il fenomeno dell’AI Slop.

Con questa espressione, dalla connotazione dispregiativa, si indicano contenuti visivi o testuali generati da un’intelligenza artificiale “caratterizzati da un’intrinseca mancanza di impegno, logica o scopo” (Wikipedia), spesso pubblicati con scarsissimo controllo umano.

È una versione low-cost del “fast food creativo”: veloce, ma insoddisfacente, e spesso dannoso per la reputazione di un brand. 

Trend: perché il problema dell’AI Slop è reale e urgente

Il boom degli strumenti di generazione automatica (immagini, video, testi) ha spinto molti brand a pubblicare contenuti creati con l’AI, sedotti da promesse di velocità e costi ridotti. Ma senza adeguati livelli di controllo o approvazione, molti contenuti social o adv risultano sgradevoli. Errori tipici:

  • deformazioni anatomiche (mani o volti strani),
  • oggetti incollati o inspiegabilmente sospesi,
  • immagini senza contesto o ragionamento,
  • claim generati senza senso logico o tono.

Quindi, i problemi sono principalmente due:

1 – L’assenza di intervento umano qualificato

Contenuti generati e pubblicati con scarsa o assente revisione.

2 – La resa finale del contenuto

A volte l’intervento umano c’è ma il lavoro ultimato è comunque di scarsa qualità, o semplicemente viene percepito come “strano”.

In questi casi cala la qualità percepita del brand e l’utente finale può respingere o criticare il contenuto.

Percezione, non solo controllo: l’effetto “uncanny valley”

Molti contenuti generati con IA sembrano a posto a una prima occhiata. Poi, qualcosa non torna: un’espressione troppo fissa, un gesto innaturale, un’ambientazione leggermente storta.
Questa sensazione si chiama Uncanny Valley, ed è ben nota anche in robotica: è quel punto in cui un contenuto appare quasi umano… ma non abbastanza da risultare naturale.
Il risultato? Disagio, repulsione, ironia.

Nella pubblicità, è un rischio enorme. Anche in presenza di un controllo umano, molti visual generati da AI cadono in questa trappola: sembrano credibili ma generano diffidenza, interrompendo il flusso di empatia tra brand e pubblico.
E se un contenuto “disturba”, anche solo sottilmente, danneggia la reputazione.

Pigrizia o provocazione: eToro e Coca‑Cola

  • Sii la pubblicità che vuoi essere. Uno spot trasmesso durante le Olimpiadi 2024 ha fatto discutere e non poco: l’azienda di social trading e investimenti multi-asset mostrava un giovane uomo, che diventava una giovane donna, che diventava un giovane uomo, che al mercato suo padre comprò. Mani sproporzionate, transizioni inquietanti, elementi fuori scala: la pubblicità “Sii l’investitore che desideri essere” di eToro è un viaggio introspettivo verso luoghi in cui l’advertising non dovrebbe andare. L’effetto è stato percepito come “inquietante” da molti spettatori su forum e social.
  • Coca‑Cola ha prodotto in AI la sua campagna natalizia “The Holiday Magic is Coming”, riproponendo il celebre carosello di camion rossi. L’ad ha suscitato critiche per la mancanza di autenticità: ombre senza senso, personaggi innaturali, camion che scivolano invece di muoversi realisticamente. C’è chi l’ha definita un “creepy dystopian nightmare”.

In entrambi i casi, di certo non si può parlare di assenza di controllo: trattasi di due pubblicità di aziende leader, trasmesse su svariati mezzi di comunicazione. Che si tratti di abbracciare l’innovazione, di pigrizia e/o di spese ridotte, di certo hanno fatto discutere. Ma a quale prezzo? 

Lesson learned: l’automazione richiede governabilità

L’intelligenza artificiale può accelerare la produzione, generare moodboard o ispirare concept. Ma se lasciata “libera” senza supervisione, l’autonomia diventa debolezza. Per evitare di cadere nella trappola dell’AI Slop, è essenziale:

  1. Policy interne chiare: ogni output AI richiede almeno un controllo visivo + testuale.
  2. Flusso di QA dedicato: checklist di verifica, proofing incrociato, controllo anatomico e logico.
  3. Un “human layer” nel processo creativo: l’AI come assistente, non come regista.

Un’agenzia può strutturare queste regole: definire stili visivi compatibili, linee guida strategiche e guide di governance. Automatizzare ≠ Depressione della qualità.

🚦 Il nostro ruolo operativo

Stai iniziando a testare strumenti AI per generare visual o copy?
Ora è il momento di chiederti:

🔹 Hai una policy chiara anche per i contenuti generati?
🔹 Hai previsto un workflow di validazione con controllo qualità?
🔹 Hai definito limiti e ambiti di utilizzo in coerenza con l’identità di brand?

Se la risposta è “no”, forse è il momento di parlarne insieme.

Coordonnées
Promos