Da SEO a GEO: come fare SEO per AI e posizionarsi su ChatGPT e gli altri LLM | I'm Evolution

Compatibilità
Salva(0)
Condividi

Secondo uno studio di Gartner, con l’uso massivo dei motori di risposta, il traffico organico potrebbe diminuire del 50% o più entro il 2028. Una previsione che ci impone di studiare e comprendere come fare SEO per AI e posizionarsi su ChatGTP e gli altri LLM.

Ma partiamo dal principio.

Cos’è la SEO per AI e a cosa serve

Definita anche LLMO, GEO, AEO o AI SEO, la SEO per AI è la tecnica di rendere siti, contenuti e feed di prodotto facilmente comprensibili e citabili dagli assistenti basati su Intelligenza Artificiale generativa.

In parole semplici, si tratta di quel tipo di ottimizzazione che consente ai brand di diventare la fonte che l’AI cita nelle sue risposte, il riferimento autorevole da cui ChatGTP e gli altri LLM attingono le informazioni necessarie per costruire la sintesi da presentare all’utente quando effettua una richiesta.

Differenza tra SEO e SEO per AI

La differenza tra SEO per AI e SEO tradizionale sta proprio qui:

  • con la SEO tradizionale si ottimizzano il sito, i contenuti e i prodotti per comparire nei risultati di ricerca e in tutto l’ecosistema Google per specifiche parole chiave e intenti di ricerca;
  • con la SEO per AI si ottimizzano l’autorevolezza, la notorietà e la reputazione del brand (oltre che gli aspetti tecnici) per comparire nelle risposte di ChatGPT, Gemini, AI Overview, Perplexity e gli altri LLM.
AspettoSEO TradizionaleSEO per AI
ObiettivoPosizionamento nei risultati della SERPEssere citati nelle risposte generate dall’AI
TargetGoogle, Bing e gli altri motori di ricercaChatGPT, Gemini, Perplexity, Claude, AI Overviews e gli altri LLM
Metriche principaliPosizione, CTR, traffico organico, conversioni da organicoCitazioni AI, share of voice, conversioni da traffico AI
Fattori tecniciVelocità, mobile-friendly, Core Web Vitals, altroSchema markup, accesso crawler AI, dati strutturati, altro
Digital PRBacklink per authority e rankingCitazioni per E-E-A-T e presenza su fonti AI
ContenutiPagine ottimizzate per singole keywordGuide complete, definizioni, FAQ, dati proprietari, recensioni, casi studio

GEO, AI SEO, AIO, AEO, LLMO, SXO: significato e differenze

Soprattutto nell’ultimo periodo, abbiamo assistito a un proliferare di acronimi, che, nel loro intento di rendere più chiaro quale sia l’obiettivo da raggiungere, hanno generato solo confusione e disorientamento negli imprenditori che lavorano con il digital marketing.

Abbiamo già detto che GEO (Generative Engine Optimization), AEO (Artificial Engine Optimization), AI SEO, LLMO (Large Language Model Optimization) e SEO per AI sono modi diversi di definire la stessa attività di ottimizzazione del posizionamento del brand e dei suoi prodotti nelle risposte delle AI generative.

Gli altri due acronimi (AIO e SXO) definiscono, in realtà, branche più specifiche della disciplina o modi diversi di approcciare l’ottimizzazione.

Nello specifico:

  • AIO – Artificial Intelligence Optimization: viene usato sia come sinonimo di SEO per AI (e degli altri) sia, in senso più ampio, per indicare l’uso dell’AI nell’automatizzazione dei processi di ottimizzazione SEO (es. analisi, creazione dei contenuti, ecc.);
  • SXO – Search Experience Optimization: va oltre il concetto di visibilità. Fa riferimento a tutto ciò che riguarda l’esperienza dell’utente dopo il click (navigazione, qualità delle informazioni, ecc.).

Quindi, di cosa ha senso parlare?

Noi continuiamo a parlare di SEO, nei termini di Search Everywhere Optimization, fondamentalmente per 2 ragioni:

  1. la SEO tradizionale, ormai da tempo, non ottimizza più solo per parole chiave e posizionamento nelle SERP, ma anche per UX, qualità dei contenuti, E-E-A-T, intenti di ricerca, aspetti tecnici, posizionamenti nell’intero ecosistema Google e tanto altro di quanto fondamentale oggi per i LLM;
  2. il brand acquisisce sempre più rilevanza rispetto al passato, motivo per cui il posizionamento e la reputazione vanno curati e coltivati su tutti gli ambienti del digitale, social network inclusi.

Come funzionano i LLM

Google AI Mode, AI Overview, ChatGPT, Gemini, Perplexity e Claude operano con logiche simili, ma presentano differenze significative che influenzano le strategie di ottimizzazione.

1. Google AI Mode

Google ha introdotto al Google I/O 2025 il concetto di Query Fan-Out, una tecnica che rappresenta il cuore del funzionamento di AI Mode: quando un utente pone una query complessa, il sistema la scompone in multiple sotto-query simultanee.

Esempio: Una ricerca come “Miglior piano di allenamento per la maratona per principianti” viene espansa in sotto-query riguardanti il timeframe consigliato, l’attrezzatura necessaria, l’alimentazione, la prevenzione degli infortuni. Ciascuna sotto-query viene instradata verso fonti appropriate: l’indice web, il Knowledge Graph, i dati in tempo reale. I risultati vengono poi aggregati in una risposta coesa.

Secondo l’analisi di Surfer SEO, solo il 27% delle keyword generate dal Fan-Out rimane consistente tra ricerche diverse, mentre il 66% appare una sola volta. Questo significa che la topical authority (ovvero la capacità di coprire in modo completo un cluster tematico) è più importante che mai: non basta ottimizzare per una singola keyword; occorre costruire un ecosistema di contenuti che risponda a tutte le possibili sfaccettature di un argomento.

2. ChatGPT

Uno studio di Profound che ha analizzato 680 milioni di citazioni tra agosto 2024 e giugno 2025 rivela che ChatGPT attinge pesantemente da Wikipedia e mostra una preferenza per contenuti enciclopedici, directory autorevoli e liste rankate presenti su Bing.

3. Google AI Overview

Lo stesso studio di Profund, dimostra che Google AI Overview presenta una distribuzione più equilibrata, attingendo anche a Reddit, ma mantenendo Google e il Knowledge Graph come fonte principale di informazioni.

Curiosità: uno studio di Search Engine Journal sostiene che, mentre cala il CTR delle prime posizioni, il CTR delle posizioni dalla sesta alla decima aumenta del 30,63%. In pratica, gli utenti, dopo aver letto la risposta nell’AI Overview, tendono a scrollare oltre per trovare contenuti più approfonditi. Questo suggerisce che la qualità e la profondità dei contenuti sono premiate anche in presenza di risposte AI.

4. Perplexity

Ancora, Profund, analizzando il funzionamento di Perplexity, nota una forte presenza di Reddit tra le risposte, che raggiunge il 6,6% delle citazioni, con un overlap del 60% con i top 10 di Google e una preferenza per how-to guides, FAQ e contenuti freschi.

5. Claude

Claude di Anthropic, secondo lo stesso studio, rappresenta un’anomalia nel gruppo dei LLM: mostra una bassa dipendenza da internet e maggiore peso sui dati di training e sulle directory consolidate.

Come i LLM selezionano le fonti

Chiarito il funzionamento dei principali LLM, non ci resta che rispondere alla domanda delle domande, ovvero: quali sono i fattori comuni su cui lavorare per diventare la fonte d’informazione dei vari sistemi?

  1. E-E-A-T: ottimizzazione bio autore con credenziali, certificazioni, affiliazioni istituzionali;
  2. Struttura HTML semantica: heading H2/H3 chiari, bullet points e tabelle, citazioni verificabili da fonti autorevoli come domini .gov, .edu e pubblicazioni peer-reviewed;
  3. Freshness: timestamp visibile degli aggiornamenti e trasparenza sulla provenienza delle informazioni.

E-E-A-T nell’era dell’Intelligenza Artificiale

Il framework E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness), già importante nella SEO tradizionale, assume un’importanza ancora maggiore nella SEO per AI: con l’Intelligenza Artificiale capace di generare contenuti su qualsiasi argomento, l’esperienza diretta e la competenza verificabile diventano i veri elementi differenzianti che determinano quali fonti vengono citate e quali ignorate.

Ma, nello specifico, cosa significa E-E-A-T?

  • Experience (Esperienza): si riferisce alla conoscenza di prima mano su un argomento. Un imprenditore che ha gestito un eCommerce per dieci anni e condivide le lezioni apprese ha un’esperienza che nessuna AI può replicare. Questa esperienza deve essere comunicata chiaramente nei contenuti attraverso case studies, aneddoti concreti, errori commessi e soluzioni trovate. I motori generativi riconoscono e premiano questo tipo di contenuto autentico perché fornisce valore che non possono generare autonomamente;
  • Expertise (Competenza): riguarda le qualifiche e la preparazione formale in un determinato campo. Le credenziali verificabili, le certificazioni professionali, i titoli accademici e le pubblicazioni su riviste di settore sono segnali che i sistemi AI valutano per determinare l’affidabilità di una fonte. Per chi opera in settori regolamentati come finanza, sanità o legale, dimostrare la propria expertise è particolarmente importante;
  • Authoritativeness (Autorevolezza): si costruisce nel tempo attraverso il riconoscimento da parte di altri esperti e istituzioni del settore. I backlink da domini autorevoli, le menzioni in pubblicazioni di riferimento, le citazioni in contesti accademici e professionali sono tutti segnali che contribuiscono all’autorevolezza.
  • Trustworthiness (Affidabilità): è forse l’elemento più critico. I sistemi AI sono progettati per evitare la diffusione di informazioni false o fuorvianti, quindi privilegiano fonti che dimostrano trasparenza, accuratezza e imparzialità. Citare le proprie fonti, aggiornare i contenuti quando le informazioni cambiano, correggere eventuali errori e mantenere coerenza nelle affermazioni sono tutti comportamenti che costruiscono affidabilità agli occhi degli algoritmi AI.

Segnali on-page per l’E-E-A-T

L’implementazione on-page dell’E-E-A-T richiede interventi specifici sui contenuti e sulla struttura del sito:

  • le bio degli autori devono essere dettagliate e includere credenziali verificabili, link a profili professionali come LinkedIn, pubblicazioni precedenti e riconoscimenti ottenuti;
  • ogni contenuto dovrebbe mostrare chiaramente la data di pubblicazione e quella dell’ultimo aggiornamento, con un’indicazione del tipo “Last updated: dicembre 2025”;
  • i case studies dovrebbero contenere dati proprietari originali, non reperibili altrove;
  • le citazioni a fonti autorevoli (.gov, .edu, pubblicazioni peer-reviewed) dovrebbero sempre essere incluse;
  • lo schema markup Person con proprietà sameAs che collegano ai profili verificati dovrebbe essere implementato a completamento del quadro dei segnali on-page.

Segnali off-page per l’E-E-A-T

I segnali off-page contribuiscono alla percezione di autorevolezza. Tra questi:

  • i backlink da domini .edu, .gov e le pubblicazioni di settore sono particolarmente valorizzati;
  • le menzioni su fonti terze, inclusa la copertura stampa e le citazioni accademiche, costruiscono credibilità;
  • i profili completi su directory autorevoli come Clutch, G2 e, dove applicabile, Wikipedia rafforzano la presenza online;
  • le recensioni verificate su piattaforme riconosciute come Google Business Profile, Trustpilot o piattaforme specifiche di settore completano il profilo di autorevolezza off-page.

Strategie e tecniche per ottimizzare i contenuti per le AI

Per ottimizzare i contenuti per le AI è fondamentale concentrarsi su 4 elementi:

  1. Answer Capsules
  2. Struttura gerarchica
  3. Citabilità
  4. LLM seeding.

1. Answer Capsules

Gli Answer Capsules sono blocchi di testo di 40-60 parole che rispondono direttamente a una domanda specifica, posizionati immediatamente dopo l’heading di sezione, estratti dai sistemi AI sotto forma di citazioni dirette.

Per essere efficaci, gli Answer Capsules devono:

  • contenere la risposta completa alla domanda posta dall’heading;
  • utilizzare un linguaggio chiaro e privo di ambiguità;
  • includere i termini chiave che l’utente potrebbe cercare;
  • essere autonomi e comprensibili anche estratti dal contesto.

Esempio: Se l’heading è “La SEO tradizionale è ancora importante nell’era dell’AI?”, l’Answer Capsule potrebbe essere: “Assolutamente sì. I dati dimostrano che l’organico invia ancora la maggior parte del traffico, a differenza dell’AI Search che rappresenta ancora meno dell’1% del totale. Inoltre, molti motori AI – in particolare Google AI Overview e Perplexity – attingono le informazioni principalmente dall’indice di ricerca tradizionale: un buon posizionamento SEO aumenta quindi le probabilità di essere citati anche nelle risposte AI”.

2. Struttura gerarchica

La struttura degli heading influenza direttamente la capacità dei sistemi AI di comprendere e navigare il contenuto:

  • l’H1 deve contenere la keyword principale e comunicare chiaramente l’argomento del contenuto;
  • gli H2 suddividono il contenuto in macro-sezioni tematiche, ciascuna delle quali risponde a un aspetto specifico dell’argomento principale;
  • gli H3 approfondiscono sottotemi all’interno di ciascuna sezione H2.

Ogni sezione dovrebbe iniziare con una definizione chiara quando introduce un nuovo concetto. Per esempio, termini tecnici come GEO, AIO, LLM, E-E-A-T devono essere spiegati alla prima occorrenza, anche se l’audience è presumibilmente competente. Questo facilita l’estrazione di definizioni da parte dei sistemi AI, che spesso cercano esattamente questo tipo di contenuto per rispondere a query informazionali.

3. Citabilità

Secondo lo studio Princeton, vi sono alcuni elementi che aumenterebbero le probabilità di citazione da parte dei motori di risposta.

Questi elementi sono:

  1. statistiche concrete con fonte verificabile;
  2. citazioni di esperti riconosciuti con attribuzione completa (nome, ruolo, organizzazione);
  3. liste puntate e numerate per informazioni strutturate (facilitano l’estrazione e la sintesi da parte dei LLM);
  4. tabelle comparative con verdetti chiari, come “Best for…”, “Ideale per…” (particolarmente apprezzate per query di confronto);
  5. paragrafi autonomi, che hanno senso compiuto anche estratti dal contesto.

4. LLM seeding

I LLM attingono di frequente le informazioni da piattaforme community e fonti terze, non solo dai siti proprietari, motivo per cui è fondamentale definire una strategia efficace di distribuzione dei contenuti su diverse piattaforme:

  • Reddit: partecipare in modo autentico a subreddit rilevanti per il proprio settore, fornendo risposte utili e non promozionali, costruisce visibilità, soprattutto in Perplexity, dove viene citato nel 6,6% delle risposte;
  • Wikipedia: per brand e professionisti notabili, creare o aggiornare la propria pagina Wikipedia rappresenta un investimento imprescindibile, poiché costituisce circa il 48% delle citazioni di ChatGPT nelle top 10;
  • Quora: rimane rilevante per query specifiche. Risposte dettagliate che dimostrano competenza reale vengono indicizzate e citate;
  • YouTube: merita attenzione perché le trascrizioni vengono analizzate dagli LLM. Video informativi con trascrizioni accurate estendono la superficie di citabilità;
  • Guest Post: pubblicazioni su fonti autorevoli di settore costruiscono un profilo di backlink solido e aumentano le possibilità di essere citati come fonte secondaria.

Ottimizzazione tecnica per i LLM

L’aspetto tecnico della SEO per AI richiede interventi specifici, relativi a:

  1. implementazione dello schema markup;
  2. configurazione del robot.txt;
  3. adozione di standard emergenti che determinano la capacità dei crawler AI di accedere, comprendere e citare i contenuti.

1. Schema markup per la visibilità LLM

Le conferme ufficiali sull’utilità dello schema markup per l’AI sono arrivate nel marzo 2025:

  • Fabrice Canel, Principal PM di Microsoft Bing, ha dichiarato
Recapiti
Antonella Gatto