Spianare la strada per classificare i tuoi servizi negli LLM
Pubblicato: 2024-01-06Con i recenti sviluppi su AI e LLM (Large Language Models) non possiamo eliminare le implicazioni che ciò avrà sul modo in cui le persone utilizzano i motori di ricerca e comprendono la SEO.
Se il tradizionale modello di page ranking per la classificazione dei backlink e dell’importanza dei siti web originariamente sviluppato da Google ha rappresentato un importante passo avanti nel 1996, le basi del modo in cui classifichiamo i siti web non sono cambiate molto, a parte altri fattori meno importanti, ma comunque rilevanti, che influenzano i siti web e il posizionamento delle query corrispondenti sui motori di ricerca.
Gli LLM, in particolare GPT in prima linea, hanno iniziato a sfidare questi modelli tradizionali, offrendo nuovi modi in cui gli utenti possono cercare informazioni. L'utilizzo di ChatGPT per ottenere determinati fatti o informazioni richiede molto meno tempo e clic e, spesso, queste informazioni sono più rappresentative di fatti oggettivi, poiché la natura stessa degli LLM è quella di "consumare" grandi quantità di informazioni.
Ciò rende i LLM molto pratici non solo per scrivere poesie, codificare e preparare itinerari di viaggio, ma anche per fornire numerose “ricerche” di informazioni utili.
Diamo un'occhiata ad alcuni esempi di come le persone hanno imparato a utilizzare LLM e GPT per ottenere risposte in modo rapido ed efficiente a domande mirate e cosa potrebbe significare per il futuro della SEO.
LLM in pratica
Abbiamo chiesto a ChatGPT "Quali sono i siti web più affidabili per cercare e confrontare voli in termini di prezzo, precisione e servizio clienti?"
GPT ha elencato bene tutte le opzioni, con un breve riepilogo di ciascun servizio. Riconoscendo l'efficienza di questo approccio, che non solo fa risparmiare tempo ma, cosa importante, aggira anche le opinioni distorte dei siti di recensioni, gli utenti si rivolgono sempre più a GPT per accedere alle informazioni.
Con questo stiamo scoprendo un nuovo campo di ottimizzazione delle informazioni che include, in modo simile al SEO, tecniche e approcci per comprendere le domande che i nostri potenziali clienti e utenti utilizzano per cercare soluzioni ai problemi che i nostri prodotti o servizi stanno risolvendo.
Questa disciplina emergente - potremmo chiamarla LLMO (Large Language Model Optimization) - si concentra sui modi per ottimizzare la nostra posizione affinché queste query diventino più pertinenti, visibili e posizionate più in alto.
Nelle parti seguenti esamineremo più in profondità in che modo queste domande GPT differiscono dalle query di ricerca inserite dagli utenti nei motori di ricerca, perché dovremmo preoccuparci di loro e come dovremmo prepararci per l'ottimizzazione al fine di sfruttare questa innovazione per la crescita della nostra attività o i servizi e i prodotti del nostro cliente.
Perché gli utenti preferiscono rivolgersi a ChatGPT
Questo passaggio dall’utilizzo di un motore di ricerca tradizionale all’indirizzare la tua domanda su ChatGPT non è una tendenza nuova, ma una risposta diretta ai suoi vantaggi. Alcuni dei motivi principali per cui gli utenti trovano le risposte sui resi GPT più in linea con le loro esigenze sono i seguenti:
- Completo e informativo. Mentre i motori di ricerca restituiscono un elenco di collegamenti a siti Web, che l'utente deve vagliare manualmente, GPT è in grado di generare testo che risponde direttamente alla sua query. Ciò è particolarmente utile per gli utenti che cercano una risposta rapida e approfondita, senza necessariamente avere il tempo o la capacità di aprire e leggere una serie di collegamenti dai risultati della prima pagina.
- Obiettivo e imparziale . I risultati dei motori di ricerca tradizionali possono essere influenzati da alcuni fattori che potrebbero non essere equivocabilmente disponibili a tutti, come il budget di un sito web che può spendere per l'acquisto di link o altre strategie dubbie per aiutarli a posizionarsi più in alto. Gli LLM, d'altra parte, sono addestrati su enormi set di dati e utilizzano algoritmi avanzati di classificazione e correlazione per generare una risposta basata su fatti e prove, non sui budget dell'azienda.
- Personalizzato. Menzionare informazioni di base più complesse e personali, essenziali per le risposte che un utente sta cercando, non è di buon auspicio per i motori di ricerca tradizionali, che in genere utilizzano un approccio unico per tutti e presentano risultati di ricerca identici per una determinata query . GPT è rivoluzionario in questo senso, poiché è in grado di comprendere e adattarsi alle preferenze e ai requisiti dell'utente attraverso input espliciti e ricchi di contesto, senza intromettersi nella privacy dell'utente.
- Dinamico. Gli LLM hanno la capacità di impegnarsi in conversazioni a più turni, incoraggiando gli utenti a perfezionare le proprie domande e fornire contesto aggiuntivo attraverso domande di follow-up. Ciò consente loro di fornire risposte progressivamente perfezionate che sembrano fatte su misura per ciascun utente.
Come gli LLM stanno cambiando il modo in cui effettuiamo le ricerche
Lavorando con i motori di ricerca tradizionali, gli utenti hanno imparato a inserire parole chiave precise che corrispondono alle informazioni che stanno cercando, un approccio che spesso richiede la frammentazione delle query in più parole chiave, il che è spesso inefficiente e potrebbe non produrre i risultati desiderati.
Anche con l'integrazione dei LLM nei motori di ricerca, in particolare con l'obiettivo di ottenere una maggiore pertinenza dei risultati, i motori di ricerca continuano a lottare e, il più delle volte, presentano risultati irrilevanti e incompleti.
Con l’emergere di modelli come GPT, si stanno aprendo nuove prospettive sul processo di ricerca e stiamo assistendo a un netto passaggio da un approccio frammentato, basato su parole chiave, a una posa delle domande più naturale e intuitiva. Questa evoluzione è in concomitanza con l'ascesa delle tecnologie di ricerca vocale, che ora costituiscono il 20% delle query di ricerca mobile di Google.
Le interazioni con i LLM, come Chat GPT, stanno consentendo agli utenti di modellare e dirigere attivamente il processo di ricerca delle informazioni; sviluppare una comprensione più profonda delle informazioni di cui hanno bisogno e di come articolare efficacemente le loro domande per ottenere i risultati desiderati.
Invece di fare affidamento su una semplice stringa di parole chiave sconnesse, stanno imparando a:
- formulare le domande in modo chiaro e conciso, evitando ambiguità e linguaggio vago;
- fornire contesto e dettagli specifici, comprese informazioni di base, preferenze e fattori situazionali pertinenti.
Che tipo di domande fanno le persone?
Facendo un passo indietro nel processo di query GPT, è essenziale capire non solo perché e quando le persone si rivolgono all’intelligenza artificiale per ottenere risposte, ma anche come formulano le loro domande e quali altre informazioni contestuali potrebbero essere dedotte da ciò.
Questa comprensione costituisce il nucleo della disciplina emergente dell’AEO (Answer Engine Optimization) che si concentra sui modelli di queste query degli utenti, sottolineando la necessità di contenuti che rispondano direttamente alle esigenze specifiche degli utenti.
Queste domande seguono modelli e strutture specifici che sarà essenziale comprendere nei tentativi di ottimizzazione GPT. Ecco alcune frasi comuni delle query che gli utenti hanno rivolto a ChatGPT quando cercavano prodotti o servizi specifici :
Cerco consigli personalizzati
Gli utenti si rivolgono spesso a GPT chiedendo suggerimenti/consigli personalizzati o consigli di esperti, formulando domande come " Quali sono i migliori... " o " Puoi consigliarne alcuni... ".
Query sensibili al prezzo
Gli LLM sono un ottimo strumento da consultare quando desideri trovare il miglior rapporto qualità-prezzo. Possono fornire informazioni in tempo reale su prezzi, sconti e opzioni convenienti per vari scenari.
Le domande sono formulate sulla falsariga di " Quali sono i più economici... ", " Quali sono i più convenienti ..." o " Dove posso trovarli a prezzi accessibili... ".
Richieste specifiche per funzionalità
Spesso gli utenti chiedono informazioni su caratteristiche o qualità specifiche di servizi e prodotti.
Ad esempio, potrebbero chiedere " Quale [prodotto/servizio] ha la migliore [caratteristica specifica]? " o " Puoi nominare un [prodotto/servizio] che offre [caratteristica specifica]? "
Domande comparative
Questo tipo di richieste sono particolarmente adatte per i LLM, in quanto possono fornire un'analisi dettagliata di diversi prodotti, in base alle esigenze e alle preferenze indicate dall'utente.
Formulano le loro domande come " X è migliore di Y ?", " Come si confronta X con Y in termini di [caratteristica specifica]? " o " Qual è la differenza tra X e Y? "
Ricerche basate sulla posizione
Gli LLM sono ottimi con query che incorporano elementi geografici, offrendo informazioni in tempo reale su opzioni, servizi o attività nelle vicinanze.
Le domande sono formulate come " Dove posso acquistare X vicino a me? " o " Quali sono i migliori [servizi] disponibili a [località]? "
Domande per la risoluzione dei problemi
Molti utenti si rivolgono a LLM con un problema specifico, chiedendo " Come posso risolvere X? " o " Qual è il modo migliore per gestire Y? "
Queste domande indicano che stanno cercando prodotti o servizi come soluzioni.
In risposta a queste intuizioni, si consiglia alle aziende di adottare una strategia di contenuto proattiva e di concentrarsi sulla creazione di materiale che soddisfi esattamente le esigenze specifiche evidenziate dalle domande degli utenti. In questo modo si garantisce che prodotti e servizi non solo siano visibili nei risultati di ricerca, ma siano anche in sintonia diretta con le esigenze del pubblico target in vari scenari.
Meccanismi di classificazione GPT della chat
Ora che abbiamo esplorato l'importanza di comprendere il tipo e la struttura delle domande che gli utenti rivolgono a GPT, esaminiamo l'altra estremità del processo per vedere quali fattori determinano il posizionamento delle query basate sulla soluzione. Questo meccanismo sottostante implica un processo completo e non lineare che include:
Analisi semantica
Il processo di analisi semantica collega parole e frasi in relazioni semantiche più ampie per comprendere come le parole si presentano insieme in contesti diversi.
Per fare ciò, GPT analizza grandi quantità di testo per mappare modelli e associazioni che non sono immediatamente evidenti ma sono essenziali per cogliere il pieno significato di una query. Il processo include :
Analisi delle interrogazioni
GPT conduce un'analisi semantica approfondita che comporta la scomposizione della query nei suoi elementi - parole, frasi e le loro relazioni sintattiche - che vengono poi valutati nel loro contesto collettivo, vale a dire. come si relazionano tra loro.
Determinazione dell'intento dell'utente
Utilizzando un approccio probabilistico per determinare l'intento dell'utente, GPT analizza le frequenze dei modelli di parole nei suoi dati di addestramento e il modo in cui si correlano in contesti specifici.
Ad esempio, in una query su "auto familiari a basso costo", GPT riconosce la correlazione tra "economico" e considerazioni sui costi nei veicoli, proprio come le auto "a misura di famiglia" sono associate ad attributi come spazio e sicurezza.
Valutazione nel contesto
Gli LLM tengono conto del fatto che le query, sebbene possano contenere parole simili, possono avere significati e requisiti completamente diversi e identificano se la formulazione della domanda indica un utente che cerca consigli, fa confronti o chiede informazioni su funzionalità specifiche. Le risposte sono personalizzate in base alle esigenze sottostanti dell'utente, che si tratti di vincoli di budget, caratteristiche prestazionali o preferenze del marchio.
Recupero e sintesi dei dati
Oltre ai risultati dell'analisi semantica, ChatGPT valuta la query rispetto al suo ampio set di dati di addestramento, nonché alla ricerca web in tempo reale.
Set di dati di addestramento
Il database di GPT comprende un'ampia gamma di fonti, dagli articoli accademici ai media popolari, garantendo una comprensione completa in vari ambiti. Tuttavia, non è noto esattamente cosa contenga il set di formazione, né secondo quali linee guida siano incluse le fonti in esso.
Ricerca sul web
Un aspetto cruciale dei dati di addestramento di GPT è la sua limitazione temporale: al momento della stesura di questo articolo, è limitata ad aprile 2023. Per integrare ciò, la versione Pro di ChatGPT ora offre anche funzionalità di ricerca web tramite Bing. Questa integrazione è particolarmente importante nei settori in cui vengono spesso introdotti nuovi prodotti o servizi.
Fattori di classificazione
Quando GPT classifica prodotti o servizi in risposta a una query, si basa su una serie di fattori di classificazione. Questi sono progettati per garantire che le risposte non siano solo pertinenti ma anche credibili, diversificate e tempestive. Ecco uno sguardo più da vicino ad alcuni dei più importanti:
Query e corrispondenza contestuale
GPT dà priorità alle soluzioni che rispondono direttamente alle esigenze dell'utente. Questa pertinenza non è determinata solo dalla frequenza delle parole chiave, ma dalla profondità della corrispondenza tra l'intento della query e le informazioni associate ai prodotti o servizi.
Credibilità e popolarità
Laddove vengono menzionati prodotti o servizi, GPT valuta l'affidabilità delle fonti. Ciò comporta la valutazione della frequenza e del contesto delle menzioni attraverso uno spettro di fonti, dando un peso maggiore a quelle citate frequentemente in contesti affidabili. Il modello considera anche la popolarità dei prodotti, come indicato dalla loro prevalenza nei dati di training.
Analisi del feedback degli utenti
GPT conduce un'analisi del sentiment sul feedback e sulle recensioni nei suoi dati di formazione e nei recenti risultati di ricerca web. I prodotti o servizi con un sentiment prevalentemente positivo sono favoriti nella sua classifica.
Diversità e copertura
Pur garantendo la diversità, GPT mantiene un equilibrio in modo che agli utenti venga fornita un'ampia gamma di scelte che siano comunque altamente pertinenti alla query.
Informazioni fresche
Sebbene i dati storici costituiscano la spina dorsale delle conoscenze di GPT, poiché alcune query possono trarre vantaggio da informazioni comprovate nel tempo o da una reputazione di lunga data, vengono prese in considerazione anche nuove informazioni, in particolare per i mercati in cui gli sviluppi avvengono rapidamente.
Accanto a questi, GPT considera altri fattori, anche se in misura minore, come:
Personalizzazione e feedback
Le risposte di GPT non sono statiche e ogni interazione dell'utente rappresenta un'opportunità per il modello di apprendere e adattarsi. Quando gli utenti forniscono requisiti o feedback più specifici, GPT modifica dinamicamente le sue risposte. Questo processo iterativo consente a GPT di adattare dinamicamente le proprie classifiche, garantendo che le raccomandazioni finali siano quanto più pertinenti e personalizzate possibile.
Classifica etica e imparziale
GPT si impegna a mantenere una posizione obiettiva nelle sue risposte. È programmato per evitare pregiudizi che potrebbero derivare da promozioni a pagamento, pubblicità o qualsiasi influenza esterna indebita. L’attenzione si concentra su un’analisi obiettiva dei dati, con raccomandazioni basate sul merito e sulla pertinenza.
Parole finali
Non c’è dubbio: l’introduzione di GPT e le sue successive iterazioni stanno ridefinendo i parametri di ottimizzazione dei motori di ricerca. A differenza dei modelli di ranking tradizionali basati principalmente su backlink e densità di parole chiave, GPT presenta una nuova frontiera in cui l’anticipazione e la comprensione del contesto e delle intenzioni dell’utente e l’ottimizzazione proattiva dei contenuti per query complesse saranno in prima linea.
Per farlo in modo efficace, è importante non solo comprendere l’input dell’utente e i meccanismi di classificazione GPT, ma anche sapere dove si posizionano i prodotti e i servizi nei vari modelli LLM. Chi guarda al futuro dovrebbe prendere in considerazione l’utilizzo dell’aiuto di strumenti avanzati, studiati appositamente per tenere traccia delle classifiche GPT, per ottenere informazioni dettagliate sulle posizioni in classifica per le diverse domande degli utenti.
Mentre abbracciamo le capacità innovative degli LLM e ci prepariamo per i progressi che i loro progressi stanno introducendo nel mondo SEO, è importante ricordare che l'era dell'intelligenza artificiale è ancora agli inizi e soggetta a rapidi cambiamenti.
Ci auguriamo che questa guida abbia contribuito a far luce su alcuni degli aspetti più importanti dei meccanismi di classificazione GPT che sarà fondamentale comprendere per utilizzare in modo efficace questa tecnologia emergente. Come sempre, ricordatevi di rimanere informati sugli ultimi sviluppi e di rimanere sintonizzati per ulteriori innovazioni.