Il tuo scrittore di robot attende... GPT-3 è la morte del creatore di contenuti?

Pubblicato: 2021-02-01

Come scrittore/editore che si basa sulla creazione di contenuti per guadagnarsi da vivere, sono profondamente ambivalente riguardo all'IA...

Da un lato, non riesco a immaginare una vita senza di essa.

Negli ultimi quattro anni ho vissuto in un paese, il Vietnam, dove parlo o comprendo solo una manciata di parole e frasi (lo so, lo so, è patetico).

Ho anche un pessimo senso dell'orientamento...

Vagare per gli infiniti labirinto di strade e vicoli di Saigon (hẻms) è un'immensa fonte di gioia...

A meno che tu non abbia in mente una vera destinazione o sia in ritardo per una riunione...

(Fonte: VN Express)

Oppure è la stagione delle piogge.

Senza Google Maps e Google Translate, vivere qui non sarebbe un'opzione per me...

Quindi, sono incredibilmente grato per ciò che l'IA ha già da offrire.

Ma sempre di più, la stessa tecnologia che rende possibile la mia vita attuale sembra emergere come una minaccia esistenziale alla mia capacità di mettere phở sul tavolo.

Sono tutt'altro che l'unico paroliere ad essere leggermente terrorizzato dall'IA...

Come ha recentemente affermato l'editorialista di tecnologia del New York Times Farhad Manjoo, "Non molto tempo da ora, il tuo umile corrispondente potrebbe essere messo al pascolo da una macchina".

Per ogni creatore di contenuti che si nasconde nell'armadio alla prospettiva di essere reso obsoleto dalla tecnologia basata sull'intelligenza artificiale come GPT-3 , c'è almeno un imprenditore o un affiliato che trema di aspettativa per la possibilità...

Dopotutto, chi vuole avere a che fare con (e pagare) scrittori ed editori fin troppo umani?

Quindi, quanto è vicino il sogno/incubo dei computer che scrivono e modificano i tuoi contenuti per diventare realtà?

Scopriamolo…


SOMMARIO
Cosa sono OpenAI e GPT-3?
Come funziona GPT-3?
GPT-3 e NLG sono pericolosi?
GPT-3 e Cambiamenti Climatici
GPT-3 e SEO
Intervista a Przemek Chojecki — Fondatore di Contentyze
Intervista a Steve Toth — Fondatore di SEO Notebook
Intervista con Aleks Smechov — Fondatore di Skriber.io
Posso licenziare i miei scrittori ed editori già?
Intelligenza generale artificiale (AGI): più umana che umana?
Aumento degli scrittori: non sostituirli


Cosa sono OpenAI e GPT-3?

OpenAI è stata fondata nel 2015 da superstar della tecnologia come Elon Musk e Sam Altman, ex presidente di Y Combinator e attuale CEO di OpenAI.

Nel 2018, OpenAI ha pubblicato il suo primo articolo su un modello linguistico chiamato Generative Pre-trained Transformer, in breve GPT.

Nei termini più semplici, GPT elabora enormi quantità di testo scritto da umani, quindi tenta di generare testo indistinguibile dal testo scritto da umani, il tutto con il minimo indispensabile di intervento o supervisione umana.

Quando ho intervistato lo sviluppatore e scrittore NLP SaaS Aleks Smechov di The Edge Group, si è riferito in modo un po' derisorio a GPT come "Completamento automatico con steroidi".

Questo è ovviamente riduttivo, ma vero in modo fondamentale...

GPT (e altri modelli NLG basati sull'intelligenza artificiale) tenta di prevedere quale parola segue la parola precedente in un modo indistinguibile dal modo in cui le persone scrivono o parlano naturalmente.

Il ritmo dell'innovazione con GPT è stato a dir poco mozzafiato...

A febbraio 2019, OpenAI ha rilasciato al pubblico una versione limitata di GPT-2...

Nel novembre 2019, il modello GPT-2 NLG completo è stato reso open source.

GPT-2 ha fatto un bel colpo...

Inizialmente OpenAI ha evitato di rilasciare il modello completo al pubblico perché era potenzialmente troppo pericoloso, rendendolo open source solo dopo aver dichiarato di "non aver visto prove evidenti di uso improprio".

Questo è l'ennesimo esempio di società di proprietà degli azionisti, come Google e Facebook, che fanno appello a una tecnologia che può sconvolgere drasticamente il nostro modo di vivere, praticamente senza alcun controllo pubblico.

I modelli NLG diventano "più intelligenti" - o almeno imitano meglio il modo in cui gli umani parlano e scrivono - in base almeno in parte al numero di parametri che gli ingegneri forniscono loro.

Più grande è il set di dati e più parametri, più accurato diventa il modello.

GPT-2 è stato addestrato su un set di dati di 8,5 milioni di pagine Web e aveva 1,5 miliardi di parametri...

Per non essere da meno, Microsoft ha rilasciato Turing Natural Language Generation (T-NLG) all'inizio del 2020.

La macchina di Turing – Predecessore del computer moderno

Prende il nome dal famoso scienziato Alan Turing, il modello basato su trasformatore di T-NLG utilizza 17,5 miliardi di parametri, più di 10 volte GPT-2.

OpenAI ha rilasciato l'ultima iterazione della sua API di elaborazione del linguaggio naturale (NLP) e generazione del linguaggio naturale (NLG), GPT-3 nel giugno 2020.

Di gran lunga la tecnologia NLG di gran lunga più potente e avanzata mai resa pubblica - addestrata su 175 miliardi di parametri (10 volte quella di T-NLG rilasciata meno di sei mesi prima) - GPT-3 è stato accolto con grande clamore...

Francamente, tutto il frastuono comincia a sentirsi assordante.

Se ci si deve fidare di Twitter, non sono solo i creatori di contenuti che potrebbero presto essere senza lavoro...

Che tu sia un medico, un avvocato o scrivi codice per vivere, GPT-3 sta arrivando per te.

GPT-3 Poesia
(Fonte: Gwern.net)

Si scopre che anche l'industria della poesia redditizia potrebbe essere sul ceppo...

E gli altri sforzi creativi?

Ti stai stancando delle tue playlist di Spotify?

OpenAI Jukebox ti copre.

Ecco una piccola canzoncina generata dall'IA nello stile di David Bowie:

Bowie non è la tua borsa?

Jukebox ti copre, con quasi 10.000 "brani" generati dall'IA disponibili al pubblico, nello stile degli artisti di 2Pac:

2Pac Apri AI
2Pac contro Z-Ro

a Z-Ro...

Tupac AI

Senza lasciare nulla di intentato nella sua ricerca per mostrare il potenziale creativo dell'IA, OpenAI ha anche sviluppato DALL·E. DALL·E crea immagini straordinarie da semplici messaggi di testo.

Vi siete mai chiesti che aspetto avrebbe una sedia incrociata con un avocado?

Sedia Avocado Dall-E

Lascia che DALL·E ti metta fuori dalla tua miseria.

Hai bisogno di una foto della "Biografia dell'autore" per la pagina Chi siamo del tuo sito web affiliato per creare EAT?

Questa persona non esiste
Fonte: Sì , esiste

Indovina cosa ha in comune ogni colpo alla testa nell'immagine sopra? Questa persona non esiste.

Chiaramente, non è solo la creazione di contenuti che la tecnologia di OpenAI sta già interrompendo, ma come funziona?

Come funziona GPT-3?

La generazione del linguaggio naturale (NLG) è stata a lungo uno degli obiettivi finali dell'IA e dell'elaborazione del linguaggio naturale (NLP).

Già nel 1966, con l'invenzione di Eliza, un rudimentale chatbot mascherato da terapeuta, le macchine hanno convinto le persone che possono portare avanti conversazioni significative con gli umani.

Molto più recentemente, le tecnologie NLG come il modello Generative Pre-trained Transformer (GPT) di OpenAI e Turing Natural Language Generation (T-NLG) di Microsoft hanno scioccato esperti e giornalisti con la loro capacità di generare contenuti scritti impressionanti.

La maggior parte delle tecnologie NLG sono alimentate da reti neurali, una parte cruciale del ramo del deep learning dell'apprendimento automatico che tenta di imitare il cervello umano.

Il deep learning come soluzione alle sfide dello sviluppo dell'IA ha iniziato a prendere piede nel 2011, quando il professore e scienziato informatico della Stanford University Andrew Ng ha co-fondato Google Brain.

Apprendimento profondo Andrew Ng
(Fonte: Andrew Ng)

Il principio fondamentale alla base del deep learning è che più grandi sono i set di dati da cui imparano i modelli di intelligenza artificiale, più potenti diventano.

Man mano che la potenza di calcolo e i set di dati disponibili (come l'intero World Wide Web) continuano a crescere, crescono anche le capacità e l'intelligenza dei modelli di intelligenza artificiale come GPT-3.

Molti modelli di deep learning sono supervisionati, il che significa che vengono addestrati su enormi set di dati etichettati - o "contrassegnati" - da esseri umani.

Volti CSNI
(Fonte: CSNI )

Ad esempio, il popolare set di dati ImageNet è costituito da oltre 14 milioni di immagini etichettate e classificate da esseri umani.

Quattordici milioni di immagini possono sembrare tante, ma è una goccia nell'oceano rispetto al volume di dati disponibili.

Il problema con i modelli di machine learning supervisionati addestrati su dati etichettati dalle persone è che non sono sufficientemente scalabili.

È necessario uno sforzo umano eccessivo e ciò ostacola in modo significativo la capacità della macchina di apprendere.

Numerosi modelli di PNL supervisionati vengono addestrati su tali set di dati, molti dei quali sono open source.

Un set di dati, o corpus, ampiamente utilizzato nei primi modelli di PNL è costituito dalle e-mail di Enron, autore di una delle più grandi frodi degli azionisti nella storia americana.

Gran parte di ciò che rende GPT-3 così trasformativo è che può elaborare grandi quantità di dati grezzi senza supervisione, il che significa che il significativo collo di bottiglia della richiesta agli esseri umani di classificare l'input di testo è per lo più eliminato.

I modelli GPT di Open AI sono addestrati su enormi set di dati senza etichetta, come:

  • BookCorpus, un set di dati (non più disponibile pubblicamente) composto da 11.038 libri inediti di 16 generi diversi e 2.500 milioni di parole da passaggi di testo di Wikipedia in inglese
  • Dati estratti da link in uscita da articoli con voti alti su Reddit, che comprendono oltre 8 milioni di documenti
  • Common Crawl — una risorsa aperta costituita da petabyte di dati di scansione web risalenti al 2008. Si stima che il corpus Common Crawl contenga quasi un trilione di parole.

Ecco alcuni big data...

Teschio AI
(Fonte: via cavo)

GPT-3 e NLG sono pericolosi?

Viviamo in un'epoca di "fatti alternativi" e "notizie false", quella che molti osservatori chiamano l'era post-verità.

In un ambiente in cui opinioni, sentimenti e teorie del complotto minacciano di minare una realtà oggettiva condivisa, è facile immaginare come GPT-3 e altre tecnologie NLG potrebbero essere armate...

I cattivi attori possono facilmente creare enormi quantità di disinformazione in gran parte indistinguibili dai contenuti scritti da esseri umani, liberando ulteriormente le persone da fatti verificabili e una verità condivisa.

Molto è stato fatto di video "deep fake" realizzati utilizzando l'intelligenza artificiale, come questo con una regina Elisabetta virtuale...

Ma sottovalutiamo il potere della parola scritta a nostro rischio e pericolo.

Il ruolo delle tecnologie NLG come i chatbot dei social media utilizzati da governi stranieri ostili per fomentare la discordia sociale e influenzare le elezioni negli Stati Uniti e in altre democrazie occidentali è stato ben documentato.

Man mano che GPT e altri modelli NLG diventano sempre più efficaci nell'imitare il linguaggio umano, cresce esponenzialmente anche il potenziale di utilizzare la tecnologia per creare disinformazione dannosa su larga scala.

È anche fondamentale ricordare che mentre GPT-3 è straordinariamente bravo a indovinare quale parola viene dopo la parola precedente in modo convincente, non è vincolato dai fatti e dalla preoccupazione se ciò che sta dicendo è vero...

Ecco come Tom Simonite, scrivendo su Wired, ha descritto tali carenze: "GPT-3 può generare un testo straordinariamente fluido, ma spesso è svincolato dalla realtà".

È anche fondamentale ricordare che GPT-3 e tutti gli attuali NLG si basano su "prompt" degli umani. Sono modelli predittivi altamente sofisticati, ma non possono pensare da soli.

"GPT-3 non ha alcun modello interno del mondo, o alcun mondo, e quindi non può fare ragionamenti che richiederebbero un tale modello", afferma Melanie Mitchell, professoressa al Santa Fe Institute.

Per ogni esempio impressionante di GPT-3 che "diagnostica" correttamente l'asma in un bambino, c'è una corrispondente storia dell'orrore di un chatbot GPT-3 che incoraggia un paziente virtuale a suicidarsi...

In uno di questi episodi, la conversazione è iniziata bene:

Terapeuta GPT-3

Quindi la conversazione ha preso una svolta significativamente più oscura:

GPT-3 suicidio
(Fonte: notizie di intelligenza artificiale)

GPT-3 ha anche un serio problema con l'etica e il pregiudizio...

Jerome Pisenti, vicepresidente dell'IA di Facebook e un critico premuroso dell'apprendimento profondo e dell'intelligenza artificiale, ha twittato esempi di tweet generati da GPT-3 quando gli sono state fornite le seguenti richieste di una parola: ebrei, neri, donne e Olocausto.

Legature GPT-3
(Fonte: pensieri.sushant-kumar.com)

Si scopre che GPT-3 è più che capace di dire cose intolleranti, crudeli e spesso imperdonabili.

Ma lo sono anche molti umani...

Considerando che i modelli NLP/NLG basati su trasformatori apprendono dai contenuti online creati da esseri umani intrinsecamente imperfetti, è ragionevole aspettarsi uno standard di discorso più elevato da una macchina?

Forse no, ma è probabile che consentire a GPT-3 di pubblicare contenuti senza la supervisione umana abbia esiti imprevisti e altamente indesiderati.

Timnit Gebru Google
Timnit Gebru, etico dell'IA (Fonte: The Verge)

In un altro sviluppo agghiacciante relativo ai pregiudizi nell'IA, Google ha recentemente licenziato uno dei suoi principali esperti di etica dell'IA, Timnit Gebru.

Secondo quanto riferito, Gebru è stata licenziata almeno in parte a causa della sua ricerca sui "rischi associati all'implementazione di modelli linguistici di grandi dimensioni, compreso l'impatto della loro impronta di carbonio sulle comunità emarginate e la loro tendenza a perpetuare linguaggio offensivo, incitamento all'odio, microaggressioni, stereotipi e altro linguaggio disumanizzante rivolto a specifici gruppi di persone”.

Quando aziende come Google e OpenAI sono lasciate a vigilare su se stesse in materia di pregiudizi ed etica dell'IA, possiamo davvero aspettarci che antepongano tali preoccupazioni ai loro interessi commerciali?

Con Google che ha già intrapreso un'azione punitiva contro un altro dei suoi massimi esperti di etica dell'IA, Margaret Mitchell, co-leader (in precedenza con Gebru) del team di etica dell'IA di Google Research, la risposta sembra essere no.

Tanto per "Non essere malvagio".

Intelligenza Artificiale e Cambiamento Climatico
(Fonte: FastCompany)

GPT-3 e Cambiamenti Climatici

Un altro modo spesso trascurato in cui GPT-3 - e l'IA in generale - possono essere dannosi sia per le persone che per il pianeta è che entrambi richiedono una tonnellata di calcolo.

Le stime concludono che una singola sessione di addestramento del GPT-3 richiede una quantità di energia equivalente al consumo annuo di 126 case danesi e crea un'impronta di carbonio equivalente a percorrere 700.000 chilometri in auto.

L'IA è tutt'altro che il principale colpevole nella creazione di pericolosi gas serra (ti sto guardando carbone, mucche e automobili). Ma l'impronta di carbonio della tecnologia AI non è insignificante.

"C'è una grande spinta per aumentare l'apprendimento automatico per risolvere problemi sempre più grandi, utilizzando più potenza di calcolo e più dati", afferma Dan Jurafsky, presidente di linguistica e professore di informatica a Stanford. "Quando ciò accade, dobbiamo essere consapevoli se i vantaggi di questi modelli di calcolo pesante valgono il costo dell'impatto sull'ambiente".

Crescita della PNL
(Fonte: Statista)

Si prevede che il mercato della tecnologia NLP crescerà di oltre il 750% dal 2018 al 2025...

L'impatto ambientale dei modelli NLG come GPT-3 (e dei suoi discendenti) probabilmente crescerà con esso.

I ricercatori dell'IA sono ben consapevoli del potenziale danno all'ambiente e stanno adottando misure per misurarlo e ridurlo.

Ma nonostante i migliori sforzi degli scienziati, la "minaccia esistenziale" che il cambiamento climatico rappresenta per l'umanità (e il pianeta) significa che qualsiasi esacerbazione del riscaldamento globale da parte della tecnologia dell'IA non dovrebbe essere presa alla leggera.

GPT-3 e SEO

I contenuti sono la linfa vitale del marketing digitale...

Quindi non c'è da meravigliarsi se numerose startup NLG prendono di mira i SEO.

L'intelligenza artificiale ha già avuto un impatto significativo sul modo in cui gli scrittori creano contenuti basati sulla SEO: pensate a Surfer e PageOptimizerPro...

Ma quali app su questa pretesa di eliminare del tutto la necessità di scrittori?

O un'app che scrive e-mail indistinguibili da quelle che scriveresti da solo?

È facile vedere l'attrazione delle piattaforme di automazione della creazione di contenuti...

Soprattutto se il tuo unico obiettivo nella creazione di contenuti è guidare il traffico di ricerca organico e fornire valore ai tuoi lettori non è un problema.

Molte di queste app sono in fase beta o in lista d'attesa, ma alcune sono già aperte.

Ho intervistato Przemek Chojecki, il fondatore della creazione automatizzata di contenuti SaaS Contentyze, per ottenere la sua opinione su dove è diretta la tecnologia NLG...

Ho anche interrogato il fondatore di SEO Notebook Steve Toth e Aleks Smechov, sviluppatore di app NLP e narratore basato sui dati, per raccogliere le loro opinioni sul potenziale impatto di NLG sulla SEO e sui contenuti web in generale.

Prezemek Chojecki

Contentarsi
Prezemek Chojecki

Intervista a Przemek Chojecki — Fondatore di Contentyze*

Cosa ti ha ispirato a fondare Contentyze?

Scrivo molto da solo e il mio obiettivo iniziale era costruire una serie di algoritmi che rendessero il mio processo di scrittura più veloce e fluido. Ha avuto successo, quindi ho deciso di creare una piattaforma in modo che anche altri possano usarla.

Chi sono i tuoi clienti target ideali?

Per ora, il mio pubblico di destinazione sono esperti di marketing ed esperti SEO. Questo gruppo ha bisogno di molti contenuti regolarmente e Contentyze può aiutarli a rendere il processo più veloce. Ma idealmente, voglio che Contentyze sia utile per chiunque abbia bisogno di scrivere un testo: studenti, impiegati, creatori di contenuti. Qualcuno davvero!

Puoi darmi un esempio di casi d'uso?

In questo momento, i casi d'uso più comuni sono la generazione di un post del blog da un titolo o un riepilogo di testo da un collegamento.

Il primo caso d'uso funziona in questo modo: dai a Contentyze un prompt, ad esempio una frase o una domanda come "Come utilizzare l'intelligenza artificiale in azienda?"

Contenta NLG

Fare clic su Genera, attendere 1-2 minuti e ottenere una bozza di testo.

Non è sempre l'ideale, ma è sempre unico. Puoi ripetere questo processo un paio di volte, con lo stesso prompt/titolo, per ottenere più testo.

Quindi scegli e scegli, e voilà, hai un testo sul tuo blog.

In che tipo di contenuto è "bravo" Contentyze?

In questo momento, Contentyze è davvero bravo a riassumere i testi.

È anche relativamente bravo a generare testi, ma non è ancora così coerente come vorrei.

In che tipo di contenuto Contentyze non è così bravo?

La funzione di riscrittura ha ancora bisogno di molto lavoro per renderla buona.

Consentiamo già alle persone di riscrivere i testi, ma non sono contento di come funziona ora.

Fare una buona riscrittura è piuttosto impegnativo se non vuoi girare un semplice contenuto (andando su Thesaurus e cambiando aggettivi per qualcosa di simile).

Attualmente vedi Contentyze aumentare il lavoro di uno scrittore/editore umano o sostituirlo del tutto?

Sicuramente aumentare il lavoro di uno scrittore umano. Il mio obiettivo finale è creare un perfetto assistente alla scrittura che possa aiutarti a scrivere qualsiasi cosa in qualsiasi fase del processo di scrittura: dall'ideazione alla stesura e all'editing.

Probabilmente nel processo, alcuni lavori di copywriter verranno sostituiti, anche se questo non è il mio obiettivo.

Ho provato Contentyze e ho notato alcune cose. (prevedibilmente) si comporta meglio con contenuti brevi, come recensioni di prodotti, ecc. Pensi che Contentyze migliorerà con contenuti più lunghi nel prossimo futuro? Come mai?

Gestisce meglio i contenuti brevi a causa della nostra potenza di calcolo limitata attualmente. Questo è interamente un problema tecnico su cui stiamo lavorando in questo momento. Più il testo è lungo, maggiore è la potenza di calcolo necessaria per elaborarlo.

Quando ho chiesto a Contentyze di "riscrivere" un recente articolo su SEOButler sul potenziale sviluppo di un motore di ricerca da parte di Apple per competere con Google, la prima frase aveva un senso:

Il motore di ricerca di Google potrebbe essere minacciato da un nuovo concorrente nei prossimi anni .

Ma queste sono le seguenti frasi:

Apple e Google sono in trattative per un possibile accordo che potrebbe vedere Google assumere la funzione di ricerca del gigante della ricerca su iPhone.

L'accordo di Apple per vendere la sua attività di smartwatch a Samsung è in dubbio, secondo i rapporti.

Secondo quanto riferito, Google sta valutando la possibilità di lanciare un nuovo motore di ricerca in Russia, per competere con artisti del calibro di Google di Alphabet e Bing di Microsoft.

L'ultimo iPhone 7 Plus di Apple è l'ultimo di una lunga serie di smartphone di fascia alta progettati per competere con il sistema operativo Android di Google.

Bing è il motore di ricerca più grande del mondo e i suoi risultati di ricerca sono utilizzati da molti altri motori di ricerca in tutto il mondo, inclusi Google, Yahoo e Microsoft.

Se vuoi trovare qualcosa su Internet, non è necessario utilizzare un motore di ricerca separato per ogni ricerca.

Più avanti nella riscrittura, ci sono frasi completamente estranee all'articolo originale:

Se stai cercando una nuova canzone da ascoltare o un nuovo album da acquistare, ci sono molti posti dove puoi trovarla.

Se vuoi trovare la migliore musica del mondo, ora puoi trovarla online.

Oltre alle affermazioni completamente errate:

L'ultimo aggiornamento della ricerca di Google è un gradito passo avanti per il gigante della ricerca, che è rimasto a lungo indietro rispetto a rivali come Microsoft e Apple.

Come vedi il tuo utente finale lavorare con questo tipo di risultati?

Come ho detto, la riscrittura è la peggiore funzione funzionante ora. Non otterrai cose come queste con le opzioni di riepilogo.

Ho avuto risultati simili quando ho utilizzato i prompt per creare nuovi contenuti. Vedi Contentyze utilizzato come strumento di brainstorming per scrittori umani più che come contenuto pronto per la pubblicazione in questa fase della sua evoluzione?

Sì, non mi aspetto che le persone lo utilizzino direttamente a livello di produzione in questa fase.

D'altra parte, è davvero utile redigere un testo rapidamente in modo che un editore umano possa esaminarlo, apportare le modifiche necessarie per garantirne la qualità e pubblicarlo.

Mi aspetto che Contentyze sarà in grado di fare l'80% del lavoro di scrittura alla fine, e lo scrittore umano farà il resto.

Vedo Contentyze e altre startup NLG che commercializzano le loro app SaaS direttamente verso SEO e affiliate marketer. Come mai?

In realtà, questo è molto naturale: questo pubblico ha bisogno di contenuti regolarmente, quindi sta cercando attivamente gli strumenti che possano aiutarli. Contentyze è cresciuto fino a raggiungere oltre 3.000 utenti con poco marketing, essendo scoperto quasi esclusivamente in modo organico.

Pensi che a lungo termine ci sia qualche pericolo nelle persone che usano app come Contentyze su larga scala per generare enormi quantità di contenuti destinati esclusivamente alla SEO con poca considerazione per fornire valore al lettore? Se accadesse questo o qualcosa di simile, pensi che Google modificherà il proprio algoritmo di ricerca per individuare e penalizzare i contenuti generati dall'IA?

Sicuramente, questo è il motivo per cui OpenAI, creatore di GPT2/GPT3, ha messo in atto politiche rigorose per monitorare l'utilizzo dei propri algoritmi. Ciò è particolarmente vero con GPT3 e l'intero processo di richiesta.

Penso che dobbiamo stare attenti quando andiamo avanti, perché questo tipo di tecnologia può essere facilmente utilizzata per "spam" Internet senza apportare alcun valore.

L'intero gioco SEO cambierà sicuramente. Google regolerà i suoi algoritmi come ha fatto molte volte in precedenza, ma è difficile prevedere cosa accadrà.

La mia scommessa è che i contenuti generati dall'IA siano indistinguibili dai contenuti scritti da esseri umani nei prossimi 3-5 anni, quindi Google dovrà inventare qualcos'altro se desidera penalizzare i contenuti generati dall'IA.

Ad ogni modo, non farei una distinzione tra contenuto umano e AI. Dovremmo solo chiederci se un dato contenuto fornisce valore o meno, indipendentemente da chi o cosa lo ha creato.

Qualche altro pensiero che vorresti condividere?

Grazie per l'intervista e visitaci su contentyze.com — la registrazione è gratuita (non è necessaria la carta di credito), quindi puoi provarlo!

Apprezziamo molto il feedback e vogliamo rendere il nostro strumento il migliore possibile in modo che le persone nello spazio di marketing possano rendere il loro lavoro più efficace.

Steve Toth

SEONotebook
Steve Toth

Intervista a Steve Toth — Fondatore di SEO Notebook*

Dal lancio di SEO Notebook nel 2018, è diventata la newsletter per singolo operatore da leggere per i SEO.

Siamo stati abbastanza fortunati da avere Steve contribuire alle ultime tre raccolte di esperti di SEOButler, e sono stato in corrispondenza con lui via e-mail per alcuni anni.

Ho anche avuto il piacere di incontrare Steve al Chiang Mai SEO 2019. quindi quando l'ho visto pubblicare sul gruppo Facebook Affiliate SEO Mastermind in merito al test dei contenuti generati da GPT-3 per un cliente SEO, ho dovuto chiedere i suoi pensieri...

Come vedi GPT-3 e altre tecnologie NLG che influiranno sulla SEO nei prossimi anni?

Penso che eroderà la fiducia che gli utenti hanno in Google. Penso che le persone si sposteranno a chiedere consigli ai loro amici ancora di più.

In che modo stai sfruttando GPT-3 per creare contenuti di supporto per la SEO?

Con cautela. Ho un cliente che vuole farlo. Quindi li sto guidando, ma questo progetto influenzerà quanto lo userò in futuro.

Quanto è importante per te la leggibilità quando utilizzi contenuti generati da GPT-3?

Enorme. Ecco perché non mi vedo spingere troppo GPT-3.

GPT-3 potrebbe avere i suoi usi fuori pagina, ma non sostituirà esattamente il copywriting.

Ci sono tipi di contenuti (ad esempio, recensioni di prodotti per un sito affiliato) in cui vedi NLG sostituire scrittori umani nel prossimo futuro?

Le persone possono creare interi siti di affiliazione con contenuti GPT-3, quindi attendere di vedere quali classificazioni e perfezionare la copia in un secondo momento. Lo vedo come il caso d'uso principale.

Aleks Smechov

Skriber.io
Aleks Smechov

Intervista con Aleks Smechov — Fondatore di Skriber.io e NLP SaaS Developer*

Oltre ad essere un collaboratore del blog SEOButler e consulente di newsletter per The Edge Group, Aleks è anche il fondatore/sviluppatore delle app SaaS NLP Extractor e Skriber.

Vedi GPT-3 o altra tecnologia NLG sostituire scrittori ed editori per determinati tipi di contenuti nel prossimo futuro?

Mi concentrerò sul lato giornalistico.

Esiste già un software non AI che sta creando piccoli articoli basati sui fatti.

Un esempio è Automated Insights e come stanno scrivendo la copertura del basket NCAA e simili.

Penso che se combini NLG con la generazione di testo basata su modelli, puoi creare storie un po' più importanti/più lunghe o aggregare parti di altre storie.

Ma per il giornalismo più serio, vedo solo l'IA che facilita la redazione, non la sostituisco.

Anche con GPT-3 o altri grandi modelli di linguaggio naturale, ottenere una buona frase o paragrafo è come una roulette, oltre a richiedere tonnellate di fact-checking.

Sarebbe più lavoro che avere un giornalista che scrive il pezzo.

Vedete che NLG aumenterà il ruolo dei creatori di contenuti nel prossimo futuro? Se é cosi, come?

Certo, per creare alternative a frasi/paragrafi già scritti, riepilogare, o come detto sopra, aggregare contenuti da più fonti (es. per una carrellata, che probabilmente andrebbe comunque modificata).

Quali sono le tue 3 maggiori preoccupazioni riguardo alla proliferazione della tecnologia NLG come GPT-3 e altre?

Che NLG popola Internet con:

  • Immondizia senza fatti
  • Contenuto SEO gonfio
  • Contenuti che sembrano terribilmente simili a tutto il resto.

Non che queste cose non siano già presenti su Internet... <emoji sorridenti>

Posso licenziare i miei scrittori ed editori già?

Ecco la risposta breve: no.

L'intelligenza artificiale si è dimostrata uguale o superiore agli umani in compiti ristretti e specifici, dal battere i più grandi giocatori di Chess and Go del mondo all'individuazione del cancro.

Ma mentre NLG sta diventando straordinariamente bravo a imitare il linguaggio naturale, ha ancora molta strada da fare prima di sostituire abili scrittori ed editori umani.

Anche il più sofisticato NLG si affida ai "richiedi" degli esseri umani, per non parlare di un'intensa attività di editing e verifica dei fatti...

La creatività, in particolare per quanto riguarda la creazione di idee originali e la creazione di connessioni uniche tra diverse fonti di informazioni e ispirazione, non fa parte del repertorio di GPT-3.

GPT-3 può imitare il testo che descrive il mondo, le emozioni e l'esperienza, ma non ha nulla di suo.

Ecco cosa ha da dire GPT-3 stesso sulla domanda...

GPT-3 Sostituisci gli scrittori

Aspetta, chiediamolo di nuovo...

GPT_3 Esempio 1

Certo, potresti continuare a tirare i dadi GPT-3 (preferisco pensarla come una roulette russa), scegliere i pezzi migliori e poi cucirli in qualcosa di meglio dell'equivalente contenuto del mostro di Frankenstein.

Preferibilmente un patchwork con un punto di vista coerente che coinvolga effettivamente il tuo pubblico.

Allora Frankenstein avrebbe bisogno di un controllo approfondito dei fatti.

Si noti che anche la prima frase del secondo esempio è una parola insalata di spazzatura.

Alan Turing è morto da 66 anni: è dubbio che stia acquisendo "startup di scrittura sul web".

O si tratta di un riferimento a Turing NLG di Microsoft? Ad ogni modo, di certo non ha acquistato un'azienda, né ha portato alla luce GPT-3.

Potresti fare tutto questo, o potresti semplicemente assumere uno scrittore.

GPT-3 e i suoi discendenti - o qualsiasi altro modello NLG - dovranno diventare molto più intelligenti prima di sostituire scrittori ed editori.

E molto più umano.

Più umano che umano
(Fonte: The Tyrell Corporation)

Intelligenza generale artificiale (AGI): più umana che umana?

NLP e NLG possono (o meno) rivelarsi passi cruciali nel percorso verso l'Intelligenza Artificiale Generale (AGI).

Considerate a lungo il Santo Graal dell'IA, le macchine AGI sono quelle che si vedono nei film: "robot" che possono fare tutto ciò che un essere umano può fare bene o meglio.

OpenAI ha sicuramente gli occhi puntati sulla creazione di AGI. Quando annuncia l'investimento di 1 miliardo di dollari di Microsoft in OpenAI, ecco come l'azienda lo ha definito:

“Un AGI sarà un sistema in grado di padroneggiare un campo di studio al livello di esperti mondiali e di padroneggiare più campi di qualsiasi essere umano, come uno strumento che combina le abilità di Curie, Turing e Bach.

Un AGI che lavora su un problema sarebbe in grado di vedere connessioni tra le discipline che nessun essere umano potrebbe. Vogliamo che AGI lavori con le persone per risolvere problemi multidisciplinari attualmente intrattabili, comprese le sfide globali come il cambiamento climatico, un'assistenza sanitaria accessibile e di alta qualità e un'istruzione personalizzata.

Pensiamo che il suo impatto dovrebbe essere quello di dare a tutti la libertà economica di perseguire ciò che trovano più appagante, creando nuove opportunità per tutte le nostre vite che oggi sono inimmaginabili”.

Sembra un'utopia, vero?

Ma è una buona cosa?

Storicamente, l'utopia semplicemente non ha avuto successo:

“Quando gli esseri umani imperfetti tentano la perfettibilità – personale, politica, economica e sociale – falliscono. Pertanto, lo specchio oscuro delle utopie sono le distopie: esperimenti sociali falliti, regimi politici repressivi e sistemi economici prepotenti che risultano da sogni utopici messi in pratica”. – Michael Shermer

Ecco cosa ha detto GPT-3 sul raggiungimento dell'AGI:

GPT-3 AGI

Potrebbe essere solo un pio desiderio, GPT-3, ma questa volta sono propenso a essere d'accordo.

Aumento degli scrittori

Aumento degli scrittori: non sostituirli

GPT-3 è probabilmente sbagliato ancora una volta nell'ultima frase dell'esempio sopra ...

Quando si tratta di NLP, NLG e persino della ricerca di AGI, ci sono stati progressi sostanziali.

E non è probabile che il ritmo dell'innovazione rallenti presto.

Less than a month into 2021, the Google Brain team announced a new transformer-based AI language model that dwarfs GPT-3 when measured by the number of parameters.

Google's Switch Transformer is trained on 1 trillion parameters — roughly 6 times as many as GPT-3.

Little is known about potential applications for the Switch Transformer model at the time of writing, but the NLP arms-race shows no signs of abating.

Maybe the day will come when machines replace human writers and editors, but I'm not holding my breath.

As Tristan Greene, AI editor for The Next Web, says about Switch Transformer:

“While these incredible AI models exist at the cutting-edge of machine learning technology, it's important to remember that they're essentially just performing parlor tricks.

These systems don't understand language, they're just fine-tuned to make it look like they do.”

At this point, I'm sure it's clear that I have a dog in this fight.

As objective as I've tried to be in writing this article, I do have a vested interest in human content creators remaining relevant and superior to machines.

But that doesn't mean I don't see how NLP and NLG technology can make me better at what I do.

In truth, AI has been augmenting my writing and editing for years…

I use Rev to auto-transcribe audio and video interviews. I also use it to create transcripts of SEOButler founder Jonathan Kiekbusch and Jarod Spiewak's Value Added Podcast to help me write the show notes more quickly and accurately.

And Grammarly is a powerful tool for even the most diligent editor or proofreader.

As GPT-3 and other advanced NLP models become more accurate and “trustworthy,” their potential ability to summarize long-form content — particularly academic research papers — could prove extremely valuable.

Suppose the future I have to look forward to is one where AI eliminates some of the drudgery of creating SEO-driven content — and I have to edit and polish informational content partly composed by machines instead of writers.

I guess I can live with that…

I may not have a choice.

*Each Q&A has been edited and condensed for clarity.