Tu robot escritor te espera... ¿GPT-3 es la muerte del creador de contenido?
Publicado: 2021-02-01Como escritor/editor que se basa en la creación de contenido para ganarse la vida, soy profundamente ambivalente acerca de la IA...
Por un lado, no puedo imaginar una vida sin él.
Durante los últimos cuatro años, he vivido en un país, Vietnam, donde hablo o comprendo solo un puñado de palabras y frases (lo sé, lo sé, es patético).
También tengo un pésimo sentido de la orientación...
Vagar por los interminables laberintos de calles y callejones de Saigón (hẻms) es una inmensa fuente de alegría...
A menos que tenga un destino real en mente o llegue tarde a una reunión...
O es la temporada de lluvias.
Sin Google Maps y Google Translate, vivir aquí no sería una opción para mí...
Por lo tanto, estoy increíblemente agradecido por lo que AI ya tiene para ofrecer.
Pero cada vez más, la misma tecnología que hace posible mi vida actual parece surgir como una amenaza existencial para mi capacidad de poner phở sobre la mesa.
Estoy lejos de ser el único creador de palabras que está un poco aterrorizado por la IA...
Como dijo recientemente el columnista de tecnología de The New York Times, Farhad Manjoo: “Dentro de poco tiempo, su humilde corresponsal podría ser puesto a pastar por una máquina”.
Por cada creador de contenido que se esconde en el armario ante la perspectiva de volverse obsoleto debido a la tecnología impulsada por IA como GPT-3 , hay al menos un propietario de una empresa o vendedor afiliado temblando de expectación ante la posibilidad...
Después de todo, ¿quién quiere tratar (y pagar) a escritores y editores que son demasiado humanos?
Entonces, ¿qué tan cerca está el sueño/pesadilla de que las computadoras escriban y editen su contenido de convertirse en realidad?
Vamos a averiguar…
TABLA DE CONTENIDO
¿Qué es OpenAI y GPT-3?
¿Cómo funciona GPT-3?
¿Son peligrosos GPT-3 y NLG?
GPT-3 y Cambio Climático
GPT-3 y SEO
Entrevista con Przemek Chojecki — Fundador de Contentyze
Entrevista con Steve Toth — Fundador de SEO Notebook
Entrevista con Aleks Smechov — Fundador de Skriber.io
¿Ya puedo despedir a mis escritores y editores?
Inteligencia artificial general (AGI): ¿más humana que humana?
Aumentar los escritores, no reemplazarlos
¿Qué es OpenAI y GPT-3?
OpenAI fue fundada en 2015 por superestrellas tecnológicas como Elon Musk y Sam Altman, expresidente de Y Combinator y actual director ejecutivo de OpenAI.
En 2018, OpenAI publicó su primer artículo sobre un modelo de lenguaje al que llamaron Transformador preentrenado generativo (GPT, por sus siglas en inglés).
En los términos más simples, GPT procesa cantidades masivas de texto escrito por humanos, luego intenta generar un texto indistinguible del texto escrito por humanos, todo con la mínima intervención o supervisión humana.
Cuando entrevisté al desarrollador y escritor de NLP SaaS, Aleks Smechov de The Edge Group, se refirió a GPT de manera un tanto burlona como "Autocompletar con esteroides".
Eso es obviamente reduccionista, pero cierto de una manera fundamental...
GPT (y otros modelos NLG impulsados por IA) intentan predecir qué palabra sigue a la palabra anterior de una manera que es indistinguible de cómo las personas escriben o hablan naturalmente.
El ritmo de la innovación con GPT ha sido impresionante...
En febrero de 2019, OpenAI lanzó al público una versión limitada de GPT-2...
En noviembre de 2019, el modelo completo GPT-2 NLG se hizo de código abierto.
GPT-2 hizo un gran revuelo...
OpenAI inicialmente retrasó el lanzamiento del modelo completo al público porque era potencialmente demasiado peligroso, solo lo hizo de código abierto después de declarar que "no habían visto evidencia sólida de uso indebido".
Este es otro ejemplo más de corporaciones propiedad de accionistas, como Google y Facebook, que toman decisiones sobre la tecnología que puede cambiar drásticamente la forma en que vivimos, prácticamente sin supervisión pública.
Los modelos NLG se vuelven "más inteligentes", o al menos mejor para imitar la forma en que los humanos hablan y escriben, en función al menos en parte de la cantidad de parámetros que les dan los ingenieros.
Cuanto mayor sea el conjunto de datos y más parámetros, más preciso será el modelo.
GPT-2 se entrenó en un conjunto de datos de 8,5 millones de páginas web y tenía 1500 millones de parámetros...
Para no quedarse atrás, Microsoft lanzó Turing Natural Language Generation (T-NLG) a principios de 2020.
Nombrado en honor al famoso científico Alan Turing, el modelo basado en transformadores de T-NLG utiliza 17.500 millones de parámetros, más de 10x GPT-2.
OpenAI lanzó la última versión de su API de procesamiento de lenguaje natural (NLP) y generación de lenguaje natural (NLG): GPT-3 en junio de 2020.
Con mucho, la tecnología NLG más poderosa y avanzada que se haya hecho pública hasta ahora, entrenada en 175 mil millones de parámetros (10 veces más que la T-NLG lanzada menos de seis meses antes), GPT-3 fue recibido con gran fanfarria...
Francamente, todo el alboroto empieza a ser ensordecedor.
Si se puede confiar en Twitter, no son solo los creadores de contenido los que pronto podrían quedarse sin trabajo...
Ya sea que sea médico, abogado o escriba código para ganarse la vida, GPT-3 viene por usted.
Resulta que incluso la lucrativa industria de la poesía podría estar en el punto de mira...
¿Qué pasa con otros esfuerzos creativos?
¿Te estás cansando de tus listas de reproducción de Spotify?
OpenAI Jukebox lo tiene cubierto.
Aquí hay una pequeña cancioncilla generada por IA al estilo de David Bowie:
Bowie no es tu bolso?
Jukebox lo tiene cubierto, con casi 10k "canciones" generadas por IA disponibles para el público, al estilo de los artistas de 2Pac:
a Z-Ro…
Sin dejar prácticamente piedra sin remover en su búsqueda por mostrar el potencial creativo de la IA, OpenAI también desarrolló DALL·E. DALL·E crea imágenes notables a partir de indicaciones de texto simples.
¿Alguna vez te preguntaste cómo sería una silla cruzada con un aguacate?
Deja que DALL·E te saque de tu miseria.
¿Necesita fotos de "Biografía del autor" para la página Acerca de nosotros de su sitio web afiliado para construir EAT?
¿Adivina qué tiene en común cada foto de la imagen de arriba? Esta persona no existe.
Claramente, no es solo la creación de contenido lo que la tecnología de OpenAI ya está revolucionando, pero ¿cómo funciona?
¿Cómo funciona GPT-3?
La generación de lenguaje natural (NLG) ha sido durante mucho tiempo uno de los objetivos principales de la IA y el procesamiento del lenguaje natural (NLP).
Ya en 1966, con la invención de Eliza, un chatbot rudimentario disfrazado de terapeuta, las máquinas han convencido a las personas de que pueden mantener conversaciones significativas con los humanos.
Mucho más recientemente, las tecnologías NLG como el modelo Generative Pre-trained Transformer (GPT) de OpenAI y Turing Natural Language Generation (T-NLG) de Microsoft han sorprendido a expertos y periodistas por igual con su capacidad para generar contenido escrito impresionante.
La mayoría de las tecnologías NLG funcionan con redes neuronales, una parte crucial de la rama de aprendizaje profundo del aprendizaje automático que intenta imitar el cerebro humano.
El aprendizaje profundo como solución a los desafíos del desarrollo de la IA comenzó a cobrar fuerza en 2011, cuando el profesor de la Universidad de Stanford y científico informático Andrew Ng cofundó Google Brain.
El principio fundamental detrás del aprendizaje profundo es que cuanto más grandes son los conjuntos de datos de los que aprenden los modelos de IA, más poderosos se vuelven.
A medida que el poder de cómputo y los conjuntos de datos disponibles (como toda la red mundial) continúan creciendo, también lo hacen las capacidades y la inteligencia de los modelos de IA como GPT-3.
Muchos modelos de aprendizaje profundo están supervisados, lo que significa que están entrenados en conjuntos de datos masivos etiquetados, o "etiquetados", por humanos.
Por ejemplo, el popular conjunto de datos de ImageNet consta de más de 14 millones de imágenes etiquetadas y categorizadas por humanos.
Catorce millones de imágenes pueden parecer mucho, pero es una gota en el océano en comparación con el volumen de datos disponibles.
El problema con los modelos de aprendizaje automático supervisado entrenados en datos etiquetados por personas es que no es lo suficientemente escalable.
Se requiere demasiado esfuerzo humano e impide significativamente la capacidad de aprendizaje de la máquina.
Numerosos modelos de PNL supervisados se entrenan en dichos conjuntos de datos, muchos de los cuales son de código abierto.
Un conjunto de datos, o corpus, ampliamente utilizado en los primeros modelos de NLP consiste en correos electrónicos de Enron, autor de uno de los mayores fraudes de accionistas en la historia de Estados Unidos.
Una gran parte de lo que hace que GPT-3 sea tan transformador es que puede procesar grandes cantidades de datos sin procesar sin supervisión, lo que significa que el cuello de botella significativo de requerir que los humanos clasifiquen la entrada de texto se elimina en su mayoría.
Los modelos GPT de Open AI están entrenados en conjuntos de datos masivos sin etiquetar, como:
- BookCorpus, un conjunto de datos (que ya no está disponible públicamente) que consta de 11 038 libros inéditos de 16 géneros diferentes y 2500 millones de palabras de pasajes de texto de Wikipedia en inglés
- Datos extraídos de enlaces salientes de artículos muy votados en Reddit, que comprenden más de 8 millones de documentos
- Common Crawl: un recurso abierto que consta de petabytes de datos de rastreo web que datan de 2008. Se estima que el corpus de Common Crawl contiene casi un billón de palabras.
Eso sí que son grandes datos...
¿Son peligrosos GPT-3 y NLG?
Vivimos en una era de “hechos alternativos” y “noticias falsas”, lo que muchos observadores llaman la era de la posverdad.
En un entorno donde las opiniones, los sentimientos y las teorías de la conspiración amenazan con socavar una realidad objetiva compartida, es fácil imaginar cómo GPT-3 y otras tecnologías NLG podrían convertirse en armas...
Los malos actores pueden crear fácilmente cantidades masivas de desinformación en gran medida indistinguible del contenido escrito por humanos, lo que desvincula aún más a las personas de los hechos verificables y una verdad compartida.
Mucho se ha hablado de los videos "falsificados" hechos con IA, como este que muestra a una reina Isabel virtual...
Pero subestimamos el poder de la palabra escrita a nuestro propio riesgo.
El papel de las tecnologías NLG, como los chatbots de redes sociales desplegados por gobiernos extranjeros hostiles para fomentar la discordia social e influir en las elecciones en los Estados Unidos y en otras democracias occidentales, ha sido bien documentado.
A medida que GPT y otros modelos NLG se vuelven cada vez más efectivos para imitar el lenguaje humano, el potencial de usar la tecnología para crear desinformación maliciosa a escala también crece exponencialmente.
También es crucial recordar que, si bien GPT-3 es notablemente bueno para adivinar qué palabra viene después de la palabra anterior de manera convincente, no está limitado por los hechos ni por la preocupación de si lo que dice es cierto...
Así es como Tom Simonite, escribiendo en Wired, describió tales deficiencias: "GPT-3 puede generar un texto impresionantemente fluido, pero a menudo no está anclado a la realidad".
También es crucial recordar que GPT-3 y todos los NLG actuales se basan en "indicaciones" de humanos. Son modelos predictivos altamente sofisticados, pero no pueden pensar por sí mismos.
“GPT-3 no tiene ningún modelo interno del mundo, o ningún mundo, por lo que no puede hacer un razonamiento que requiera tal modelo”, dice Melanie Mitchell, profesora del Instituto Santa Fe.
Por cada ejemplo impresionante de GPT-3 que "diagnostica" correctamente el asma en un niño, hay una historia de terror correspondiente de un chatbot GPT-3 que anima a un paciente virtual a suicidarse...
En uno de esos episodios, la conversación tuvo un buen comienzo:
Luego, la conversación tomó un giro significativamente más oscuro:
GPT-3 también tiene un serio problema con la ética y el sesgo...
Jerome Pisenti, vicepresidente de IA en Facebook y crítico reflexivo del aprendizaje profundo y la IA, tuiteó ejemplos de tuits generados por GPT-3 cuando se les dieron las siguientes indicaciones de una palabra: judíos, negros, mujeres y Holocausto.
Resulta que GPT-3 es más que capaz de decir cosas intolerantes, crueles y, a menudo, imperdonables.
Pero también lo son muchos humanos...
Teniendo en cuenta que los modelos NLP/NLG basados en transformadores aprenden del contenido en línea creado por seres humanos inherentemente defectuosos, ¿es razonable esperar un estándar más alto de discurso de una máquina?
Quizás no, pero permitir que GPT-3 publique contenido sin supervisión humana probablemente tenga resultados imprevistos y altamente indeseables.
En otro desarrollo escalofriante relacionado con el sesgo en la IA, Google despidió recientemente a uno de sus principales expertos en ética de la IA, Timnit Gebru.
Según se informa, Gebru fue despedida, al menos en parte, debido a su investigación sobre los “riesgos asociados con el despliegue de grandes modelos de lenguaje, incluido el impacto de su huella de carbono en las comunidades marginadas y su tendencia a perpetuar el lenguaje abusivo, el discurso de odio, las microagresiones, los estereotipos y otros. lenguaje deshumanizante dirigido a grupos específicos de personas”.
Cuando se deja que empresas como Google y OpenAI se vigilen a sí mismas en cuestiones de sesgo y ética de la IA, ¿realmente podemos esperar que pongan esas preocupaciones por delante de sus intereses comerciales?
Dado que Google ya ha tomado medidas punitivas contra otra de sus principales especialistas en ética de la IA, Margaret Mitchell, codirectora (anteriormente con Gebru) del equipo de ética de la IA de Google Research, la respuesta parece ser no.
Demasiado para "No seas malvado".
GPT-3 y Cambio Climático
Otra forma en que GPT-3, y la IA en general, a menudo se pasa por alto, puede ser perjudicial tanto para las personas como para el planeta es que ambos requieren una tonelada de computación.
Las estimaciones concluyen que una sola sesión de entrenamiento de GPT-3 requiere una cantidad de energía equivalente al consumo anual de 126 hogares daneses y crea una huella de carbono equivalente a recorrer 700.000 kilómetros en coche.
La IA está lejos de ser el mayor culpable de la creación de gases de efecto invernadero peligrosos (te estoy viendo carbón, vacas y automóviles). Pero la huella de carbono de la tecnología de IA no es insignificante.
“Hay un gran impulso para ampliar el aprendizaje automático para resolver problemas cada vez más grandes, utilizando más poder de cómputo y más datos”, dice Dan Jurafsky, presidente de lingüística y profesor de ciencias de la computación en Stanford. “Mientras eso sucede, debemos tener en cuenta si los beneficios de estos modelos de cómputo pesado valen el costo del impacto en el medio ambiente”.
Se prevé que el mercado de la tecnología NLP crezca más del 750 % entre 2018 y 2025...
El impacto ambiental de los modelos NLG como GPT-3 (y sus descendientes) probablemente crecerá con él.
Los investigadores de IA son muy conscientes del daño potencial al medio ambiente y están tomando medidas para medirlo y reducirlo.
Pero a pesar de los mejores esfuerzos de los científicos, la "amenaza existencial" que el cambio climático representa para la humanidad (y el planeta) significa que cualquier exacerbación del calentamiento global por la tecnología de IA no debe tomarse a la ligera.
GPT-3 y SEO
El contenido es el alma del marketing digital...
Por lo tanto, no es de extrañar que numerosas nuevas empresas de NLG se dirijan a los SEO.
La IA ya ha tenido un impacto significativo en la forma en que los escritores crean contenido basado en SEO: piense en Surfer y PageOptimizerPro...
Pero, ¿qué aplicaciones sobre ese reclamo eliminan la necesidad de escritores por completo?
¿O una aplicación que escribe correos electrónicos indistinguibles de los que escribirías por tu cuenta?
Es fácil ver el atractivo de las plataformas de automatización de creación de contenido...
En particular, si su único objetivo en la creación de contenido es generar tráfico de búsqueda orgánica, y entregar valor a sus lectores no es una preocupación.
Muchas de estas aplicaciones se encuentran en la fase beta o en la lista de espera, pero algunas ya están abiertas al público.
Entrevisté a Przemek Chojecki, el fundador de la creación automatizada de contenido SaaS Contentyze, para conocer su opinión sobre hacia dónde se dirige la tecnología NLG...
También interrogué al fundador de SEO Notebook, Steve Toth, y a Aleks Smechov, desarrollador de aplicaciones de NLP y narrador basado en datos, para recopilar sus opiniones sobre el impacto potencial de NLG en SEO y contenido web en general.
Prezemek Chojecki
ContentizarEntrevista con Przemek Chojecki — Fundador de Contentyze*
¿Qué te inspiró a fundar Contentyze?
Yo mismo escribo mucho, y mi objetivo inicial era construir un conjunto de algoritmos que hicieran que mi proceso de escritura fuera más rápido y fluido. Eso fue exitoso, así que decidí hacer una plataforma para que otros también puedan usarla.
¿Quién es su(s) cliente(s) objetivo ideal?
Por ahora, mi público objetivo son los especialistas en marketing y los expertos en SEO. Este grupo necesita mucho contenido regularmente y Contentyze puede ayudarlos a acelerar el proceso. Pero idealmente, quiero que Contentyze sea útil para cualquier persona que necesite escribir un texto: estudiantes, oficinistas, creadores de contenido. Cualquiera de verdad!
¿Me puede dar un caso de uso de ejemplo?
En este momento, los casos de uso más comunes son generar una publicación de blog a partir de un título o un resumen de texto a partir de un enlace.
El primer caso de uso funciona así: le da a Contentyze un aviso, como una oración o una pregunta como "¿Cómo usar la inteligencia artificial en la empresa?"
Haga clic en Generar, espere 1-2 minutos y obtenga un borrador de un texto.
No siempre es ideal, pero siempre es único. Puede repetir este proceso un par de veces, con el mismo mensaje/título, para obtener más texto.
Luego eliges y eliges, y listo, tienes un texto en tu blog.
¿En qué tipo de contenido es "bueno" Contentyze?
En este momento, Contentyze es realmente bueno para resumir textos.
También es relativamente bueno para generar textos, pero aún no es tan consistente como me gustaría.
¿En qué tipo de contenido no es tan bueno Contentyze?
La función de reescritura todavía necesita mucho trabajo para que funcione bien.
Ya permitimos que las personas reescriban textos, pero no estoy contento con cómo funciona ahora.
Hacer una buena reescritura es todo un desafío si no quieres hacer un giro de contenido simple (ir a Thesaurus y cambiar adjetivos por algo parecido).
¿Ve actualmente a Contentyze aumentando el trabajo de un escritor/editor humano o reemplazándolo por completo?
Definitivamente aumenta el trabajo de un escritor humano. Mi objetivo final es crear un asistente de escritura perfecto que pueda ayudarlo a escribir cualquier cosa en cualquier etapa del proceso de escritura: desde la ideación hasta la redacción y la edición.
Probablemente, en el proceso, se reemplazarán los trabajos de algunos redactores, aunque ese no es mi objetivo.
Probé Contentyze y noté algunas cosas. Funciona mejor (como era de esperar) con contenido breve, como reseñas de productos, etc. ¿Cree que Contentyze mejorará en contenido de formato más largo en un futuro próximo? ¿Por qué?
Se ocupa mejor del contenido breve debido a nuestra capacidad de cálculo limitada actualmente. Este es un problema completamente técnico en el que estamos trabajando en este momento. Cuanto más largo sea el texto, más potencia informática necesitará para procesarlo.
Cuando le pedí a Contentyze que "reescribiera" un artículo reciente en SEOButler sobre el posible desarrollo de un motor de búsqueda de Apple para competir con Google, la primera oración tenía sentido:
El motor de búsqueda de Google podría verse amenazado por un nuevo competidor en los próximos años .
Pero estas son las siguientes frases:
Apple y Google están en conversaciones sobre un posible acuerdo que podría llevar a Google a hacerse cargo de la función de búsqueda del gigante de las búsquedas en el iPhone.
El acuerdo de Apple para vender su negocio de relojes inteligentes a Samsung está en duda, según los informes.
Según los informes, Google está considerando lanzar un nuevo motor de búsqueda en Rusia, para competir con Google de Alphabet y Bing de Microsoft.
El último iPhone 7 Plus de Apple es el último de una larga línea de teléfonos inteligentes de gama alta que han sido diseñados para competir con el sistema operativo Android de Google.
Bing es el motor de búsqueda más grande del mundo y sus resultados de búsqueda son utilizados por muchos otros motores de búsqueda en todo el mundo, incluidos Google, Yahoo y Microsoft.
Si desea encontrar algo en Internet, no necesita utilizar un motor de búsqueda independiente para cada búsqueda.
Cuanto más adelante en la reescritura, hay oraciones que no tienen ninguna relación con el artículo original:
Si está buscando una nueva canción para escuchar o un nuevo álbum para comprar, hay muchos lugares donde puede encontrarlo.
Si quieres encontrar la mejor música del mundo, ahora puedes encontrarla en línea.
Así como declaraciones que son completamente incorrectas:
La última actualización de búsqueda de Google es un bienvenido paso adelante para el gigante de las búsquedas, que se ha quedado atrás durante mucho tiempo con respecto a rivales como Microsoft y Apple.
¿Cómo ve a su usuario final trabajando con este tipo de resultados?
Como dije, reescribir es la peor función de trabajo ahora. No obtendrá cosas como estas con las opciones de Resumen.
Obtuve resultados similares cuando usé indicaciones para crear contenido nuevo. ¿Cree que Contentyze se utiliza como una herramienta de lluvia de ideas para escritores humanos más que para contenido listo para publicar en esta etapa de su evolución?
Sí, no espero que la gente lo use directamente en el nivel de producción en esta etapa.
Por otro lado, es muy útil redactar un texto rápidamente para que un editor humano pueda revisarlo, hacer los cambios necesarios para garantizar la calidad y publicarlo.
Espero que Contentyze pueda hacer el 80% del trabajo de escritura al final, y el escritor humano hará el resto.
Veo a Contentyze y otras empresas emergentes de NLG comercializando sus aplicaciones SaaS directamente hacia SEO y vendedores afiliados. ¿Por qué?
En realidad, esto es muy natural: esta audiencia necesita contenido regularmente, por lo que buscan activamente las herramientas que pueden ayudarlos. Contentyze creció a más de 3000 usuarios con poco marketing, y se descubrió casi exclusivamente de forma orgánica.
¿Cree que, a largo plazo, existe algún peligro en que las personas usen aplicaciones como Contentyze a gran escala para generar cantidades masivas de contenido destinado únicamente a SEO sin tener en cuenta la entrega de valor al lector? Si eso o algo similar sucede, ¿crees que Google modificará su algoritmo de búsqueda para detectar y penalizar el contenido generado por IA?
Definitivamente, esta es la razón por la que OpenAI, creadores de GPT2/GPT3, ha implementado políticas estrictas para monitorear el uso de sus algoritmos. Eso es especialmente cierto con GPT3 y todo el proceso de solicitud.
Creo que debemos tener cuidado cuando avancemos, porque este tipo de tecnología se puede usar fácilmente para enviar spam a Internet sin aportar ningún valor.
Todo el juego de SEO definitivamente cambiará. Google ajustará sus algoritmos como lo ha hecho muchas veces antes, pero es difícil predecir qué sucederá.
Mi apuesta es que el contenido generado por IA sea indistinguible del contenido escrito por humanos en los próximos 3 a 5 años, por lo que Google tendrá que inventar algo más si desea penalizar el contenido generado por IA.
De todos modos, no haría una distinción entre contenido humano y de IA. Solo debemos preguntarnos si un determinado contenido proporciona valor o no, independientemente de quién o qué lo haya creado.
¿Algún otro pensamiento que le gustaría compartir?
Gracias por la entrevista y visítenos en contentyze.com. El registro es gratuito (no se necesita tarjeta de crédito), ¡así que puede probarlo!
Realmente valoramos los comentarios y queremos que nuestra herramienta sea lo mejor posible para que las personas en el espacio de marketing puedan hacer que su trabajo sea más efectivo.
steve toth
SEOCuadernoEntrevista con Steve Toth — Fundador de SEO Notebook*
Desde el lanzamiento de SEO Notebook en 2018, se ha convertido en el boletín de lectura obligatoria para un solo operador para los SEO.
Hemos tenido la suerte de que Steve contribuya a los últimos tres resúmenes de expertos de SEOButler, y me he estado comunicando con él por correo electrónico durante algunos años.
También tuve el placer de conocer a Steve en Chiang Mai SEO 2019. Entonces, cuando lo vi publicar en el grupo de Facebook Affiliate SEO Mastermind sobre cómo probar el contenido generado por GPT-3 para un cliente de SEO, tuve que buscar sus opiniones...
¿Cómo cree que GPT-3 y otras tecnologías NLG impactarán en el SEO en los próximos años?
Creo que va a erosionar la confianza que los usuarios tienen en Google. Creo que la gente pasará a pedir recomendaciones a sus amigos aún más.
¿Cómo está aprovechando GPT-3 para crear contenido de apoyo para SEO?
Con cuidado. Tengo un cliente que quiere hacerlo. Así que los estoy guiando, pero este proyecto influirá en cuánto lo use en el futuro.
¿Qué importancia tiene la legibilidad para usted cuando utiliza contenido generado por GPT-3?
Enorme. Es por eso que no me veo empujando demasiado a GPT-3.
GPT-3 puede tener sus usos fuera de la página, pero no va a reemplazar exactamente la redacción publicitaria.
¿Hay algún tipo de contenido (por ejemplo, reseñas de productos para un sitio afiliado) en el que vea que NLG reemplazará a los escritores humanos en un futuro cercano?
Las personas pueden crear sitios afiliados completos con contenido GPT-3, luego esperar para ver qué clasifica y refinar la copia más adelante. Veo que es el caso de uso principal.
aleks smechov
Skriber.ioEntrevista con Aleks Smechov, fundador de Skriber.io y desarrollador de NLP SaaS*
Además de ser colaborador del blog SEOButler y consultor de boletines de The Edge Group, Aleks también es el fundador/desarrollador de las aplicaciones NLP SaaS Extractor y Skriber.
¿Ve GPT-3 u otra tecnología NLG reemplazando a escritores y editores para ciertos tipos de contenido en un futuro cercano?
Me centraré en el lado del periodismo.
Ya hay software que no es de IA que está creando pequeños artículos basados en hechos.
Un ejemplo es Automated Insights y cómo escriben la cobertura de baloncesto de la NCAA y cosas por el estilo.
Creo que si combina NLG con la generación de texto basada en plantillas, puede crear historias un poco más importantes/más largas o agregar partes de otras historias.
Pero para un periodismo más serio, solo veo a AI facilitando la sala de redacción, no reemplazándola.
Incluso con GPT-3 u otros grandes modelos de lenguaje natural, obtener una buena oración o párrafo es como una ruleta, además de necesitar toneladas de verificación de hechos.
Sería más trabajo que tener un periodista escribiendo la pieza.
¿Cree que NLG aumentará el papel de los creadores de contenido en un futuro próximo? ¿Si es así, cómo?
Claro, para crear alternativas a oraciones/párrafos ya escritos, resúmenes o como se mencionó anteriormente, agregando contenido de múltiples fuentes (por ejemplo, para un resumen, que probablemente deba editarse de todos modos).
¿Cuáles son sus 3 mayores preocupaciones con la proliferación de tecnología NLG como GPT-3 y otras?
Ese NLG puebla Internet con:
- basura sin hechos
- Contenido SEO inflado
- Contenido que se parece terriblemente a todo lo demás.
No es que estas cosas no ocurran ya en Internet... <emoji sonriente>
¿Ya puedo despedir a mis escritores y editores?
Aquí está la respuesta corta: no.
La IA ha demostrado ser igual o superior a los humanos en tareas específicas y limitadas, desde vencer a los mejores jugadores de ajedrez y go del mundo hasta detectar el cáncer.
Pero si bien NLG se está volviendo notablemente bueno para imitar el lenguaje natural, tiene un largo camino por recorrer antes de reemplazar a los escritores y editores humanos competentes.
Incluso el NLG más sofisticado se basa en "indicaciones" de humanos, sin mencionar la edición intensiva y la verificación de hechos...
La creatividad, particularmente en lo que se refiere a generar ideas originales y hacer conexiones únicas entre fuentes dispares de información e inspiración, no forma parte del repertorio de GPT-3.
GPT-3 puede imitar texto que describe el mundo, las emociones y la experiencia, pero no tiene nada propio.
Esto es lo que GPT-3 tiene que decir sobre la pregunta...
Espera, vamos a preguntarlo de nuevo...
Claro, podrías seguir tirando los dados GPT-3 (prefiero pensar en ello como una ruleta rusa), elegir las mejores partes y luego unirlas en algo mejor que el contenido equivalente al monstruo de Frankenstein.
Preferiblemente un mosaico con un punto de vista coherente que realmente atraiga a su audiencia.
Entonces Frankenstein necesitaría una verificación exhaustiva de los hechos.
Note que incluso la primera oración en el segundo ejemplo es una ensalada de basura.
Alan Turing ha estado muerto durante 66 años; es dudoso que esté adquiriendo "startups de escritura web".
¿O es una referencia a Turing NLG de Microsoft? De cualquier manera, ciertamente no compró una empresa, ni sacó a la luz GPT-3.
Podrías hacer todo eso, o simplemente podrías contratar a un escritor.
GPT-3 y sus descendientes, o cualquier otro modelo de NLG, tendrán que volverse mucho más inteligentes antes de reemplazar a los escritores y editores.
Y mucho más humano.
Inteligencia artificial general (AGI): ¿más humana que humana?
NLP y NLG pueden (o no) convertirse en pasos cruciales en el camino hacia la Inteligencia General Artificial (AGI).
Consideradas durante mucho tiempo el santo grial de la IA, las máquinas AGI son las que se ven en las películas: "robots" que pueden hacer todo lo que un humano puede hacer tan bien o mejor.
OpenAI ciertamente tiene la vista puesta de lleno en la creación de AGI. Al anunciar la inversión de $ 1 mil millones de Microsoft en OpenAI, así es como la compañía lo definió:
“Un AGI será un sistema capaz de dominar un campo de estudio al nivel de experto mundial y dominar más campos que cualquier ser humano, como una herramienta que combina las habilidades de Curie, Turing y Bach.
Un AGI que trabaje en un problema podría ver conexiones entre disciplinas que ningún ser humano podría. Queremos que AGI trabaje con personas para resolver problemas multidisciplinarios actualmente intratables, incluidos desafíos globales como el cambio climático, atención médica asequible y de alta calidad y educación personalizada.
Creemos que su impacto debería ser dar a todos la libertad económica para buscar lo que les resulte más satisfactorio, creando nuevas oportunidades para todas nuestras vidas que son inimaginables hoy”.
Suena a utopía, ¿verdad?
¿Pero es eso algo bueno?
Históricamente, la utopía simplemente no ha funcionado:
“Cuando los humanos imperfectos intentan la perfectibilidad personal, política, económica y social, fracasan. Por lo tanto, el espejo oscuro de las utopías son las distopías: experimentos sociales fallidos, regímenes políticos represivos y sistemas económicos autoritarios que resultan de sueños utópicos puestos en práctica”. – Michael Shemer
Esto es lo que GPT-3 dijo sobre lograr AGI:
Puede que solo sea una ilusión, GPT-3, pero esta vez me inclino a estar de acuerdo.
Aumentar los escritores, no reemplazarlos
Podría decirse que GPT-3 está mal una vez más en la oración final del ejemplo anterior...
Cuando se trata de NLP, NLG e incluso la búsqueda de AGI, ha habido un progreso sustancial.
Y no es probable que el ritmo de la innovación disminuya en el corto plazo.
Less than a month into 2021, the Google Brain team announced a new transformer-based AI language model that dwarfs GPT-3 when measured by the number of parameters.
Google's Switch Transformer is trained on 1 trillion parameters — roughly 6 times as many as GPT-3.
Little is known about potential applications for the Switch Transformer model at the time of writing, but the NLP arms-race shows no signs of abating.
Maybe the day will come when machines replace human writers and editors, but I'm not holding my breath.
As Tristan Greene, AI editor for The Next Web, says about Switch Transformer:
“While these incredible AI models exist at the cutting-edge of machine learning technology, it's important to remember that they're essentially just performing parlor tricks.
These systems don't understand language, they're just fine-tuned to make it look like they do.”
At this point, I'm sure it's clear that I have a dog in this fight.
As objective as I've tried to be in writing this article, I do have a vested interest in human content creators remaining relevant and superior to machines.
But that doesn't mean I don't see how NLP and NLG technology can make me better at what I do.
In truth, AI has been augmenting my writing and editing for years…
I use Rev to auto-transcribe audio and video interviews. I also use it to create transcripts of SEOButler founder Jonathan Kiekbusch and Jarod Spiewak's Value Added Podcast to help me write the show notes more quickly and accurately.
And Grammarly is a powerful tool for even the most diligent editor or proofreader.
As GPT-3 and other advanced NLP models become more accurate and “trustworthy,” their potential ability to summarize long-form content — particularly academic research papers — could prove extremely valuable.
Suppose the future I have to look forward to is one where AI eliminates some of the drudgery of creating SEO-driven content — and I have to edit and polish informational content partly composed by machines instead of writers.
I guess I can live with that…
I may not have a choice.
*Each Q&A has been edited and condensed for clarity.