Ihr Robot Writer erwartet … Ist GPT-3 der Tod des Content Creators?

Veröffentlicht: 2021-02-01

Als Autor/Redakteur, der seinen Lebensunterhalt mit der Erstellung von Inhalten verdient, bin ich in Bezug auf KI zutiefst ambivalent …

Einerseits kann ich mir ein Leben ohne sie nicht vorstellen.

In den letzten vier Jahren habe ich in einem Land gelebt – Vietnam – wo ich nur eine Handvoll Wörter und Sätze spreche oder verstehe (ich weiß, ich weiß, es ist erbärmlich).

Ich habe auch einen miesen Orientierungssinn…

Durch die endlosen Straßen und Gassen von Saigon (Hẻms) zu wandern, ist eine unermessliche Quelle der Freude…

Es sei denn, Sie haben ein konkretes Ziel im Sinn oder kommen zu spät zu einem Meeting …

(Quelle: VN Express)

Oder es ist die Regenzeit.

Ohne Google Maps und Google Translate wäre das Leben hier keine Option für mich…

Ich bin also unglaublich dankbar für das, was KI bereits zu bieten hat.

Aber mehr und mehr scheint sich dieselbe Technologie, die mein jetziges Leben ermöglicht, als existenzielle Bedrohung für meine Fähigkeit herauszustellen, phở auf den Tisch zu bringen.

Ich bin bei weitem nicht der einzige Wortschmied, der ein wenig Angst vor KI hat …

Wie der Technik-Kolumnist der New York Times, Farhad Manjoo, kürzlich sagte: „In nicht allzu langer Zeit könnte Ihr bescheidener Korrespondent von einer Maschine auf die Weide geschickt werden.“

Für jeden Content-Ersteller, der sich vor der Aussicht versteckt, durch KI-gesteuerte Technologie wie GPT-3 obsolet gemacht zu werden, gibt es mindestens einen Geschäftsinhaber oder Affiliate-Vermarkter, der vor der Möglichkeit zittert …

Denn wer will schon mit allzu menschlichen Autoren und Lektoren zu tun haben (und sie bezahlen)?

Wie nah ist also der Traum/Albtraum von Computern, die Ihre Inhalte schreiben und bearbeiten, an der Realität?

Lass es uns herausfinden…


INHALTSVERZEICHNIS
Was ist OpenAI und GPT-3?
Wie funktioniert GPT-3?
Sind GPT-3 und NLG gefährlich?
GPT-3 und Klimawandel
GPT-3 und SEO
Interview mit Przemek Chojecki — Gründer von Contentyze
Interview mit Steve Toth – Gründer von SEO Notebook
Interview mit Aleks Smechov — Gründer von Skriber.io
Kann ich meine Autoren und Redakteure schon feuern?
Künstliche Allgemeine Intelligenz (AGI) – Mehr Mensch als Mensch?
Autoren erweitern – nicht ersetzen


Was ist OpenAI und GPT-3?

OpenAI wurde 2015 von Tech-Superstars wie Elon Musk und Sam Altman, ehemaliger Präsident von Y Combinator und aktueller CEO von OpenAI, gegründet.

Im Jahr 2018 veröffentlichte OpenAI sein erstes Papier über ein Sprachmodell, das sie Generative Pre-Trained Transformer – kurz GPT – nannten.

Einfach ausgedrückt verarbeitet GPT riesige Mengen von Text, der von Menschen geschrieben wurde, und versucht dann, Text zu generieren, der nicht von Text zu unterscheiden ist, der von Menschen geschrieben wurde – alles mit dem absoluten Minimum an menschlicher Intervention oder Überwachung.

Als ich den NLP-SaaS-Entwickler und Autor Aleks Smechov von The Edge Group interviewte, bezeichnete er GPT etwas spöttisch als „Autocomplete on Steroids“.

Das ist natürlich reduktiv, aber im Grunde wahr…

GPT (und andere KI-gesteuerte NLG-Modelle) versuchen vorherzusagen, welches Wort auf das vorherige Wort folgt, und zwar auf eine Weise, die nicht davon zu unterscheiden ist, wie Menschen natürlich schreiben oder sprechen.

Das Innovationstempo bei GPT war geradezu atemberaubend …

Im Februar 2019 veröffentlichte OpenAI eine eingeschränkte Version von GPT-2 für die Öffentlichkeit…

Im November 2019 wurde das vollständige GPT-2-NLG-Modell als Open Source veröffentlicht.

GPT-2 sorgte für Aufsehen …

OpenAI hielt sich zunächst zurück, das vollständige Modell der Öffentlichkeit zugänglich zu machen, weil es möglicherweise zu gefährlich war – und machte es erst zu Open Source, nachdem es erklärt hatte, dass es „keine starken Beweise für Missbrauch“ gesehen habe.

Dies ist ein weiteres Beispiel für Unternehmen im Besitz von Aktionären – wie Google und Facebook – die praktisch ohne öffentliche Aufsicht über Technologien urteilen, die unsere Lebensweise dramatisch verändern können.

NLG-Modelle werden „intelligenter“ – oder zumindest besser darin, die Art und Weise nachzuahmen, wie Menschen sprechen und schreiben – basierend zumindest teilweise auf der Anzahl der Parameter, die Ingenieure ihnen geben.

Je größer der Datensatz und je mehr Parameter, desto genauer wird das Modell.

GPT-2 wurde auf einem Datensatz von 8,5 Millionen Webseiten trainiert und hatte 1,5 Milliarden Parameter …

Um nicht übertroffen zu werden, veröffentlichte Microsoft Anfang 2020 Turing Natural Language Generation (T-NLG).

Die Turing-Maschine – Vorläufer des modernen Computers

Das transformatorbasierte Modell von T-NLG, benannt nach dem berühmten Wissenschaftler Alan Turing, verwendet 17,5 Milliarden Parameter – mehr als 10x GPT-2.

OpenAI veröffentlichte im Juni 2020 die neueste Iteration seiner API für die Verarbeitung natürlicher Sprache (NLP) und die Generierung natürlicher Sprache (NLG) – GPT-3 .

Die mit Abstand leistungsstärkste und fortschrittlichste NLG-Technologie, die bisher veröffentlicht wurde – trainiert auf 175 Milliarden Parametern (10x so viel wie T-NLG, das weniger als sechs Monate zuvor veröffentlicht wurde) – GPT-3 wurde mit großem Tamtam begrüßt …

Ehrlich gesagt, der ganze Trubel beginnt sich ohrenbetäubend anzufühlen.

Wenn man Twitter vertrauen kann, sind es nicht nur die Ersteller von Inhalten, die bald arbeitslos sein könnten …

Egal, ob Sie Arzt oder Anwalt sind oder beruflich Code schreiben – GPT-3 kommt für Sie.

GPT-3 Poesie
(Quelle: Gwern.net)

Es stellt sich heraus, dass sogar die lukrative Poesieindustrie auf dem Hackklotz stehen könnte …

Was ist mit anderen kreativen Bemühungen?

Haben Sie Ihre Spotify-Wiedergabelisten satt?

OpenAI Jukebox ist für Sie da.

Hier ist ein kleines KI-generiertes Liedchen im Stil von David Bowie:

Bowie nicht deine Tasche?

Jukebox hat Sie abgedeckt, mit fast 10.000 KI-generierten „Songs“, die der Öffentlichkeit im Stil von Künstlern von 2Pac zur Verfügung stehen:

2Pac Open AI
2Pac gegen Z-Ro

zu Z-Ro…

Tupac AI

In seinem Streben, das kreative Potenzial von KI aufzuzeigen, ließ OpenAI praktisch nichts unversucht und entwickelte auch DALL·E. DALL·E erstellt aus einfachen Texteingabeaufforderungen bemerkenswerte Bilder.

Haben Sie sich jemals gefragt, wie ein mit einer Avocado gekreuzter Stuhl aussehen würde?

Avocado-Stuhl Dall-E

Lass dich von DALL·E von deinem Elend befreien.

Benötigen Sie ein „Autoren-Bio“-Foto für die „Über uns“-Seite Ihrer Affiliate-Website, um EAT aufzubauen?

Diese Person existiert nicht
Quelle: Yup T hat Existiert

Ratet mal, was jeder Kopfschuss im obigen Bild gemeinsam hat? Diese Person existiert nicht.

Offensichtlich stört die Technologie von OpenAI nicht nur die Erstellung von Inhalten, sondern wie funktioniert sie?

Wie funktioniert GPT-3?

Die Generierung natürlicher Sprache (NLG) ist seit langem eines der ultimativen Ziele der KI und der Verarbeitung natürlicher Sprache (NLP).

Bereits 1966, mit der Erfindung von Eliza – einem rudimentären Chatbot, der sich als Therapeut ausgibt – haben Maschinen Menschen davon überzeugt, dass sie sinnvolle Gespräche mit Menschen führen können.

In jüngerer Zeit haben NLG-Technologien wie das Generative Pre-Trained Transformer (GPT)-Modell von OpenAI und Turing Natural Language Generation (T-NLG) von Microsoft Experten und Journalisten gleichermaßen mit ihrer Fähigkeit, beeindruckende schriftliche Inhalte zu generieren, schockiert.

Die meisten NLG-Technologien werden von neuronalen Netzwerken angetrieben – einem entscheidenden Teil des Deep-Learning-Zweigs des maschinellen Lernens, der versucht, das menschliche Gehirn nachzuahmen.

Deep Learning als Lösung für die Herausforderungen bei der Entwicklung von KI begann erstmals im Jahr 2011 Fuß zu fassen, als Andrew Ng, Professor an der Stanford University und Informatiker, Google Brain mitbegründete.

Deep Learning Andrew Ng
(Quelle: Andrew Ng)

Das grundlegende Prinzip hinter Deep Learning lautet: Je größer die Datensätze sind, aus denen KI-Modelle lernen, desto leistungsfähiger werden sie.

Da die Rechenleistung und die verfügbaren Datensätze (z. B. das gesamte World Wide Web) weiter zunehmen, wachsen auch die Fähigkeiten und die Intelligenz von KI-Modellen wie GPT-3.

Viele Deep-Learning-Modelle werden überwacht, d. h. sie werden an riesigen Datensätzen trainiert, die von Menschen gekennzeichnet – oder „getaggt“ – werden.

CSNI-Gesichter
(Quelle: CSNI )

Der beliebte ImageNet-Datensatz besteht beispielsweise aus über 14 Millionen Bildern, die von Menschen beschriftet und kategorisiert wurden.

14 Millionen Bilder mögen nach viel klingen, aber verglichen mit der verfügbaren Datenmenge ist das ein Tropfen auf den heissen Stein.

Das Problem bei Modellen für überwachtes maschinelles Lernen, die mit von Menschen gekennzeichneten Daten trainiert werden, besteht darin, dass sie nicht ausreichend skalierbar sind.

Der menschliche Aufwand ist zu hoch und die Lernfähigkeit der Maschine wird erheblich beeinträchtigt.

Zahlreiche überwachte NLP-Modelle werden mit solchen Datensätzen trainiert, von denen viele Open Source sind.

Ein Datensatz – oder Korpus – der in frühen NLP-Modellen weit verbreitet ist, besteht aus E-Mails von Enron, dem Täter eines der größten Aktionärsbetrugs in der amerikanischen Geschichte.

Ein großer Teil dessen, was GPT-3 so transformativ macht, besteht darin, dass es große Mengen an Rohdaten unbeaufsichtigt verarbeiten kann – was bedeutet, dass der erhebliche Engpass, der darin besteht, dass Menschen Texteingaben klassifizieren müssen, größtenteils beseitigt wird.

Die GPT-Modelle von Open AI werden auf massiven unbeschrifteten Datensätzen trainiert, wie z. B.:

  • BookCorpus, ein (nicht mehr öffentlich zugänglicher) Datensatz bestehend aus 11.038 unveröffentlichten Büchern aus 16 verschiedenen Genres und 2.500 Millionen Wörtern aus Textpassagen der englischen Wikipedia
  • Daten, die aus ausgehenden Links von hoch bewerteten Artikeln auf Reddit geschabt wurden – mit über 8 Millionen Dokumenten
  • Common Crawl – eine offene Ressource, die aus Petabytes von Webcrawl-Daten besteht, die bis ins Jahr 2008 zurückreichen. Der Common Crawl-Korpus umfasst schätzungsweise fast eine Billion Wörter.

Das sind jetzt einige Big Data…

KI-Schädel
(Quelle: Wired)

Sind GPT-3 und NLG gefährlich?

Wir leben in einem Zeitalter der „alternativen Fakten“ und „Fake News“ – was viele Beobachter als die Post-Fakten-Ära bezeichnen.

In einer Umgebung, in der Meinungen, Gefühle und Verschwörungstheorien eine gemeinsame objektive Realität zu untergraben drohen, ist es leicht vorstellbar, wie GPT-3 und andere NLG-Technologien als Waffe eingesetzt werden könnten …

Schlechte Schauspieler können leicht riesige Mengen an Desinformationen erstellen, die weitgehend nicht von Inhalten zu unterscheiden sind, die von Menschen geschrieben wurden – was die Menschen weiter von überprüfbaren Fakten und einer gemeinsamen Wahrheit befreit.

Es wurde viel über „Deep Fake“-Videos gemacht, die mit KI erstellt wurden – wie dieses mit einer virtuellen Queen Elizabeth…

Aber wir unterschätzen die Macht des geschriebenen Wortes auf eigene Gefahr.

Die Rolle von NLG-Technologien wie Social-Media-Chatbots, die von feindlichen ausländischen Regierungen eingesetzt werden, um soziale Zwietracht zu schüren und Wahlen in den Vereinigten Staaten und anderen westlichen Demokratien zu beeinflussen, ist gut dokumentiert.

Da GPT und andere NLG-Modelle immer effektiver bei der Nachahmung der menschlichen Sprache werden, wächst auch das Potenzial, die Technologie zur Erstellung böswilliger Desinformation in großem Umfang zu nutzen, exponentiell.

Es ist auch wichtig, sich daran zu erinnern, dass GPT-3 zwar bemerkenswert gut darin ist, auf überzeugende Weise zu erraten, welches Wort als nächstes auf das vorhergehende Wort folgt, aber nicht durch Fakten und Bedenken, ob das, was es sagt, wahr ist, eingeschränkt wird …

So beschrieb Tom Simonite, der in Wired schrieb, solche Mängel: „GPT-3 kann beeindruckend flüssigen Text erzeugen, ist aber oft von der Realität losgelöst.“

Es ist auch wichtig, sich daran zu erinnern, dass GPT-3 und alle aktuellen NLGs auf „Eingabeaufforderungen“ von Menschen angewiesen sind. Sie sind hochentwickelte Vorhersagemodelle, aber sie können nicht für sich selbst denken.

„GPT-3 hat kein internes Modell der Welt oder irgendeiner Welt und kann daher keine Argumente anstellen, die ein solches Modell erfordern würden“, sagt Melanie Mitchell, Professorin am Santa Fe Institute.

Für jedes beeindruckende Beispiel, wie GPT-3 Asthma bei einem Kind richtig „diagnostiziert“, gibt es eine entsprechende Horrorgeschichte eines GPT-3-Chatbots, der einen virtuellen Patienten zum Selbstmord ermutigt …

In einer solchen Folge fing das Gespräch gut an:

GPT-3-Therapeut

Dann nahm das Gespräch eine deutlich dunklere Wendung:

GPT-3 Selbstmord
(Quelle: Artificial Intelligence News)

GPT-3 hat auch ein ernsthaftes Problem mit Ethik und Voreingenommenheit …

Jerome Pisenti, VP of AI bei Facebook und ein nachdenklicher Kritiker von Deep Learning und AI, twitterte Beispiele von Tweets, die GPT-3 generierte, wenn die folgenden Ein-Wort-Aufforderungen gegeben wurden: Juden, Schwarze, Frauen und Holocaust.

GPT-3 Bögen
(Quelle: gedanken.sushant-kumar.com)

Es stellt sich heraus, dass GPT-3 mehr als in der Lage ist, intolerante, grausame und oft unverzeihliche Dinge zu sagen.

Aber so sind viele Menschen …

Wenn man bedenkt, dass transformatorbasierte NLP/NLG-Modelle von Online-Inhalten lernen, die von Menschen mit inhärent fehlerhaften Wesen erstellt wurden, ist es vernünftig, von einer Maschine einen höheren Diskursstandard zu erwarten?

Vielleicht nicht, aber GPT-3 zu erlauben, Inhalte ohne menschliche Aufsicht zu veröffentlichen, wird wahrscheinlich unvorhergesehene und höchst unerwünschte Folgen haben.

Timnit Gebru Google
KI-Ethiker Timnit Gebru (Quelle: The Vergine)

In einer weiteren erschreckenden Entwicklung im Zusammenhang mit Voreingenommenheit in der KI hat Google kürzlich einen seiner führenden KI-Ethiker, Timnit Gebru, gefeuert.

Gebru wurde Berichten zufolge zumindest teilweise aufgrund ihrer Forschung zu den „Risiken im Zusammenhang mit der Verwendung großer Sprachmodelle, einschließlich der Auswirkungen ihres CO2-Fußabdrucks auf marginalisierte Gemeinschaften und ihrer Tendenz, beleidigende Sprache, Hassreden, Mikroaggressionen, Stereotypen und andere fortzusetzen, gekündigt entmenschlichende Sprache, die sich an bestimmte Personengruppen richtet.“

Wenn Unternehmen wie Google und OpenAI sich in Fragen der KI-Voreingenommenheit und -Ethik selbst überwachen müssen, können wir dann wirklich erwarten, dass sie solche Bedenken über ihre kommerziellen Interessen stellen?

Da Google bereits Strafmaßnahmen gegen eine andere ihrer führenden KI-Ethikerinnen, Margaret Mitchell, Co-Leiterin (ehemals mit Gebru) des KI-Ethikteams von Google Research, ergreift, scheint die Antwort nein zu lauten.

So viel zu „Sei nicht böse“.

KI und Klimawandel
(Quelle: FastCompany)

GPT-3 und Klimawandel

Eine weitere oft übersehene Art und Weise, wie GPT-3 – und KI im Allgemeinen – sowohl für die Menschen als auch für den Planeten schädlich sein können, ist, dass beide eine Menge Rechenleistung erfordern.

Schätzungen kommen zu dem Schluss, dass eine einzige Trainingseinheit von GPT-3 eine Energiemenge erfordert, die dem Jahresverbrauch von 126 dänischen Haushalten entspricht, und einen CO2-Fußabdruck erzeugt, der einer Fahrt von 700.000 Kilometern mit dem Auto entspricht.

KI ist bei weitem nicht der Hauptschuldige an der Entstehung gefährlicher Treibhausgase (ich sehe Sie Kohle, Kühe und Autos an). Aber der CO2-Fußabdruck der KI-Technologie ist nicht unbedeutend.

„Es gibt einen großen Schub, maschinelles Lernen zu erweitern, um immer größere Probleme zu lösen, wobei mehr Rechenleistung und mehr Daten verwendet werden“, sagt Dan Jurafsky, Lehrstuhl für Linguistik und Professor für Informatik in Stanford. „In diesem Fall müssen wir uns darüber im Klaren sein, ob die Vorteile dieser Modelle mit hoher Rechenleistung die Kosten für die Auswirkungen auf die Umwelt wert sind.“

NLP-Wachstum
(Quelle: Statista)

Der Markt für NLP-Technologie wird von 2018 bis 2025 voraussichtlich um über 750 % wachsen…

Die Umweltauswirkungen von NLG-Modellen wie GPT-3 (und seinen Nachkommen) werden wahrscheinlich damit zunehmen.

KI-Forscher sind sich der potenziellen Umweltschäden bewusst und ergreifen Maßnahmen, um sie zu messen und zu reduzieren.

Aber trotz aller Bemühungen von Wissenschaftlern bedeutet die „existenzielle Bedrohung“, die der Klimawandel für die Menschheit (und den Planeten) darstellt, dass jede Verschärfung der globalen Erwärmung durch KI-Technologie nicht auf die leichte Schulter genommen werden sollte.

GPT-3 und SEO

Content ist das Lebenselixier des digitalen Marketings…

Kein Wunder also, dass zahlreiche NLG-Startups auf SEOs abzielen.

KI hat bereits einen erheblichen Einfluss darauf, wie Autoren SEO-gesteuerte Inhalte erstellen – denken Sie an Surfer und PageOptimizerPro …

Aber welche Apps zu diesem Thema behaupten, die Notwendigkeit von Autoren insgesamt zu beseitigen?

Oder eine App, die E-Mails schreibt, die sich nicht von denen unterscheiden, die Sie selbst schreiben würden?

Die Anziehungskraft von Plattformen zur Automatisierung der Inhaltserstellung ist leicht zu erkennen…

Vor allem, wenn Ihr einziges Ziel bei der Erstellung von Inhalten darin besteht, den organischen Suchverkehr zu steigern, und die Bereitstellung von Mehrwert für Ihre Leser kein Problem darstellt.

Viele solcher Apps befinden sich in der Beta- oder Wartelistenphase – einige wenige sind jedoch bereits für den Geschäftsbetrieb geöffnet.

Ich habe Przemek Chojecki – den Gründer der automatisierten Inhaltserstellung SaaS Contentyze – interviewt, um zu erfahren, wohin die Reise mit der NLG-Technologie geht…

Ich habe auch Steve Toth, den Gründer von SEO Notebook, und Aleks Smechov, NLP-App-Entwickler und datengesteuerter Geschichtenerzähler, befragt, um ihre Gedanken zu den potenziellen Auswirkungen von NLG auf SEO und Webinhalte im Allgemeinen zu sammeln.

Prezemek Chojecki

Inhaltyze
Prezemek Chojecki

Interview mit Przemek Chojecki — Gründer von Contentyze*

Was hat Sie dazu inspiriert, Contentyze zu gründen?

Ich schreibe selbst viel und mein ursprüngliches Ziel war es, eine Reihe von Algorithmen zu entwickeln, die meinen Schreibprozess schneller und reibungsloser machen würden. Das war erfolgreich, also beschloss ich, eine Plattform zu erstellen, damit andere sie auch nutzen können.

Wer ist Ihr(e) ideale(r) Zielkunde(n)?

Im Moment sind meine Zielgruppen Vermarkter und SEO-Experten. Diese Gruppe benötigt regelmäßig viele Inhalte, und Contentyze kann ihnen dabei helfen, den Prozess zu beschleunigen. Aber im Idealfall möchte ich, dass Contentyze für alle nützlich ist, die einen Text schreiben müssen: Studenten, Büroangestellte, Ersteller von Inhalten. Wirklich jeder!

Können Sie mir einen oder mehrere Anwendungsfälle nennen?

Die derzeit häufigsten Anwendungsfälle sind das Generieren eines Blogposts aus einer Überschrift oder eine Textzusammenfassung aus einem Link.

Der erste Anwendungsfall funktioniert so: Du gibst Contentyze einen Prompt – etwa einen Satz oder eine Frage wie „How to use Artificial Intelligence in Enterprise?“

Contentyze NLG

Klicken Sie auf Generieren, warten Sie 1-2 Minuten und erhalten Sie einen Textentwurf.

Es ist nicht immer ideal, aber es ist immer einzigartig. Sie können diesen Vorgang ein paar Mal mit derselben Eingabeaufforderung/Überschrift wiederholen, um mehr Text zu erhalten.

Dann wählst du aus und voila, du hast einen Text in deinem Blog.

In welcher Art von Inhalten ist Contentyze „gut“?

Im Moment ist Contentyze wirklich gut darin, Texte zusammenzufassen.

Es ist auch relativ gut darin, Texte zu generieren, aber es ist noch nicht so konsistent, wie ich es gerne hätte.

In welchen Inhalten ist Contentyze nicht so gut?

Die Rewrite-Funktion braucht noch viel Arbeit, um sie gut zu machen.

Wir erlauben Leuten bereits, Texte umzuschreiben, aber ich bin nicht zufrieden damit, wie es jetzt funktioniert.

Eine gute Umschreibung zu machen ist eine ziemliche Herausforderung, wenn Sie keine einfache Content-Spinning durchführen möchten (zum Thesaurus gehen und Adjektive für etwas Ähnliches ändern).

Sehen Sie derzeit, dass Contentyze die Arbeit eines menschlichen Autors/Redakteurs erweitert oder sie vollständig ersetzt?

Definitiv eine Bereicherung der Arbeit eines menschlichen Schriftstellers. Mein Endziel ist es, einen perfekten Schreibassistenten zu schaffen, der Ihnen in jeder Phase des Schreibprozesses helfen kann, alles zu schreiben: von der Idee bis zum Entwurf und zur Bearbeitung.

Wahrscheinlich werden dabei einige Texterjobs ersetzt, was aber nicht mein Ziel ist.

Ich habe Contentyze ausprobiert und mir sind ein paar Dinge aufgefallen. Es funktioniert (vorhersehbar) besser mit kurzen Inhalten wie Produktbewertungen usw. Glauben Sie, dass Contentyze in naher Zukunft bei längeren Inhalten besser werden wird? Wieso den?

Aufgrund unserer derzeit begrenzten Rechenleistung kann es besser mit kurzen Inhalten umgehen. Dies ist ein rein technisches Problem, an dem wir gerade arbeiten. Je länger der Text ist, desto mehr Rechenleistung benötigen Sie, um ihn zu verarbeiten.

Als ich Contentyze bat, einen kürzlich erschienenen Artikel auf SEOButler über Apple, der möglicherweise eine Suchmaschine entwickelt, um mit Google zu konkurrieren, „umzuschreiben“, machte der erste Satz Sinn:

Googles Suchmaschine könnte in den nächsten Jahren von einem neuen Konkurrenten bedroht werden .

Aber das sind die folgenden Sätze:

Apple und Google führen Gespräche über einen möglichen Deal, bei dem Google die Suchfunktion des Suchgiganten auf dem iPhone übernehmen könnte.

Berichten zufolge ist Apples Deal, sein Smartwatch-Geschäft an Samsung zu verkaufen, zweifelhaft.

Berichten zufolge erwägt Google die Einführung einer neuen Suchmaschine in Russland, um mit Google von Alphabet und Bing von Microsoft zu konkurrieren.

Das neueste iPhone 7 Plus von Apple ist das neueste in einer langen Reihe von High-End-Smartphones, die entwickelt wurden, um mit Googles Android-Betriebssystem zu konkurrieren.

Bing ist die weltweit größte Suchmaschine, und ihre Suchergebnisse werden von vielen anderen Suchmaschinen auf der ganzen Welt verwendet, darunter Google, Yahoo und Microsoft.

Wenn Sie etwas im Internet finden möchten, müssen Sie nicht für jede Suche eine separate Suchmaschine verwenden.

Je weiter in der Umschreibung, es gibt Sätze, die nichts mit dem ursprünglichen Artikel zu tun haben:

Wenn Sie nach einem neuen Song zum Anhören oder einem neuen Album zum Kaufen suchen, gibt es viele Orte, an denen Sie es finden können.

Wenn Sie die beste Musik der Welt finden möchten, können Sie sie jetzt online finden.

Sowie Aussagen, die völlig falsch sind:

Das neueste Such-Update von Google ist ein willkommener Schritt nach vorne für den Suchgiganten, der lange hinter Konkurrenten wie Microsoft und Apple zurückgeblieben ist.

Wie sehen Sie, wie Ihre Endbenutzer mit dieser Art von Ergebnissen arbeiten?

Wie gesagt, rewrite ist jetzt die am schlechtesten funktionierende Funktion. Mit den Zusammenfassungsoptionen erhalten Sie solche Dinge nicht.

Ich hatte ähnliche Ergebnisse bei der Verwendung von Eingabeaufforderungen zum Erstellen neuer Inhalte. Sehen Sie, dass Contentyze in dieser Phase seiner Entwicklung eher als Brainstorming-Tool für menschliche Autoren als für veröffentlichungsfertige Inhalte verwendet wird?

Ja, ich erwarte nicht, dass die Leute es zu diesem Zeitpunkt direkt auf der Produktionsebene verwenden.

Andererseits ist es sehr nützlich, einen Text schnell zu entwerfen, damit ein menschlicher Redakteur ihn durchgehen, die notwendigen Änderungen vornehmen kann, um die Qualität sicherzustellen, und ihn veröffentlichen kann.

Ich gehe davon aus, dass Contentyze am Ende 80 % des Schreibjobs erledigen kann und der menschliche Schreiber den Rest erledigen wird.

Ich sehe, dass Contentyze und andere NLG-Startups ihre SaaS-Apps direkt an SEOs und Affiliate-Vermarkter vermarkten. Wieso den?

Eigentlich ist das ganz natürlich – diese Zielgruppe braucht regelmäßig Inhalte, also suchen sie aktiv nach Tools, die ihnen helfen können. Contentyze wuchs mit wenig Marketing auf über 3.000 Nutzer an und wurde fast ausschließlich organisch entdeckt.

Glaubst du, dass es langfristig eine Gefahr gibt, wenn Leute Apps wie Contentyze in großem Maßstab verwenden, um riesige Mengen an Inhalten zu generieren, die ausschließlich für SEO bestimmt sind, ohne Rücksicht darauf, dem Leser einen Mehrwert zu bieten? Wenn das oder etwas Ähnliches passiert, glauben Sie, dass Google seinen Suchalgorithmus ändern wird, um KI-generierte Inhalte zu erkennen und zu bestrafen?

Das ist definitiv der Grund, warum OpenAI, die Schöpfer von GPT2/GPT3, strenge Richtlinien eingeführt haben, um die Verwendung ihrer Algorithmen zu überwachen. Das gilt insbesondere für GPT3 und den gesamten Bewerbungsprozess dafür.

Ich denke, wir müssen vorsichtig sein, wenn wir weitermachen, denn diese Art von Technologie kann leicht dazu verwendet werden, das Internet zu „spammen“, ohne irgendeinen Wert zu bringen.

Das ganze SEO-Spiel wird sich definitiv ändern. Google wird seine Algorithmen anpassen, wie es viele Male zuvor getan hat, aber es ist schwer vorherzusagen, was passieren wird.

Ich wette, dass KI-generierte Inhalte in den nächsten 3-5 Jahren nicht mehr von von Menschen geschriebenen Inhalten zu unterscheiden sind, also muss Google etwas anderes erfinden, wenn sie KI-generierte Inhalte bestrafen wollen.

Jedenfalls würde ich keinen Unterschied zwischen Menschen- und KI-Inhalten machen. Wir sollten nur fragen, ob ein bestimmter Inhalt einen Mehrwert bietet oder nicht, unabhängig davon, wer oder was ihn erstellt hat.

Irgendwelche anderen Gedanken, die Sie teilen möchten?

Vielen Dank für das Interview und bitte besuchen Sie uns auf contentyze.com – die Registrierung ist kostenlos (keine Kreditkarte erforderlich), also probieren Sie es aus!

Wir legen großen Wert auf Feedback und möchten unser Tool so gut wie möglich gestalten, damit die Marketingmitarbeiter ihre Arbeit effektiver gestalten können.

Steve Tot

SEO-Notizbuch
Steve Tot

Interview mit Steve Toth – Gründer von SEO Notebook*

Seit der Einführung von SEO Notebook im Jahr 2018 hat es sich zum unverzichtbaren Single-Operator-Newsletter für SEOs entwickelt.

Wir hatten das Glück, dass Steve zu den letzten drei Expertenzusammenfassungen von SEOButler beigetragen hat, und ich korrespondiere seit einigen Jahren mit ihm per E-Mail.

Ich hatte auch das Vergnügen, Steve auf der Chiang Mai SEO 2019 zu treffen. Als ich ihn also in der Facebook-Gruppe von Affiliate SEO Mastermind über das Testen von GPT-3-generierten Inhalten für einen SEO-Kunden posten sah, musste ich nach seiner Meinung fragen…

Wie sehen Sie die Auswirkungen von GPT-3 und anderen NLG-Technologien auf SEO in den nächsten Jahren?

Ich denke, es wird das Vertrauen der Nutzer in Google untergraben. Ich denke, die Leute werden dazu übergehen, ihre Freunde noch mehr um Empfehlungen zu bitten.

Wie nutzen Sie GPT-3, um unterstützende Inhalte für SEO zu erstellen?

Mit Vorsicht. Ich habe einen Kunden, der das machen möchte. Also leite ich sie an, aber dieses Projekt wird beeinflussen, wie oft ich es in Zukunft verwende.

Wie wichtig ist Ihnen die Lesbarkeit bei der Verwendung von GPT-3-generierten Inhalten?

Riesig. Deshalb sehe ich mich nicht darin, GPT-3 zu sehr zu pushen.

GPT-3 kann Off-Page verwendet werden, aber es wird nicht unbedingt das Verfassen von Texten ersetzen.

Gibt es Arten von Inhalten (z. B. Produktbewertungen für eine Affiliate-Website), bei denen NLG Ihrer Meinung nach in naher Zukunft menschliche Autoren ersetzen wird?

Die Leute können ganze Affiliate-Sites mit GPT-3-Inhalten erstellen und dann warten, um zu sehen, welche Ränge sie haben, und die Kopie später verfeinern. Das sehe ich als primären Anwendungsfall.

Aleks Smechov

Skriber.io
Aleks Smechov

Interview mit Aleks Smechov – Gründer von Skriber.io und NLP-SaaS-Entwickler*

Aleks ist nicht nur Mitarbeiter des SEOButler-Blogs und Newsletter-Berater für The Edge Group, sondern auch Gründer/Entwickler der NLP-SaaS-Apps Extractor und Skriber.

Sehen Sie GPT-3 oder andere NLG-Technologien, die in naher Zukunft Autoren und Redakteure für bestimmte Arten von Inhalten ersetzen werden?

Ich konzentriere mich auf die journalistische Seite.

Es gibt bereits Nicht-KI-Software, die kleine faktenbasierte Artikel erstellt.

Ein Beispiel ist Automated Insights und wie sie die NCAA-Basketballberichterstattung und dergleichen schreiben.

Ich denke, wenn Sie NLG mit vorlagenbasierter Textgenerierung kombinieren, können Sie etwas wichtigere/längere Geschichten erstellen oder Teile anderer Geschichten aggregieren.

Aber für ernsthafteren Journalismus sehe ich, dass KI die Nachrichtenredaktion nur erleichtert, nicht ersetzt.

Selbst mit GPT-3 oder anderen großen natürlichen Sprachmodellen ist das Erhalten eines guten Satzes oder Absatzes wie Roulette, zusätzlich zu einer Menge Faktenchecks.

Es wäre mehr Arbeit, als einen Journalisten den Artikel schreiben zu lassen.

Sehen Sie, dass NLG die Rolle der Ersteller von Inhalten in naher Zukunft verstärken wird? Wenn das so ist, wie?

Sicher, um Alternativen zu bereits geschriebenen Sätzen/Absätzen zu erstellen, Zusammenfassungen oder wie oben erwähnt, Inhalte aus mehreren Quellen zusammenzufassen (z. B. für eine Zusammenfassung, die wahrscheinlich sowieso bearbeitet werden müsste).

Was sind Ihre 3 größten Bedenken bei der Verbreitung von NLG-Technologien wie GPT-3 und anderen?

Diese NLG bevölkert das Internet mit:

  • Tatsachenloser Müll
  • Aufgeblähter SEO-Content
  • Inhalte, die allem anderen sehr ähnlich sehen.

Nicht, dass dieses Zeug nicht schon im Internet vorkommt… <smiley emoji>

Kann ich meine Autoren und Redakteure schon entlassen?

Hier ist die kurze Antwort: Nein.

KI hat sich bei engen, spezifischen Aufgaben als gleichwertig oder überlegen gegenüber Menschen erwiesen – vom Schlagen der weltbesten Schach- und Go-Spieler bis hin zur Erkennung von Krebs.

Aber während NLG bemerkenswert gut darin wird, natürliche Sprache nachzuahmen, hat es noch einen langen Weg vor sich, bevor es kompetente menschliche Autoren und Redakteure ersetzen kann.

Selbst das anspruchsvollste NLG verlässt sich auf „Eingabeaufforderungen“ von Menschen – ganz zu schweigen von intensiver Bearbeitung und Überprüfung von Fakten …

Kreativität – insbesondere, wenn es darum geht, originelle Ideen zu entwickeln und einzigartige Verbindungen zwischen unterschiedlichen Informations- und Inspirationsquellen herzustellen – gehört nicht zum Repertoire von GPT-3.

GPT-3 kann Text imitieren, der die Welt, Emotionen und Erfahrungen beschreibt – aber es hat keinen eigenen.

Hier ist, was GPT-3 selbst zu dieser Frage zu sagen hat …

GPT-3 Writer ersetzen

Warten Sie, fragen wir es noch einmal …

GPT_3 Beispiel 1

Sicher, Sie könnten die GPT-3-Würfel weiter rollen (ich stelle es mir lieber als russisches Roulette vor), die besten Teile herauspicken und sie dann zu etwas Besserem als dem inhaltlichen Äquivalent von Frankensteins Monster zusammenfügen.

Vorzugsweise ein Patchwork mit einer kohärenten Sichtweise, die Ihr Publikum tatsächlich einbezieht.

Dann bräuchte Frankenstein einen gründlichen Faktencheck.

Beachten Sie, dass sogar der allererste Satz im zweiten Beispiel ein Wortsalat aus Müll ist.

Alan Turing ist seit 66 Jahren tot – es ist zweifelhaft, ob er „Webwriting-Startups“ erwirbt.

Oder ist das ein Verweis auf Microsofts Turing NLG? Auf jeden Fall hat es weder ein Unternehmen gekauft noch GPT-3 ans Licht gebracht.

Sie könnten das alles tun – oder Sie könnten einfach einen Autor einstellen.

GPT-3 und seine Nachkommen – oder jedes andere NLG-Modell – müssen viel schlauer werden, bevor sie Autoren und Redakteure ersetzen.

Und viel menschlicher.

Menschlicher als menschlich
(Quelle: The Tyrell Corporation)

Künstliche Allgemeine Intelligenz (AGI) – Mehr Mensch als Mensch?

NLP und NLG können sich als entscheidende Schritte auf dem Weg zur Künstlichen Allgemeinen Intelligenz (AGI) erweisen (oder auch nicht).

AGI-Maschinen, die lange als der heilige Gral der KI galten, sind die, die man in den Filmen sieht – „Roboter“, die alles können, was ein Mensch genauso gut oder besser kann.

OpenAI hat sicherlich das Ziel, AGI zu erstellen. Bei der Ankündigung der Investition von Microsoft in OpenAI in Höhe von 1 Milliarde US-Dollar hat das Unternehmen sie folgendermaßen definiert:

„Ein AGI wird ein System sein, das in der Lage ist, ein Studiengebiet auf Weltexpertenniveau zu beherrschen und mehr Gebiete zu beherrschen als jeder andere Mensch – wie ein Werkzeug, das die Fähigkeiten von Curie, Turing und Bach kombiniert.

Ein AGI, der an einem Problem arbeitet, wäre in der Lage, Verbindungen zwischen Disziplinen zu erkennen, die kein Mensch könnte. Wir möchten, dass AGI mit Menschen zusammenarbeitet, um derzeit unlösbare multidisziplinäre Probleme zu lösen, darunter globale Herausforderungen wie Klimawandel, erschwingliche und qualitativ hochwertige Gesundheitsversorgung und personalisierte Bildung.

Wir denken, dass seine Wirkung darin bestehen sollte, jedem die wirtschaftliche Freiheit zu geben, das zu tun, was er am erfüllendsten findet, und neue Möglichkeiten für unser aller Leben zu schaffen, die heute unvorstellbar sind.“

Klingt nach Utopie, oder?

Aber ist das gut so?

Historisch hat sich die Utopie einfach nicht ausgezahlt:

„Wenn unvollkommene Menschen Perfektionierung versuchen – persönlich, politisch, wirtschaftlich und sozial – scheitern sie. Der dunkle Spiegel der Utopien sind also Dystopien – gescheiterte soziale Experimente, repressive politische Regime und überhebliche Wirtschaftssysteme, die aus in die Praxis umgesetzten utopischen Träumen resultieren.“ – Michael Schermer

Hier ist, was GPT-3 über das Erreichen von AGI zu sagen hatte:

GPT-3 AGI

Es mag nur Wunschdenken sein, GPT-3, aber diesmal bin ich geneigt, dem zuzustimmen.

Schriftsteller erweitern

Autoren erweitern – nicht ersetzen

GPT-3 ist im letzten Satz des obigen Beispiels wohl wieder einmal falsch …

Wenn es um NLP, NLG und sogar die Suche nach AGI geht, hat es erhebliche Fortschritte gegeben.

Und das Innovationstempo wird sich so schnell nicht verlangsamen.

Less than a month into 2021, the Google Brain team announced a new transformer-based AI language model that dwarfs GPT-3 when measured by the number of parameters.

Google's Switch Transformer is trained on 1 trillion parameters — roughly 6 times as many as GPT-3.

Little is known about potential applications for the Switch Transformer model at the time of writing, but the NLP arms-race shows no signs of abating.

Maybe the day will come when machines replace human writers and editors, but I'm not holding my breath.

As Tristan Greene, AI editor for The Next Web, says about Switch Transformer:

“While these incredible AI models exist at the cutting-edge of machine learning technology, it's important to remember that they're essentially just performing parlor tricks.

These systems don't understand language, they're just fine-tuned to make it look like they do.”

At this point, I'm sure it's clear that I have a dog in this fight.

As objective as I've tried to be in writing this article, I do have a vested interest in human content creators remaining relevant and superior to machines.

But that doesn't mean I don't see how NLP and NLG technology can make me better at what I do.

In truth, AI has been augmenting my writing and editing for years…

I use Rev to auto-transcribe audio and video interviews. I also use it to create transcripts of SEOButler founder Jonathan Kiekbusch and Jarod Spiewak's Value Added Podcast to help me write the show notes more quickly and accurately.

And Grammarly is a powerful tool for even the most diligent editor or proofreader.

As GPT-3 and other advanced NLP models become more accurate and “trustworthy,” their potential ability to summarize long-form content — particularly academic research papers — could prove extremely valuable.

Suppose the future I have to look forward to is one where AI eliminates some of the drudgery of creating SEO-driven content — and I have to edit and polish informational content partly composed by machines instead of writers.

I guess I can live with that…

I may not have a choice.

*Each Q&A has been edited and condensed for clarity.