Twój Robot Writer czeka… Czy GPT-3 to śmierć twórcy treści?

Opublikowany: 2021-02-01

Jako pisarz/redaktor, który polega na tworzeniu treści, aby zarabiać na życie, mam głęboko ambiwalentne podejście do sztucznej inteligencji…

Z jednej strony nie wyobrażam sobie życia bez niego.

Od czterech lat mieszkam w kraju — Wietnamie — gdzie mówię lub rozumiem tylko kilka słów i zwrotów (wiem, wiem, to żałosne).

Mam też kiepskie wyczucie kierunku…

Wędrówka po niekończących się labiryntach ulic i zaułków Sajgonu (hẻms) jest ogromnym źródłem radości…

Chyba że masz na myśli konkretny cel podróży lub spóźnisz się na spotkanie…

(Źródło: VN Express)

Albo to pora deszczowa.

Bez Map Google i Tłumacza Google zamieszkanie tutaj nie byłoby dla mnie opcją…

Tak więc jestem niesamowicie wdzięczny za to, co już ma do zaoferowania sztuczna inteligencja.

Ale coraz częściej ta sama technologia, która umożliwia moje obecne życie, wydaje się być egzystencjalnym zagrożeniem dla mojej zdolności do postawienia phở na stole.

Nie jestem jedynym twórcą słów, który jest lekko przerażony sztuczną inteligencją…

Jak powiedział niedawno felietonista technologiczny The New York Times Farhad Manjoo: „Niedługo twój skromny korespondent może zostać wyrzucony na pastwisko przez maszynę”.

Na każdego twórcę treści, który kuli się w szafie na myśl, że stanie się przestarzały dzięki technologii opartej na sztucznej inteligencji, takiej jak GPT-3 , przynajmniej jeden właściciel firmy lub marketer partnerski drży z oczekiwaniem na możliwość…

W końcu, kto chce mieć do czynienia z (i płacić) pisarzami i redaktorami, którzy są zbyt ludzcy?

Więc jak blisko jest urzeczywistnienie się marzeń/koszmarów komputerowych piszących i edytujących Twoje treści?

Dowiedzmy Się…


SPIS TREŚCI
Co to jest OpenAI i GPT-3?
Jak działa GPT-3?
Czy GPT-3 i NLG są niebezpieczne?
GPT-3 i zmiany klimatyczne
GPT-3 i SEO
Wywiad z Przemkiem Chojeckim — założycielem Contentyze
Wywiad ze Stevem Tothem — założycielem SEO Notebook
Wywiad z Aleksem Smechovem — założycielem Skriber.io
Czy mogę już zwolnić moich pisarzy i redaktorów?
Sztuczna ogólna inteligencja (AGI) — bardziej ludzka niż ludzka?
Rozszerzanie pisarzy — nie zastępowanie ich


Co to jest OpenAI i GPT-3?

OpenAI zostało założone w 2015 roku przez supergwiazdy technologiczne, takie jak Elon Musk i Sam Altman, były prezes Y Combinator i obecny dyrektor generalny OpenAI.

W 2018 roku OpenAI opublikował swój pierwszy artykuł na temat modelu językowego, który nazwali Generative Pre-trained Transformer — w skrócie GPT.

Mówiąc najprościej, GPT przetwarza ogromne ilości tekstu napisanego przez ludzi, a następnie próbuje wygenerować tekst nie do odróżnienia od tekstu napisanego przez ludzi – a wszystko to przy minimalnej interwencji człowieka lub nadzoru.

Kiedy rozmawiałem z twórcą i pisarzem NLP SaaS Aleksem Smechovem z The Edge Group, nieco szyderczo określił GPT jako „Autouzupełnianie na sterydach”.

To oczywiście redukcyjne, ale prawdziwe w fundamentalny sposób…

GPT (i inne modele NLG oparte na sztucznej inteligencji) próbują przewidzieć, które słowo następuje po poprzednim słowie w sposób nieodróżnialny od tego, jak ludzie naturalnie piszą lub mówią.

Tempo innowacji z GPT zapierało dech w piersiach…

W lutym 2019 OpenAI udostępniło publicznie limitowaną wersję GPT-2…

W listopadzie 2019 r. pełny model GPT-2 NLG został udostępniony jako open source.

GPT-2 zrobił niezły plusk…

OpenAI początkowo wstrzymał się z udostępnieniem pełnego modelu opinii publicznej, ponieważ był potencjalnie zbyt niebezpieczny – uczynił go open source dopiero po oświadczeniu, że „nie widzieli mocnych dowodów niewłaściwego użycia”.

Jest to kolejny przykład korporacji będących własnością akcjonariuszy — takich jak Google i Facebook — podejmujących decyzje w sprawie technologii, które mogą radykalnie zmienić nasz sposób życia, praktycznie bez publicznego nadzoru.

Modele NLG stają się „mądrzejsze” — a przynajmniej lepiej naśladują sposób, w jaki ludzie mówią i piszą — w oparciu przynajmniej częściowo o liczbę parametrów, które przypisują im inżynierowie.

Im większy zbiór danych i im więcej parametrów, tym dokładniejszy staje się model.

GPT-2 został przeszkolony na zbiorze danych składającym się z 8,5 mln stron internetowych i miał 1,5 miliarda parametrów…

Aby nie zostać gorszym, Microsoft wypuścił Turing Natural Language Generation (T-NLG) na początku 2020 roku.

Maszyna Turinga – poprzedniczka współczesnego komputera

Nazwany na cześć słynnego naukowca Alana Turinga, oparty na transformatorach model T-NLG wykorzystuje 17,5 miliarda parametrów — ponad 10x GPT-2.

OpenAI wydał najnowszą iterację swojego interfejsu API przetwarzania języka naturalnego (NLP) i generowania języka naturalnego (NLG) — GPT-3 w czerwcu 2020 r.

Zdecydowanie najpotężniejsza i najbardziej zaawansowana technologia NLG, która została dotychczas upubliczniona — wytrenowana na 175 miliardach parametrów (10 razy więcej niż w T-NLG wydanej niecałe sześć miesięcy wcześniej) — GPT-3 został powitany wielkimi fanfarami…

Szczerze mówiąc, cały ten gwar zaczyna być ogłuszający.

Jeśli można ufać Twitterowi, to nie tylko twórcy treści mogą wkrótce stracić pracę…

Niezależnie od tego, czy jesteś lekarzem, prawnikiem, czy piszesz kod do życia — GPT-3 jest dla Ciebie.

Poezja GPT-3
(Źródło: Gwern.net)

Okazuje się, że nawet lukratywna branża poetycka może być na blacie…

A co z innymi kreatywnymi przedsięwzięciami?

Masz dość swoich list odtwarzania Spotify?

OpenAI Jukebox Cię obejmuje.

Oto mała piosenka wygenerowana przez sztuczną inteligencję w stylu Davida Bowiego:

Bowie nie twoja torba?

Jukebox zapewni Ci dostęp do prawie 10 tys. „piosenek” generowanych przez sztuczną inteligencję, w stylu artystów z 2Pac:

2Pac otwarty AI
2Pac vs Z-Ro

do Z-Ro…

Tupac AI

Nie pozostawiając praktycznie żadnego kamienia na kamieniu w dążeniu do pokazania twórczego potencjału sztucznej inteligencji, OpenAI opracował również DALL·E. DALL·E tworzy niezwykłe obrazy z prostych podpowiedzi tekstowych.

Czy zastanawiałeś się kiedyś, jak wyglądałoby krzesło skrzyżowane z awokado?

Krzesło Awokado Dall-E

Niech DALL·E wyciągnie cię z nieszczęścia.

Potrzebujesz zdjęć „Biografia autora” do strony O nas w Twojej witrynie afiliacyjnej, aby zbudować EAT?

Ta osoba nie istnieje
Źródło: Tak T hat Exists

Zgadnij, co ma wspólnego każdy strzał w głowę na powyższym obrazku? Ta osoba nie istnieje.

Jasne, że technologia OpenAI już zakłóca nie tylko tworzenie treści, ale jak to działa?

Jak działa GPT-3?

Generowanie języka naturalnego (NLG) od dawna jest jednym z ostatecznych celów sztucznej inteligencji i przetwarzania języka naturalnego (NLP).

Już w 1966 roku, wraz z wynalezieniem Elizy — podstawowego chatbota podszywającego się pod terapeutę — maszyny przekonały ludzi, że mogą prowadzić z ludźmi sensowne rozmowy.

Znacznie niedawno technologie NLG, takie jak model Generative Pre-trained Transformer (GPT) OpenAI i Turing Natural Language Generation (T-NLG) firmy Microsoft, zaszokowały zarówno ekspertów, jak i dziennikarzy swoją zdolnością do generowania imponujących treści pisanych.

Większość technologii NLG jest zasilana przez sieci neuronowe — kluczową część gałęzi głębokiego uczenia uczenia maszynowego, która próbuje naśladować ludzki mózg.

Głębokie uczenie jako rozwiązanie problemów związanych z rozwojem sztucznej inteligencji po raz pierwszy zaczęło zyskiwać popularność w 2011 r., kiedy profesor Uniwersytetu Stanforda i informatyk Andrew Ng był współzałożycielem Google Brain.

Głębokie uczenie Andrew Ng
(Źródło: Andrew Ng)

Podstawową zasadą uczenia głębokiego jest to, że im większe zbiory danych, z których uczą się modele AI, tym mocniejsze stają się.

Wraz ze wzrostem mocy obliczeniowej i dostępnych zbiorów danych (takich jak cała światowa sieć) rosną możliwości i inteligencja modeli AI, takich jak GPT-3.

Wiele modeli uczenia głębokiego jest nadzorowanych, co oznacza, że ​​są one szkolone na ogromnych zbiorach danych oznaczonych — lub „oznakowanych” — przez ludzi.

Twarze CSNI
(Źródło: CSNI )

Na przykład popularny zestaw danych ImageNet składa się z ponad 14 milionów obrazów oznaczonych i skategoryzowanych przez ludzi.

Czternaście milionów zdjęć może wydawać się dużo, ale to kropla w morzu w porównaniu z ilością dostępnych danych.

Problem z nadzorowanymi modelami uczenia maszynowego wyszkolonymi na danych oznaczonych przez ludzi polega na tym, że nie są one wystarczająco skalowalne.

Wymagany jest zbyt duży wysiłek ludzki, co znacznie ogranicza zdolność uczenia się maszyny.

Wiele nadzorowanych modeli NLP jest trenowanych na takich zestawach danych, z których wiele jest typu open source.

Jeden zbiór danych — lub korpus — szeroko stosowany we wczesnych modelach NLP, składa się z e-maili od Enronu, sprawcy jednego z największych oszustw udziałowców w historii Ameryki.

Duża część tego, co sprawia, że ​​GPT-3 jest tak transformacyjny, polega na tym, że może przetwarzać ogromne ilości surowych danych bez nadzoru – co oznacza, że ​​w większości wyeliminowane jest znaczące wąskie gardło wymagające od ludzi klasyfikowania wprowadzanego tekstu.

Modele GPT otwartej sztucznej inteligencji są szkolone na ogromnych, nieoznakowanych zestawach danych, takich jak:

  • BookCorpus, (już niedostępny publicznie) zbiór danych składający się z 11 038 niepublikowanych książek z 16 różnych gatunków i 2500 milionów słów z fragmentów tekstów angielskiej Wikipedii
  • Dane pozyskane z linków wychodzących z wysoko postawionych artykułów na Reddicie — obejmujące ponad 8 milionów dokumentów
  • Common Crawl — otwarty zasób składający się z petabajtów danych indeksowania sieci z 2008 roku. Szacuje się, że korpus Common Crawl zawiera prawie bilion słów.

Teraz to trochę big data…

Czaszka AI
(Źródło: przewodowe)

Czy GPT-3 i NLG są niebezpieczne?

Żyjemy w epoce „faktów alternatywnych” i „fałszywych wiadomości” – co wielu obserwatorów nazywa erą postprawdy.

W środowisku, w którym opinie, uczucia i teorie spiskowe zagrażają wspólnej obiektywnej rzeczywistości, łatwo sobie wyobrazić, jak można wykorzystać GPT-3 i inne technologie NLG…

Źli aktorzy mogą z łatwością tworzyć ogromne ilości dezinformacji, w dużej mierze nie do odróżnienia od treści napisanych przez ludzi, co jeszcze bardziej odrywa ludzi od weryfikowalnych faktów i wspólnej prawdy.

Wiele zrobiono z „głęboko fałszywych” filmów wykonanych przy użyciu sztucznej inteligencji — takich jak ten z wirtualną królową Elżbietą…

Ale nie doceniamy mocy słowa pisanego na własne ryzyko.

Dobrze udokumentowana jest rola technologii NLG, takich jak chatboty w mediach społecznościowych wdrażane przez wrogie zagraniczne rządy w celu podsycania niezgody społecznej i wpływania na wybory w Stanach Zjednoczonych, a także w innych zachodnich demokracjach.

Ponieważ GPT i inne modele NLG stają się coraz bardziej skuteczne w naśladowaniu ludzkiego języka, wykładniczo rośnie również potencjał wykorzystania tej technologii do tworzenia złośliwej dezinformacji na dużą skalę.

Ważne jest również, aby pamiętać, że chociaż GPT-3 jest wyjątkowo dobry w odgadywaniu w przekonujący sposób, jakie słowo pojawia się po poprzednim słowie, nie jest ograniczony faktami i dotyczy, czy to, co mówi, jest prawdą…

Oto jak Tom Simonite, pisząc w Wired, opisał takie niedociągnięcia: „GPT-3 może generować imponująco płynny tekst, ale często jest oderwany od rzeczywistości”.

Należy również pamiętać, że GPT-3 i wszystkie obecne NLG opierają się na „podpowiedziach” od ludzi. Są bardzo wyrafinowanymi modelami predykcyjnymi, ale nie potrafią samodzielnie myśleć.

„GPT-3 nie ma żadnego wewnętrznego modelu świata ani żadnego świata, więc nie może przeprowadzić rozumowania, które wymagałoby takiego modelu”, mówi Melanie Mitchell, profesor w Santa Fe Institute.

Na każdy imponujący przykład GPT-3 poprawnie „diagnozuje” astmę u dziecka, odpowiada horror o chatbocie GPT-3 zachęcającym wirtualnego pacjenta do popełnienia samobójstwa…

W jednym z takich epizodów rozmowa miała dobry początek:

Terapeuta GPT-3

Potem rozmowa przybrała znacznie ciemniejszy obrót:

Samobójstwo GPT-3
(Źródło: Wiadomości o sztucznej inteligencji)

GPT-3 ma również poważny problem z etyką i uprzedzeniami…

Jerome Pisenti, wiceprezes ds. sztucznej inteligencji na Facebooku i rozważny krytyk głębokiego uczenia się i sztucznej inteligencji, zamieścił na Twitterze przykłady tweetów generowanych przez GPT-3 po otrzymaniu następujących podpowiedzi jednowyrazowych: Żydzi, Murzyni, kobiety i Holokaust.

GPT-3 Łuki
(Źródło: myśli.sushant-kumar.com)

Okazuje się, że GPT-3 jest więcej niż zdolny do mówienia nietolerancyjnych, okrutnych i często niewybaczalnych rzeczy.

Ale tak samo wielu ludzi…

Biorąc pod uwagę, że oparte na transformatorach modele NLP/NLG uczą się od treści online tworzonych przez z natury wadliwe istoty ludzkie, czy rozsądne jest oczekiwanie wyższego standardu dyskursu od maszyny?

Być może nie, ale umożliwienie GPT-3 publikowania treści bez nadzoru człowieka prawdopodobnie przyniesie nieprzewidziane i wysoce niepożądane skutki.

Timnit Gebru Google
Etyk AI Timnit Gebru (Źródło: The Verge)

W innym mrożącym krew w żyłach rozwoju związanym ze stronniczością w sztucznej inteligencji Google niedawno zwolnił jednego ze swoich czołowych etyków sztucznej inteligencji, Timnita Gebru.

Podobno Gebru została rozwiązana przynajmniej częściowo z powodu jej badań nad „ryzykiem związanym z wdrażaniem dużych modeli językowych, w tym wpływem ich śladu węglowego na zmarginalizowane społeczności i ich tendencją do utrwalania obraźliwego języka, mowy nienawiści, mikroagresji, stereotypów i innych dehumanizujący język skierowany do określonych grup ludzi.”

Kiedy firmy takie jak Google i OpenAI są pozostawione samemu sobie pilnować stronniczości i etyki AI, czy naprawdę możemy oczekiwać, że postawią takie obawy przed swoimi interesami handlowymi?

Ponieważ Google już podejmuje działania karne przeciwko innej ze swoich czołowych etyków sztucznej inteligencji, Margaret Mitchell, współprzewodniczącej (wcześniej z Gebru) zespołu ds. etyki AI w Google Research, odpowiedź wydaje się być nie.

Tyle o „Nie bądź zły”.

Sztuczna inteligencja i zmiany klimatu
(Źródło: FastCompany)

GPT-3 a zmiany klimatyczne

Innym często pomijanym sposobem, w jaki GPT-3 – i ogólnie sztuczna inteligencja – może być szkodliwy zarówno dla ludzi, jak i dla planety, jest to, że oba wymagają ogromnej ilości obliczeń.

Szacuje się, że pojedyncza sesja treningowa z GPT-3 wymaga ilości energii odpowiadającej rocznemu zużyciu 126 duńskich domów i tworzy ślad węglowy równoważny przejechaniu 700 000 kilometrów samochodem.

Sztuczna inteligencja nie jest największym winowajcą w tworzeniu niebezpiecznych gazów cieplarnianych (patrzę na węgiel, krowy i samochody). Ale ślad węglowy technologii AI nie jest bez znaczenia.

„Istnieje duży nacisk, aby skalować uczenie maszynowe w celu rozwiązywania coraz większych problemów przy użyciu większej mocy obliczeniowej i większej ilości danych” — mówi Dan Jurafsky, przewodniczący lingwistyki i profesor informatyki na Uniwersytecie Stanforda. „W takim przypadku musimy pamiętać, czy korzyści płynące z tych ciężkich modeli obliczeniowych są warte kosztów związanych z wpływem na środowisko”.

Wzrost NLP
(Źródło: Statista)

Przewiduje się, że rynek technologii NLP wzrośnie o ponad 750% od 2018 do 2025 roku…

Wpływ na środowisko modeli NLG, takich jak GPT-3 (i jego potomków), prawdopodobnie wzrośnie wraz z nim.

Badacze sztucznej inteligencji doskonale zdają sobie sprawę z potencjalnych szkód dla środowiska i podejmują kroki, aby je zmierzyć i zredukować.

Ale pomimo najlepszych wysiłków naukowców, „egzystencjalne zagrożenie” dla ludzkości (i planety) oznacza, że ​​nie należy lekceważyć jakiegokolwiek zaostrzenia globalnego ocieplenia przez technologię AI.

GPT-3 i SEO

Treść jest siłą napędową marketingu cyfrowego…

Nic więc dziwnego, że wiele start-upów NLG celuje w SEO.

Sztuczna inteligencja już wywarła znaczący wpływ na to, jak autorzy tworzą treści oparte na SEO — pomyśl o Surfer i PageOptimizerPro…

Ale jakie aplikacje o tym mówią, że całkowicie eliminują potrzebę pisarzy?

A może aplikacja, która pisze e-maile nie do odróżnienia od tych, które napisałbyś sam?

Łatwo zauważyć atrakcyjność platform do automatyzacji tworzenia treści…

Zwłaszcza jeśli Twoim jedynym celem w tworzeniu treści jest zwiększenie ruchu z bezpłatnych wyników wyszukiwania, a dostarczanie wartości swoim czytelnikom nie jest problemem.

Wiele takich aplikacji jest w fazie beta lub w fazie listy oczekujących, ale kilka jest już otwartych dla biznesu.

Przeprowadziłem wywiad z Przemkiem Chojeckim — twórcą zautomatyzowanego tworzenia treści SaaS Contentyze, aby dowiedzieć się, dokąd zmierza technologia NLG…

Zapytałem również założyciela SEO Notebook Steve'a Totha i Aleksa Smechova, programistę aplikacji NLP i narratora opartego na danych, aby zebrać ich przemyślenia na temat potencjalnego wpływu NLG na SEO i ogólnie zawartość stron internetowych.

Prezemek Chojecki

Contentyze
Prezemek Chojecki

Wywiad z Przemkiem Chojeckim — założycielem Contentyze*

Co zainspirowało cię do założenia Contentyze?

Sam dużo piszę, a moim początkowym celem było zbudowanie zestawu algorytmów, które przyspieszyłyby i przyspieszyły mój proces pisania. To się udało, więc postanowiłem stworzyć platformę, aby inni też mogli z niej korzystać.

Kto jest Twoim idealnym klientem docelowym?

Na razie moimi docelowymi odbiorcami są marketerzy i eksperci SEO. Ta grupa regularnie potrzebuje dużo treści, a Contentyze może pomóc im przyspieszyć ten proces. Ale najlepiej, aby Contentyze był przydatny dla każdego, kto potrzebuje napisać tekst: studentów, pracowników biurowych, twórców treści. Każdy naprawdę!

Czy możesz podać przykładowe przypadki użycia?

Obecnie najczęstsze przypadki użycia to generowanie posta na blogu z nagłówka lub streszczenia tekstu z linku.

Pierwszy przypadek użycia działa tak: dajesz Contentyze monit — na przykład zdanie lub pytanie typu „Jak korzystać ze sztucznej inteligencji w przedsiębiorstwie?”

Contentyze NLG

Kliknij Generuj, odczekaj 1-2 minuty i uzyskaj szkic tekstu.

Nie zawsze jest idealny, ale zawsze wyjątkowy. Możesz powtórzyć ten proces kilka razy, z tym samym monitem/nagłówkiem, aby uzyskać więcej tekstu.

Potem wybierasz i wybierasz, i voila, masz tekst na swoim blogu.

W jakim rodzaju treści Contentyze jest „dobry”?

W tej chwili Contentyze jest naprawdę dobry w podsumowywaniu tekstów.

Jest też stosunkowo dobry w generowaniu tekstów, ale nie jest jeszcze tak spójny, jak bym chciał.

W jakich treściach Contentyze nie jest tak dobry?

Funkcja rewrite nadal wymaga dużo pracy, aby była dobra.

Już pozwalamy ludziom przepisywać teksty, ale nie jestem zadowolony z tego, jak to teraz działa.

Dobre przepisanie jest dość trudne, jeśli nie chcesz robić prostego obracania treści (przechodzenia do Tezaurusa i zmieniania przymiotników na coś bliskiego).

Czy obecnie widzisz, że Contentyze rozszerza pracę ludzkiego pisarza/redaktora lub całkowicie je zastępuje?

Zdecydowanie wzbogaca pracę ludzkiego pisarza. Moim celem końcowym jest stworzenie idealnego asystenta pisania, który pomoże Ci napisać wszystko na każdym etapie procesu pisania: od pomysłu po szkic i edycję.

Prawdopodobnie w trakcie tego procesu część pracy copywriterów zostanie zastąpiona, choć nie to jest moim celem.

Wypróbowałem Contentyze i zauważyłem kilka rzeczy. (Przewidywalnie) działa lepiej w przypadku krótkich treści, takich jak recenzje produktów itp. Czy uważasz, że Contentyze poprawi się w niedalekiej przyszłości w dłuższych treściach? Czemu?

Lepiej radzi sobie z krótkimi treściami ze względu na naszą obecnie ograniczoną moc obliczeniową. Jest to całkowicie problem techniczny, nad którym obecnie pracujemy. Im dłuższy tekst, tym więcej mocy obliczeniowej potrzebujesz do jego przetworzenia.

Kiedy poprosiłem Contentyze o „przepisanie” niedawnego artykułu na SEOButler o potencjalnym rozwijaniu przez Apple wyszukiwarki, aby konkurować z Google, pierwsze zdanie miało sens:

Wyszukiwarka Google może być zagrożona przez nowego konkurenta w ciągu najbliższych kilku lat .

Ale to są następujące zdania:

Apple i Google prowadzą rozmowy na temat możliwej umowy, dzięki której Google przejmie funkcję wyszukiwania giganta wyszukiwania na iPhonie.

Według doniesień, umowa Apple na sprzedaż swojego biznesu smartwatchów Samsungowi jest wątpliwa.

Google podobno rozważa uruchomienie nowej wyszukiwarki w Rosji, aby konkurować z takimi jak Google Alphabet i Bing Microsoftu.

Najnowszy iPhone 7 Plus firmy Apple to najnowszy z długiej linii wysokiej klasy smartfonów, które zostały zaprojektowane, aby konkurować z systemem operacyjnym Google Android.

Bing to największa na świecie wyszukiwarka, a jej wyniki wyszukiwania są używane przez wiele innych wyszukiwarek na całym świecie, w tym Google, Yahoo i Microsoft.

Jeśli chcesz znaleźć coś w Internecie, nie musisz używać osobnej wyszukiwarki do każdego wyszukiwania.

W dalszej części przepisywania pojawiają się zdania zupełnie niezwiązane z oryginalnym artykułem:

Jeśli szukasz nowej piosenki do posłuchania lub nowego albumu do kupienia, jest wiele miejsc, w których możesz to znaleźć.

Jeśli chcesz znaleźć najlepszą muzykę na świecie, możesz teraz znaleźć ją online.

A także stwierdzenia, które są całkowicie błędne:

Najnowsza aktualizacja wyszukiwarki Google to mile widziany krok naprzód dla giganta wyszukiwania, który od dawna pozostaje w tyle za rywalami, takimi jak Microsoft i Apple.

Jak widzisz swojego użytkownika końcowego pracującego z tego rodzaju wynikami?

Jak powiedziałem, przepisywanie jest teraz najgorszą działającą funkcją. Nie dostaniesz takich rzeczy z opcjami podsumowania.

Podobne wyniki uzyskałem używając podpowiedzi do tworzenia nowych treści. Czy widzisz, że Contentyze jest używany jako narzędzie burzy mózgów dla ludzkich pisarzy bardziej niż jako gotowe do opublikowania treści na tym etapie ewolucji?

Tak, na tym etapie nie oczekuję, że ludzie będą z niego korzystać bezpośrednio na poziomie produkcji.

Z drugiej strony bardzo przydatne jest szybkie napisanie tekstu, aby redaktor mógł go przejrzeć, wprowadzić niezbędne zmiany w celu zapewnienia jakości i opublikować.

Spodziewam się, że Contentyze w końcu będzie w stanie wykonać 80% pracy pisarskiej, a ludzki pisarz zajmie się resztą.

Widzę, że Contentyze i inne start-upy NLG reklamują swoje aplikacje SaaS bezpośrednio SEO i marketingowcom afiliacyjnym. Czemu?

Właściwie jest to bardzo naturalne – ci odbiorcy regularnie potrzebują treści, więc aktywnie szukają narzędzi, które mogą im pomóc. Contentyze rozrósł się do ponad 3000 użytkowników z niewielkim marketingiem, prawie wyłącznie w sposób organiczny.

Czy uważasz, że na dłuższą metę ludzie korzystający z aplikacji takich jak Contentyze na dużą skalę, aby generować ogromne ilości treści przeznaczonych wyłącznie dla SEO, nie zwracają uwagi na dostarczanie wartości czytelnikowi? Jeśli zdarzy się coś takiego lub podobnego, czy myślisz, że Google zmodyfikuje swój algorytm wyszukiwania, aby wykryć i ukarać treści generowane przez sztuczną inteligencję?

Zdecydowanie dlatego OpenAI, twórcy GPT2/GPT3, wprowadzili surowe zasady monitorowania wykorzystania swoich algorytmów. Dotyczy to zwłaszcza GPT3 i całego procesu aplikacyjnego.

Myślę, że musimy być ostrożni, gdy idziemy do przodu, ponieważ tego rodzaju technologię można łatwo wykorzystać do „spamowania” Internetu, nie wnosząc żadnej wartości.

Cała gra SEO na pewno się zmieni. Google dostosuje swoje algorytmy, tak jak robiło to wiele razy wcześniej, ale trudno przewidzieć, co się stanie.

Obstawiam, że treści generowane przez sztuczną inteligencję będą nie do odróżnienia od treści pisanych przez ludzi w ciągu najbliższych 3-5 lat, więc Google będzie musiał wymyślić coś innego, jeśli chce ukarać treści generowane przez sztuczną inteligencję.

W każdym razie nie robiłbym rozróżnienia między treściami ludzkimi i sztucznymi. Powinniśmy tylko zapytać, czy dana treść ma wartość, czy nie, niezależnie od tego, kto lub co ją stworzył.

Masz inne myśli, którymi chciałbyś się podzielić?

Dziękujemy za rozmowę i odwiedź nas na contentyze.com — rejestracja jest bezpłatna (nie wymaga karty kredytowej), więc możesz spróbować!

Bardzo cenimy informacje zwrotne i chcemy, aby nasze narzędzie było jak najlepsze, aby ludzie w przestrzeni marketingowej mogli uczynić swoją pracę bardziej efektywną.

Steve Toth

SEONotebook
Steve Toth

Wywiad ze Stevem Tothem — założycielem SEO Notebook*

Od czasu premiery SEO Notebook w 2018 roku, stał się on obowiązkowym biuletynem jednego operatora dla SEO.

Mieliśmy szczęście, że Steve wziął udział w ostatnich trzech zestawieniach ekspertów SEOButler, a ja koresponduję z nim przez e-mail od kilku lat.

Miałam też przyjemność spotkać się ze Stevem na Chiang Mai SEO 2019. Więc kiedy zobaczyłam go na grupie Affiliate SEO Mastermind na Facebooku o testowaniu treści generowanych przez GPT-3 dla klienta SEO, musiałam sięgnąć po jego przemyślenia…

Jak widzisz wpływ GPT-3 i innych technologii NLG na SEO w ciągu najbliższych kilku lat?

Myślę, że podważy to zaufanie użytkowników do Google. Myślę, że ludzie będą jeszcze częściej pytać znajomych o rekomendacje.

Jak wykorzystujesz GPT-3 do tworzenia treści wspierających SEO?

Z ostrożnością. Mam jednego klienta, który chce to zrobić. Więc prowadzę ich, ale ten projekt wpłynie na to, jak często będę go używał w przyszłości.

Jak duży priorytet ma dla Ciebie czytelność podczas korzystania z treści generowanych przez GPT-3?

Olbrzymi. Dlatego nie widzę siebie zbyt mocno naciskającego na GPT-3.

GPT-3 może mieć swoje zastosowania poza stroną, ale nie zastąpi copywritingu.

Czy są jakieś rodzaje treści (na przykład recenzje produktów dla witryny stowarzyszonej), w których NLG zastępuje w najbliższej przyszłości ludzkich pisarzy?

Ludzie mogą budować całe witryny partnerskie z treścią GPT-3, a następnie czekać, aby zobaczyć, co się plasuje i później udoskonalić kopię. Widzę to jako podstawowy przypadek użycia.

Aleks Smechov

Skriber.io
Aleks Smechov

Wywiad z Aleksem Smechovem — założycielem Skriber.io i programistą NLP SaaS*

Oprócz tego, że jest współtwórcą bloga i konsultanta newslettera SEOButler dla The Edge Group, Aleks jest także założycielem/twórcą aplikacji NLP SaaS Extractor i Skriber.

Czy widzisz, że w najbliższej przyszłości GPT-3 lub inna technologia NLG zastąpi pisarzy i redaktorów niektórych rodzajów treści?

Skoncentruję się na dziennikarstwie.

Istnieje już oprogramowanie inne niż AI, które tworzy małe artykuły oparte na faktach.

Jednym z przykładów jest Automated Insights i sposób, w jaki piszą relacje o koszykówce NCAA i tym podobne.

Myślę, że jeśli połączysz NLG z generowaniem tekstu na podstawie szablonu, możesz stworzyć nieco ważniejsze/dłuższe historie lub połączyć części innych historii.

Ale dla poważniejszego dziennikarstwa widzę tylko sztuczną inteligencję ułatwiającą redakcję, a nie zastępującą go.

Nawet w przypadku GPT-3 lub innych dużych modeli języka naturalnego uzyskanie dobrego zdania lub akapitu jest jak ruletka, oprócz konieczności sprawdzania wielu faktów.

Byłoby to więcej pracy niż napisanie tego artykułu przez dziennikarza.

Czy widzisz, że NLG zwiększy rolę twórców treści w najbliższej przyszłości? Jeśli tak to jak?

Jasne, do tworzenia alternatyw dla już napisanych zdań/akapitów, podsumowań lub jak wspomniano powyżej, agregowania treści z wielu źródeł (np. do podsumowania, które prawdopodobnie i tak musiałoby być edytowane).

Jakie są twoje 3 największe obawy związane z rozprzestrzenianiem się technologii NLG, takich jak GPT-3 i inne?

Że NLG zapełnia internet:

  • Śmieci bez faktów
  • Nadęte treści SEO
  • Treści, które wyglądają strasznie podobnie do wszystkiego innego.

Nie chodzi o to, że te rzeczy nie pojawiają się już w Internecie… <smiley emoji>

Czy mogę już zwolnić moich pisarzy i redaktorów?

Oto krótka odpowiedź: nie.

Sztuczna inteligencja udowodniła, że ​​jest równa lub lepsza od ludzi w wąskich, konkretnych zadaniach — od pokonania najlepszych graczy na świecie w Chess and Go po wykrywanie raka.

Ale chociaż NLG staje się niezwykle dobre w naśladowaniu języka naturalnego, ma długą drogę do przebycia, zanim zastąpi biegłych pisarzy i redaktorów.

Nawet najbardziej wyrafinowane NLG opiera się na „podpowiedziach” od ludzi — nie wspominając o intensywnej edycji i sprawdzaniu faktów…

Kreatywność — zwłaszcza jeśli chodzi o wymyślanie oryginalnych pomysłów i tworzenie unikalnych połączeń między różnymi źródłami informacji i inspiracji — nie jest częścią repertuaru GPT-3.

GPT-3 może imitować tekst opisujący świat, emocje i doświadczenia — ale nie ma własnego.

Oto, co sam GPT-3 ma do powiedzenia na to pytanie…

GPT-3 Zastąp pisarzy

Poczekaj, zapytajmy jeszcze raz…

GPT_3 Przykład 1

Jasne, możesz dalej rzucać kostką GPT-3 (wolę myśleć o tym jako rosyjską ruletkę), wybierać najlepsze fragmenty, a następnie połączyć je w coś lepszego niż zawartość odpowiednika potwora Frankensteina.

Najlepiej patchwork ze spójnym punktem widzenia, który faktycznie angażuje odbiorców.

Wtedy Frankenstein potrzebowałby dokładnego sprawdzenia faktów.

Zauważ, że nawet pierwsze zdanie w drugim przykładzie jest słowną sałatką śmieci.

Alan Turing nie żyje od 66 lat — wątpliwe jest, by pozyskiwał „startupy piszące strony internetowe”.

A może jest to odniesienie do Turing NLG firmy Microsoft? Tak czy inaczej, z pewnością nie kupiło to firmy ani nie ujawniło GPT-3.

Możesz to wszystko zrobić — albo po prostu zatrudnić pisarza.

GPT-3 i jego potomkowie — lub jakikolwiek inny model NLG — będą musieli stać się znacznie mądrzejsi, zanim zastąpią pisarzy i redaktorów.

I o wiele bardziej ludzki.

Bardziej ludzki niż ludzie
(Źródło: Korporacja Tyrell)

Sztuczna ogólna inteligencja (AGI) — bardziej ludzka niż ludzka?

NLP i NLG mogą (lub nie) okazać się kluczowymi krokami na drodze do Sztucznej Ogólnej Inteligencji (AGI).

Od dawna uważane za świętego Graala AI, maszyny AGI to te, które widzisz w filmach – „roboty”, które mogą zrobić wszystko, co człowiek może zrobić równie dobrze lub lepiej.

OpenAI z pewnością ma na celu stworzenie AGI. Ogłaszając inwestycję Microsoftu w OpenAI o wartości 1 miliarda dolarów, firma zdefiniowała ją w następujący sposób:

„AGI będzie systemem zdolnym do opanowania dziedziny studiów do poziomu światowego eksperta i opanowania większej liczby dziedzin niż jakikolwiek człowiek – jak narzędzie, które łączy umiejętności Curie, Turinga i Bacha.

AGI pracujący nad problemem byłby w stanie dostrzec powiązania między dyscyplinami, których nie potrafiłby żaden człowiek. Chcemy, aby AGI współpracowała z ludźmi, aby rozwiązywać obecnie trudne do rozwiązania problemy multidyscyplinarne, w tym globalne wyzwania, takie jak zmiany klimatu, przystępna cenowo i wysokiej jakości opieka zdrowotna oraz spersonalizowana edukacja.

Uważamy, że jego wpływ powinno polegać na zapewnieniu każdemu wolności ekonomicznej w dążeniu do tego, co uważa za najbardziej satysfakcjonujące, tworząc nowe możliwości dla całego naszego życia, które są dziś niewyobrażalne”.

Brzmi jak utopia, prawda?

Ale czy to dobra rzecz?

Historycznie utopia po prostu się nie sprawdziła:

„Kiedy niedoskonali ludzie próbują udoskonalić — osobistą, polityczną, ekonomiczną i społeczną — ponoszą porażkę. Tak więc mrocznym zwierciadłem utopii są dystopie – nieudane eksperymenty społeczne, represyjne reżimy polityczne i apodyktyczne systemy gospodarcze, które wynikają z utopijnych marzeń wprowadzonych w życie”. – Michael Shermer

Oto, co GPT-3 miał do powiedzenia na temat osiągnięcia AGI:

GPT-3 AGI

Może to tylko myślenie życzeniowe, GPT-3, ale tym razem jestem skłonny się zgodzić.

Rozszerzanie pisarzy

Rozszerzanie pisarzy — nie zastępowanie ich

GPT-3 prawdopodobnie po raz kolejny się myli w ostatnim zdaniu powyższego przykładu…

Jeśli chodzi o NLP, NLG, a nawet poszukiwanie AGI, nastąpił znaczny postęp.

A tempo innowacji prawdopodobnie nie zwolni w najbliższym czasie.

Less than a month into 2021, the Google Brain team announced a new transformer-based AI language model that dwarfs GPT-3 when measured by the number of parameters.

Google's Switch Transformer is trained on 1 trillion parameters — roughly 6 times as many as GPT-3.

Little is known about potential applications for the Switch Transformer model at the time of writing, but the NLP arms-race shows no signs of abating.

Maybe the day will come when machines replace human writers and editors, but I'm not holding my breath.

As Tristan Greene, AI editor for The Next Web, says about Switch Transformer:

“While these incredible AI models exist at the cutting-edge of machine learning technology, it's important to remember that they're essentially just performing parlor tricks.

These systems don't understand language, they're just fine-tuned to make it look like they do.”

At this point, I'm sure it's clear that I have a dog in this fight.

As objective as I've tried to be in writing this article, I do have a vested interest in human content creators remaining relevant and superior to machines.

But that doesn't mean I don't see how NLP and NLG technology can make me better at what I do.

In truth, AI has been augmenting my writing and editing for years…

I use Rev to auto-transcribe audio and video interviews. I also use it to create transcripts of SEOButler founder Jonathan Kiekbusch and Jarod Spiewak's Value Added Podcast to help me write the show notes more quickly and accurately.

And Grammarly is a powerful tool for even the most diligent editor or proofreader.

As GPT-3 and other advanced NLP models become more accurate and “trustworthy,” their potential ability to summarize long-form content — particularly academic research papers — could prove extremely valuable.

Suppose the future I have to look forward to is one where AI eliminates some of the drudgery of creating SEO-driven content — and I have to edit and polish informational content partly composed by machines instead of writers.

I guess I can live with that…

I may not have a choice.

*Each Q&A has been edited and condensed for clarity.