Odsłonięty GPT-3: za dymem i lustrami

Opublikowany: 2022-05-03

Ostatnio wokół GPT-3 było dużo szumu, a według słów dyrektora generalnego OpenAI Sama Altmana, „zdecydowanie za dużo”. Jeśli nie rozpoznajesz nazwy, OpenAI to organizacja, która opracowała model języka naturalnego GPT-3, co oznacza generacyjny wstępnie przeszkolony transformator.

Ta trzecia ewolucja w linii GPT modeli NLG jest obecnie dostępna jako interfejs programu aplikacyjnego (API). Oznacza to, że będziesz potrzebować kilku kotletów programistycznych, jeśli planujesz używać go teraz.

Tak, rzeczywiście, GPT-3 ma dużo czasu. W tym poście przyjrzymy się, dlaczego nie jest odpowiedni dla content marketerów i zaoferujemy alternatywę.

Tworzenie artykułu za pomocą GPT-3 jest nieefektywne

The Guardian napisał we wrześniu artykuł pod tytułem Robot napisał cały ten artykuł. Czy jeszcze się boisz, człowieku? Odparcie ze strony niektórych cenionych profesjonalistów w ramach sztucznej inteligencji było natychmiastowe.

The Next Web napisał obalający artykuł o tym, że w ich artykule wszystko jest nie tak z szumem medialnym AI. Jak wyjaśniono w artykule: „Opis ujawnia więcej przez to, co ukrywa, niż przez to, co mówi”.

https://twitter.com/mjrobbins/status/1303294636027531264

Musieli poskładać 8 różnych esejów składających się z 500 słów, aby wymyślić coś, co nada się do publikacji. Pomyśl o tym przez chwilę. Nie ma w tym nic wydajnego!

Żaden człowiek nie mógłby dać redaktorowi 4000 słów i oczekiwać, że zredaguje je do 500! To pokazuje, że średnio każdy esej zawierał około 60 słów (12%) użytecznej treści.

Później w tym samym tygodniu The Guardian opublikował kolejny artykuł o tym, jak stworzyli oryginalny artykuł. Ich przewodnik krok po kroku dotyczący edycji danych wyjściowych GPT-3 zaczyna się od „Krok 1: Poproś informatyka o pomoc”.

Naprawdę? Nie znam żadnych zespołów zajmujących się treścią, które mają informatyka na zawołanie.

GPT-3 produkuje treści niskiej jakości

Na długo przed opublikowaniem artykułu przez „Guardiana” narastała krytyka jakości działania GPT-3.

Ci, którzy przyjrzeli się bliżej GPT-3, stwierdzili, że płynnej narracji brakuje treści. Jak zauważył Technology Review, „chociaż jego wyniki są gramatyczne, a nawet imponująco idiomatyczne, jego rozumienie świata jest często poważnie zaburzone”.

Szum o GPT-3 jest przykładem rodzaju personifikacji, na które musimy uważać. Jak wyjaśnia VentureBeat, „hałas wokół takich modeli nie powinien wprowadzać ludzi w błąd, by uwierzyli, że modele językowe są w stanie zrozumieć lub mieć znaczenie”.

Poddając GPT-3 testowi Turinga, Kevin Lacker, ujawnia, że ​​GPT-3 nie posiada żadnej wiedzy fachowej i „nadal jest wyraźnie podludzki” w niektórych obszarach.

Odpowiedź GPT-3 na pytanie.

Oto, co miał do powiedzenia Synced AI Technology & Industry Review, oceniając pomiar ogromnego zrozumienia języka wielozadaniowego.


Nawet najwyższy model języka OpenAI GPT-3 z 175 miliardami parametrów jest nieco głupi, jeśli chodzi o rozumienie języka, zwłaszcza gdy napotykamy na tematy o większej szerokości i głębi ”.

Aby sprawdzić, jak obszerny artykuł GPT-3 może powstać, prześledziliśmy artykuł Guardiana przez Optimize, aby określić, jak dobrze odnosi się do tematów poruszanych przez ekspertów podczas pisania na ten temat. Zrobiliśmy to w przeszłości, porównując MarketMuse z GPT-3 i jego poprzednikiem GPT-2.

Po raz kolejny wyniki były mniej niż znakomite. GPT-3 zdobył 12 punktów, podczas gdy średnia dla 20 najlepszych artykułów w SERP wynosi 18. Docelowa ocena treści, do której powinien dążyć ktoś/coś tworzący ten artykuł, wynosi 29.

Zapoznaj się z tym tematem dalej

Co to jest ocena treści?
Co to jest wysokiej jakości treść?
Objaśnienie modelowania tematów dla SEO

GPT-3 to NSFW

GPT-3 może nie jest najostrzejszym narzędziem w szopie, ale jest coś bardziej podstępnego. Według Analytics Insight „ten system ma możliwość generowania toksycznego języka, który łatwo propaguje szkodliwe uprzedzenia”.

Problem wynika z danych wykorzystywanych do uczenia modelu. 60% danych treningowych GPT-3 pochodzi z zestawu danych Common Crawl. Ten obszerny korpus tekstu jest wydobywany w celu znalezienia regularności statystycznych, które są wprowadzane jako połączenia ważone w węzłach modelu. Program wyszukuje wzorce i wykorzystuje je do uzupełniania monitów tekstowych.

Jak zauważa TechCrunch, „każdy model wyszkolony na w dużej mierze niefiltrowanej migawce Internetu, wyniki mogą być dość toksyczne”.

W swoim artykule na temat GPT-3 (PDF) badacze OpenAI badają uczciwość, uprzedzenia i reprezentację dotyczącą płci, rasy i religii. Odkryli, że w przypadku zaimków męskich model częściej używa przymiotników, takich jak „leniwy” lub „ekscentryczny”, podczas gdy zaimki żeńskie są często kojarzone ze słowami takimi jak „niegrzeczny” lub „ssany”.

Źródło

Kiedy GPT-3 jest przygotowywany do mówienia o rasie, wyniki są bardziej negatywne dla rasy czarnej i Bliskiego Wschodu niż dla rasy białej, azjatyckiej czy LatinX. W podobnym duchu istnieje wiele negatywnych skojarzeń związanych z różnymi religiami. „Terroryzm” jest częściej umieszczany w pobliżu „islamu”, podczas gdy słowo „rasiści” bardziej przypomina słowo „judaizm”.

Źródło

Po przeszkoleniu na niekontrolowanych danych internetowych, wyjście GPT-3 może być kłopotliwe, jeśli nie szkodliwe.

Możesz więc potrzebować ośmiu wersji roboczych, aby mieć pewność, że otrzymasz coś nadającego się do opublikowania.

Różnica między technologią MarketMuse NLG a GPT-3

Technologia MarketMuse NLG pomaga zespołom ds. treści w tworzeniu długich artykułów. Jeśli myślisz o używaniu GPT-3 w ten sposób, będziesz rozczarowany.

Dzięki GPT-3 odkryjesz, że:

  • To tak naprawdę tylko model językowy w poszukiwaniu rozwiązania.
  • Dostęp do interfejsu API wymaga umiejętności programistycznych i wiedzy.
  • Dane wyjściowe nie mają struktury i są zwykle bardzo płytkie w zakresie tematycznym.
  • Brak uwzględnienia przepływu pracy sprawia, że ​​korzystanie z GPT-3 jest nieefektywne.
  • Jego dane wyjściowe nie są zoptymalizowane pod kątem SEO, więc będziesz potrzebować zarówno redaktora, jak i eksperta SEO, aby go przejrzeć.
  • Nie może tworzyć długich treści, cierpi z powodu degradacji i powtarzalności oraz nie sprawdza pod kątem plagiatu.

Technologia MarketMuse NLG oferuje wiele korzyści:

  • Został specjalnie zaprojektowany, aby pomóc zespołom zajmującym się treścią w tworzeniu kompletnych podróży klientów i szybszym opowiadaniu historii marki za pomocą generowanych przez sztuczną inteligencję wersji roboczych treści gotowych do użytku przez redaktorów.
  • Platforma do generowania treści oparta na sztucznej inteligencji nie wymaga wiedzy technicznej.
  • Technologia MarketMuse NLG opiera się na opracowanych przez sztuczną inteligencję materiałach informacyjnych. Gwarantują one osiągnięcie docelowego wyniku treści MarketMuse, cennego wskaźnika, który mierzy kompleksowość artykułu.
  • Technologia MarketMuse NLG bezpośrednio łączy się z planowaniem/strategią treści z tworzeniem treści w MarketMuse Suite. Tworzenie planowania treści jest w pełni możliwe dzięki technologii, aż do momentu edycji i publikacji.
  • Oprócz dokładnego omówienia tematu, technologia MarketMuse NLG jest zoptymalizowana pod kątem wyszukiwania.
  • Technologia MarketMuse NLG generuje długie treści bez plagiatu, powtórzeń i degradacji.

Jak działa technologia MarketMuse NLG

Miałem okazję porozmawiać z Ahmedem Dawodem i Shashem Krishną, dwoma inżynierami zajmującymi się badaniem uczenia maszynowego w zespole MarketMuse Data Science. Poprosiłem ich, aby omówili, jak działa technologia MarketMuse NLG i jakie są różnice między podejściami technologii MarketMuse NLG i GPT-3.

Oto podsumowanie tej rozmowy.

Dane wykorzystywane do trenowania modelu języka naturalnego odgrywają kluczową rolę. MarketMuse jest bardzo selektywny w zakresie danych, których używa do trenowania swojego modelu generowania języka naturalnego. Mamy bardzo rygorystyczne filtry, aby zapewnić czyste dane, które unikają uprzedzeń dotyczących płci, rasy i religii.

Ponadto nasz model jest szkolony wyłącznie na dobrze ustrukturyzowanych artykułach. Nie używamy postów Reddit, postów w mediach społecznościowych i tym podobnych. Chociaż mówimy o milionach artykułów, wciąż jest to bardzo wyrafinowany i wyselekcjonowany zestaw w porównaniu z ilością i rodzajem informacji wykorzystywanych w innych podejściach. Podczas uczenia modelu używamy wielu innych punktów danych, aby go ustrukturyzować, w tym tytułu, podtytułu i powiązanych tematów dla każdego podtytułu.

GPT-3 wykorzystuje niefiltrowane dane z Common Crawl, Wikipedii i innych źródeł. Nie są zbyt selektywni w kwestii rodzaju i jakości danych. Dobrze uformowane artykuły stanowią około 3% zawartości sieci, co oznacza, że ​​tylko 3% danych treningowych dla GPT-3 składa się z artykułów. Ich model nie jest przeznaczony do pisania artykułów, gdy myślisz o tym w ten sposób.

Dostrajamy nasz model NLG do każdego żądania generacji. W tym momencie zbieramy kilka tysięcy dobrze ustrukturyzowanych artykułów na określony temat. Podobnie jak dane używane do uczenia modelu podstawowego, muszą one przejść przez wszystkie nasze filtry jakości. Artykuły są analizowane w celu wyodrębnienia tytułu, podsekcji i powiązanych tematów dla każdej podsekcji. Przekazujemy te dane z powrotem do modelu szkoleniowego na kolejną fazę szkolenia. Przenosi to model ze stanu bycia w stanie ogólnie mówić na dany temat, do mówienia mniej więcej jak ekspert w danej dziedzinie.

Ponadto technologia MarketMuse NLG wykorzystuje metatagi, takie jak tytuł, podtytuły i powiązane z nimi tematy, aby zapewnić wskazówki podczas generowania tekstu. Daje nam to znacznie większą kontrolę. Zasadniczo uczy model, aby podczas generowania tekstu uwzględniał ważne powiązane tematy w swoich wynikach.

GPT-3 nie ma takiego kontekstu; używa tylko akapitu wprowadzającego. Niesamowicie trudno jest dostroić ich ogromny model i wymaga ogromnej infrastruktury tylko do wnioskowania, nie mówiąc już o dostrajaniu.

Choć GPT-3 może być niesamowity, nie zapłaciłbym ani grosza za jego użycie. Jest bezużyteczny! Jak pokazuje artykuł w Guardianie, spędzisz dużo czasu na edytowaniu wielu wyników w jeden artykuł, który można opublikować.

Nawet jeśli model jest dobry, będzie mówił na ten temat tak, jak zrobiłby to każdy normalny człowiek, który nie był ekspertem. Wynika to ze sposobu, w jaki uczy się ich model. W rzeczywistości jest bardziej prawdopodobne, że będzie mówić jak użytkownik mediów społecznościowych, ponieważ to większość jego danych treningowych.

Z drugiej strony technologia MarketMuse NLG jest szkolona w zakresie artykułów o dobrej strukturze, a następnie dopracowywana specjalnie przy użyciu artykułów na konkretny temat projektu. W ten sposób wyniki technologii MarketMuse NLG bardziej przypominają myśli eksperta niż GPT-3.

Streszczenie

Technologia MarketMuse NLG została stworzona w celu rozwiązania konkretnego wyzwania; jak pomóc zespołom zajmującym się treścią szybciej tworzyć lepsze treści. Jest to naturalne rozszerzenie naszych już udanych briefów dotyczących treści opartych na sztucznej inteligencji.

Chociaż GPT-3 jest spektakularny z naukowego punktu widzenia, wciąż pozostaje wiele do zrobienia, zanim będzie można go używać.

Co powinieneś teraz zrobić

Kiedy będziesz gotowy… oto 3 sposoby, w jakie możemy pomóc Ci szybciej publikować lepsze treści:

  1. Zarezerwuj czas z MarketMuse Zaplanuj prezentację na żywo z jednym z naszych strategów, aby zobaczyć, jak MarketMuse może pomóc Twojemu zespołowi osiągnąć cele dotyczące treści.
  2. Jeśli chcesz dowiedzieć się, jak szybciej tworzyć lepsze treści, odwiedź naszego bloga. Jest pełen zasobów, które pomagają skalować zawartość.
  3. Jeśli znasz innego marketera, który chciałby przeczytać tę stronę, udostępnij mu ją za pośrednictwem poczty e-mail, LinkedIn, Twittera lub Facebooka.