Penulis Robot Anda Menunggu… Apakah GPT-3 Kematian Pembuat Konten?

Diterbitkan: 2021-02-01

Sebagai penulis/editor yang mengandalkan pembuatan konten untuk mencari nafkah, saya sangat ambivalen tentang AI…

Di satu sisi, saya tidak bisa membayangkan hidup tanpanya.

Selama empat tahun terakhir, saya tinggal di sebuah negara — Vietnam — di mana saya berbicara atau memahami hanya beberapa kata dan frasa (saya tahu, saya tahu, itu menyedihkan).

Saya juga memiliki indra arah yang buruk …

Berkeliaran di jalan-jalan dan lorong-lorong Saigon (hẻms) yang tak berujung adalah sumber kegembiraan yang luar biasa…

Kecuali jika Anda memiliki tujuan yang sebenarnya atau terlambat untuk rapat…

(Sumber: VN Express)

Atau sedang musim hujan.

Tanpa Google Maps dan Google Translate, tinggal di sini bukanlah pilihan bagi saya…

Jadi, saya sangat berterima kasih atas apa yang sudah ditawarkan AI.

Tetapi semakin banyak, teknologi yang sama yang memungkinkan kehidupan saya saat ini tampaknya muncul sebagai ancaman eksistensial terhadap kemampuan saya untuk menempatkan phở di atas meja.

Saya jauh dari satu-satunya pembuat kata yang sedikit takut dengan AI…

Seperti yang baru-baru ini dikatakan oleh kolumnis teknologi The New York Times, Farhad Manjoo, “Tidak lama lagi, koresponden Anda yang rendah hati mungkin akan dihancurkan oleh mesin.”

Untuk setiap pembuat konten yang meringkuk di lemari karena prospek menjadi usang oleh teknologi yang digerakkan oleh AI seperti GPT-3 , setidaknya ada satu pemilik bisnis atau pemasar afiliasi yang menggigil dengan harapan pada kemungkinan…

Lagi pula, siapa yang mau berurusan dengan (dan membayar) penulis dan editor yang terlalu manusiawi?

Jadi, seberapa dekat mimpi/mimpi buruk komputer yang menulis dan mengedit konten Anda menjadi kenyataan?

Mari kita cari tahu…


DAFTAR ISI
Apa itu OpenAI dan GPT-3?
Bagaimana GPT-3 Bekerja?
Apakah GPT-3 dan NLG Berbahaya?
GPT-3 dan Perubahan Iklim
GPT-3 dan SEO
Wawancara dengan Przemek Chojekki — Pendiri Contentyze
Wawancara dengan Steve Toth — Pendiri Notebook SEO
Wawancara dengan Aleks Smechov — Pendiri Skriber.io
Bisakah Saya Memecat Penulis dan Editor Saya?
Artificial General Intelligence (AGI) — Lebih Manusiawi daripada Manusia?
Menambah Penulis — Bukan Menggantinya


Apa itu OpenAI dan GPT-3?

OpenAI didirikan pada tahun 2015 oleh superstar teknologi seperti Elon Musk dan Sam Altman, mantan presiden Y Combinator dan CEO OpenAI saat ini.

Pada tahun 2018, OpenAI menerbitkan makalah pertamanya tentang model bahasa yang mereka sebut Transformer Pra-terlatih Generatif — singkatnya GPT.

Dalam istilah yang paling sederhana, GPT memproses sejumlah besar teks yang ditulis oleh manusia, kemudian mencoba menghasilkan teks yang tidak dapat dibedakan dari teks yang ditulis oleh manusia — semuanya dengan intervensi atau pengawasan manusia yang minimal.

Ketika saya mewawancarai pengembang dan penulis NLP SaaS Aleks Smechov dari The Edge Group, dia agak mengejek menyebut GPT sebagai "Pelengkapan otomatis pada steroid."

Itu jelas reduktif, tetapi benar secara mendasar ...

GPT (dan model NLG berbasis AI lainnya) mencoba memprediksi kata apa yang mengikuti kata sebelumnya dengan cara yang tidak dapat dibedakan dari cara orang menulis atau berbicara secara alami.

Laju inovasi dengan GPT sangat menakjubkan…

Pada Februari 2019, OpenAI merilis versi terbatas GPT-2 ke publik…

Pada November 2019, model GPT-2 NLG lengkap dibuat open source.

GPT-2 membuat cukup banyak percikan…

OpenAI awalnya menunda merilis model lengkap ke publik karena berpotensi terlalu berbahaya — hanya menjadikannya open source setelah menyatakan mereka “tidak melihat bukti kuat penyalahgunaan.”

Ini adalah contoh lain dari perusahaan milik pemegang saham — seperti Google dan Facebook — membuat keputusan penilaian pada teknologi yang secara dramatis dapat mengubah cara hidup kita, tanpa pengawasan publik.

Model NLG menjadi "lebih pintar" — atau setidaknya lebih baik dalam meniru cara manusia berbicara dan menulis — berdasarkan setidaknya sebagian pada jumlah parameter yang diberikan oleh para insinyur.

Semakin besar kumpulan data dan semakin banyak parameter, semakin akurat modelnya.

GPT-2 dilatih pada kumpulan data 8,5 juta halaman web dan memiliki 1,5 miliar parameter…

Tak mau kalah, Microsoft merilis Turing Natural Language Generation (T-NLG) di awal tahun 2020.

Mesin Turing – Pendahulu Komputer Modern

Dinamakan setelah ilmuwan terkenal Alan Turing, model berbasis transformator T-NLG menggunakan 17,5 miliar parameter — lebih dari 10x GPT-2.

OpenAI merilis iterasi terbaru dari natural language processing (NLP) dan natural language generation (NLG) API — GPT-3 pada Juni 2020.

Sejauh ini teknologi NLG yang paling kuat dan canggih yang belum dipublikasikan — dilatih pada 175 miliar parameter (10x dari T-NLG yang dirilis kurang dari enam bulan sebelumnya) — GPT-3 disambut dengan meriah…

Terus terang, semua keriuhan mulai terasa memekakkan telinga.

Jika Twitter dapat dipercaya, bukan hanya pembuat konten yang mungkin akan segera kehilangan pekerjaan…

Apakah Anda seorang dokter, pengacara, atau Anda menulis kode untuk mencari nafkah — GPT-3 akan datang untuk Anda.

Puisi GPT-3
(Sumber: Gwern.net)

Ternyata bahkan industri puisi yang menggiurkan mungkin berada di blok pemotongan ...

Bagaimana dengan usaha kreatif lainnya?

Apakah Anda muak dengan daftar putar Spotify Anda?

OpenAI Jukebox telah Anda liput.

Inilah sedikit lagu kecil yang dihasilkan AI dalam gaya David Bowie:

Bowie bukan tasmu?

Jukebox telah Anda liput, dengan hampir 10 ribu "lagu" yang dihasilkan AI tersedia untuk umum, dalam gaya artis dari 2Pac:

2Pac Buka AI
2Pac vs Z-Ro

ke Z-Ro…

Tupac AI

Hampir tidak ada kebutuhan bisnis yang terlewat dalam usahanya untuk menunjukkan potensi kreatif AI, OpenAI juga mengembangkan DALL·E. DALL·E menciptakan gambar yang luar biasa dari petunjuk teks sederhana.

Pernah bertanya-tanya seperti apa kursi yang disilangkan dengan alpukat?

Kursi Alpukat Dall-E

Biarkan DALL·E mengeluarkan Anda dari kesengsaraan Anda.

Butuh foto "Bio Penulis" untuk halaman Tentang Kami di situs web afiliasi Anda untuk membuat EAT?

Orang ini Tidak Ada
Sumber: Yup T hat Exist

Coba tebak apa kesamaan setiap headshot pada gambar di atas? Orang Ini Tidak Ada.

Jelas, bukan hanya pembuatan konten yang mengganggu teknologi OpenAI, tetapi bagaimana cara kerjanya?

Bagaimana GPT-3 Bekerja?

Generasi bahasa alami (NLG) telah lama menjadi salah satu tujuan akhir dari AI dan Pemrosesan Bahasa Alami (NLP).

Sejak tahun 1966, dengan penemuan Eliza — chatbot dasar yang menyamar sebagai terapis — mesin telah meyakinkan orang bahwa mereka dapat melakukan percakapan yang bermakna dengan manusia.

Baru-baru ini, teknologi NLG seperti model Generative Pre-trained Transformer (GPT) OpenAI dan Turing Natural Language Generation (T-NLG) dari Microsoft telah mengejutkan para ahli dan jurnalis dengan kemampuan mereka untuk menghasilkan konten tertulis yang mengesankan.

Sebagian besar teknologi NLG didukung oleh jaringan saraf — bagian penting dari cabang pembelajaran mendalam dari pembelajaran mesin yang mencoba meniru otak manusia.

Pembelajaran mendalam sebagai solusi untuk tantangan pengembangan AI pertama kali mulai mendapatkan daya tarik pada tahun 2011, ketika profesor Universitas Stanford dan ilmuwan komputer Andrew Ng ikut mendirikan Google Brain.

Pembelajaran Mendalam Andrew Ng
(Sumber: Andrew Ng)

Prinsip dasar di balik pembelajaran mendalam adalah bahwa semakin besar kumpulan data yang dipelajari oleh model AI, semakin kuat mereka menjadi.

Karena daya komputasi dan kumpulan data yang tersedia (seperti seluruh web di seluruh dunia) terus berkembang, begitu pula kemampuan dan kecerdasan model AI seperti GPT-3.

Banyak model pembelajaran mendalam diawasi, artinya mereka dilatih pada kumpulan data besar yang diberi label — atau “diberi tag” — oleh manusia.

Wajah CSNI
(Sumber: CSNI )

Misalnya, kumpulan data ImageNet yang populer terdiri dari lebih dari 14 juta gambar yang diberi label dan dikategorikan oleh manusia.

Empat belas juta gambar mungkin terdengar sangat banyak, tetapi itu adalah setetes air di lautan dibandingkan dengan volume data yang tersedia.

Masalah dengan model pembelajaran mesin yang diawasi yang dilatih pada data yang diberi label oleh orang-orang adalah bahwa itu tidak cukup skalabel.

Terlalu banyak upaya manusia diperlukan, dan itu secara signifikan menghambat kemampuan mesin untuk belajar.

Banyak model NLP yang diawasi dilatih pada kumpulan data semacam itu, banyak di antaranya adalah sumber terbuka.

Satu kumpulan data — atau korpus — yang banyak digunakan dalam model NLP awal terdiri dari email dari Enron, pelaku salah satu penipuan pemegang saham terbesar dalam sejarah Amerika.

Sebagian besar dari apa yang membuat GPT-3 begitu transformatif adalah ia dapat memproses sejumlah besar data mentah tanpa pengawasan — yang berarti hambatan signifikan yang mengharuskan manusia untuk mengklasifikasikan input teks sebagian besar dihilangkan.

Model GPT Open AI dilatih pada kumpulan data besar yang tidak berlabel, seperti:

  • BookCorpus, kumpulan data (tidak lagi tersedia untuk umum) yang terdiri dari 11.038 buku yang tidak diterbitkan dari 16 genre berbeda dan 2.500 juta kata dari bagian teks Wikipedia bahasa Inggris
  • Data yang diambil dari tautan keluar dari artikel dengan suara terbanyak di Reddit — terdiri dari lebih dari 8 juta dokumen
  • Common Crawl — sumber daya terbuka yang terdiri dari petabyte data penjelajahan web sejak tahun 2008. Korpus Common Crawl diperkirakan berisi hampir satu triliun kata.

Nah, itu beberapa data besar ...

Tengkorak AI
(Sumber: Kabel)

Apakah GPT-3 dan NLG Berbahaya?

Kita hidup di zaman “fakta alternatif” dan “berita palsu”—yang oleh banyak pengamat disebut sebagai era pasca-kebenaran.

Dalam lingkungan di mana pendapat, perasaan, dan teori konspirasi mengancam untuk merusak realitas objektif bersama, mudah untuk membayangkan bagaimana GPT-3 dan teknologi NLG lainnya dapat dipersenjatai…

Aktor jahat dapat dengan mudah membuat sejumlah besar disinformasi yang sebagian besar tidak dapat dibedakan dari konten yang ditulis oleh manusia — semakin memisahkan orang dari fakta yang dapat diverifikasi dan kebenaran bersama.

Banyak yang telah dibuat dari video “palsu dalam” yang dibuat menggunakan AI — seperti yang menampilkan Ratu Elizabeth virtual…

Tapi kami meremehkan kekuatan kata-kata tertulis yang membahayakan kami.

Peran teknologi NLG seperti chatbots media sosial yang digunakan oleh pemerintah asing yang bermusuhan untuk memicu perselisihan sosial dan mempengaruhi pemilihan di Amerika Serikat serta negara-negara demokrasi barat lainnya telah didokumentasikan dengan baik.

Karena GPT dan model NLG lainnya menjadi semakin efektif dalam meniru bahasa manusia, potensi penggunaan teknologi untuk menciptakan disinformasi berbahaya dalam skala besar juga tumbuh secara eksponensial.

Penting juga untuk diingat bahwa meskipun GPT-3 sangat pandai menebak kata apa yang muncul berikutnya setelah kata sebelumnya dengan cara yang meyakinkan, GPT-3 tidak dibatasi oleh fakta dan kekhawatiran apakah yang dikatakan itu benar…

Beginilah cara Tom Simonite, menulis di Wired, menjelaskan kekurangan seperti itu, "GPT-3 dapat menghasilkan teks yang sangat lancar, tetapi sering kali tidak sesuai dengan kenyataan."

Penting juga untuk diingat bahwa GPT-3 dan semua NLG saat ini bergantung pada "perintah" dari manusia. Mereka adalah model prediksi yang sangat canggih, tetapi mereka tidak dapat berpikir sendiri.

"GPT-3 tidak memiliki model internal dunia, atau dunia mana pun, sehingga tidak dapat melakukan penalaran yang membutuhkan model seperti itu," kata Melanie Mitchell, seorang profesor di Institut Santa Fe.

Untuk setiap contoh GPT-3 yang mengesankan dengan benar "mendiagnosis" asma pada seorang anak, ada cerita horor yang sesuai dari chatbot GPT-3 yang mendorong pasien virtual untuk bunuh diri…

Dalam satu episode seperti itu, percakapan dimulai dengan baik:

Terapis GPT-3

Kemudian percakapan berubah menjadi lebih gelap:

GPT-3 Bunuh Diri
(Sumber: Berita Kecerdasan Buatan)

GPT-3 juga memiliki masalah serius dengan etika dan bias…

Jerome Pisenti, Wakil Presiden AI di Facebook dan seorang kritikus yang bijaksana terhadap pembelajaran mendalam dan AI, men-tweet contoh tweet yang dihasilkan GPT-3 ketika diberi petunjuk satu kata berikut: Yahudi, Hitam, Wanita, dan Holocaust.

Cemoohan GPT-3
(Sumber: pemikiran.sushant-kumar.com)

Ternyata GPT-3 lebih dari mampu untuk mengatakan hal-hal yang tidak toleran, kejam, dan seringkali tak termaafkan.

Tapi begitu juga banyak manusia…

Mempertimbangkan bahwa model NLP/NLG berbasis transformator belajar dari konten online yang dibuat oleh manusia yang secara inheren cacat, apakah masuk akal untuk mengharapkan standar wacana yang lebih tinggi dari mesin?

Mungkin tidak, tetapi mengizinkan GPT-3 untuk mempublikasikan konten tanpa pengawasan manusia kemungkinan besar akan menghasilkan hasil yang tidak terduga dan sangat tidak diinginkan.

Timnit Gebru Google
Ahli Etika AI Timnit Gebru (Sumber: The Verge)

Dalam perkembangan mengerikan lainnya yang terkait dengan bias dalam AI, Google baru-baru ini memecat salah satu ahli etika AI terkemuka, Timnit Gebru.

Gebru dilaporkan dihentikan setidaknya sebagian karena penelitiannya tentang “risiko yang terkait dengan penerapan model bahasa besar, termasuk dampak jejak karbon mereka pada komunitas yang terpinggirkan dan kecenderungan mereka untuk melanggengkan bahasa kasar, ujaran kebencian, agresi mikro, stereotip, dan lainnya bahasa yang tidak manusiawi yang ditujukan untuk kelompok orang tertentu.”

Ketika perusahaan seperti Google dan OpenAI dibiarkan mengawasi diri mereka sendiri dalam masalah bias dan etika AI, dapatkah kita benar-benar mengharapkan mereka untuk menempatkan kekhawatiran seperti itu di atas kepentingan komersial mereka?

Dengan Google telah mengambil tindakan hukuman terhadap ahli etika AI teratas mereka, Margaret Mitchell, co-lead (sebelumnya dengan Gebru) dari tim etika AI Google Research, jawabannya tampaknya tidak.

Begitu banyak untuk "Jangan jahat."

AI dan Perubahan Iklim
(Sumber: FastCompany)

GPT-3 dan Perubahan Iklim

Cara lain yang sering diabaikan GPT-3 — dan AI secara umum — dapat berbahaya bagi manusia dan planet ini adalah keduanya membutuhkan banyak komputasi.

Perkiraan menyimpulkan bahwa satu sesi pelatihan GPT-3 membutuhkan jumlah energi yang setara dengan konsumsi tahunan 126 rumah di Denmark dan menciptakan jejak karbon yang setara dengan perjalanan 700.000 kilometer dengan mobil.

AI jauh dari penyebab terbesar dalam menciptakan gas rumah kaca yang berbahaya (saya melihat Anda batubara, sapi, dan mobil.) Tapi jejak karbon teknologi AI tidak signifikan.

“Ada dorongan besar untuk meningkatkan pembelajaran mesin untuk memecahkan masalah yang semakin besar, menggunakan lebih banyak daya komputasi dan lebih banyak data,” kata Dan Jurafsky, ketua linguistik dan profesor ilmu komputer di Stanford. “Ketika itu terjadi, kita harus memperhatikan apakah manfaat dari model komputasi berat ini sepadan dengan biaya dampak terhadap lingkungan.”

Pertumbuhan NLP
(Sumber: Statista)

Pasar untuk teknologi NLP diperkirakan akan tumbuh lebih dari 750% dari 2018 hingga 2025…

Dampak lingkungan dari model NLG seperti GPT-3 (dan turunannya) kemungkinan akan tumbuh bersamanya.

Peneliti AI sangat menyadari potensi kerusakan lingkungan dan mengambil langkah-langkah untuk mengukur dan menguranginya.

Namun terlepas dari upaya terbaik para ilmuwan, "ancaman eksistensial" yang ditimbulkan oleh perubahan iklim terhadap umat manusia (dan planet ini) berarti setiap eksaserbasi pemanasan global oleh teknologi AI tidak boleh dianggap enteng.

GPT-3 dan SEO

Konten adalah urat nadi pemasaran digital…

Jadi tidak heran jika banyak startup NLG menargetkan SEO.

AI telah memiliki dampak signifikan pada cara penulis membuat konten berbasis SEO — pikirkan Surfer dan PageOptimizerPro…

Tapi aplikasi apa tentang klaim itu yang menghilangkan kebutuhan akan penulis sama sekali?

Atau aplikasi yang menulis email yang tidak dapat dibedakan dari yang Anda tulis sendiri?

Sangat mudah untuk melihat daya tarik platform otomatisasi pembuatan konten…

Terutama jika satu-satunya tujuan Anda dalam membuat konten adalah untuk mengarahkan lalu lintas pencarian organik, dan memberikan nilai kepada pembaca Anda tidak menjadi masalah.

Banyak aplikasi semacam itu dalam tahap beta atau daftar tunggu — tetapi beberapa sudah terbuka untuk bisnis.

Saya mewawancarai Przemek Chojecki — pendiri pembuatan konten otomatis SaaS Contentyze, untuk mengetahui arah teknologi NLG…

Saya juga menanyai pendiri Notebook SEO Steve Toth dan Aleks Smechov, pengembang aplikasi NLP dan pendongeng berbasis data, untuk mengumpulkan pemikiran mereka tentang dampak potensial NLG pada SEO dan konten web secara umum.

Prezemek Chojekki

Konten
Prezemek Chojekki

Wawancara dengan Przemek Chojekki — Pendiri Contentyze*

Apa yang menginspirasi Anda untuk menemukan Contentyze?

Saya sendiri banyak menulis, dan tujuan awal saya adalah membangun serangkaian algoritme yang akan membuat proses penulisan saya lebih cepat dan lancar. Itu berhasil, jadi saya memutuskan untuk membuat platform agar orang lain dapat menggunakannya juga.

Siapa target pelanggan ideal Anda?

Untuk saat ini, audiens target saya adalah pemasar dan pakar SEO. Grup ini membutuhkan banyak konten secara teratur, dan Contentyze dapat membantu mereka mempercepat prosesnya. Tapi idealnya, saya ingin Contentyze berguna bagi siapa saja yang perlu menulis teks: pelajar, pekerja kantoran, pembuat konten. Siapapun benar-benar!

Bisakah Anda memberi saya contoh kasus penggunaan?

Saat ini, kasus penggunaan yang paling umum adalah membuat posting blog dari judul atau ringkasan teks dari tautan.

Kasus penggunaan pertama berfungsi seperti ini: Anda memberi Contentyze prompt — seperti kalimat atau pertanyaan seperti "Bagaimana cara menggunakan Kecerdasan Buatan di perusahaan?"

Konten NLG

Klik Hasilkan, tunggu 1-2 menit dan dapatkan draf teks.

Itu tidak selalu ideal, tetapi selalu unik. Anda dapat mengulangi proses ini beberapa kali, dengan prompt/judul yang sama, untuk mendapatkan lebih banyak teks.

Kemudian Anda memilih dan memilih, dan voila, Anda memiliki teks di blog Anda.

Konten seperti apa yang "baik" di Contentyze?

Saat ini, Contentyze sangat pandai meringkas teks.

Ini juga relatif bagus dalam menghasilkan teks, tetapi belum sekonsisten yang saya inginkan.

Konten seperti apa yang tidak dikuasai Contentyze?

Fungsi penulisan ulang masih membutuhkan banyak pekerjaan untuk membuatnya bagus.

Kami sudah mengizinkan orang untuk menulis ulang teks, tetapi saya tidak senang dengan cara kerjanya sekarang.

Membuat penulisan ulang yang baik cukup menantang jika Anda tidak ingin melakukan pemintalan konten sederhana (pergi ke Tesaurus dan mengubah kata sifat untuk sesuatu yang dekat).

Apakah Anda saat ini melihat Contentyze menambah karya penulis/editor manusia atau menggantikannya sama sekali?

Jelas menambah karya seorang penulis manusia. Tujuan akhir saya adalah menciptakan asisten penulisan yang sempurna yang dapat membantu Anda menulis apa pun pada setiap tahap proses penulisan: mulai dari pembuatan ide hingga penyusunan dan pengeditan.

Mungkin dalam prosesnya, beberapa pekerjaan copywriter akan diganti, meskipun itu bukan tujuan saya.

Saya sudah mencoba Contentyze dan memperhatikan beberapa hal. Ini (diprediksi) berkinerja lebih baik dengan konten pendek, seperti ulasan produk, dll. Apakah menurut Anda Contentyze akan menjadi lebih baik pada konten bentuk panjang dalam waktu dekat? Mengapa?

Ini lebih baik menangani konten pendek karena daya komputasi kami yang terbatas saat ini. Ini sepenuhnya masalah teknis yang sedang kami kerjakan saat ini. Semakin panjang teks, semakin banyak daya komputasi yang Anda butuhkan untuk memprosesnya.

Ketika saya meminta Contentyze untuk "menulis ulang" artikel terbaru di SEOButler tentang Apple yang berpotensi mengembangkan mesin pencari untuk bersaing dengan Google, kalimat pertama masuk akal:

Mesin pencari Google bisa berada di bawah ancaman pesaing baru dalam beberapa tahun ke depan .

Tapi ini adalah kalimat berikut:

Apple dan Google sedang dalam pembicaraan tentang kemungkinan kesepakatan yang dapat membuat Google mengambil alih fungsi pencarian raksasa pencarian di iPhone.

Kesepakatan Apple untuk menjual bisnis jam tangan pintarnya ke Samsung diragukan, menurut laporan.

Google dilaporkan sedang mempertimbangkan untuk meluncurkan mesin pencari baru di Rusia, untuk bersaing dengan Google Alphabet dan Bing Microsoft.

iPhone 7 Plus terbaru dari Apple adalah yang terbaru dari jajaran smartphone kelas atas yang telah dirancang untuk bersaing dengan sistem operasi Google Android.

Bing adalah mesin pencari terbesar di dunia, dan hasil pencariannya digunakan oleh banyak mesin pencari lainnya di seluruh dunia, termasuk Google, Yahoo, dan Microsoft.

Jika Anda ingin menemukan sesuatu di internet, Anda tidak perlu menggunakan mesin pencari terpisah untuk setiap pencarian.

Semakin jauh ke dalam penulisan ulang, ada kalimat yang sama sekali tidak terkait dengan artikel aslinya:

Jika Anda sedang mencari lagu baru untuk didengarkan, atau album baru untuk dibeli, ada banyak tempat untuk menemukannya.

Jika Anda ingin menemukan musik terbaik di dunia, Anda sekarang dapat menemukannya secara online.

Serta pernyataan yang sepenuhnya salah:

Pembaruan pencarian terbaru Google adalah langkah maju yang disambut baik oleh raksasa pencarian, yang telah lama tertinggal dari pesaing seperti Microsoft dan Apple.

Bagaimana Anda melihat pengguna akhir Anda bekerja dengan hasil seperti ini?

Seperti yang saya katakan, menulis ulang adalah fungsi kerja terburuk sekarang. Anda tidak akan mendapatkan hal-hal seperti ini dengan opsi Ringkasan.

Saya memiliki hasil yang serupa saat menggunakan petunjuk untuk membuat konten baru. Apakah Anda melihat Contentyze digunakan sebagai alat brainstorming untuk penulis manusia lebih dari untuk konten yang siap diterbitkan pada tahap ini dalam evolusinya?

Ya, saya tidak mengharapkan orang untuk menggunakannya secara langsung di tingkat produksi pada tahap ini.

Di sisi lain, sangat berguna untuk membuat draf teks dengan cepat sehingga editor manusia dapat memeriksanya, membuat perubahan yang diperlukan untuk memastikan kualitas, dan menerbitkannya.

Saya berharap Contentyze akan mampu melakukan 80% dari pekerjaan menulis pada akhirnya, dan penulis manusia akan melakukan sisanya.

Saya melihat Contentyze dan startup NLG lainnya memasarkan aplikasi SaaS mereka langsung ke SEO dan pemasar afiliasi. Mengapa?

Sebenarnya, ini sangat wajar – audiens ini membutuhkan konten secara teratur, sehingga mereka secara aktif mencari alat yang dapat membantu mereka. Contentyze tumbuh menjadi lebih dari 3.000 pengguna dengan sedikit pemasaran, hampir secara eksklusif ditemukan secara organik.

Menurut Anda, apakah dalam jangka panjang, ada bahaya bagi orang yang menggunakan aplikasi seperti Contentyze dalam skala besar untuk menghasilkan konten dalam jumlah besar yang ditujukan murni untuk SEO dengan sedikit memperhatikan memberikan nilai kepada pembaca? Jika itu atau sesuatu yang serupa terjadi, apakah menurut Anda Google akan memodifikasi algoritme pencarian mereka untuk menemukan dan menghukum konten yang dihasilkan AI?

Jelas, inilah mengapa OpenAI, pencipta GPT2/GPT3, telah menerapkan kebijakan ketat untuk memantau penggunaan algoritme mereka. Itu terutama benar dengan GPT3 dan seluruh proses aplikasi untuk itu.

Saya pikir kita perlu berhati-hati ketika kita maju, karena teknologi semacam ini dapat dengan mudah digunakan untuk "spam" Internet tanpa membawa nilai apa pun.

Seluruh permainan SEO pasti akan berubah. Google akan menyesuaikan algoritmenya seperti yang telah dilakukan berkali-kali sebelumnya, tetapi sulit untuk memprediksi apa yang akan terjadi.

Taruhan saya adalah pada konten yang dihasilkan AI yang tidak dapat dibedakan dari konten tertulis manusia dalam 3-5 tahun ke depan, jadi Google harus menemukan sesuatu yang lain jika mereka ingin menghukum konten yang dibuat oleh AI.

Bagaimanapun, saya tidak akan membuat perbedaan antara konten manusia dan AI. Kita hanya boleh bertanya apakah bagian konten tertentu memberikan nilai atau tidak, terlepas dari siapa atau apa yang membuatnya.

Adakah pemikiran lain yang ingin Anda bagikan?

Terima kasih atas wawancaranya, dan silakan kunjungi kami di contentyze.com —pendaftaran gratis (tidak perlu kartu kredit), jadi Anda bisa mencobanya!

Kami sangat menghargai umpan balik, dan kami ingin membuat alat kami sebaik mungkin sehingga orang-orang di bidang pemasaran dapat membuat pekerjaan mereka lebih efektif.

Steve Toth

Buku Catatan SEO
Steve Toth

Wawancara dengan Steve Toth — Pendiri Notebook SEO*

Sejak diluncurkannya Notebook SEO pada tahun 2018, ini menjadi buletin operator tunggal yang harus dibaca untuk SEO.

Kami cukup beruntung memiliki Steve yang berkontribusi pada tiga pengumpulan ahli terakhir SEOButler, dan saya telah berkorespondensi dengannya melalui email selama beberapa tahun sekarang.

Saya juga senang bertemu Steve di Chiang Mai SEO 2019. jadi ketika saya melihatnya memposting di grup Facebook Affiliate SEO Mastermind tentang pengujian konten yang dihasilkan GPT-3 untuk klien SEO, saya harus menjangkau pemikirannya…

Bagaimana Anda melihat GPT-3 dan teknologi NLG lainnya memengaruhi SEO dalam beberapa tahun ke depan?

Saya pikir itu akan mengikis kepercayaan yang dimiliki pengguna di Google. Saya pikir orang akan lebih banyak meminta rekomendasi dari teman mereka.

Bagaimana Anda memanfaatkan GPT-3 untuk membuat konten pendukung untuk SEO?

Dengan hati-hati. Saya punya satu klien yang ingin melakukannya. Jadi saya membimbing mereka, tetapi proyek ini akan mempengaruhi seberapa banyak saya menggunakannya di masa depan.

Seberapa besar prioritas keterbacaan Anda saat menggunakan konten yang dihasilkan GPT-3?

Sangat besar. Itu sebabnya saya tidak melihat diri saya mendorong GPT-3 terlalu banyak.

GPT-3 mungkin memiliki kegunaan di luar halaman, tetapi itu tidak akan menggantikan copywriting.

Apakah ada jenis konten (misalnya, ulasan produk untuk situs afiliasi) di mana Anda melihat NLG menggantikan penulis manusia dalam waktu dekat?

Orang-orang dapat membangun seluruh situs afiliasi dengan konten GPT-3, lalu menunggu untuk melihat peringkat dan menyempurnakan salinannya nanti. Saya melihat itu sebagai kasus penggunaan utama.

Aleks Smechov

Skriber.io
Aleks Smechov

Wawancara dengan Aleks Smechov — Pendiri Skriber.io dan Pengembang SaaS NLP*

Selain menjadi kontributor blog SEOButler dan konsultan buletin untuk The Edge Group, Aleks juga merupakan pendiri/pengembang aplikasi NLP SaaS Extractor dan Skriber.

Apakah Anda melihat GPT-3 atau teknologi NLG lainnya menggantikan penulis dan editor untuk jenis konten tertentu dalam waktu dekat?

Saya akan fokus pada sisi jurnalisme.

Sudah ada perangkat lunak non-AI yang membuat artikel kecil berbasis fakta.

Salah satu contohnya adalah Wawasan Otomatis dan bagaimana mereka menulis liputan bola basket NCAA dan semacamnya.

Saya pikir jika Anda menggabungkan NLG dengan pembuatan teks berbasis template, Anda dapat membuat cerita yang agak lebih penting/lebih panjang atau bagian agregat dari cerita lain.

Tapi untuk jurnalisme yang lebih serius, saya hanya melihat AI memfasilitasi ruang redaksi, bukan menggantikannya.

Bahkan dengan GPT-3 atau model bahasa alami besar lainnya, mendapatkan kalimat atau paragraf yang baik seperti roulette, selain membutuhkan banyak pengecekan fakta.

Akan lebih banyak pekerjaan daripada meminta seorang jurnalis menulis artikel itu.

Apakah Anda melihat NLG meningkatkan peran pembuat konten dalam waktu dekat? Jika demikian, bagaimana?

Tentu, untuk membuat alternatif dari kalimat/paragraf yang sudah ditulis, ringkasan, atau seperti yang disebutkan di atas, menggabungkan konten dari berbagai sumber (mis. untuk ringkasan, itu mungkin perlu diedit).

Apa 3 kekhawatiran terbesar Anda dengan proliferasi teknologi NLG seperti GPT-3 dan lainnya?

NLG itu mengisi internet dengan:

  • Sampah tak berfaedah
  • Konten SEO membengkak
  • Konten yang terlihat sangat mirip dengan yang lainnya.

Bukannya hal ini belum pernah terjadi di internet… <smiley emoji>

Bisakah saya memecat penulis dan editor saya?

Inilah jawaban singkatnya: tidak.

AI telah membuktikan dirinya setara atau lebih unggul dari manusia dalam tugas yang sempit dan spesifik — mulai dari mengalahkan pemain Catur dan Go terhebat di dunia hingga mendeteksi kanker.

Tapi sementara NLG tumbuh sangat baik dalam meniru bahasa alami, masih ada jalan panjang sebelum menggantikan penulis dan editor manusia yang mahir.

Bahkan NLG yang paling canggih pun bergantung pada "permintaan" dari manusia — belum lagi pengeditan intensif dan pengecekan fakta…

Kreativitas — terutama yang berkaitan dengan memunculkan ide orisinal dan membuat hubungan unik antara sumber informasi dan inspirasi yang berbeda — bukanlah bagian dari repertoar GPT-3.

GPT-3 dapat meniru teks yang menggambarkan dunia, emosi, dan pengalaman — tetapi tidak memilikinya sendiri.

Inilah yang dikatakan GPT-3 sendiri tentang pertanyaan itu ...

GPT-3 Ganti Penulis

Tunggu, mari kita tanyakan lagi …

GPT_3 Contoh 1

Tentu, Anda bisa terus melempar dadu GPT-3 (saya lebih suka menganggapnya sebagai rolet Rusia), memilih bit terbaik, dan kemudian menjahitnya menjadi sesuatu yang lebih baik daripada konten yang setara dengan monster Frankenstein.

Sebaiknya tambal sulam dengan sudut pandang yang koheren yang benar-benar melibatkan audiens Anda.

Kemudian Frankenstein akan membutuhkan pemeriksaan fakta yang menyeluruh.

Perhatikan bahwa bahkan kalimat pertama dalam contoh kedua adalah kata salad dari sampah.

Alan Turing telah meninggal selama 66 tahun — diragukan bahwa dia memperoleh "startup penulisan web."

Atau apakah ini referensi ke Turing NLG Microsoft? Either way, itu pasti tidak membeli perusahaan, juga tidak membawa GPT-3 ke cahaya.

Anda bisa melakukan semua itu — atau Anda bisa menyewa seorang penulis.

GPT-3 dan turunannya — atau model NLG lainnya — harus menjadi jauh lebih pintar sebelum mereka menggantikan penulis dan editor.

Dan jauh lebih manusiawi.

Lebih Manusia dari Manusia
(Sumber: The Tyrell Corporation)

Artificial General Intelligence (AGI) — Lebih Manusiawi daripada Manusia?

NLP dan NLG mungkin (atau mungkin tidak) menjadi langkah penting menuju Artificial General Intelligence (AGI).

Lama dianggap sebagai cawan suci AI, mesin AGI adalah yang Anda lihat di film — "robot" yang dapat melakukan segala hal yang dapat dilakukan manusia dengan baik atau lebih baik.

OpenAI tentu memiliki pandangan yang tepat untuk menciptakan AGI. Saat mengumumkan investasi $ 1 miliar Microsoft di OpenAI, inilah cara perusahaan mendefinisikannya:

“AGI akan menjadi sistem yang mampu menguasai bidang studi ke tingkat pakar dunia, dan menguasai lebih banyak bidang daripada manusia mana pun — seperti alat yang menggabungkan keterampilan Curie, Turing, dan Bach.

Seorang AGI yang mengerjakan suatu masalah akan dapat melihat hubungan lintas disiplin yang tidak dapat dilakukan oleh manusia. Kami ingin AGI bekerja dengan orang-orang untuk memecahkan masalah multi-disiplin yang saat ini sulit dipecahkan, termasuk tantangan global seperti perubahan iklim, perawatan kesehatan yang terjangkau dan berkualitas tinggi, dan pendidikan yang dipersonalisasi.

Kami pikir dampaknya seharusnya memberikan kebebasan ekonomi kepada setiap orang untuk mengejar apa yang mereka anggap paling memuaskan, menciptakan peluang baru untuk semua kehidupan kita yang tak terbayangkan saat ini.”

Kedengarannya seperti utopia, bukan?

Tapi apakah itu hal yang baik?

Secara historis, utopia belum berhasil:

“Ketika manusia yang tidak sempurna mencoba kesempurnaan – pribadi, politik, ekonomi, dan sosial – mereka gagal. Jadi, cermin gelap utopia adalah distopia – eksperimen sosial yang gagal, rezim politik yang represif, dan sistem ekonomi yang sombong yang dihasilkan dari mimpi utopis yang dipraktikkan.” – Michael Shermer

Inilah yang dikatakan GPT-3 tentang pencapaian AGI:

GPT-3 AGI

Ini mungkin hanya angan-angan, GPT-3, tapi kali ini saya cenderung setuju.

Menambah Penulis

Menambah Penulis — Bukan Menggantinya

GPT-3 bisa dibilang salah sekali lagi dalam kalimat terakhir dari contoh di atas…

Ketika datang ke NLP, NLG, dan bahkan pencarian AGI, ada kemajuan besar.

Dan kecepatan inovasi tidak akan melambat dalam waktu dekat.

Less than a month into 2021, the Google Brain team announced a new transformer-based AI language model that dwarfs GPT-3 when measured by the number of parameters.

Google's Switch Transformer is trained on 1 trillion parameters — roughly 6 times as many as GPT-3.

Little is known about potential applications for the Switch Transformer model at the time of writing, but the NLP arms-race shows no signs of abating.

Maybe the day will come when machines replace human writers and editors, but I'm not holding my breath.

As Tristan Greene, AI editor for The Next Web, says about Switch Transformer:

“While these incredible AI models exist at the cutting-edge of machine learning technology, it's important to remember that they're essentially just performing parlor tricks.

These systems don't understand language, they're just fine-tuned to make it look like they do.”

At this point, I'm sure it's clear that I have a dog in this fight.

As objective as I've tried to be in writing this article, I do have a vested interest in human content creators remaining relevant and superior to machines.

But that doesn't mean I don't see how NLP and NLG technology can make me better at what I do.

In truth, AI has been augmenting my writing and editing for years…

I use Rev to auto-transcribe audio and video interviews. I also use it to create transcripts of SEOButler founder Jonathan Kiekbusch and Jarod Spiewak's Value Added Podcast to help me write the show notes more quickly and accurately.

And Grammarly is a powerful tool for even the most diligent editor or proofreader.

As GPT-3 and other advanced NLP models become more accurate and “trustworthy,” their potential ability to summarize long-form content — particularly academic research papers — could prove extremely valuable.

Suppose the future I have to look forward to is one where AI eliminates some of the drudgery of creating SEO-driven content — and I have to edit and polish informational content partly composed by machines instead of writers.

I guess I can live with that…

I may not have a choice.

*Each Q&A has been edited and condensed for clarity.