Kontroversi Kecerdasan Buatan
Diterbitkan: 2017-09-27Kontroversi AI Bukan Hal Baru — Untuk Musk Atau Masyarakat Pada Umumnya.
Sebagai pelopor teknologi, Elon Musk hampir tidak ada yang tahu tentang Luddite. Jadi, ketika Musk men-tweet bahwa persaingan kecerdasan buatan dengan Rusia dan China akan menjadi "penyebab paling mungkin" dari Perang Dunia III, itu membuat orang cukup marah. Namun, kontroversi tentang AI bukanlah hal baru – untuk Musk atau masyarakat pada umumnya.
Kecerdasan Buatan: Menakutkan Sejak Awal
Kami khawatir tentang bahaya menciptakan makhluk buatan jauh sebelum AI menjadi sains. Istilah "robot" berasal dari sebuah drama yang ditulis pada tahun 1920 oleh Karel Capek berjudul RUR — Robot Universal Rossum (Rossumovi Univerzalni Roboti dalam bahasa Ceko asli). Drama dimulai di sebuah pabrik yang memproduksi orang-orang sintetis untuk dijadikan pekerja. Robot pada awalnya dibuat tanpa emosi manusia, tetapi karena semakin banyak robot manusia dikembangkan, mereka melakukan apa… yah, apa yang biasanya dilakukan oleh pasukan robot yang hidup. Sampai jumpa, kemanusiaan.
Ini adalah ide yang sering kita lihat sehingga menjadi klise. Cerita berkisar dari AI gila yang mengancam dan membunuh manusia yang seharusnya mereka lindungi (pikirkan HAL pada tahun 2001) hingga perang total untuk mengakhiri kemanusiaan (SKYNET dalam seri Terminator), tetapi ketika makhluk terkomputerisasi menjadi hidup, ceritanya biasanya berakhir buruk bagi manusia yang terlibat.
Tapi itu bukan hanya kiasan fiksi ilmiah - beberapa ilmuwan modern memiliki kekhawatiran yang sama tentang kecerdasan buatan. Stephen Hawking mengatakan bahwa “kebangkitan AI yang kuat akan menjadi yang terbaik, atau terburuk, yang pernah terjadi pada umat manusia. Kami belum tahu yang mana.”
Apakah Robot Memimpikan Dominasi Dunia Listrik?
Di ujung spektrum yang ekstrem, Hawking tidak bertele-tele. “Pengembangan kecerdasan buatan penuh bisa berarti akhir dari umat manusia,” katanya. Hawking prihatin dengan gagasan AI yang hidup. Jenis kecerdasan ini dapat “mendesain ulang dirinya pada tingkat yang terus meningkat”, yang tidak dapat disaingi oleh manusia karena kita “dibatasi oleh evolusi biologis yang lambat.”
Kekhawatiran Hawking tentang ras manusia yang digantikan mendapatkan banyak pers, karena mereka tampak begitu fantastis, tetapi ia menimbulkan kekhawatiran lain yang jauh lebih mendesak: potensi AI disalahgunakan oleh pengendali manusianya.
“Keberhasilan dalam menciptakan AI akan menjadi peristiwa terbesar dalam sejarah peradaban kita. Tapi itu juga bisa menjadi yang terakhir, kecuali kita belajar bagaimana menghindari risiko. Di samping manfaatnya, AI akan membawa bahaya, seperti senjata otonom yang kuat, atau cara baru bagi segelintir orang untuk menindas banyak orang.”
Dalam keprihatinan ini, dia bergabung dengan beberapa pemimpin pemikiran paling terkemuka baik di dalam maupun di luar Lembah Silikon. Pada tahun 2015, Hawking bergabung dengan sederet peneliti robotika dan kognitif terkenal di dunia, pionir Silicon Valley, dan pemimpin pemikiran lainnya untuk menyerukan larangan senjata otonom — mesin perang dengan kecerdasan buatan yang “memilih dan menyerang target tanpa campur tangan manusia.” Surat itu menggambarkan senjata otonom sebagai "revolusi ketiga dalam peperangan, setelah mesiu dan senjata nuklir," dan menggambarkan potensi kehancuran yang sangat besar, jika perlombaan senjata baru terjadi:
Kecerdasan buatan telah merevolusi peperangan.
“Mereka akan menjadi di mana-mana dan murah untuk semua kekuatan militer yang signifikan untuk diproduksi secara massal. Hanya masalah waktu sampai mereka muncul di pasar gelap dan di tangan teroris, diktator yang ingin mengontrol penduduknya dengan lebih baik, panglima perang yang ingin melakukan pembersihan etnis, dll. Senjata otonom ideal untuk tugas-tugas seperti pembunuhan, destabilisasi bangsa, menundukkan populasi dan secara selektif membunuh kelompok etnis tertentu.”
Elon Musk mungkin yang paling berkomitmen untuk memberitakan bahaya kecerdasan buatan. Dia secara terbuka berdebat dengan teman-teman seperti CEO Alphabet Larry Page, menunjukkan bahwa mereka tanpa disadari dapat menabur benih kehancuran umat manusia. Dia berbicara tentang perlombaan senjata AI, dan membandingkan kecerdasan buatan dengan "memanggil [a] iblis." Dan karena keprihatinan itu, ia mendirikan OpenAI, sebuah organisasi nirlaba untuk mengusir kecerdasan buatan dari bumi selamanya.
Direkomendasikan untukmu:
Tidak, maaf. Maksud kami adalah lembaga nonprofit yang didedikasikan untuk meneliti dan membangun “kecerdasan umum buatan yang aman”. Itu tidak terdengar seperti sesuatu yang akan dilakukan lawan kecerdasan buatan, bukan? Jadi apa yang terjadi?
Keadaan Kecerdasan Buatan Saat Ini (Dan Sedikit Kurang Menakutkan)
Kecerdasan buatan sudah ada di sini — sudah cukup lama sekarang. Ketika Facebook secara otomatis menyarankan nama Anda dalam gambar, atau aplikasi di ponsel Anda memprediksi kata berikutnya yang akan Anda tulis untuk menghemat waktu Anda mengetik? Itu kecerdasan buatan. Stephen Hawking juga menggunakan kecerdasan buatan. Penyakit Amyotrophic Lateral Sclerosis (ALS) membuatnya hampir lumpuh total, jadi dia harus menggunakan gerakan kecil di pipinya untuk memilih kata. Dia memiliki perangkat yang mempelajari pola bicaranya, membantunya memilih kata yang benar dengan lebih mudah dan cepat.
Kecerdasan buatan juga berkembang pesat. Asisten digital seperti Siri Apple dan Asisten Google semakin baik dalam membantu Anda melakukan tugas rutin, mulai dari menjadwalkan, mencuci pakaian dengan peralatan otomatis, hingga berbagi lokasi saat Anda pergi keluar untuk bertemu teman. Kecerdasan buatan sudah membantu mendeteksi kanker paru-paru, mencegah kecelakaan mobil, dan bahkan mendiagnosis penyakit langka yang membuat para dokter bingung.
Kecerdasan buatan sudah membantu mendeteksi kanker dan penyakit lainnya.
Namun, kecerdasan buatan juga dapat digunakan dalam teknologi yang mengganggu. Pengenalan wajah di kamera tubuh polisi dapat membantu mereka mengenali tersangka berbahaya, tetapi juga dapat digunakan untuk melacak warga yang tidak bersalah. Mengemudi otomatis akan terus membuat transportasi lebih aman dan lebih efisien, tetapi juga dapat digunakan untuk menggerakkan drone otonom untuk tujuan yang merusak, atau diretas untuk membajak pesawat. Dan kemudian ada pemberontakan robot yang ditakuti.
Pertanyaannya bukanlah apakah AI harus ada atau tidak — itu sudah ada. Dan kami tidak memperdebatkan apakah kecerdasan buatan itu membantu atau merusak, karena jelas bisa salah satu atau keduanya. Pertanyaan yang penting adalah jenis AI apa yang harus kita miliki, bagaimana penggunaannya, dan siapa yang akan mengendalikannya.
Pertanyaan Untuk Masa Depan AI
1. Jenis apa? Kecerdasan Umum Buatan vs. AI
Skenario pemberontakan robot tersebut biasanya tentang Artificial General Intelligence (AGI). Berbagai taman AI dirancang untuk memecahkan masalah tertentu, seperti mengendarai mobil, atau mendeteksi kanker. Kecerdasan umum buatan lebih besar — mengacu pada AI yang mampu menalar dan berpikir seperti manusia. Seorang AGI tidak harus sadar, tetapi ia akan mampu melakukan hal-hal seperti yang dilakukan manusia. Itu bisa berarti menggunakan bahasa dengan cukup baik untuk meyakinkan pembicara manusia bahwa itu adalah manusia (The Turing Test), pergi ke rumah rata-rata dan membuat kopi (The Coffee Test - diusulkan oleh salah satu pendiri Apple dan "lawan" AI Steve Wozniak) atau bahkan mendaftar dan melewati kelas (The Robot College Student Test).
Kecerdasan Umum Buatan adalah salah satu yang orang-orang seperti Stephen Hawking dan Elon Musk khawatirkan dapat menggantikan kita dengan spesies lain yang sadar. Tapi itu juga jenis yang dipelajari oleh lembaga OpenAI, karena – terlepas dari semua liputan sensasional – menghentikan AI bukanlah tujuan Musk sebenarnya.
2. Siapa yang Mengendalikan AI?
Kecerdasan buatan adalah teknologi yang kuat, yang dapat membuat manusia jauh lebih efektif dalam berbagai tugas. Salah satu kelompok yang menjadi perhatian seperti OpenAI adalah bahwa kekuasaan akan terkonsentrasi di terlalu sedikit tangan atau tangan yang salah, memungkinkan pemerintah totaliter, perusahaan jahat, teroris atau aktor jahat lainnya untuk melakukan berbagai hal yang merusak, hingga, dan termasuk memulai Perang Dunia III. Pendekatan open source menyamakan keadaan, dengan memastikan tidak ada satu kelompok pun yang dapat memonopoli teknologi ini.
Kekhawatiran lain yang tidak dijawab oleh open source adalah gangguan ekonomi. Saat teknologi berkembang dan menjadi lebih efisien, ini mengurangi jumlah tenaga kerja yang dibutuhkan, yang berarti lebih sedikit pekerjaan. Ketika robot dan AI menjadi lebih kuat, proses itu akan semakin cepat. Apa yang terjadi pada semua orang yang menganggur itu? Bagaimana kita memastikan mereka memiliki standar hidup yang wajar dan tempat di masyarakat? Dan apa yang harus menjadi tujuan akhir? Ketika AI menangani semakin banyak pekerjaan, dapatkah dan haruskah kita mempertahankan model ekonomi berdasarkan persaingan, atau apakah kita harus berevolusi ke model yang lebih kooperatif?
3. Bagaimana Seharusnya AI Digunakan?
Ini adalah pertanyaan yang paling jelas, tetapi yang paling sulit untuk dijawab karena mengharuskan kita untuk mengakui sesuatu yang kita benci untuk akui: teknologi tidak netral secara moral — hal-hal yang kita rancang dan bangun memiliki konsekuensi. Apakah kita ingin hidup di dunia dengan robot pembunuh otonom? Jika tidak, bagaimana kita bisa menghentikan mereka diciptakan? Apakah teknologi untuk mengenali wajah dan melacak orang berbahaya bagi kebebasan kita? Jika demikian, batasan apa yang perlu kita berikan pada mereka, dan bagaimana kita bisa menegakkan batasan itu?
Bagaimana kita bisa memastikan kecerdasan buatan mengarah ke dunia yang lebih baik?
Kita Perlu Bicara Tentang Kecerdasan Buatan
Kecerdasan buatan sudah ada di sini, dan itu akan terus berkembang. Kita mungkin tidak pernah memiliki kecerdasan umum buatan yang lengkap, tetapi itu adalah taruhan yang aman bahwa komputer akan menjadi jauh lebih kuat dalam menyelesaikan berbagai tugas. Itu berarti menjanjikan teknologi baru, seperti penelitian kanker dan manajemen yang lebih baik, tetapi juga akan mengarah pada risiko baru yang berbahaya. Apakah masa depan itu adalah masa di mana kita hidup lebih lama, lebih bahagia, lebih memuaskan, atau sesuatu yang jauh lebih gelap bergantung pada keputusan yang kita buat saat ini.
[Posting ini pertama kali muncul di Proto.io dan telah direproduksi dengan izin.]