La controversia de la inteligencia artificial
Publicado: 2017-09-27La controversia sobre la IA no es nueva: para Musk o la sociedad en general.
Como pionero de la tecnología, Elon Musk no es la idea que tiene nadie de un ludita. Entonces, cuando Musk tuiteó que la competencia de inteligencia artificial con Rusia y China sería la "causa más probable" de la Tercera Guerra Mundial, la gente se puso muy nerviosa. Sin embargo, la controversia sobre la IA no es nueva, ni para Musk ni para la sociedad en general.
Inteligencia artificial: aterradora desde el principio
Estábamos preocupados por los peligros de crear un ser artificial mucho antes de que la IA se convirtiera en una ciencia. El término “robot” proviene de una obra de teatro escrita en 1920 por Karel Capek llamada RUR: Rossum's Universal Robots (Rossumovi Univerzalni Roboti en el original checo). La obra comienza en una fábrica que fabrica personas sintéticas para que sirvan como trabajadores. Los robots se crean inicialmente sin emociones humanas, pero a medida que se desarrollan más robots humanos, hacen lo que... bueno, lo que generalmente hace un ejército de robots sensibles. Adiós, humanidad.
Es una idea que hemos visto tantas veces que se ha convertido en un cliché. Las historias van desde IA locas que amenazan y matan a los humanos que se supone que deben proteger (piense en HAL en 2001) hasta una guerra total para acabar con la humanidad (SKYNET en la serie Terminator), pero cuando los seres computarizados se vuelven conscientes, la historia generalmente termina. mal para los humanos involucrados.
Pero no es solo un tropo de ciencia ficción: algunos científicos modernos tienen preocupaciones similares sobre la inteligencia artificial. Stephen Hawking ha dicho que “el surgimiento de una poderosa IA será lo mejor o lo peor que le haya pasado a la humanidad. Todavía no sabemos cuál”.
¿Los robots sueñan con dominar el mundo eléctrico?
En el extremo del espectro, Hawking no se anda con rodeos. “El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana”, dice. Hawking está preocupado por la idea de una IA consciente. Este tipo de inteligencia podría "rediseñarse a sí misma a un ritmo cada vez mayor", con la que los humanos no podrían competir porque estamos "limitados por la lenta evolución biológica".
Las preocupaciones de Hawking acerca de que la raza humana sea reemplazada reciben mucha atención porque parecen fantásticas, pero plantea otra preocupación que es mucho más inmediata: el potencial de que la IA sea mal utilizada por sus controladores humanos.
“El éxito en la creación de IA será el evento más grande en la historia de nuestra civilización. Pero también puede ser el último, a menos que aprendamos a evitar los riesgos. Además de los beneficios, la IA traerá peligros, como poderosas armas autónomas o nuevas formas para que unos pocos opriman a muchos”.
En estas preocupaciones, se le unen algunos de los líderes de opinión más destacados tanto dentro como fuera de Silicon Valley. En 2015, Hawking se unió a una lista de investigadores cognitivos y de robótica de renombre mundial, pioneros de Silicon Valley y otros líderes de opinión para pedir la prohibición de las armas autónomas: máquinas de guerra artificialmente inteligentes que "seleccionan y atacan objetivos sin intervención humana". La carta describía las armas autónomas como “la tercera revolución en la guerra, después de la pólvora y las armas nucleares”, y describía un enorme potencial de devastación, en caso de que ocurriera una nueva carrera armamentista:
La inteligencia artificial ya ha revolucionado la guerra.
“Se volverán omnipresentes y baratos para que todas las potencias militares importantes los produzcan en masa. Será cuestión de tiempo que aparezcan en el mercado negro y en manos de terroristas, dictadores que deseen controlar mejor a su población, señores de la guerra que deseen perpetrar limpiezas étnicas, etc. Las armas autónomas son ideales para tareas como asesinatos, desestabilización naciones, sometiendo poblaciones y matando selectivamente a un grupo étnico en particular”.
Elon Musk es probablemente el más comprometido en predicar los peligros de la inteligencia artificial. Ha discutido públicamente con amigos como el CEO de Alphabet, Larry Page, sugiriendo que podrían estar sembrando sin darse cuenta las semillas de la destrucción de la humanidad. Ha hablado sobre las carreras armamentísticas de la IA y comparó la inteligencia artificial con "convocar a [un] demonio". Y debido a esa preocupación, fundó OpenAI, una organización sin fines de lucro para desterrar la inteligencia artificial de la tierra para siempre.
Recomendado para ti:
No lo siento. Nos referimos a una organización sin fines de lucro dedicada a investigar y construir "inteligencia artificial general segura". Eso no suena como algo que haría un oponente de inteligencia artificial, ¿verdad? Entonces, ¿qué está pasando?
El estado actual (y un poco menos aterrador) de la inteligencia artificial
La inteligencia artificial ya está aquí, lo ha estado durante bastante tiempo. ¿Cuando Facebook sugiere automáticamente su nombre en una imagen, o una aplicación en su teléfono predice la próxima palabra que escribirá para ahorrarle tiempo escribiendo? Eso es inteligencia artificial. Stephen Hawking también usa inteligencia artificial. La enfermedad de Esclerosis Lateral Amiotrófica (ELA) lo dejó casi totalmente paralizado, por lo que tiene que usar pequeños movimientos de su mejilla para seleccionar palabras. Tiene un dispositivo que aprende sus patrones de habla, ayudándolo a elegir la palabra correcta más fácil y rápidamente.
La inteligencia artificial también está progresando rápidamente. Los asistentes digitales como Siri de Apple y el Asistente de Google están mejorando para ayudarlo con las tareas de rutina, desde programar, lavar la ropa con electrodomésticos automáticos y compartir su ubicación cuando sale a encontrarse con amigos. La inteligencia artificial ya está ayudando a detectar el cáncer de pulmón, prevenir accidentes automovilísticos e incluso diagnosticar enfermedades raras que han dejado perplejos a los médicos.
La inteligencia artificial ya está ayudando a detectar el cáncer y otras enfermedades.
Sin embargo, la inteligencia artificial también se puede utilizar en tecnologías problemáticas. El reconocimiento facial en las cámaras corporales de la policía puede ayudarlos a reconocer a un sospechoso peligroso, pero también podría usarse para rastrear a ciudadanos inocentes. La conducción automática seguirá haciendo que el transporte sea más seguro y eficiente, pero también podría usarse para impulsar drones autónomos con fines destructivos o piratearse para secuestrar un avión. Y luego está la temida rebelión de los robots.
La pregunta no es si la IA debería existir o no, ya existe. Y no estamos debatiendo si la inteligencia artificial es útil o destructiva, porque obviamente puede ser una o ambas. Las preguntas que importan son qué tipo de IA deberíamos tener, cómo se usará y quién la controlará.
Preguntas para el futuro de la IA
1. ¿Qué tipo? Inteligencia artificial general frente a IA
Esos escenarios de rebelión de robots suelen ser sobre Inteligencia General Artificial (AGI). La variedad Garden AI está diseñada para resolver problemas específicos, como conducir un automóvil o detectar el cáncer. La inteligencia artificial general es más grande: se refiere a una IA que es capaz de razonar y pensar como una persona. Un AGI no necesariamente tendría que ser consciente, pero sería capaz de hacer cosas como lo haría un humano. Eso podría significar usar el lenguaje lo suficientemente bien como para convencer a un hablante humano de que es humano (La prueba de Turing), ir a una casa promedio y preparar café (La prueba del café, propuesta por el cofundador de Apple y el "oponente" de AI Steve Wozniak) o incluso inscribirse y aprobar una clase (The Robot College Student Test).
La Inteligencia General Artificial es la que preocupa a personas como Stephen Hawking y Elon Musk, podría reemplazarnos con otra especie consciente. Pero también es el tipo que está estudiando el instituto OpenAI porque, a pesar de toda la cobertura sensacionalista, detener la IA no es realmente el objetivo de Musk.
2. ¿Quién controla la IA?
La inteligencia artificial es una tecnología poderosa que puede hacer que los humanos sean mucho más efectivos en una amplia gama de tareas. Una preocupación que tienen grupos como OpenAI es que ese poder se concentrará en muy pocas manos o en las manos equivocadas, lo que permitirá a los gobiernos totalitarios, las corporaciones malévolas, los terroristas u otros malos actores hacer varias cosas destructivas, incluso comenzar la Tercera Guerra Mundial. Un enfoque de código abierto equilibra las cosas, asegurándose de que ningún grupo pueda monopolizar esta tecnología.
Otra preocupación que el código abierto no responde es una interrupción económica. A medida que la tecnología se desarrolla y se vuelve más eficiente, reduce la cantidad de mano de obra necesaria, lo que significa menos puestos de trabajo. A medida que los robots y la IA se vuelvan más poderosos, ese proceso se acelerará. ¿Qué pasa con todos esos desempleados? ¿Cómo nos aseguramos de que tengan un nivel de vida razonable y un lugar en la sociedad? ¿Y cuál debería ser el objetivo final? A medida que la IA maneja más y más trabajo, ¿podemos y debemos mantener un modelo económico basado en la competencia, o tenemos que evolucionar hacia un modelo más cooperativo?
3. ¿Cómo se debe usar la IA?
Esta es la pregunta más obvia, pero es la más difícil de responder porque requiere que reconozcamos algo que odiamos admitir: la tecnología no es moralmente neutral: las cosas que diseñamos y construimos tienen consecuencias. ¿Queremos vivir en un mundo con robots asesinos autónomos? Si no, ¿cómo podemos evitar que se creen? ¿Son las tecnologías para reconocer rostros y rastrear personas peligrosas para nuestra libertad? Si es así, ¿qué límites debemos ponerles y cómo podemos hacer cumplir esos límites?
¿Cómo podemos garantizar que la inteligencia artificial conduzca a un mundo mejor?
Necesitamos tener una charla sobre inteligencia artificial
La inteligencia artificial ya está aquí y seguirá avanzando. Es posible que nunca tengamos una inteligencia general artificial completa, pero es una apuesta segura que las computadoras serán mucho, mucho más poderosas para realizar una amplia gama de tareas. Eso significará nuevas tecnologías prometedoras, como la investigación del cáncer y una mejor gestión, pero también conducirá a nuevos riesgos peligrosos. Ya sea que ese futuro sea uno en el que vivamos vidas más largas, felices y satisfactorias, o algo mucho más oscuro, depende de las decisiones que tomemos ahora.
[Esta publicación apareció por primera vez en Proto.io y ha sido reproducida con permiso.]