¿Las máquinas inteligentes aniquilarán a la raza humana?
  • 7
    Mar

¿Las máquinas inteligentes aniquilarán a la raza humana?

“El desarrollo de la inteligencia artificial plena podría suponer el fin de la raza humana.”

— Stephen Hawking, 2 de diciembre.

¿La inteligencia artificial amenaza nuestra especie, como sugirió hace poco el cosmólogo Stephen Hawking? ¿Es el desarrollo de la inteligencia artificial el equivalente a “llamar al demonio”, como dijo el pionero de tecnología Elon Musk ante una audiencia en el Instituto Tecnológico de Massachusetts en octubre? ¿Las máquinas inteligentes sustituirán o incluso aniquilarán a la raza humana?

Como científico cognitivo y fundador de una startup que se enfoca en el “aprendizaje de máquinas”, pienso en estas preguntas casi todos los días.

Pero no entremos en pánico. Las máquinas “superinteligentes” no llegarán pronto. Las computadoras de hoy son buenas para tareas limitadas diseñadas cuidadosamente por los programadores, como calcular el saldo de una cuenta o aterrizar aviones pero, después de cinco décadas de investigaciones, siguen siendo débiles en cualquier cosa que se parezca remotamente a inteligencia humana genuina.

Incluso los mejores programas informáticos disponibles no tienen la flexibilidad del pensamiento humano. Un adolescente puede aprender un videojuego en una hora; su programa de computación promedio aún puede realizar solamente la tarea para la cual fue diseñada. (Algunas nuevas tecnologías son ligeramente mejores, pero siguen teniendo dificultades para llevar a cabo una tarea que requiera planificación de largo plazo.)

Una preocupación más inmediata es que una máquina no tiene que ser superinteligente para hacer mucho daño, si tiene el poder suficiente. Los colapsos bursátiles conocidos como “flash crash” son un ejemplo: se han perdido cientos de millones de dólares en cuestión de minutos como resultado de fallas menores y difíciles de eliminar por completo.

El peligro inminente, si no el mayor peligro a largo plazo, es que programas informáticos mediocres puedan causar considerables daños si no son controlados. ¿Qué pasará, por ejemplo, cuando un software casi perfecto —pero todavía imperfecto— controle no sólo transacciones bursátiles sino también autos sin conductores? Una cosa es que una falla de software borre su lista de compras; otra cosa es que choque su auto.

Nada de esto significa que deberíamos abandonar las investigaciones de inteligencia artificial. Los autos sin conductor probablemente cobrarán algunas vidas, pero también evitarán decenas de miles de muertes. Los doctores robóticos (tal vez un par de décadas en el futuro) podrían en ocasiones tomar malas decisiones, pero también proveerán servicios médicos de alta calidad en lugares que de otra manera no contarían con doctores capacitados. Prohibir la inteligencia artificial podría desperdiciar una oportunidad de salvar o mejorar radicalmente millones de vidas.

Aun así, la escalabilidad de la inteligente artificial —un solo programa puede ser copiado millones de veces— significa que cada nuevo programa acarrea riesgos si tiene acceso al mundo exterior. Mientras más autonomía les demos a las máquinas, mayor la necesidad de tener dispositivos de seguridad. Un programa “aislado” en su iPhone, con ningún acceso real al mundo exterior, no es de gran preocupación. Un programa que realiza operaciones bursátiles necesita más protecciones. Un robot de uso general que vive en su hogar, con acceso completo a Internet, necesitaría muchas más.

El problema es que nadie sabe aún en lo que debería consistir esa supervisión. Aunque la inteligencia artificial no plantea una amenaza existencial inmediata, nadie en el sector privado o el gobierno tiene una solución a largo plazo para sus potenciales peligros. Hasta que veamos algún mecanismo que garantice que las máquinas nunca intentarán reemplazarnos, o relegarnos a zoológicos, deberíamos tratar el problema de la inteligencia artificial seriamente.

Las computadores se han vuelto mucho mejores para muchas cosas en las últimas décadas, desde el ajedrez y la aritmética al tráfico de redes, pero hasta ahora no han mostrado el menor interés en nosotros o nuestras posesiones. Si esto se mantiene así, todo indica que continuarán siendo nuestros socios en lugar de nuestros conquistadores. Podríamos estar preocupados por nada.

No obstante, los alarmistas también tienen su razón. El problema real no es que el dominio mundial venga automáticamente de una mayor inteligencia de las máquinas; es que no tenemos absolutamente ninguna manera, por ahora, de predecir o regular lo que vendrá. ¿Deberíamos exigir transparencia en programas que controlan recursos importantes? ¿Financiar avances en técnicas de “verificación de programa”, que trata de hacer que los programas hagan lo que están diseñados para hacer? ¿Prohibir ciertas aplicaciones específicas y riesgosas?

Por ahora, cualquiera puede escribir prácticamente cualquier programa en cualquier momento, y no contamos con casi ninguna infraestructura para predecir o controlar los resultados. Y ese es un motivo de preocupación real.

Marcus es profesor de psicología y neurociencia de la Universidad de Nueva York y presidente ejecutivo de Geometric Intelligence. Su más reciente libro es “The Future of the Brain” (algo así como El futuro del cerebro).

Gary Marcus

Fuente: lat.wsj.com

Leave a Reply