Estas 23 pautas podrían evitar un apocalipsis de la IA

Feb 23 2017
Consejos de expertos para preparar a los técnicos para el surgimiento de los robots.
¿Cómo puede la humanidad desarrollar inteligencia artificial garantizando al mismo tiempo nuestra propia seguridad? Imágenes de Chad Baker / Getty

Hay muchas razones para temer el futuro de la vida en la Tierra, desde el terrorismo nuclear y el calentamiento global hasta el auge del hombre y el hecho inexplicable de que alguien todavía le paga a Adam Sandler para que haga películas. Algunas personas temen que los avances en tecnología nos acerquen precariamente a los días en que los robots y otras tecnologías automatizadas superan a sus creadores humanos y se apoderan del mundo . Si eso le recuerda cómo la supercomputadora HAL trató de superar a sus colegas humanos en "2001: Una odisea del espacio", es posible que se estremezca al recordar que la historia de ciencia ficción imaginó un futuro que se suponía que iba a suceder unos 16 años en nuestro pasado.

En estos días, los robots ya están reemplazando a los trabajadores humanos en las fábricas y en los restaurantes. La inteligencia artificial (IA), tecnología que otorga a las máquinas una capacidad similar a la humana para percibir y adaptarse a su entorno, está mejorando a un ritmo tan rápido que los expertos están preparando una guía que, según dicen, nos ayudará a garantizar que los robots no se vuelvan tan inteligentes intentan extinguirnos.

La lista, publicada por el Future of Life Institute , proporciona 23 principios que, según investigadores y gigantes tecnológicos como Stephen Hawking y Elon Musk, deberían guiar el desarrollo de la tecnología de IA. La inteligencia artificial debe buscarse en beneficio de los seres humanos y no solo por el bien de la inteligencia (1), dicen los principios, y debe incluir protecciones contra el mal funcionamiento y la piratería (6). Los diseñadores también deben considerar las "implicaciones morales" del uso y mal uso de sus creaciones (9) y aspirar a hacer que las máquinas de IA sean "compatibles con los ideales de dignidad humana, derechos, libertades y diversidad cultural" (11). 

Hablando de dignidad, tal vez haya una máquina que pueda mantener a Adam Sandler fuera de la pantalla grande. Mientras tanto, profundice en la lista completa de directrices aquí .

Eso es interesante

Se considera en gran medida que la inteligencia artificial como campo de investigación se lanzó en una conferencia de 1956 en Dartmouth College, donde los expertos discutieron cómo hacer que las máquinas simulen el aprendizaje humano.