
25 de enero de 1979: A Robert Williams, un trabajador de una fábrica de 25 años en una planta de fundición de Ford Motor Company en Flat Rock, Michigan, se le pide que escale una estantería masiva para contar manualmente las piezas allí. La máquina de cinco pisos que se usa para recuperar las piezas fundidas está dando lecturas falsas, y el trabajo de Williams es subir y averiguar cuántos realmente hay.
Mientras Williams está allí, haciendo el trabajo que se le ordenó, un brazo robótico también encargado de la recuperación de piezas se encarga de su trabajo. Muy pronto, el robot se acerca silenciosamente al joven, lo golpea en la cabeza y lo mata instantáneamente. El robot sigue funcionando, pero Williams yació allí muerto durante 30 minutos antes de que sus compañeros de trabajo preocupados encontraran su cuerpo, según el informe de Knight-Ridder .
En ese día invernal, Williams se convierte en el primer ser humano de la historia en ser asesinado por un robot.
La muerte, sin embargo, fue completamente involuntaria. Simplemente no había salvaguardas para proteger a Williams. Ninguna alarma le notificó que el brazo se acercaba y ninguna tecnología podría alterar el comportamiento del robot en presencia de un humano. En 1979, la inteligencia artificial involucrada no era lo suficientemente sofisticada como para hacer algo para prevenir tal muerte. Un jurado estuvo de acuerdo en que no se había puesto suficiente cuidado en el diseño del robot para evitar una muerte como esta. La familia de Williams ganó una demanda de $ 10 millones por su muerte por negligencia de Unit Handling Systems, una división de Litton Industries, el fabricante que diseñó el robot.
La próxima muerte por robot ocurriría poco más de dos años después, en Japón, bajo circunstancias similares: un brazo robótico nuevamente no pudo detectar a un trabajador, Kenji Urada, de 37 años, y accidentalmente lo empujó a la muerte.
En los años siguientes, los especialistas en robótica, informáticos y expertos en inteligencia artificial han seguido luchando con el problema de cómo los robots pueden interactuar de forma segura con los humanos sin causarles daño.
Décadas más tarde, los informes de muertes humanas causadas por robots o inteligencias artificiales se sienten más comunes. Uber y Tesla han sido noticia con informes de que sus autos autónomos y autónomos, respectivamente, se han involucrado en accidentes y han matado a pasajeros o han golpeado a peatones. Aunque ahora existen muchas salvaguardas, el problema aún no se ha resuelto.
Ninguna de estas muertes es causada por la voluntad del robot; más bien son todos accidentales. Pero existe la preocupación, avivada por las llamas de las películas y las historias de ciencia ficción como las series "Terminator" y "Matrix", de que las inteligencias artificiales puedan desarrollar una voluntad propia y, en ese desarrollo, el deseo de dañar a un humano.
Shimon Whiteson, profesor asociado en el departamento de informática de la Universidad de Oxford y científico jefe y cofundador de Morpheus Labs, llama a esta preocupación la "falacia antropomórfica". Whiteson define la falacia como "la suposición de que un sistema con inteligencia similar a la humana también debe tener deseos similares a los humanos, por ejemplo, sobrevivir, ser libre, tener dignidad, etc. No hay absolutamente ninguna razón por la que este sea el caso, como tal". un sistema sólo tendrá los deseos que le demos ".
La desalineación de valores, argumenta, es la mayor amenaza existencial, donde existe una brecha entre lo que un programador le dice a una máquina que haga y lo que el programador realmente pretendía que sucediera. "¿Cómo comunica sus valores a un sistema inteligente de modo que las acciones que realiza cumplen sus verdaderas intenciones? La discrepancia entre los dos se vuelve más importante a medida que la computadora se vuelve más inteligente y autónoma", explica Whiteson.
En cambio, Whiteson nos dice que la mayor amenaza son los científicos que diseñan a propósito robots que pueden matar objetivos humanos sin intervención humana con fines militares. Es por eso que los investigadores de inteligencia artificial y robótica de todo el mundo publicaron una carta abierta pidiendo una prohibición mundial de dicha tecnología. Y es por eso que las Naciones Unidas se reunirán nuevamente en 2018 para discutir si y cómo regular los llamados "robots asesinos". Aunque estos robots no necesitarían desarrollar una voluntad propia para matar, podrían estar programados para hacerlo.
Ahora que da miedo
The Guardian informa que se han desplegado o están en desarrollo 381 sistemas de robótica militar y de armas parcialmente autónomos en una docena de países, incluidos China, Francia, Israel, el Reino Unido y los Estados Unidos.Además, los sistemas automáticos ya existen, pero no pueden. actuar de forma autónoma.