¿Matrix? Robots, el peligro de la inteligencia artificial

El desarrollo de sistemas militares basados en inteligencia artificial diseñados para seleccionar objetivos y dirigir ataques sin estricto control ni toma de decisiones por parte de seres humanos son el centro de un intenso debate legal, moral y político en el mundo contemporáneo.

La proliferación de armamento autónomo —software de inteligencia artificial (IA) aplicados a vehículos no tripulados y robots armados— provocaría aún mayores desigualdades entre los países del primer mundo y aquellos en vías de desarrollo. Perpetuaría la violencia hacia mujeres, niños y civiles y crearía un vacío de responsabilidad que rompería los consensos del derecho internacional.

Así lo aseguraron en la conferencia organizada por la Campaña para Detener los Robots Asesinos, que tuvo su primer encuentro en Argentina. Científicas y activistas locales e internacionales presentaron sus argumentos en contra de la investigación y uso militar de programas informáticos automatizados que activen ataques con drones aéreos, terrestres, marítimos o espaciales.

«Cuando empecé a pensar en las consecuencias que podían tener el uso bélico de los mismos modelos que yo estaba desarrollando, empecé a desarrollar una postura crítica, que creo que es algo que suele faltarle a la comunidad científica en general, con perspectivas acotadas en la resolución de problemas», dijo Vanina Martínez, investigadora en Ciencias de la Computación y especializada en inteligencia artificial simbólica, que participó del panel.

Martínez explicó que su trabajo se diferencia de otras aplicaciones de la IA como el aprendizaje automático, más conocido como machine learning, en que sus estudios utilizan modelos basados en conocimientos de expertos a través de esquemas de lógica matemática.

«Las técnicas más desarrolladas que existen están en su infancia. Todavía no entendemos bien cómo funcionan, no sabemos si van a evolucionar para tener comprensión del contexto. No pueden representar conocimiento de sentido común, interpretar lo que está pasando o discernir entre un combatiente y un civil, mucho menos si los primeros buscan hacerse pasar como los segundos», explicó la científica argentina.

La inteligencia artificial, más artificial que inteligente
Martínez no fue la única científica en presentar sus argumentos durante la conferencia. También participó como expositora la ingeniera en software irlandesa Laura Nolan, exempleada de la empresa estadounidense de tecnología Google. Nolan narró que renunció a su trabajo en 2018 en protesta por el Proyecto Maven, un contrato que tenía Google con el Departamento de Defensa de los EEUU para desarrollar inteligencia artificial para mejorar las capacidades de apuntado y vigilancia de los drones en el campo de batalla. Desde diciembre de 2019, Google abandonó el proyecto, que continúa en manos de la compañía tecnológica estadounidense Palantir.

«No es posible cuantificar la proporcionalidad, no se puede codificar el discernimiento. Esto puede llevar a la simplificación, como calcular el daño en cantidad de víctimas de un ataque sin una perspectiva humana. Puede bajar la vara de lo que significa iniciar una guerra ya que reduce el riesgo de los combatientes del país que cuenta con esta tecnología», dijo Nolan en su ponencia.

María Pía Devoto, coordinadora de la Red de Seguridad Humana en Latinoamérica y el Caribe (SEHLAC) y mediadora de la conferencia, explicó que las armas autónomas representan problemas éticos y legales. «Que un software decida sobre la vida y la muerte afecta directamente a la dignidad humana», señaló.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

A %d blogueros les gusta esto: