La tecnología se denomina Sistemas de Armas Autónomos Letales (LAWS, por sus siglas en inglés) o coloquialmente "robots asesinos", dispositivos que incluyen a robots que disparan, a los drones de ataque o submarinos no tripulados. Durante los combates no los dirigen personas, sino que deciden de manera autónoma los objetivos que consideran legítimos y disparan.
"No hay que dramatizar el asunto", decía hace unos meses el embajador indio Amandeep Gill, quien encabeza el encuentro. "Los robots no controlarán el mundo". Pero los críticos están muy alarmados.
"Las armas no pueden distinguir entre amigos y enemigos y deben ser analizadas desde el punto de vista del derecho internacional", afirma Thomas Küchenmeister, de la organización alemana Facing Finance, que forma parte de la campaña internacional contra este tipo de armas ("Campaign to Stop Killer Robots"). La decisión de acabar con una vida humana jamás debería estar en manos de una máquina, argumenta.
Las armas autónomas han sido desarrolladas gracias al veloz avance de la inteligencia artificial. Las computadoras aprenden en base a la información que van recibiendo qué es un objetivo, cómo se ve, cómo se mueve y cuándo debe ser atacado o detonado sin que una persona participe en la decisión. Es una diferencia clave, por ejemplo respecto de los misiles "Patriot", que disparan de manera automática pero que deben ser programados con anterioridad con precisión por seres humanos.
"Existe una zona gris entre las armas automáticas y las autónomas", explica Michael Biontino, hasta hace poco embajador alemán de desarme en Ginebra. "Las armas autónomas reconocen sus objetivos por ellas mismas, no tienen una biblioteca de blancos registrada con anterioridad".
No hay ninguna duda de que se encuentran trabajando en estos sistemas Estados Unidos, Rusia, China, Israel, Corea del Sur y Reino Unido. Son armas que ya existen, asegura Neil Davison, del Comité Internacional de la Cruz Roja (CICR), organismo que vigila el cumplimiento del derecho humanitario, de las Convenciones de Ginebra, y que está preocupado por esta situación.
"Los ataques deben limitarse estrictamente a los obejtivos militares", establece, por ejemplo, la Convención de Ginebra. ¿Pueden decidir esto las máquinas? "El ser humano tiene que mantener suficiente control para que se tomen medidas que sean legales", opina Davison.
"No hay que dramatizar el asunto", decía hace unos meses el embajador indio Amandeep Gill, quien encabeza el encuentro. "Los robots no controlarán el mundo". Pero los críticos están muy alarmados.
"Las armas no pueden distinguir entre amigos y enemigos y deben ser analizadas desde el punto de vista del derecho internacional", afirma Thomas Küchenmeister, de la organización alemana Facing Finance, que forma parte de la campaña internacional contra este tipo de armas ("Campaign to Stop Killer Robots"). La decisión de acabar con una vida humana jamás debería estar en manos de una máquina, argumenta.
Las armas autónomas han sido desarrolladas gracias al veloz avance de la inteligencia artificial. Las computadoras aprenden en base a la información que van recibiendo qué es un objetivo, cómo se ve, cómo se mueve y cuándo debe ser atacado o detonado sin que una persona participe en la decisión. Es una diferencia clave, por ejemplo respecto de los misiles "Patriot", que disparan de manera automática pero que deben ser programados con anterioridad con precisión por seres humanos.
"Existe una zona gris entre las armas automáticas y las autónomas", explica Michael Biontino, hasta hace poco embajador alemán de desarme en Ginebra. "Las armas autónomas reconocen sus objetivos por ellas mismas, no tienen una biblioteca de blancos registrada con anterioridad".
No hay ninguna duda de que se encuentran trabajando en estos sistemas Estados Unidos, Rusia, China, Israel, Corea del Sur y Reino Unido. Son armas que ya existen, asegura Neil Davison, del Comité Internacional de la Cruz Roja (CICR), organismo que vigila el cumplimiento del derecho humanitario, de las Convenciones de Ginebra, y que está preocupado por esta situación.
"Los ataques deben limitarse estrictamente a los obejtivos militares", establece, por ejemplo, la Convención de Ginebra. ¿Pueden decidir esto las máquinas? "El ser humano tiene que mantener suficiente control para que se tomen medidas que sean legales", opina Davison.