Con el rápido avance de la tecnología de inteligencia artificial, los sistemas de armas que podrían matar sin intervención humana están cada vez más cerca, lo que plantea desafíos éticos y legales que, según la mayoría de los países, deben abordarse pronto.
Austria pidió el lunes nuevos esfuerzos para regular el uso de inteligencia artificial en sistemas de armas que podrían crear los llamados robots asesinos, mientras organizaba una conferencia destinada a reactivar debates en gran parte estancados sobre el tema.
«No podemos dejar pasar este momento sin tomar medidas. Ahora es el momento de acordar reglas y normas internacionales para garantizar el control humano», dijo el Ministro de Asuntos Exteriores de Austria, Alexander Schallenberg, en una reunión de organizaciones no gubernamentales e internacionales, así como de enviados de 143 países.
«Al menos asegurémonos de que la decisión más profunda y de mayor alcance, quién vive y quién muere, quede en manos de los humanos y no de las máquinas», afirmó en su discurso de apertura de la conferencia titulada «La humanidad en la encrucijada». : Sistemas de armas autónomos y el desafío de la regulación».
Años de discusiones en las Naciones Unidas han producido pocos resultados tangibles y muchos participantes en la conferencia de dos días en Viena dijeron que la ventana para la acción se estaba cerrando rápidamente.
«Es muy importante actuar y hacerlo muy rápido», dijo la presidenta del Comité Internacional de la Cruz Roja, Mirjana Spoljaric, en una mesa redonda de la conferencia.
«Lo que vemos hoy en los diferentes contextos de violencia son fracasos morales frente a la comunidad internacional. Y no queremos que esos fracasos se aceleren al entregar la responsabilidad de la violencia, del control de la violencia, a las máquinas y los algoritmos. ,» ella añadió.
La IA ya se utiliza en el campo de batalla. Los drones en Ucrania están diseñados para encontrar su propio camino hacia su objetivo cuando la tecnología de interferencia de señales los separa de su operador, dicen diplomáticos.
Estados Unidos dijo este mes que estaba investigando un informe de los medios de comunicación de que el ejército israelí había estado utilizando IA para ayudar a identificar objetivos de bombardeo en Gaza.
«Ya hemos visto a la IA cometer errores de selección en formas grandes y pequeñas, desde reconocer erróneamente la cabeza calva de un árbitro como una pelota de fútbol, hasta muertes de peatones causadas por autos sin conductor que no pueden reconocer a alguien que cruza la calle imprudentemente», dijo Jaan Tallinn, programador de software e inversor en tecnología. , dijo en un discurso de apertura.
«Debemos ser extremadamente cautelosos a la hora de confiar en la precisión de estos sistemas, ya sea en el sector militar o civil».