La prohibición de los robots asesinos se juega en Ginebra


stm.com.tr

Suiza es líder en robótica e inteligencia artificial, dos áreas de investigación cuyos resultados pueden ser utilizados tanto civil como militarmente, pero para los que tampoco existe un control internacional.

Este contenido fue publicado el 23 junio 2022 – 09:45

De acuerdo con el reporteEnlace externo La ONU desplegó un quadrocopter Kargu-2 al gobierno libio durante la guerra civil en marzo de 2020. Este dron estaba “persiguiendo” a un objetivo humano sin recibir la orden. Por primera vez se utilizó un arma letal autónoma, un robot asesino.

Desarrollados con robótica e inteligencia artificial (IA), estos sistemas de armas funcionan sin intervención humana. Los drones autónomos, por ejemplo, están programados para volar a una ubicación específica, seleccionar un objeto y eliminar un objetivo sin control humano. El incidente en Libia demuestra que los robots asesinos pueden actuar de forma autónoma. A diferencia de las armas de destrucción masiva, no existe un tratado o régimen específico que prohíba o prohíba estas armas y tecnologías a nivel internacional.

¿Qué control para las armas de destrucción masiva?

Las armas de destrucción masiva son armas cuyo poder destructivo es mayor que el de las armas convencionales. Estos incluyen armas nucleares, biológicas y químicas (armas NBC). Estos son capaces de matar a un gran número de personas y destruir el medio ambiente en muy poco tiempo.

Existen tratados internacionalmente vinculantes de desarme y no proliferación de armas de destrucción masiva. Entre ellos: el Tratado de No Proliferación de Armas Nucleares, la Convención sobre Armas Biológicas o la Convención sobre Armas Químicas. Su objetivo es prevenir la proliferación de armas nucleares y prohibir las armas biológicas y químicas en todo el mundo.

También hay cuatro acuerdos multilaterales políticamente vinculantes en virtud de los cuales los estados participantes amplían y armonizan sus controles de exportación: el Grupo de Proveedores Nucleares (NSG), el Grupo de Australia (AG), los Misiles (MTCR) y el Acuerdo de Wassenaar (WA). Suiza participa en los cuatro.

Fuente: SECOEnlace externo

final de pasta

Las opiniones difieren en cuanto a si esto debe considerarse un defecto. Cuando swissinfo.ch le preguntó, el Departamento Federal de Asuntos Exteriores (FDFA) respondió que el derecho internacional humanitario se aplica a todas las armas y tecnologías, incluidos los sistemas de armas novedosos, como los sistemas autónomos. “Entonces no hay lagunas en el uso de la robótica, la inteligencia artificial y otras tecnologías digitales en los conflictos armados”.

Pero esta visión no se comparte unánimemente dentro de la comunidad internacional. “Algunos estados sienten que la legislación existente no es suficiente”, dice Laura Bruun, experta en tecnologías militares y de seguridad emergentes del Instituto Internacional de Investigación para la Paz de Estocolmo. Si bien el derecho internacional humanitario se aplica a todo tipo de armas, no se busca explícitamente el uso de tecnologías militares controladas por IA. Según el experto, dependiendo de cómo se interprete la ley, podría haber un vacío normativo.

Las normas de la UE o la UNESCO sobre el uso ético de la IA se refieren a aplicaciones civiles y no militares, añade Laura Bruun. Con los avances en nuevas tecnologías como la inteligencia artificial, cada vez es más difícil distinguir el potencial civil y militar de un avance. Además, estas tecnologías son muy fáciles de difundir, por ejemplo, a través de correo electrónico o código abierto en el caso del software de IA, lo que dificulta aún más el proceso de regulación y control.

“Por supuesto, el derecho internacional humanitario se aplica al uso de este tipo de armas, pero se necesitan nuevas normas de derecho internacional que tengan en cuenta las nuevas tecnologías”, coincide Elisabeth Hoffberger-Pippan, investigadora de seguridad y experta en derecho internacional del Instituto Alemán de Asuntos Internacionales y Política de seguridad en Berlín.

Encuentros sin esperanza en Ginebra

Una posible prohibición de los sistemas de armas autónomos ha sido objeto de negociaciones en la ONU en Ginebra desde 2017. Suiza apoya el principio de estas negociaciones porque aunque está en contra de una prohibición total, se mantiene a favor de la regulación, el control y la limitación. El año pasado, la misión suiza en la ONU hizo una propuestaEnlace externo regulación de armas letales autónomas y se une al grupo de países que insisten en medidas jurídicamente vinculantes.

Pero no hay avances: Rusia rechaza casi todas las propuestas de regulación. Debido a la guerra en Ucrania, incluso boicoteó la última ronda de negociaciones en marzo. Pero Israel, Estados Unidos, Turquía, Gran Bretaña y Corea del Sur no quierenEnlace externo no más regulación vinculante de los sistemas de armas autónomos porque creen que el derecho internacional humanitario es suficiente para un uso responsable.

La última reunión del comité de la ONU tendrá lugar en julio. Los especialistas no esperan mucho progreso. Los Estados ya hablan en términos vagos del fracaso de las negociaciones de Ginebra. A la pregunta de swissinfo.ch, la FDFA también señaló que actualmente no existe un acuerdo entre los estados sobre un instrumento internacional.

“Probablemente no todos los estados querrán seguir apoyando el proceso de Ginebra porque simplemente no vale la pena”, dice Elisabeth Hoffberger-Pippan. Por lo tanto, espera que se busquen organismos alternativos para negociar reglas para sistemas de armas autónomos.

¿Por qué los estados no quieren una prohibición?

Si Suiza, como la mayoría de los países, no quiere una prohibición total de las armas autónomas, existen razones tanto económicas como diplomáticas, explica Stephen Herzog del Centro de Estudios de Seguridad del Instituto Federal Suizo de Tecnología en Zúrich (ETHZ). Suiza teme que sus exportaciones se vean afectadas. De hecho, el país está a la vanguardia de los avances mundiales en robótica e inteligencia artificial.

Elisabeth Hoffberger-Pippan solo comprende parcialmente este miedo. Por el momento, la principal preocupación es regular el uso de sistemas de armas autónomos bajo el derecho internacional, no los controles de exportación, explica el investigador. Pero los temores de muchos países de que una prohibición total dificultaría la investigación en este campo están justificados: “Los inversores preguntarían: ¿de qué sirve gastar dinero si los inventos resultantes no se pueden utilizar?”. Un verdadero desafío, especialmente para los EE. UU., pero también para muchas otras grandes potencias militares.

Estados Unidos argumenta que las armas autónomas deberían ser probadas antes de ser prohibidas. Esto permitiría determinar si estas armas en realidad no se pueden usar con sensatez. Algunos países incluso creen que las armas autónomas tienen ventajas: para el lado que tiene estas armas, el número de muertos y los costos de personal podrían reducirse.


Ejemplo de una misión de salvamento: durante un ejercicio de la Oficina Federal de Policía Criminal en Baden-Württemberg, un robot desarma un maniquí con un maniquí explosivo en el pecho. Piedra angular / Marijan Murat

El gobierno suizo también se pronunció en contra de una prohibición total en 2017Enlace externo por razones similares. Según Bern, el riesgo sería prohibir sistemas potencialmente útiles, como los que permiten evitar daños colaterales a la población. Por lo tanto, según Laura Bruun, las discusiones sobre la regulación de las aplicaciones civiles y militares deben ir de la mano. “Reconocer que la línea entre estos dos usos se está volviendo cada vez más borrosa sería un primer paso para controlar la tecnología”.

Elisabeth Hoffberger-Pippan observa un cambio de paradigma en relación con los drones: si bien solían ser fuertemente criticados, cada vez son más aceptados internacionalmente, incluso por el público en general. Durante la guerra en Ucrania, por ejemplo, las tropas ucranianas hicieron un uso extensivo de drones civiles junto con drones militares, lo que les dio una ventaja inesperada sobre Rusia. Aunque el uso de drones en la lucha contra el terrorismo sigue siendo un tema extremadamente delicado desde un punto de vista legal y ético y la guerra de agresión rusa en Ucrania solo puede compararse hasta cierto punto, este ejemplo muestra que los drones no siempre son condenados al ostracismo por sociedad. También pueden surgir oportunidades para el uso sensato de sistemas de armas en gran medida autónomos.

“Los tiempos están cambiando y conducen a una modernización del ejército y, por lo tanto, a una mejor comprensión de las tecnologías”, explica Elisabeth Hoffberger-Pippan. Por lo tanto, es muy posible que la opinión pública también se desarrolle en la dirección de las armas autónomas.

¿Qué es un artículo de doble uso?

Si los productos o tecnologías se pueden usar tanto civil como militarmente, esto se denomina uso dual. El problema: una invención como la energía nuclear puede traer beneficios civiles a la humanidad en forma de plantas de energía nuclear (aunque también son controvertidas) o tratamientos médicos, pero también puede traer vida en forma de bombas destruidas. Una prohibición total de esta tecnología y la investigación en esta área no tiene sentido, pero es necesario un uso responsable.

El Acuerdo de Wassenaar es una coalición de estados cuyo objetivo es prevenir la acumulación desestabilizadora de armas convencionales y contribuir con artículos de doble uso.

Fuente: SECOEnlace externo

final de pasta

Según los estándares JTI

Según los estándares JTI

Más: SWI swissinfo.ch certificado por la Journalism Trust Initiative

Leave a Comment