Interés General
Lavender, el sistema con inteligencia artificial de Israel que decide a quién se bombardea en Gaza
Las Fuerzas Armadas recurren a un sistema automatizado para seleccionar sus objetivos humanos, una práctica inédita hasta ahora.
Publicado
hace 7 mesesel
Las Fuerzas Armadas recurren a un sistema automatizado para seleccionar sus objetivos humanos, una práctica inédita hasta ahora.
La herramienta generó controversia por la frialdad con la que los mandos militares responsables de dar luz verde o no a las sugerencias del sistema Lavender gestionan la muerte de personas como meras estadísticas. Entra dentro de los parámetros aceptables, por ejemplo, que por cada alto cargo de Hamas o Jihad Islámica muera un centenar de civiles en el bombardeo, que suele afectar a varios edificios. El sistema está diseñado para atacar en el domicilio del objetivo y de noche, lo que aumenta las probabilidades de que este esté en casa, pero también de que mueran con él sus familiares y vecinos.
Nunca antes había trascendido que nadie automatizara una tarea tan sensible como la selección de objetivos militares humanos, tarea en la que un falso positivo puede significar la muerte de inocentes. Las Fuerzas Armadas israelíes negaron en un comunicado oficial tras la publicación del reportaje que se esté dejando a una máquina determinar “si alguien es un terrorista”. El escrito dice que los sistemas de información “son meras herramientas para los analistas en el proceso de identificación de objetivos”, si bien las fuentes citadas aseguran que los oficiales se limitan a validar las recomendaciones de Lavender, sin hacer comprobaciones.
La investigación, que tiene como fuente a varios oficiales del ejército y los servicios de inteligencia israelíes, incluyendo la Unidad 8200, no revela qué parámetros se usan para determinar si un sujeto tiene o no relación con Hamas o Jihad Islámica. Se enumeran algunos, como que el individuo cambie frecuentemente de teléfono (algo que sucede constantemente en un contexto de guerra) o que sea varón (no hay mujeres con rango de oficial).
Sí se sabe que, como todos los sistemas de IA, Lavender no deja de ser un modelo probabilístico. Trabaja con estimaciones y, por tanto, comete fallos. Al menos el 10% de los individuos marcados como objetivo no lo eran, según fuentes oficiales citadas en el reportaje. Ese margen de error, sumado a las muertes colaterales aceptadas por el ejército (hasta 300 civiles en un solo bombardeo el 17 de octubre para acabar con un comandante de Hamas), arroja un saldo de miles de palestinos, la mayoría mujeres y niños, asesinados por indicación del software sin tener vinculación alguna con las milicias.
Automatización de la guerra
El programa Lavender se complementa con otro llamado Where is Daddy? (¿Dónde está papá?, en inglés), usado para rastrear a los individuos ya marcados y llevar a cabo el bombardeo cuando estén en casa, y con The Gospel (El evangelio), dirigido a identificar edificios y estructuras desde las que, según el ejército, operan militantes de Hamas.
Lavender procesa información recogida de los más de 2,3 millones de residentes en la Franja de Gaza, lo que confirma la tupida red de vigilancia digital a la que son sometidos todos sus habitantes. Se elabora una puntuación para cada individuo que va de 1 a 100, de menor a mayor probabilidad estimada de que esté vinculado al brazo armado de Hamas o a la Jihad Islámica; quienes sacan las notas más altas son barridos de la faz de la Tierra junto a sus familiares y vecinos.
Según la investigación de +972 Magazine, los oficiales apenas hacían comprobaciones acerca de los objetivos sugeridos por Lavender aludiendo motivos de “eficiencia”: dedicaban pocos segundos a ver cada caso, presionados por la necesidad de recopilar cada día nuevos objetivos a los que disparar. Llevado a la práctica, suponía validar las indicaciones del algoritmo.
¿Es legal usar este tipo de sistemas? “El ejército de Israel usa la IA para aumentar los procesos de toma de decisiones de los operadores humanos. Ese uso es conforme al derecho internacional humanitario, tal y como lo aplican las Fuerzas Armadas modernas en muchas guerras asimétricas desde el 11 de septiembre de 2001″, señala la jurista Magda Pacholska, investigadora del TMC Asser Institute y especialista en la intersección entre tecnologías disruptivas y derecho militar.
Pacholska recuerda que el Ejército israelí ya había usado anteriormente sistemas de apoyo automatizado a la toma de decisiones como Lavender y Gospel en la Operación Guardián de los Muros de 2021. También lo habían hecho las fuerzas de Estados Unidos, Francia o Países Bajos, entre otros, aunque siempre contra objetivos materiales. “La novedad es que, esta vez, emplea estos sistemas contra objetivos humanos”, resalta la experta.
Arthur Holland Michel, a quien la ONU ha encargado informes sobre el uso de armas autónomas en conflictos armados, añade otro elemento. “Lo que es diferente, y ciertamente sin precedentes, en el caso de Lavender en Gaza es la escala y la velocidad a la que se está utilizando el sistema. El número de personas que se ha identificado en tan solo unos meses es asombroso”, subraya. “Otra diferencia crucial es que el tiempo transcurrido entre la identificación de un objetivo por parte del algoritmo y el ataque contra este parece haber sido a menudo muy corto. Eso indica que no hay demasiada investigación humana en el proceso. Desde un punto de vista jurídico, esto podría ser problemático”, concluye.
De acuerdo con las prácticas y doctrinas de muchos Estados occidentales, incluida la OTAN, recuerda Pacholska, una vez que se determina que una persona “participa directamente en las hostilidades” es un objetivo legal y puede ser atacado también en su domicilio: “Puede resultar chocante para el público, pero así es como se han llevado a cabo los conflictos contemporáneos contra los grupos armados organizados desde el 11 de septiembre de 2001″.
Lo que no es legal es masacrar a civiles. Para Luis Arroyo Zapatero, rector honorario de la Universidad de Castilla-La Mancha y especialista en Derecho Penal Internacional, las muertes impulsadas por esta herramienta deben ser considerados “crímenes de guerra”, y el conjunto de estas acciones y las destrucciones masivas de edificios y personas “son crímenes contra la humanidad”. En derecho internacional, explica el profesor, no se admiten los asesinatos como acción militar, aunque se discute sobre los llamados asesinatos selectivos. “Las muertes producidas como daños colaterales son puros asesinatos. El sistema Lavender es directamente una máquina de asesinar civiles, pues admite muertes colaterales de civiles de entre 10 y 100 personas más allá de objetivo preciso”, asegura.
El laboratorio palestino del armamento israelí
Los palestinos saben bien lo que es estar vigilados. Los servicios de inteligencia israelíes llevan años recolectando todo tipo de datos sobre cada uno de ellos. El rastro digital de sus celulares, desde ubicaciones a interacciones en redes sociales, se procesa y almacena. Las cámaras con sistemas automáticos de reconocimiento facial forman parte de su día a día al menos desde 2019. The Washington Post informó sobre un programa, Blue Wolf, dirigido a registrar los rostros de cada habitante de Cisjordania, incluidos niños y ancianos, y asociarlos a una ficha de “peligrosidad”, de manera que los soldados, al fotografiar por la calle a un sujeto con su móvil, vieran sobre la marcha un código de colores que les indicara si lo tienen que arrestar.
The New York Times informó del uso de un sistema similar en la Franja de Gaza desplegado a finales del año pasado que también busca recolectar y clasificar las caras de los palestinos sin su consentimiento.
Todas estas tecnologías las desarrollan empresas israelíes, que se las venden a sus fuerzas armadas y luego las exportan con la garantía de haber sido probadas en el terreno. “Reconocimiento facial en todas partes, drones, tecnología de espionaje… Este Estado es realmente una incubadora de tecnologías de vigilancia. Si vendes un producto, tienes que mostrar lo efectivo que es en escenarios reales y en tiempo real. Eso es lo que está haciendo Israel”, dice Cody O’Rourke, de la ONG Good Shepherd Collective, desde Beit Sahour, un pueblo palestino al este de Belén. Este estadounidense, que lleva dos décadas como cooperante en Palestina, sabe que su nombre y el de otros colaboradores que han ido a Gaza están metidos en una lista negra. Eso supone registros adicionales y esperas más largas en los controles militares israelíes. “Es una capa más de la aplicación de la tecnología para fragmentar a la población”, explica por videollamada.
Israel se ganó un nombre en el mercado internacional de armamento. Vende tanques, cazas, drones y misiles, pero también sistemas sofisticados como Pegasus, el software espía desarrollado por NSO Group que permite entrar en el teléfono móvil de las víctimas, que en España se usó para intervenir las comunicaciones de los líderes independentistas en pleno procés. “Israel siempre se había considerado líder en ciberseguridad y, desde hace cinco o seis años, también se está especializando en herramientas apoyadas en IA que pueden tener uso militar”, reflexiona Raquel Jorge, analista de política tecnológica del Real Instituto Elcano. Han circulado por internet presentaciones de mandos israelíes en ferias de armamento que presentan el programa Lavender con la jerga de los emprendedores y se refieren al sistema como “el polvo mágico para detectar terroristas”.
Hay quien lee la investigación de +972 Magazine como una gran campaña de marketing de las fuerzas armadas israelíes. “Mientras que algunos han interpretado el reportaje como una acusación moral al uso por parte de Israel de una tecnología novedosa, yo sugeriría que se trata más bien de propaganda que intenta afianzar su papel en la economía política global como desarrollador de armas”, explica a EL PAIS Khadijah Abdurraman, directora de Logic(s) Magazine, una revista especializada en la intersección entre tecnología y sociedad. “Una puede imaginarse fácilmente a las Fuerzas de Apoyo Rápido de Sudán haciendo un pedido de los sistemas Lavender antes de que acabe la semana”, añade.
O’Rourke es de la misma opinión. “El punto no es que matar palestinos está mal, sino que se usó el sistema de forma inadecuada, sin hacer las comprobaciones pertinentes. Parece que se quiera vender que hay una forma correcta de asesinar. Que se publique eso no le debe molestar al ejército, porque si se ha publicado en un medio israelí quiere decir que el gobierno ha dado su visto bueno”, apunta el estadounidense en referencia a la oficina del Censor Militar que veta la información que pudiera dañar la seguridad del Estado.
“Israel lleva décadas deslegitimando el proceso de paz con los palestinos, aunque nunca ha estado interesado en alcanzar la paz. Necesita que el mundo legitime su ocupación y usa la tecnología para mantener esa ocupación como tarjeta de visita”, escribe Antony Loewenstein en su libro El laboratorio palestino (Capitán Swing, 2024), que profundiza en cómo el país hebreo se ha servido de la ocupación que ejerce sobre los territorios palestinos como escaparate de la tecnología militar que lleva décadas vendiendo por todo el mundo.
El uso de Lavender plantea muchas preguntas y pocas respuestas. ¿Qué tipo de algoritmos utiliza el sistema para identificar objetivos potenciales? ¿Qué elementos se tienen en cuenta en ese cómputo? ¿Cómo se verifican las recomendaciones de objetivos del sistema? ¿En qué circunstancias se niegan los analistas a aceptar la recomendación de un sistema? “Si no tenemos respuestas a estas preguntas, será muy difícil encontrar una solución a los graves riesgos que plantea la rápida automatización de la guerra”, concluye Holland.
Manuel Pascual / El País / La Nación
Te puede interesar
Después de 18 años, el programa Sumar Salud llegó a su fin
La entrerriana detrás de la creación de una app de citas
Excelente balance de la Fiesta Provincial del Sol y del Río
Grave denuncia por supuestos apremios de la Policía
Fiscalía rechazó la habilitación de la feria para Urribarri y Aguilera
La producción de trigo cayó un 14 % en Entre Ríos
Interés General
La entrerriana detrás de la creación de una app de citas
Publicado
hace 7 díasel
6 de enero de 2025Sonia Cometti es médica ginecoobstetra, especialista en sexualidad, diplomada en Educación Sexual Integral e integra junto a expertos en nuevas tecnologías el grupo que dio forma a una nueva app de citas, Vaibs (vibras, en inglés), que busca salir del corsé que limita a otras aplicaciones, como Tinder, y que genera cada vez más resquemor entre los usuarios: la poca seguridad. Es entrerriana. Desarrolló buena parte de su carrera profesional en Buenos Aires y ahora está de vuelta en su ciudad, Chajarí.
“Con el proyecto Vaibs estamos ya hace un par de meses y la idea es diferenciarnos. Hay que decir que la necesidad viene a pedido de los usuarios, de quienes usan las aplicaciones de citas y nos encontramos con que hay un par de fallas en la mayoría de las aplicaciones y los dos principales problemas tienen que ver, uno, con la seguridad de los usuarios. Hay estadísticas que nos hablan de un elevado número de casos de ciberestafas y de problemas al momento del encuentro con otra persona. Ese es uno de los problemas principales, la falta de seguridad en el perfil del usuario. Y la segunda es la falta de información y de educación sexual, de un espacio con información confiable donde poder leer, informarnos y educarnos en sexualidad que tanto nos falta”, señala durante una charla con el programa Puro Cuento de Radio Plaza 94.7.
Sobre el punto de la seguridad en las apps, la médica sostiene que “no hay verificación de la identidad de la persona en la creación del perfil. Entonces, cualquier persona puede entrar a la aplicación, poner cualquier nombre, cualquier edad y cualquier foto. Con Vaibs venimos a solucionar un poco esto a través de la verificación de identidad del usuario. Nosotros, a través de la biometría facial, como si fuese una aplicación de banco o un tipo de billeteras virtuales en las cuales tienen, obviamente, un perfil de seguridad elevado, se escanea el rostro y el documento para poder verificar la identidad de la persona. De ese modo evitamos que haya perfiles falsos de usuarios”.
-Hay un cambio cultural en la sociedad y las personas utilizan estas aplicaciones para encontrar pareja.
-Claro. Estamos en el colectivo de las tecnologías, de vincularnos a través de las redes sociales, a través de las aplicaciones y esta es la nueva era. Obviamente que lo personal y lo presencial continúa y cada una tiene algo bueno y algo malo. Lo virtual también. Todo es necesario, nada reemplaza nada. Lo virtual no viene a reemplazar lo presencial, pero sí facilita, es un medio que nos facilita el conocer personas, tener amistades, vínculos sexoafectivos, parejas, sexo casual, lo que fuera, lo que desee esa persona. La idea e Vaibs es que uno se pueda encontrar con diversidad de vínculos, diversidad de prácticas sexuales, diversidad de personas, de orientaciones sexuales, identidades de género, es decir, una app para quien quiera usarla.
-¿En esta aplicación el “march” es igual al resto de las app de citas?
-En Vaibs tratamos de hablar de vibras. Y te encontrás con el otro, esa es la idea. Pero sí, básicamente es el mismo funcionamiento, es decir, te descargas la aplicación de manera gratuita, desarrollas tu perfil de usuario, según tu nombre, verificar tu identidad, tu edad, tu orientación sexual, tu identidad de género, es decir, un par de preguntas cortitas que hacemos al principio. Y después pones tu selección según a quién querés encontrar, a qué tipo de personas querés encontrar, qué tipo de prácticas querés encontrar. Y en base a eso se genera lo que es el emparejamiento de usuario y el algoritmo de emparejamiento. Según las distancias también a quién estás dispuesto a encontrarte. Según todos esos datos se arma el algoritmo de emparejamiento que en Vaibs es totalmente genuino y natural y se deja de lado lo que es la inteligencia artificial, digamos.
-¿Qué pasó para que fueras de la medicina a la creación de una app de citas?
-Vaibs es un proyecto que me llegó. Me invitaron los colegas con los que estoy trabajando en este momento. Ellos se dedican más a lo que es tecnología y ciberseguridad. Y yo desde mi profesión aporto este granito de arena con la educación sexual, digamos. Ese es mi rol dentro de la aplicación. La gente se preguntará qué hace una médica creando una aplicación de citas. Pero la idea es un poco eso, es aportar lo que es educación sexual y poder hacerlo un poco masivo. La idea es que la gente pueda entrar a la aplicación y tener contenido fácil de mirar, de ver, de compartir, disponible. Y esa es la idea, que tengan material para poder leer, informarse, sacarse las dudas que tengan, que nadie escapa a las dudas en sexualidad, nadie escapa a la desinformación en sexualidad. Y, bueno, desde mi profesión eso es lo que me gusta y me apasiona, que la gente pueda vivir su sexualidad de forma libre, sin prejuicios, sin mitos, sin incomodidades.
-Y sin engaños, porque lo que pasa en las aplicaciones es que la gente miente mucho, ¿no?
-Sí, sí, sucede eso. Hay muchas mentiras sobre las apariencias, sobre la edad, sobre el lugar, un montón de cuestiones que empiezan a aparecer. Nosotros con estas app venimos un poco a saldar esas cuentas que se hacen en algunas otras aplicaciones.
-¿Por qué se tiende a mentir en las aplicaciones?
-Hay toda una complejidad detrás de la sexualidad, detrás de los vínculos. Nos falta mucha educación vincular, nos falta educación emocional para poder vincularnos de forma genuina, de forma sana, entender que el vínculo con otra persona nos tiene que hacer bien, no tiene que haber codependencia, no tiene que haber subordinación de uno sobre otro. Hay un montón de cosas a ir viendo en nuestro conocimiento y nuestro camino de la sexualidad y de los vínculos. Vamos cambiando de a poco. Siempre nos queda más y nos queda mucho para hacer.
-¿Esta nueva aplicación ya está en las tiendas virtuales?
-Nos encantaría que así sea, pero todavía no. Vaibs cumplió ya todas sus etapas previas al desarrollo y creemos que en los primeros meses de 2025 ya va a poder estar en el mercado para que se pueda descargar y utilizar. Pero ya tiene redes, ya tiene su página web, así que pueden ir a buscarlo, seguirlo y ahí van a encontrar toda la información cuando la aplicación esté por lanzarse.
-¿Es también una app de citas para solos y de a dos?
-Vos podés tener la aplicación de forma individual. Es decir, tenés ganas de tener un encuentro con una persona y te la descargas de forma individual. Y si querés, porque hay parejas que tienen ganas de compartir con otra persona, de sumar a otra persona, de un vínculo. Bueno, diversidad de formas de vincularse.
Entre Ríos Ahora
Después de 18 años, el programa Sumar Salud llegó a su fin
La entrerriana detrás de la creación de una app de citas
Excelente balance de la Fiesta Provincial del Sol y del Río
Lo más visto
- Alvearhace 3 semanas
Vecinos indignados por el estado de los caminos
- Valle Maríahace 1 mes
Tiziano Cantero logró el Campeonato Entrerriano de Kating
- Alvearhace 2 meses
Incumplimiento de restricciones e intimidación por denuncia de violencia de género
- Valle Maríahace 1 mes
Está disponible la venta de entradas y confirmada La T y la M para la Fiesta del Sol y del Río