La Policía Nacional renuncia a su IA Veripol para detectar denuncias falsas por ser poco fiable y jurídicamente inútil

La buena gente de Civio nos envió aviso acerca del seguimiento que hicieron de Veripol, una herramienta de la Policía Nacional para detectar denuncias falsas, a la que ha terminado renunciado. El caso es que Civio nunca consiguió que hicieran caso a sus peticiones para conocer el funcionamiento técnico de esta herramienta y sobre su uso, pero ha sido la propia policía la que ha desistido por su baja fiabilidad. Veripol: el algoritmo que quiso ser detective Veripol se presentó en 2018 como herramienta de inteligencia artificial con la supuesta capacidad de detectar denuncias falsas de robos con violencia con más del 90% de precisión. Era una especie de «máquina de la verdad» automatizada para rechazar denuncias sospechosas (al menos para la másquina). Seis años después, el experimento ha terminado y la «IA» ha sido desconectada. Estos son los detalles: Veripol se entrenó con 1.122 denuncias de 2015, que son menos de las que se presentan en dos días en todo el país. Según cuentan, si una denuncia contenía palabras como «día», «abogado» o el número «200» era considerada como «probablemente falsa». (WTF?) En cambio, si mencionaba «autobús», «iPhone» o «matrícula», era más creíble. (WTF&times2!) A falta de un detector de mentiras fiable, bienvenidos al mundo de las estadísticas forzadas y los adverbios sospechosos. En octubre de 2024, la Dirección General de la Policía confirmó que Veripol ya no se usaba. ¿El motivo oficial? «No servía para los procedimientos judiciales». El motivo real: no se sabía muy bien cómo funcionaba, no era transparente, no había formación, y su uso se basaba en una muestra irrisoria con un sesgo de inicio brutal: asumir que más de la mitad de las denuncias que se presentan son falsas. En julio de 2024 entró en vigor el nuevo Reglamento Europeo de Inteligencia Artificial, que calificaba herramientas como Veripol entre las de «alto riesgo». Traducción: o haces las cosas bien, con transparencia y garantías… o apaga y vámonos. Veripol no pasó el examen. Fin de la historia. Ni el Ministerio del Interior ni la Policía han querido dar detalles técnicos o datos reales sobre el uso de Veripol. ¿Cuántas comisarías lo usaron? ¿En cuántos casos? ¿Qué formación se dio? Preguntas que desde hace años no tienen respuesta. La transparencia, como la IA, tampoco parece que funcione muy bien en las instituciones. ¿No se supone que hay un departamento sobre transparencia y datos abiertos? Igual estaban de vacaciones. Veripol nació con vocación de sistema policial futurístico, un poco a lo Minority Report, pero se quedó en un experimento mal documentado, poco fiable y jurídicamente inútil. Una herramienta que analizaba lo que escribía un agente, no lo que decía el denunciante, que suelen ser cosas muy distintas. Y que además pretendía distinguir la verdad de la mentira en base de estadísticas y, lo peor, «listas de palabras sospechosas». Un caso más de IA inflada de expectativas y desinflada por la realidad. Porque una cosa es programar, y otra muy distinta, impartir justicia sin saber bien lo que se hace y usando mal la tecnología. Relacionado: Entra en vigor la Ley Europea de Inteligencia Artificial Directrices éticas para una inteligencia artificial fiable Análisis del estado de las IAs actuales respecto a la Ley europea Las tres leyes de la inteligencia artificial (una propuesta) Modelos de lenguaje abiertos para una IA más transparente en Europa Justicio: una IA que ofrece respuestas legales fundamentadas Más propuestas de leyes de la robótica (y la IA) La Declaración de Bletchley sobre la inteligencia artificial Los principios de la Conferencia de Asilomar sobre inteligencia artificial # Enlace Permanente

Abr 17, 2025 - 12:21
 0
La Policía Nacional renuncia a su IA Veripol para detectar denuncias falsas por ser poco fiable y jurídicamente inútil

La Policía Nacional renuncia a su IA Veripol para detectar denuncias falsas por ser poco fiable y jurídicamente inútil / Imagen: ChatGPT

La buena gente de Civio nos envió aviso acerca del seguimiento que hicieron de Veripol, una herramienta de la Policía Nacional para detectar denuncias falsas, a la que ha terminado renunciado. El caso es que Civio nunca consiguió que hicieran caso a sus peticiones para conocer el funcionamiento técnico de esta herramienta y sobre su uso, pero ha sido la propia policía la que ha desistido por su baja fiabilidad.

Veripol: el algoritmo que quiso ser detective

Veripol se presentó en 2018 como herramienta de inteligencia artificial con la supuesta capacidad de detectar denuncias falsas de robos con violencia con más del 90% de precisión. Era una especie de «máquina de la verdad» automatizada para rechazar denuncias sospechosas (al menos para la másquina). Seis años después, el experimento ha terminado y la «IA» ha sido desconectada. Estos son los detalles:

  • Veripol se entrenó con 1.122 denuncias de 2015, que son menos de las que se presentan en dos días en todo el país. Según cuentan, si una denuncia contenía palabras como «día», «abogado» o el número «200» era considerada como «probablemente falsa». (WTF?) En cambio, si mencionaba «autobús», «iPhone» o «matrícula», era más creíble. (WTF×2!) A falta de un detector de mentiras fiable, bienvenidos al mundo de las estadísticas forzadas y los adverbios sospechosos.
  • En octubre de 2024, la Dirección General de la Policía confirmó que Veripol ya no se usaba. ¿El motivo oficial? «No servía para los procedimientos judiciales». El motivo real: no se sabía muy bien cómo funcionaba, no era transparente, no había formación, y su uso se basaba en una muestra irrisoria con un sesgo de inicio brutal: asumir que más de la mitad de las denuncias que se presentan son falsas.
  • En julio de 2024 entró en vigor el nuevo Reglamento Europeo de Inteligencia Artificial, que calificaba herramientas como Veripol entre las de «alto riesgo». Traducción: o haces las cosas bien, con transparencia y garantías… o apaga y vámonos. Veripol no pasó el examen. Fin de la historia.
  • Ni el Ministerio del Interior ni la Policía han querido dar detalles técnicos o datos reales sobre el uso de Veripol. ¿Cuántas comisarías lo usaron? ¿En cuántos casos? ¿Qué formación se dio? Preguntas que desde hace años no tienen respuesta. La transparencia, como la IA, tampoco parece que funcione muy bien en las instituciones. ¿No se supone que hay un departamento sobre transparencia y datos abiertos? Igual estaban de vacaciones.

Veripol nació con vocación de sistema policial futurístico, un poco a lo Minority Report, pero se quedó en un experimento mal documentado, poco fiable y jurídicamente inútil. Una herramienta que analizaba lo que escribía un agente, no lo que decía el denunciante, que suelen ser cosas muy distintas. Y que además pretendía distinguir la verdad de la mentira en base de estadísticas y, lo peor, «listas de palabras sospechosas».

Un caso más de IA inflada de expectativas y desinflada por la realidad. Porque una cosa es programar, y otra muy distinta, impartir justicia sin saber bien lo que se hace y usando mal la tecnología.

Relacionado:

# Enlace Permanente