Skip to content

EVIDENCIA INFORMÁTICA Y LA PRESUNCIÓN DE FIABILIDAD EN EL REINO UNIDO

diciembre 1, 2025
EVIDENCIA INFORMÁTICA Y LA PRESUNCIÓN DE FIABILIDAD EN EL REINO UNIDO
EVIDENCIA INFORMÁTICA Y LA PRESUNCIÓN DE FIABILIDAD EN EL REINO UNIDO

REVISIÓN DE LA EVIDENCIA INFORMÁTICA Y LA PRESUNCIÓN DE FIABILIDAD EN EL REINO UNIDO

1. RESUMEN EJECUTIVO: LA CRISIS DE CONFIANZA EN LA JUSTICIA DIGITAL

El sistema judicial de Inglaterra y Gales atraviesa una crisis de legitimidad sin precedentes en lo que respecta a la admisibilidad y valoración de la prueba digital. El catalizador de esta crisis ha sido el escándalo del Post Office Horizon, descrito judicial y políticamente como el mayor error judicial generalizado en la historia británica. Este evento no fue un accidente aislado, sino la consecuencia previsible de una arquitectura legal que, desde el año 2000, opera bajo la presunción de que «el ordenador siempre tiene razón» en ausencia de prueba en contrario.

Con fecha 21 de enero de 2025, el Ministerio de Justicia del Reino Unido, bajo la dirección de la ministra Sarah Sackman KC MP, inició formalmente una consulta pública y una llamada a la presentación de pruebas (Call for Evidence) para evaluar la viabilidad de reformar esta presunción histórica.1 El objetivo central es determinar si las reglas actuales, que permiten la admisión automática de datos generados por software sin una validación previa de la integridad del sistema, siguen siendo adecuadas en un entorno tecnológico dominado por sistemas complejos, interconectados y, cada vez más, por inteligencia artificial.3

Este informe, de carácter exhaustivo y técnico, analiza las raíces históricas de la presunción de fiabilidad, originadas en la derogación de la Sección 69 de la Ley de Policía y Evidencia Criminal de 1984 (PACE). Examina la crítica académica y técnica que sostiene que la ley actual comete un «error de categoría» al equiparar software complejo con instrumentos mecánicos simples. Se detallan las propuestas de reforma lideradas por expertos como Paul Marshall, James Christie y Stephen Mason, quienes abogan por un modelo de «demostración positiva de fiabilidad». Finalmente, se evalúan las tensiones entre la eficiencia procesal defendida por la industria tecnológica y las garantías fundamentales del debido proceso, concluyendo con una hoja de ruta para la necesaria evolución legislativa.


2. INTRODUCCIÓN: EL COLAPSO DEL PARADIGMA DE INFALIBILIDAD TECNOLÓGICA

2.1 El Detonante: El Escándalo Post Office Horizon

Durante casi dos décadas, cientos de subadministradores de correos (sub-postmasters) fueron procesados, condenados y arruinados financieramente basándose casi exclusivamente en los datos de auditoría proporcionados por el sistema informático Horizon, desarrollado por ICL/Fujitsu. La posición del Post Office, aceptada por los tribunales bajo las reglas de evidencia vigentes, fue que el sistema era «robusto» y fiable. La carga de probar lo contrario recayó sobre los acusados, quienes carecían de los recursos técnicos, financieros y del acceso a los datos necesarios para demostrar la existencia de errores informáticos (bugs) en el sistema central.4

La revelación posterior de que Horizon contenía múltiples defectos de software que podían alterar los balances financieros sin intervención del usuario expuso una falla sistémica: el sistema legal había permitido que la tecnología actuara como un «testigo silencioso» infalible, invirtiendo de facto la carga de la prueba en perjuicio del acusado.5

2.2 La Respuesta Gubernamental de 2025

La consulta lanzada en enero de 2025 representa el reconocimiento oficial de que el marco legal actual es insostenible. El documento de consulta plantea preguntas existenciales sobre cómo la justicia penal interactúa con la tecnología: ¿Debe el software ser tratado con la misma deferencia que un reloj o un termómetro? ¿Es posible exigir una prueba positiva de funcionamiento sin paralizar los tribunales? ¿Cómo se distingue entre un registro digital pasivo y un dato generado por un algoritmo opaco?.6

La revisión no ocurre en el vacío. Se produce en un momento en que la sociedad británica exige responsabilidades por el escándalo Horizon y en el que la industria legal se prepara para la llegada de la evidencia generada por Inteligencia Artificial (IA), lo que añade una capa de urgencia para establecer precedentes robustos antes de que la próxima generación de tecnología inunde los tribunales.2


3. ARQUEOLOGÍA LEGAL: DE LA DESCONFIANZA A LA PRESUNCIÓN (1984-2000)

Para comprender la magnitud del problema actual, es imperativo realizar una autopsia de la evolución legislativa que llevó al Reino Unido a desregular la evidencia informática.

3.1 La Era de la Cautela: Sección 69 de la Ley PACE (1984)

En los albores de la computación personal, el legislador británico adoptó una postura de cautela. La Sección 69 de la Police and Criminal Evidence Act 1984 (PACE) establecía un régimen de admisibilidad estricto. Para que un documento producido por un ordenador fuera admitido como evidencia, la fiscalía debía probar dos condiciones fundamentales:

  1. Que no existían motivos razonables para creer que la declaración era inexacta debido al uso indebido del ordenador.
  2. Que el ordenador estaba operando correctamente en todo momento material, o si no lo estaba, que el mal funcionamiento no afectaba la producción del documento o la exactitud de sus contenidos.9

Esta norma reconocía implícitamente que los ordenadores eran máquinas falibles y que la carga de validar su funcionamiento debía recaer en quien pretendía beneficiarse de su testimonio.7 Durante esta era, la «fiabilidad» no se asumía; debía demostrarse activamente.

3.2 El Punto de Inflexión: El Informe de la Comisión de Derecho de 1997

A mediados de los años 90, la Comisión de Derecho (Law Commission) emprendió una revisión de las reglas sobre la evidencia de oídas (hearsay) y la evidencia informática. En su documento de consulta de 1995 y su informe final de 1997, la Comisión concluyó que la Sección 69 había quedado obsoleta y servía «sin propósito útil».10

El razonamiento de la Comisión, visto retrospectivamente, se basaba en premisas tecnológicas y lógicas cuestionables que han sido duramente criticadas por expertos contemporáneos como James Christie y Stephen Mason:

  • La Analogía Mecánica: La Comisión equiparó los ordenadores modernos con «instrumentos mecánicos» simples. Argumentó que la ley no exigía a un relojero testificar cada vez que un policía consultaba su reloj, por lo que no debería exigirse un experto informático para validar un extracto bancario.5
  • El Argumento de la Redundancia: Se sostuvo que la presunción de funcionamiento correcto ya existía en el common law para dispositivos mecánicos y que la Sección 69 imponía una carga innecesaria y costosa sobre la fiscalía en casos rutinarios.13
  • Ignorancia del Software: Críticos como Christie señalan que la Comisión demostró una «lamentable ignorancia» sobre la realidad de los sistemas informáticos modernos, cometiendo errores de categoría al no distinguir entre hardware (que puede fallar de formas predecibles) y software (que contiene errores lógicos latentes y complejos).12

3.3 La Derogación y el Vacío Legal (1999/2000)

Siguiendo la recomendación de la Comisión, la Sección 69 de PACE fue derogada por la Sección 60 de la Youth Justice and Criminal Evidence Act 1999 (YJCEA), efectiva desde el año 2000.6 Crucialmente, no se introdujo ninguna disposición estatutaria de reemplazo que estableciera nuevos estándares de fiabilidad.

Al eliminar la protección estatutaria, la ley «retrocedió» a la posición del common law: una presunción refutable de que «en ausencia de evidencia en contrario, los tribunales presumirán que los instrumentos mecánicos estaban en orden en el momento material».15 Esta decisión legislativa sembró las semillas del desastre Horizon, eliminando la única barrera procesal que obligaba al Post Office a probar la integridad de su sistema antes de usarlo para encarcelar a sus empleados.


4. LA PRESUNCIÓN DEL COMMON LAW: ANÁLISIS DE LA JURISPRUDENCIA Y LA TEORÍA

La transición de un régimen estatutario de control a una presunción de derecho consuetudinario transformó radicalmente el panorama procesal. Esta sección analiza cómo los tribunales interpretaron esta presunción y por qué se convirtió en una trampa para los acusados.

4.1 La Distinción entre «Evidencia Real» y «Hearsay»

La jurisprudencia británica desarrolló una distinción crítica para justificar la admisibilidad automática:

  • Hearsay (De oídas): Evidencia que depende de la percepción y memoria humana (e.g., un registro introducido manualmente en una base de datos).
  • Real Evidence (Evidencia Real): Evidencia generada por una máquina sin intervención humana directa en el proceso cognitivo o de cálculo.

En casos seminales como R v Spiby (1990) y R v Wood (1982), los tribunales sentaron precedentes peligrosos:

  • R v Spiby (1990): Se trató la admisibilidad de los registros de una máquina «Norex» en un hotel, que calculaba automáticamente las tarifas de las llamadas telefónicas de los huéspedes. El tribunal sostuvo que, dado que la máquina realizaba el cálculo sin intervención de la mente humana, los registros eran «evidencia real» y, por tanto, admisibles sin las salvaguardas del hearsay.16
  • R v Wood (1982): Se admitió un análisis generado por un ordenador conectado a un espectrómetro de rayos X como evidencia real, argumentando que el ordenador era simplemente una herramienta de cálculo sofisticada.17

Esta doctrina, consolidada tras la derogación de la Sección 69, llevó a la conclusión errónea de que si un proceso está automatizado, es inherentemente más objetivo y fiable que el testimonio humano, ignorando que el proceso automatizado fue diseñado, codificado y configurado por humanos falibles.

4.2 La Inversión de la Carga de la Prueba

La presunción de que el ordenador funciona correctamente es rebuttable (refutable). Teóricamente, esto protege al acusado. En la práctica, invierte la carga de la prueba de una manera que es casi imposible de superar para un individuo contra una gran corporación o el estado.5

El mecanismo es perverso:

  1. La fiscalía presenta el registro informático (e.g., el déficit en Horizon).
  2. La ley presume que el registro es correcto.
  3. Si el acusado afirma que el registro es erróneo debido a un fallo informático, él debe probar ese fallo.
  4. Para probar el fallo, necesita acceso a los registros internos del sistema (logs de errores, código fuente).
  5. Sin embargo, como la presunción establece que el sistema funciona bien, los tribunales a menudo deniegan las solicitudes de divulgación de estos registros por considerarlas «pescas de expedición» (fishing expeditions) sin base probatoria.15

Este es el «Catch-22» o círculo vicioso que atrapó a los subadministradores del Post Office: no podían probar su inocencia sin los datos, y no podían obtener los datos sin probar preliminarmente su inocencia (o el fallo del sistema).20


5. LA REALIDAD TÉCNICA: EL MITO DE LA FIABILIDAD DEL SOFTWARE

La brecha entre la presunción legal y la realidad técnica es el núcleo del debate actual. Expertos en ciencias de la computación han argumentado consistentemente que la ley se basa en una comprensión fundamentalmente errónea de la naturaleza del software.

5.1 El Error de Categoría: Relojes vs. Sistemas Distribuidos

La analogía legal del reloj mecánico es profundamente defectuosa. Un reloj es un dispositivo físico con un número limitado de estados de fallo, generalmente observables (se detiene, atrasa o adelanta de forma constante). Un sistema de software moderno como Horizon es un sistema complejo, distribuido y abstracto, compuesto por millones de líneas de código, bases de datos interconectadas y hardware variable.21

El experto James Christie argumenta que la Comisión de Derecho de 1997 cometió un «error de categoría» al no distinguir entre dispositivos simples y sistemas de procesamiento de información complejos.12 Los sistemas complejos exhiben comportamientos emergentes y fallos latentes que no son inmediatamente obvios para el usuario.

5.2 La Naturaleza de los «Bugs» y los Errores Latentes

Stephen Mason y Peter Bernard Ladkin han destacado que todos los sistemas de software de gran escala contienen errores (bugs). No es una cuestión de si existen, sino de cuándo y cómo se manifestarán.22

  • Errores Transitorios: Algunos errores solo ocurren bajo condiciones muy específicas de concurrencia (e.g., dos terminales accediendo a la misma cuenta simultáneamente), lo que hace que sean irreproducibles en pruebas estándar posteriores.
  • Invisibilidad: A diferencia de un reloj roto, un error de software puede corromper datos silenciosamente (e.g., duplicar una transacción) mientras el resto del sistema parece funcionar perfectamente. La interfaz de usuario puede mostrar «Transacción Exitosa» mientras la base de datos registra una deuda errónea.

5.3 La Imposibilidad de Probar un Negativo

La presunción legal exige al acusado probar que el ordenador estaba fallando en un momento específico en el pasado. Sin embargo, sin registros de auditoría detallados y continuos, esto es técnicamente imposible. Como señaló Mason: «Es para la persona que dice ‘hay algo mal con este ordenador’ que tiene que probarlo. Incluso si es la persona que los acusa quien tiene la información».5 Esta exigencia viola principios básicos de lógica probatoria y equidad procesal.


6. LA CONSULTA DE 2025: UN INTENTO DE REFORMA

El reconocimiento de estas fallas estructurales ha llevado al Ministerio de Justicia a abrir la consulta de enero de 2025. Este proceso busca redefinir las reglas de juego para la era digital.

6.1 Ámbito y Objetivos de la Consulta

La consulta no busca simplemente volver a la Sección 69 de 1984, que se considera impráctica dado el volumen actual de evidencia digital. En su lugar, busca un enfoque más matizado y «a prueba de futuro» (future-proofed).2

El Ministerio de Justicia ha solicitado opiniones sobre:

  • Si la presunción del common law debe ser derogada o reformada.
  • Cómo distinguir legalmente entre diferentes tipos de evidencia informática.
  • Qué salvaguardas procesales pueden introducirse para proteger a los acusados sin colapsar el sistema judicial con tecnicismos.3

6.2 La Propuesta de Distinción: Software vs. Registro

Una de las propuestas clave del gobierno es trazar una línea divisoria entre:

  1. Evidencia generada por software: Datos que son el resultado de un procesamiento algorítmico o computacional complejo (e.g., cálculos de contabilidad, análisis de ADN, reconocimiento facial). Para esta categoría, se considera eliminar la presunción de fiabilidad y exigir pruebas de funcionamiento correcto.6
  2. Evidencia digital general/pasiva: Datos que simplemente se almacenan o transmiten (e.g., el contenido de un correo electrónico, una foto digital, registros de llamadas). Para estos, se mantendría la presunción actual para evitar tener que «probar» el funcionamiento del servidor de correo en cada juicio por amenazas.2

Expertos como Mason advierten que esta distinción puede ser engañosa. Incluso la «evidencia pasiva» (como la extracción de mensajes de un móvil) requiere software forense complejo para su recuperación y presentación, software que también puede tener errores y alterar la evidencia.21


7. PROPUESTAS DE REFORMA: EL MODELO DE DEMOSTRACIÓN POSITIVA

La comunidad de expertos legales y tecnológicos ha respondido a la consulta con propuestas detalladas que buscan reemplazar la presunción ciega con un sistema de verificación racional. La propuesta más destacada es la desarrollada por Paul Marshall, James Christie, Stephen Mason y otros académicos, conocida como el modelo de «Recomendaciones para la probidad de la evidencia informática».

7.1 El Enfoque de Dos Etapas (Marshall et al.)

Esta propuesta rechaza tanto la vuelta a la rigidez de la Sección 69 como el laissez-faire actual. Propone un proceso de dos etapas para la admisibilidad 23:

Etapa 1: Demostración de Gestión Responsable

Antes de que la evidencia informática sea admitida, la parte que la propone (generalmente la acusación) debe demostrar al tribunal que el sistema del cual proviene ha sido gestionado de manera responsable y competente. Esto requiere la divulgación proactiva de una serie de documentos críticos, conocidos como la «Búsqueda Razonable y Proporcionada»:

  • Registros de Errores Conocidos (KELs): Una lista de todos los fallos identificados en el sistema y su impacto potencial.
  • Informes de Auditoría: Resultados de auditorías internas y externas sobre la integridad del sistema.
  • Estándares de Seguridad: Certificaciones de que el sistema cumple con normas de la industria (e.g., ISO 27001).
  • Gestión de Cambios: Registros que muestren cómo se controlan y prueban las actualizaciones de software.24

Si el proponente puede demostrar esta «higiene digital», se crea una base sólida para confiar preliminarmente en el sistema.

Etapa 2: Inversión de la Carga ante Fallos de Gestión

Si el proponente no puede proporcionar esta documentación, o si la documentación revela una gestión deficiente (como ocurrió con Horizon), la presunción de fiabilidad desaparece. La carga de la prueba no se desplaza al acusado para encontrar un error específico. En su lugar, el proponente debe explicar y probar por qué, a pesar de la mala gestión o los errores conocidos, la evidencia específica en este caso es fiable. Si no pueden satisfacer al tribunal en este punto, la evidencia debe ser excluida.5

7.2 Criterios de Fiabilidad: La «Demostración Positiva»

La propuesta exige una «demostración positiva» de fiabilidad basada en criterios técnicos específicos, no en suposiciones legales. Estos criterios incluyen:

  • Integridad: ¿El sistema ha protegido los datos contra cambios no autorizados?
  • Autenticidad: ¿Es el dato lo que dice ser?
  • Precisión: ¿Los cálculos y procesos son matemáticamente correctos?
  • Transparencia: ¿Es el proceso auditable y comprensible?.26

Este enfoque alinea la evidencia legal con los estándares de ingeniería de sistemas de seguridad crítica, donde la fiabilidad nunca se asume, sino que se demuestra mediante casos de seguridad (safety cases).


8. PERSPECTIVAS CONTRAPUESTAS: INDUSTRIA VS. JUSTICIA

La reforma propuesta enfrenta resistencia y escepticismo desde sectores que temen un aumento en la burocracia judicial y los costos de litigio.

8.1 La Posición de la Industria Tecnológica (TechUK)

TechUK, el organismo que representa al sector tecnológico del Reino Unido, ha expresado preocupaciones sobre el riesgo de sobrerregulación. Argumentan que exigir una «demostración positiva» exhaustiva para cada pieza de evidencia digital podría paralizar los tribunales penales, que ya sufren retrasos significativos.27

Sin embargo, TechUK también reconoce que la confianza pública en la tecnología es vital y que el Reino Unido se está quedando rezagado respecto a socios europeos como Francia y Alemania en la regulación de la evidencia digital y la IA. Advierten contra una reacción pendular excesiva donde los tribunales pasen de creerlo todo a no creer nada, creando inseguridad jurídica.20

8.2 El Argumento de la Eficiencia Judicial

Los defensores del status quo (o de reformas mínimas) argumentan que la presunción actual es necesaria para la eficiencia. En juicios por delitos menores de tráfico, por ejemplo, exigir un experto para validar la cámara de velocidad en cada caso sería inviable.

La respuesta de los reformistas es que la propuesta de dos etapas es proporcional: si el sistema es gestionado correctamente y es fiable, la demostración de la Etapa 1 debería ser un trámite documental sencillo y estándar, no un juicio técnico complejo en cada ocasión. Solo los sistemas mal gestionados o controvertidos (como Horizon) enfrentarían obstáculos, lo cual es precisamente el objetivo de la reforma.24

8.3 El «Win-Win» Político

Políticos como Chris Bryant han intentado enmarcar la consulta como una situación «win-win» (ganar-ganar), sugiriendo que se puede mejorar la justicia sin imponer cargas indebidas a la industria.20 Sin embargo, los críticos señalan que existe una tensión fundamental irreductible: la justicia requiere escrutinio y tiempo, mientras que la eficiencia tecnológica busca velocidad y automatización. El caso Horizon demuestra que priorizar la eficiencia (la presunción) sobre el escrutinio (la prueba positiva) conduce a la injusticia masiva.


9. LA CRISIS DE DIVULGACIÓN: EL NUDO GORDIANO

Ninguna reforma de la presunción será efectiva sin abordar el problema paralelo de la divulgación (disclosure).

9.1 El Catch-22 Procesal

El sistema adversarial británico depende de que la fiscalía divulgue cualquier material que pueda socavar su caso o ayudar a la defensa. Sin embargo, en casos de evidencia informática, esto ha fallado sistemáticamente.

  • Los fiscales (y acusadores privados como el Post Office) a menudo no entienden su propia tecnología y confían en las garantías de «terceros» (proveedores como Fujitsu).
  • Los tribunales, amparados en la presunción de fiabilidad, rechazan solicitudes de la defensa para acceder a datos «profundos» del sistema, argumentando que sin prueba de un error específico, la solicitud es especulativa.15

Este Catch-22 significa que los errores sistémicos permanecen ocultos. En el caso Horizon, documentos clave como el «Informe Clarke» (que detallaba el conocimiento de errores por parte del Post Office) fueron ocultados durante años.28

9.2 Soluciones Propuestas para la Divulgación

La propuesta de Marshall et al. integra la divulgación en la admisibilidad. Al exigir la presentación de registros de errores antes de admitir la evidencia (Etapa 1), se rompe el Catch-22. La carga de transparencia se convierte en el precio de entrada para usar evidencia tecnológica en la corte.23


10. ANÁLISIS COMPARATIVO Y SECTORIAL

El Reino Unido no es el único que enfrenta estos desafíos, y otros sectores ofrecen lecciones valiosas.

10.1 Comparativa Internacional

  • Unión Europea: La reciente Directiva sobre Trabajo en Plataformas introduce una presunción de relación laboral que la plataforma debe refutar.30 Aunque es un contexto laboral, establece un precedente importante: la carga de la prueba se coloca sobre la parte que posee el algoritmo y los datos, reconociendo la asimetría de poder.
  • Estados Unidos: En la transición a la televisión digital y la implementación de cámaras de tráfico, las autoridades exigieron y realizaron «demostraciones positivas» de la capacidad técnica y fiabilidad de los sistemas antes de su despliegue legal y comercial completo.31 Las Reglas Federales de Evidencia (FRE) y el estándar Daubert permiten un desafío más riguroso a la metodología científica detrás de la evidencia técnica que el enfoque británico actual.

10.2 El Sector Bancario

El sector bancario británico observa con nerviosismo la reforma. Los bancos utilizan sistemas informáticos heredados (legacy) que a menudo son tan propensos a errores como Horizon. Una reforma que exija «demostración positiva» de la integridad de los sistemas bancarios podría transformar los litigios por fraude y deuda, donde actualmente los registros bancarios se aceptan casi automáticamente. La insistencia en estándares más altos podría obligar a una actualización masiva de la infraestructura de TI bancaria para garantizar la trazabilidad forense.33


11. HORIZONTES FUTUROS: INTELIGENCIA ARTIFICIAL Y EVIDENCIA PROBABILÍSTICA

La reforma de 2025 tiene la mirada puesta no solo en corregir los errores del pasado (Horizon), sino en prevenir los desastres del futuro (IA).

11.1 La Incompatibilidad de la IA con la Presunción Actual

Si la presunción de fiabilidad es peligrosa para el software determinista (basado en reglas fijas), es totalmente inadecuada para la IA y el aprendizaje automático (Machine Learning).

  • Opacidad: Los algoritmos de Deep Learning son a menudo «cajas negras» incluso para sus creadores. No se puede presumir que «funcionan correctamente» en el sentido tradicional porque su «lógica» no es lineal ni explícita.
  • Probabilismo: La IA no produce «hechos», produce probabilidades. Un sistema de reconocimiento facial no dice «Es él», dice «Hay un 98% de coincidencia». Tratar esto como un hecho «generado por ordenador» bajo la presunción actual sería un error epistémico grave.35
  • Alucinaciones y Sesgos: Los modelos de IA pueden generar datos falsos convincentes (alucinaciones) o perpetuar sesgos de entrenamiento.

11.2 Reformas para la Era de la IA

La consulta busca establecer que la evidencia derivada de IA nunca debe beneficiarse de una presunción automática de corrección. Se discute la necesidad de exigir:

  • Transparencia sobre los datos de entrenamiento.
  • Informes de tasa de error y sesgo algorítmico.
  • Divulgación del uso de IA en la generación de evidencia (e.g., deepfakes o mejoras de audio forense).36

El BCS y otros organismos sugieren que cualquier reforma debe ser lo suficientemente flexible para abarcar estas tecnologías emergentes, asegurando que los tribunales entiendan la diferencia entre un cálculo matemático y una inferencia algorítmica.2


12. CONCLUSIONES Y RECOMENDACIONES FINALES

El análisis exhaustivo de la evidencia, la historia legislativa y las propuestas de expertos conduce a una conclusión ineludible: la presunción de fiabilidad informática del common law es una reliquia peligrosa que ha facilitado injusticias masivas y que no es apta para la complejidad del siglo XXI.

12.1 Conclusiones Principales

  1. Fallo Sistémico: El escándalo Horizon no fue un accidente, sino el resultado directo de la derogación de la Sección 69 de PACE y la adopción de una presunción legal que ignora la realidad técnica del software.
  2. Asimetría Insostenible: La carga de la prueba actual coloca una demanda imposible sobre el acusado, exigiéndole probar fallos en sistemas opacos controlados por sus acusadores.
  3. Necesidad de Transparencia: La fiabilidad no puede asumirse; debe demostrarse. La transparencia y la divulgación proactiva son condiciones sine qua non para la justicia en casos tecnológicos.

12.2 Hoja de Ruta para la Reforma

Para restaurar la integridad del sistema judicial y prevenir futuros «Horizons», se recomienda que el Gobierno del Reino Unido implemente las siguientes medidas legislativas, alineadas con las propuestas de Marshall, Christie y Mason:

Medida RecomendadaDescripción e Impacto Esperado
Abolición de la PresunciónEliminar formalmente la presunción del common law de que los ordenadores funcionan correctamente para la «evidencia generada por software».
Modelo de Dos EtapasImplementar estatutariamente el requisito de «Demostración Positiva» de gestión responsable por parte del proponente de la evidencia.
Divulgación ObligatoriaHacer que la admisibilidad de la evidencia informática dependa de la divulgación previa de registros de errores (KELs) y auditorías del sistema.
Distinción de IACrear una categoría específica para la evidencia basada en IA/Algoritmos, con requisitos de validación aún más estrictos (explicabilidad, sesgo).
Capacitación JudicialInvertir en la formación de jueces y magistrados sobre la naturaleza falible del software y la interpretación de evidencia digital.

La justicia en la era digital no puede basarse en la fe ciega en la máquina. Requiere un escepticismo saludable, un rigor técnico y, sobre todo, un marco legal que reconozca que el software, como producto humano, es inherentemente imperfecto. La consulta de 2025 ofrece una oportunidad histórica para corregir el rumbo; desaprovecharla sería invitar al próximo desastre.


REFERENCIAS Y FUENTES DE DATOS CLAVE (INTEGRADAS)

  • Consulta MoJ 2025: 1
  • Escándalo Horizon: 2
  • Legislación Histórica (PACE s69): 7
  • Propuestas de Reforma (Marshall/Christie/Mason): 5
  • Crítica Técnica y «Bugs»: 12
  • Perspectiva de la Industria (TechUK/BCS): 2
  • Jurisprudencia (Spiby, Lawson): 16
  • Contexto Internacional: 30

Fuentes

  1. Use of computer evidence in court to be interrogated – GOV.UK, accessed November 30, 2025, https://www.gov.uk/government/news/use-of-computer-evidence-in-court-to-be-interrogated
  2. BCS welcomes review of use of computer evidence in court following Horizon scandal, accessed November 30, 2025, https://www.bcs.org/articles-opinion-and-research/bcs-welcomes-review-of-use-of-computer-evidence-in-court-following-horizon-scandal/
  3. Use of evidence generated by software in criminal proceedings …, accessed November 30, 2025, https://www.gov.uk/government/calls-for-evidence/use-of-evidence-generated-by-software-in-criminal-proceedings
  4. The legal rule that computers are presumed to be operating correctly – unforeseen and unjust consequences, accessed November 30, 2025, https://openaccess.city.ac.uk/id/eprint/32105/1/briefing-presumption-that-computers-are-reliable.pdf
  5. Update law on computer evidence to avoid Horizon repeat, ministers urged – The Guardian, accessed November 30, 2025, https://www.theguardian.com/uk-news/2024/jan/12/update-law-on-computer-evidence-to-avoid-horizon-repeat-ministers-urged
  6. Use of evidence generated by software in criminal proceedings: Call for Evidence – GOV.UK, accessed November 30, 2025, https://www.gov.uk/government/calls-for-evidence/use-of-evidence-generated-by-software-in-criminal-proceedings/use-of-evidence-generated-by-software-in-criminal-proceedings-call-for-evidence
  7. Technology in disputes: the double-edged sword of justice? | Insights | Mayer Brown, accessed November 30, 2025, https://www.mayerbrown.com/en/insights/publications/2025/04/technology-in-disputes-the-double-edged-sword-of-justice
  8. AI and lawtech policy | The Law Society, accessed November 30, 2025, https://www.lawsociety.org.uk/Topics/AI-and-lawtech/Whats-changing/AI-lawtech-policy
  9. Horizon IT System: Prosecutions – Written questions, answers and statements – UK Parliament, accessed November 30, 2025, https://questions-statements.parliament.uk/written-questions/detail/2024-02-05/13146/
  10. Post Office scandal: understanding computer evidence in cases | BCS, accessed November 30, 2025, https://www.bcs.org/articles-opinion-and-research/post-office-scandal-understanding-computer-evidence-in-cases/
  11. Government rethinks ‘Computer must be right’ rule – The Law Society Gazette, accessed November 30, 2025, https://www.lawgazette.co.uk/news/government-rethinks-computer-must-be-right-rule/5122083.article
  12. The presumption in England and Wales that computer evidence is reliable – time for action, accessed November 30, 2025, https://clarotesting.wordpress.com/2024/03/22/the-presumption-in-england-and-wales-that-computer-evidence-is-reliable-time-for-action/
  13. Review Of Computer Evidence Use Raises Complex Issues – BCL Solicitors, accessed November 30, 2025, https://www.bcl.com/news/review-of-computer-evidence-use-raises-complex-issues
  14. The Law Commission and the presumption that computer evidence is reliable, accessed November 30, 2025, https://clarotesting.wordpress.com/2023/10/19/the-law-commission-and-the-presumption-that-computer-evidence-is-reliable/
  15. Recommendations for the probity of computer evidence requested by the Ministry of Justice, now published, accessed November 30, 2025, https://ials.sas.ac.uk/ials-blog/browse-past-posts/recommendations-probity-computer-evidence-requested-ministry-justice-now-published
  16. law-of-evidence-notes-2.doc – Big Sam Connect, accessed November 30, 2025, https://bigsamconnect.com/wp-content/uploads/2024/02/law-of-evidence-notes-2.doc
  17. Evidence [2nd ed.] 0333993586, 9780333993583, 9780230006188 – DOKUMEN.PUB, accessed November 30, 2025, https://dokumen.pub/evidence-2ndnbsped-0333993586-9780333993583-9780230006188.html
  18. The presumption that computers are reliable – Counsel Magazine, accessed November 30, 2025, https://www.counselmagazine.co.uk/articles/the-presumption-that-computers-are-reliable
  19. Establishing innocence when computer data indicates guilt – SAS Open Journals, accessed November 30, 2025, https://journals.sas.ac.uk/deeslr/article/download/5817/5431
  20. Data (Use and Access) Bill [HL] – Hansard – UK Parliament, accessed November 30, 2025, https://hansard.parliament.uk/lords/2024-12-18/debates/A1CA5CDE-6F55-42E6-8153-31F3FFB302E4/Data(UseAndAccess)Bill(HL)
  21. The use of evidence generated by software in criminal proceedings Submission dated 14 April 2025 Stephen Mason | NUS Law, accessed November 30, 2025, https://law.nus.edu.sg/trail/wp-content/uploads/sites/9/2025/08/The-use-of-evidence-generated-by-software-in-criminal-proceedings-Mason-for-TRAIL.pdf
  22. Recommendations for the probity of computer evidence – SAS Open Journals, accessed November 30, 2025, https://journals.sas.ac.uk/deeslr/article/download/5240/5083/9256
  23. BCS’ response to the Ministry of Justice Call for Evidence: use of evidence generated by software in criminal proceedings, accessed November 30, 2025, https://www.bcs.org/media/ecapb35u/use-of-evidence-generated-by-software-in-criminal-proceedings.pdf
  24. Use of evidence generated by software in criminal proceedings: Call for Evidence by the Ministry of Justice – James Christie’s Blog, accessed November 30, 2025, https://clarotesting.wordpress.com/wp-content/uploads/2025/04/use-of-evidence-generated-by-software-in-criminal-proceedings-james-d-christie-final-v3.pdf
  25. Updating Legal Presumptions for Computer Reliability – The Safety Artisan, accessed November 30, 2025, https://www.safetyartisan.com/2024/08/07/updating-legal-presumptions-for-computer-reliability/
  26. thoughts of a software testing consultant from Scotland – James Christie’s Blog, accessed November 30, 2025, https://clarotesting.wordpress.com/author/clarotesting/
  27. Lords Chamber – Hansard – UK Parliament, accessed November 30, 2025, https://hansard.parliament.uk/html/Lords/2024-01-10/LordsChamber
  28. Paul Marshall in conversation about the Post Office Scandal | Cornerstone Barristers, accessed November 30, 2025, https://cornerstonebarristers.com/paul-marshall-in-conversation-about-the-post-office-scandal/
  29. The justice system’s role in non disclosure of Horizon material, accessed November 30, 2025, https://www.thejusticegap.com/the-justice-systems-role-in-non-disclosure-of-horizon-material/
  30. News Review March 2024 – Society for Computers & Law, accessed November 30, 2025, https://www.scl.org/wp-content/uploads/2024/03/Computers-Law-News-Review-March-2024.pdf
  31. Synthesis and Evaluation of Red Light Running Automated Enforcement Programs in the United States, accessed November 30, 2025, https://rosap.ntl.bts.gov/view/dot/14460/dot_14460_DS1.pdf?
  32. Increased Federal Planning and Risk Management Could Further Facilitate the DTV Transition – GAO, accessed November 30, 2025, https://www.gao.gov/assets/a269618.html
  33. Combatting Cybercrime, accessed November 30, 2025, https://www.combattingcybercrime.org/files/worldbank-combating-cybercrime-toolkit.pdf
  34. Chapter 5 | Electronic Evidence and Electronic Signatures | University of London Press, accessed November 30, 2025, https://read.uolpress.co.uk/read/electronic-evidence-and-electronic-signatures/section/0f113452-78ad-4c82-b28f-08cff1877036
  35. United Kingdom | A form of AI at every stage of the criminal process, accessed November 30, 2025, https://www.techandjustice.bsg.ox.ac.uk/research/united-kingdom
  36. AI, deepfakes and the burden of proof for digital evidence in litigation, accessed November 30, 2025, https://www.cliffedekkerhofmeyr.com/news/publications/2025/Practice/Knowledge-Management/combined-dispute-resolution-and-knowledge-management-alert-4-november-ai-deepfakes-and-the-burden-of-proof-for-digital-evidence-in-litigation

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Share This