En un rincón de Edmonton, una mujer conocida solo como P ha almacenado un oscuro secreto en una caja etiquetada como “seguros”. Lo que su esposo creía que era un simple archivo de documentos, en realidad contenía un desgarrador testimonio de la violencia doméstica que había soportado: fotografías de teléfonos destrozados, gafas rotas y moretones en su cuerpo. P relató cómo su marido a menudo cubría su boca para ahogarla, un acto de brutalidad que se oculta tras la fachada de su encanto en público.
En el sistema judicial, sobre todo en casos de violencia doméstica donde los crímenes se cometen en la intimidad del hogar, las pruebas visuales como fotos y grabaciones de audio juegan un papel crucial. Sin embargo, a medida que la tecnología avanza, la fiabilidad de estas evidencias se ve amenazada, especialmente por el auge de la inteligencia artificial y la manipulación digital.
La abogada penal Emily Dixon sostiene que, en el contexto actual, un defensa no necesita validar la autenticidad de una foto, lo que genera inquietud sobre la autenticidad de la evidencia presentada ante los tribunales. A medida que se imponen herramientas de inteligencia artificial en la recolección y evaluación de pruebas, el riesgo de generar desconfianza entre los jurados aumenta. Según la experta en forense digital Simon Lavallée, en un año es posible que las diferencias entre imágenes generadas por IA y fotografías reales sean prácticamente indetectables. Esta evolución tecnológica podría transformar el proceso judicial, desdibujando las líneas de credibilidad que han fundamentado históricamente la justicia.
El recientísimo estudio de la Comisión de Derecho de Ontario (LCO) ha revelado la colisión entre el sistema de justicia penal, que se basa en la eliminación de la duda razonable, y las herramientas de inteligencia artificial, que a menudo siembran dudas. El abogado Ryan Fritsch, quien lideró esta investigación, ha expresado que las repercusiones pueden ser catastróficas, destacando la urgencia de formar un conjunto de recomendaciones que proporcionen protección y claridad ante esta crisis emergente.
No solo los deepfakes presentan un desafío. La inteligencia artificial está siendo integrada en diversas áreas, desde la policía predictiva hasta la evaluación de riesgo en prisiones. A pesar de la evidencia acumulada en contra de herramientas como COMPAS, que fue denunciada por un sesgo racial significativo, su implementación continúa en el proceso judicial. P, quien ha vivido el horror de la violencia, se siente intrigada por la idea de que la IA pueda ayudar a los sistemas de justicia a dejar de lado prejuicios humanos, que a menudo se ven influidos por la apariencia y el carisma de los imputados.
Sin embargo, esta dependencia en algoritmos plantea preguntas inquietantes. La naturaleza de los modelos predictivos y su opacidad traen consigo el peligro de decisiones injustas y falta de transparencia. A medida que más aspectos del juicio se someten a la lógica de los datos, surge la interrogante fundamental: ¿cómo se protegerán los derechos de quienes se enfrentan a la justicia cuando la tecnología, que debería ser una aliada, se convierta en un factor de riesgo?
A nivel internacional, los legisladores canadienses están rezagados en la regulación del uso de inteligencia artificial en la justicia. Mientras Europa adopta un enfoque cauteloso, el Estados Unidos abraza el uso de algoritmos para la toma de decisiones. En momentos en que la fe pública en el sistema judicial es crucial, resulta vital plantear un debate sobre el uso responsable y ético de estas tecnologías.
La incongruencia entre el deseo de asegurar la seguridad pública y el respeto a las libertades individuales se torna evidente. La famosa doctrina de Blackstone, que sostiene que es preferible que diez culpables escapen antes que un inocente sufra, resuena en el contexto actual. A pesar de las virtudes de la tecnología, la intromisión de herramientas algorítmicas, que a menudo están diseñadas y utilizadas sin supervisión adecuada, podría alterar esta balanza de justicia.
Mientras el debate sobre la inteligencia artificial y su impacto en el sistema judicial se intensifica, queda claro que la comunidad necesita tomar acción. La consulta pública debería ser una prioridad, no solo para establecer los marcos éticos necesarios, sino también para asegurar que las decisiones que afectan vidas humanas sean comprendidas y explicables.
Es un momento crítico en la intersección entre tecnología y justicia, y el futuro del sistema legal canadiense podría depender de cómo se maneje esta relación en el tiempo venidero.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.


