
may
El Primer Congreso de Inteligencia Artificial (IA) en la Justicia en Tucumán contó con la participación de más de 1000 personas provenientes del ámbito jurídico y tecnológico de todo el país y del extranjero y una treintena de oradores, especialistas nacionales e internacionales que propusieron distintas aristas para analizar y debatir la presencia de la IA en la Justicia. El quipo de prensa de la FAM dialogó con cada disertante y la presente crónica refleja las ideas más importantes.
Marcela Ruiz, Presidenta de la FAM
En este Congreso nos propusimos debatir, reflexionar y accionar en torno a los desafíos y oportunidades que plantea la incorporación de la IA en la administración de justicia, y creo que lo hemos logrado con creces. Fue una verdadera muestra de que la Justicia argentina está dispuesta a innovar y abrazar lo nuevo, comprendiendo que la IA es una herramienta más que debemos conocer y aprender a utilizar poniendo por delante la ética y la formación jurídica.
Hernan Mavrommatis, Jefe de Cátedra de Gestión de la Innovación y Emprendedorismo (UNLaM) – Mag. Gestión de Servicios Tecnológicos y Telecomunicaciones (UdeSA).
El diálogo con el especialista gira en torno al papel y las limitaciones de la inteligencia artificial (IA) en varios campos. Primero, la omnipresencia de la IA, Mavrommatis enfatiza en la importancia de comprender las capacidades y limitaciones de la IA, sugiriendo que no debería usarse como punto de partida para la resolución de problemas. En su lugar, el enfoque debería estar en identificar problemas del mundo real y luego determinar si la IA puede proporcionar una solución. El orador destaca el potencial de la IA para automatizar tareas repetitivas con supervisión humana y para mejorar la colaboración humano-máquina. Sin embargo, advierte contra la idea de atribuir razonamiento similar al humano a la IA, particularmente en roles complejos como los de abogados o jueces, ya que la IA carece de las habilidades y capacidades necesarias. La discusión también toca la naturaleza evolutiva de la IA y la importancia de confiar en expertos para evaluar sus posibles aplicaciones.
¿Te la imaginás razonando como un abogado, como un secretario, como una jueza?
Lo que pasa ahora es que la forma en que tienen de trabajar imita también el pensamiento humano y nuestra tendencia a asignarles atribuciones humanas a las cosas. Y alguien que interactúe mucho puede decir piensa como un abogado, piensa como un juez, pero en realidad no. Eso hay que ser consciente. Puede parecernos, puede dar la impresión, incluso puede haber casos en que lo hizo de manera idéntica, pero no se puede escalar, ni tampoco considerar que eso es una base para un reemplazo de una persona, no por una cuestión laboral de ese tipo, sino por una cuestión de las capacidades o las habilidades que tiene que tener alguien en esa función.
David Mielnik, Líder de IA del Tribunal Fiscal de la Nación – Director de Inteligencia Legal – Fundador de DoctIA
La discusión se centra en el papel de la inteligencia artificial (IA) en el sistema de justicia y enfatiza que la IA no debe reemplazar el juicio humano. Mielnik argumenta en contra de la fantasía distópica de que la IA reemplazará a los humanos, especialmente en áreas sensibles como la justicia. La IA puede ayudar con el análisis de documentos y el procesamiento de información, pero la decisión final debe ser tomada por un juez humano que posea empatía y sensibilidad. El especialista destaca la importancia de la supervisión humana debido al potencial de errores de la IA, como inventar precedentes o testimonios. Los profesionales del derecho deben estar bien informados sobre el funcionamiento y las limitaciones de la IA para integrarla efectivamente en su práctica. La conversación subraya la necesidad de una combinación de experiencia legal y tecnología de IA, en lugar de un reemplazo.
“La fantasía distópica de que la inteligencia artificial nos va a reemplazar. Y sobre todo en un ámbito tan delicado y tan central para el ser humano como es la justicia, produce una idea fantasiosa que hay que combatir, y combatirla con educación, sobre todo, y conformación. ¿Por qué no nos va a reemplazar? Porque la justicia es una virtud humana, la búsqueda de justicia es una necesidad humana. Y si bien la inteligencia artificial puede hacer mucho análisis documental, puede ayudarnos a escribir más rápido, a tener adelante de nosotros la información que necesitamos para tomar decisiones, esa decisión última tiene que estar tomada por un ser humano. No solamente un ser humano, una persona que haya superado todas las instancias de selección para poder ser juez o jueza, en el que la sociedad deposita la confianza de una decisión justa. Una decisión justa no está solamente tomada por información o por razonamiento. Hay sensibilidad y empatía, hay poder ir a las audiencias y ver a las personas a los ojos, a los imputados, a los litigantes, a las víctimas, y poder darles una sentencia a los ojos, es algo que una inteligencia artificial nunca va a poder hacer. Por otro lado, la inteligencia artificial comete errores. No hay que creer tampoco que es una herramienta mágica que viene a resolvernos todos los problemas y que uno mete el expediente y del otro lado sale la sentencia escrita y perfecta. Se inventa precedentes, se puede inventar testimonios, se puede inventar prueba. Y todo eso sin supervisión humana es trágico para cualquier disciplina profesional, pero especialmente para el trabajo judicial. Entonces es absolutamente central que los jueces, las juezas, los operadores del sistema de justicia estén absolutamente informados de cómo funciona por dentro de inteligencia artificial, cómo es que genera, el contenido que genera, y sobre todo eso les permite saber dónde están las limitaciones de la tecnología”.
Martín Merlini, Fundador de STANNUM Alto Rendimiento | Entrenador de Equipos de Líderes con Inteligencia Artificial
La entrevista se centra en la adopción e integración de la inteligencia artificial (IA) en varios sectores, enfatizando la importancia de usarla extensamente para explorar su máximo potencial. La conversación destaca la necesidad de experimentación y apertura a las capacidades de la IA. Se plantean preocupaciones sobre la comprensión y adopción actual de la IA, particularmente entre adultos y educadores, lo que podría impactar a los niños y los sistemas educativos. El especialista está llevando a cabo un proyecto de investigación sobre el papel de la IA en los sistemas de justicia en América Latina, con el objetivo de proporcionar información útil para seguir trabajando. La conversación también toca la necesidad de regular la IA para evitar que se vuelva incontrolable. El experto expresa escepticismo sobre la fiabilidad de la IA debido a sus sesgos y alucinaciones, abogando por un análisis cuidadoso y optimización de los resultados de la IA.
¿Te preocupa que la inteligencia artificial se equivoque?
Yo sé que se equivoca y siempre que interactúo siempre desconfío al cien por ciento.
¿Y qué hacés? ¿Le volvés a preguntar?
No, analizo, curo, optimizo, trato de detectar por qué falla eso, cuál es el origen, pero siempre desconfío en cada interacción. La IA se va perdiendo, sí, tiene alucinaciones, pero hay que trabajar sobre eso. Quiero destacar una cosa que es muy importante. El clúster tecnológico está siendo un movimiento muy fuerte para promover la adopción de tecnología temprana acá en Tucumán, lo cual es muy importante y hay que abrirse a esa posibilidad, porque el resto de las instituciones están yendo muy lentamente.
Andrés Martín, Investigador del CONICET
El diálogo gira en torno a la comprensión de la inteligencia artificial (IA) y su comparación con la cognición humana. Se explora si la IA comprende sus acciones y cómo se diferencia de los procesos de pensamiento humano. Se destaca que, aunque la IA puede procesar grandes cantidades de datos y realizar cálculos, carece de las habilidades cognitivas naturales de los humanos. La conversación aborda los riesgos asociados con la IA, particularmente en áreas sensibles como la justicia, enfatizando que la responsabilidad recae en los usuarios. También se discutieron los sesgos de género en la IA y se sugirió la necesidad de abordar los sesgos humanos que conducirá a mejoras en el comportamiento de la IA. La conclusión clave es que la IA es una herramienta poderosa diseñada por humanos, y sus objetivos son establecidos por nosotros, no son inherentes a la máquina.
¿Entiende la inteligencia artificial lo que hace?
No es una respuesta fácil. Pienso que no lo sabemos, pero sobre todo porque no sabemos cómo nuestro cerebro produce esa información. Cuando nosotros pensamos, porque todos lo hacemos, nos parece algo muy natural. ¿Pensamos del mismo modo en el que lo hace esta inteligencia artificial? ¿Nuestro cerebro es una máquina de calcular y manejar estadística? No lo sabemos. Sabemos que hay partes que sí, hay conocimientos acerca de ciertas zonas del cerebro que se puede decir que trabajan de ese modo. No tenemos una información o una teoría que nos diga que efectivamente podemos compararla y podemos pensar que somos como la o mejor dicho, la inteligencia artificial es como nosotros. Eso no se lo puede responder. Hoy por hoy no se lo puede responder. Y si vos me preguntaras qué creo yo creo que mayoritariamente no.
Daniela Dupuy, Fiscal Coordinadora de la Unidad Especializada en Delitos y Contravenciones Informáticas MPF CABA.
¿Cómo se está usando hoy la inteligencia artificial para las investigaciones penales?
La inteligencia artificial y las nuevas tecnologías están atravesando tanto el ámbito penal como el ámbito procesal. Entonces, es fundamental para el ámbito procesal crear, y de hecho ya tenemos el software con inteligencia artificial que permite no solamente detectar cuando los ciberdelincuentes utilizan herramientas de inteligencia artificial para delinquir, como las diferentes fake, por ejemplo, sino además ante la creación de diferentes herramientas con IA, con nuevas tecnologías disruptivas que permiten llevar adelante investigaciones penales de todo tipo, más eficientes.
¿Qué te preocupa de la inteligencia artificial y el ciberdelito?
Me preocupa lo expansivo, es decir, la cantidad de modalidades que día a día se generan, que son modalidades delictivas a veces, otras veces que no, porque los códigos penales no logran ni llegan a incorporar estas modalidades tecnológicas en sus legislaciones, con lo cual esto es una gran preocupación porque el efecto es absolutamente avasallante, disruptivo y las víctimas son transversales, desde bebés, niños, niñas, mujeres, hombres adultos. Entonces hay que poner mucho el foco en tratar de detectar que esto ya está aquí presente y manos a la obra para trabajar desde lo legislativo y desde lo técnico.
¿Te parece que falta capacitación a los operadores judiciales?
Nos faltan capacitación. Hoy realmente vi la cantidad de público que había aquí, y me digo bueno, somos muchos los que queremos constantemente capacitarnos, entrenar, estar a la altura de la circunstancia en cuanto a lo que realmente nos desafían las nuevas tecnologías.
Paola Breitenbruch, Relatora del STJ Provincia de Misiones.
La especialista presentó la plataforma LawCedic, desarrollada con el Observatorio de Delitos Cibernéticos y Evidencia Digital en Investigaciones Criminales de la Facultad de Derecho de la Universidad Austral, dirigida por la Dra. Daniela Dupuy. Se utiliza un modelo de IA proporcionado por Meta en colaboración con ingenieros de TI y expertos legales. La plataforma está diseñada para la investigación legal, enfocándose específicamente en delitos cibernéticos y evidencia digital. Ayuda en la redacción de legislación, preparación de opiniones legales y realización de investigaciones. Una preocupación significativa planteada es el desafío de abordar delitos cibernéticos como el material de abuso sexual infantil y el grooming, donde se utilizan imágenes sintéticas generadas por IA. La discusión destaca el impacto psicológico en los menores y la necesidad de herramientas efectivas para combatir estos delitos.
Marcelo Gauna, Juez Civil y Comercial de Chaco, Director de Nuevas Tecnologías e IA de la FAM.
Dialogamos sobre la implementación del sistema de IA Prometea en Chaco que inició en el año 2020. Gauna explica la transición a un nuevo sistema en Resistencia que automatiza la entrada de datos de documentos digitales, reduciendo el error humano. Este sistema está siendo probado en un tribunal dirigido por el Dr. Lotero, con Ariel Toledo como desarrollador. Además, Gauna contó sobre la formación de una comisión de nuevas tecnologías en la FAM en marzo de 2023, en respuesta al auge de ChatGPT y sus implicaciones para el poder judicial. En estos años, Gauna destaca varios avances tecnológicos en la justicia de toda Argentina, incluyendo audiencias virtuales, transcripción de audiencias orales y asistencia virtual para la investigación legal. La FAM alienta a las asociaciones provinciales a compartir sus desarrollos tecnológicos para fomentar la colaboración y la eficiencia.
Enrique Fraga, Consultor en IA, Comunicación Digital, Periodista y Prof. UBA/UADE
Con el experto reflexionamos sobre la IA, centrando la discusión en la introducción y comprensión de la Inteligencia Artificial (IA) y los agentes de IA, destacando sus oportunidades y desafíos. Fraga enfatiza en el potencial de los agentes de IA para optimizar procesos, ahorrar recursos y automatizar tareas utilizando herramientas sin código. Sin embargo, los desafíos incluyen la necesidad de protocolos de comunicación estandarizados entre los agentes de IA y definir los límites de sus acciones autónomas, especialmente en áreas sensibles como la justicia, la salud y la seguridad. Además, Fraga aclara que, si bien la IA puede automatizar tareas repetitivas, el temor de que la IA reemplace todas las tareas humanas es infundado, ya que lograr la Inteligencia Artificial General (AGI) sigue siendo un objetivo lejano. La supervisión humana es crucial para auditar las acciones de la IA, especialmente dado el problema de las 'alucinaciones' de la IA, que generan información plausible pero incorrecta. La conversación concluye con un enfoque en la implementación cautelosa de la IA en áreas sensibles debido a estas limitaciones.
¿Enrique, cuál fue el mensaje central de tu exposición de hoy que se debería llevar cada uno de los asistentes a esta jornada?
Bueno, el mensaje central fue que entiendan una introducción a qué es la Inteligencia Artificial y qué son los agentes de Inteligencia Artificial. Recorrimos definiciones sobre estos dos conceptos y oportunidades y desafíos que afrontan los agentes de Inteligencia Artificial en la actualidad. Creo que son por lo menos tenemos como oportunidades tener herramientas para acortar procesos, ahorrar recursos, automatizar tareas. Tenemos herramientas no code, es decir, que no requieren programación para poder armar tus propios agentes. Y creo que los desafíos principales son, por un lado, ante una gran proliferación de agentes de inteligencia artificial, que se entiendan entre ellos, que haya protocolos estandarizados de comunicación entre agentes. Y también podríamos pensar como un desafío el pensar ciertos límites de acción, es decir, qué terrenos serían muy sensibles para que actúen con autonomía y tomen decisiones autónomas estos agentes de inteligencia artificial.
¿Porque qué poder tiene un agente autónomo? ¿Hasta dónde puede llegar? Uno piensa en un secretario, una secretaria, un juez, una jueza, tomando decisiones definitivas en una causa. ¿Hasta dónde puede usar estos agentes de inteligencia artificial?
Bueno, a ver, lo que nosotros tenemos en el imaginario es que pueden hacer cualquier cosa. Eso es caer, creo yo hoy en ciencia ficción, pensando en un Terminator que le dé un objetivo y va a tratar de cumplirlo. Hoy los agentes están muy limitados para trabajar en un ecosistema diverso. Pensemos un agente que tiene que recorrer, le pedimos información de Internet, ese agente tal vez puede buscar cierta información en ciertas páginas web, pero si esa página web de golpe tuviese un filtro, ya ahí es un escollo, una frontera que tal vez la gente no está entrenado o capacitado técnicamente para realizarlos. Entonces hay una serie de limitaciones técnicas hoy difíciles de franquear en ecosistemas muy, muy diversos. Y de golpe en el mundo judicial, le pedimos a un agente que busque información en distintos distritos. Si esos protocolos de comunicación entre distritos no están estandarizados, es muy probable que esa gente no pueda conseguir esa información.
Es decir, hoy es recién el inicio del diseño de agentes de inteligencia artificial, en donde en un ecosistema pequeño funcionan. Por ejemplo, si yo tengo mi base de datos, si yo tengo mi espacio específico y mis tareas específicas bien delimitadas, ahora, cuando queremos que esa gente realice tareas más amplias, incluso con poder de decisión y de razonamiento, ahí es cuando quizá empiece a encontrar los mayores problemas y la mayor cantidad de errores. Entonces, quizá desmitificar eso de que pueden hacer hoy todo, porque técnicamente todavía hay muchos desafíos por delante.
O sea que no nos van a reemplazar. El humano sigue necesitando ser el que supervise, el que lo cargue, el que lo condicione.
Bueno, yo creo que siempre, desde la Revolución Industrial, siempre que existió esa noción, la Revolución Industrial fue una realidad, muchos trabajos se reemplazaron por la máquina. Todo proceso de automatización en algún momento reemplaza una máquina, una tarea repetitiva para que lo haga la máquina. El problema es que acá creo que se le tiene miedo a la inteligencia artificial, porque se piensa que va a reemplazar todas las tareas posibles realizadas por las personas. Y eso ya implicaría llegar a un desarrollo de lo que se conoce como AGI, o Inteligencia Artificial General. Eso es realmente esto dicho por los técnicos, es todavía una utopía. Es una utopía porque eso implicaría que el software tenga incluso noción del sentido común, como lo tenemos las personas. Y eso todavía no es posible por las múltiples tareas con las cuales una persona se enfrenta diariamente.
Marco Lupica Cristo – Juez Colegio de Jueces Penales de Neuquén
El juez explicó la aplicación de herramientas de inteligencia artificial en procesos judiciales en Neuquén. Los participantes, incluido un funcionario judicial, discuten sus experiencias con la IA, enfatizando los desafíos iniciales de implementar estas tecnologías debido a la falta de recursos de capacitación. Lupica Cristo destaca la importancia de la IA en mejorar la eficiencia, particularmente en la búsqueda de precedentes legales y la transcripción de audiencias judiciales. La conversación subraya el valor de las experiencias humanas compartidas en mejorar el progreso social y la eficiencia del sistema judicial. El funcionario describe el desarrollo de una API para agilizar la búsqueda de jurisprudencia relevante, reduciendo significativamente el tiempo requerido para la investigación legal. La discusión concluye con un reconocimiento del papel de la IA en permitir que los funcionarios judiciales se concentren más en impartir justicia en lugar de en tareas repetitivas.
Para el juez Lupica Cristo el impacto de la IA en la eficiencia judicial, particularmente en tareas como la transcripción de audiencias judiciales han reducido el tiempo dedicado a tareas repetitivas, permitiendo que los funcionarios judiciales dediquen más tiempo al pensamiento crítico y la toma de decisiones. Es fundamental el papel de la IA en mejorar la capacidad del sistema judicial para servir al público de manera efectiva.
Luciano Hermosilla – Juez del Colegio de Jueces Penales de Neuquén
Dialogamos sobre la integración de la inteligencia artificial (IA) en los procesos judiciales, destacando sus beneficios e implicaciones filosóficas. Como las herramientas de IA han permitido ahorrar tiempo en tareas repetitivas, permitiéndoles enfocarse en los aspectos centrales de su trabajo, como comprender los casos y conectarse con las personas. Hermosilla enfatizan en la importancia de no delegar tareas críticas a las máquinas y de mantener la empatía y la conexión humana en la administración de justicia. La conversación también aborda las preguntas introspectivas que la IA plantea sobre el propósito de su trabajo. Hermosilla expresa el deseo de que el futuro de la justicia argentina sea moldeado por decisiones humanas en lugar de ser impulsado únicamente por avances tecnológicos. El juez neuquino hace referencia a un libro de Mustafa Suleiman, que discute el impacto inevitable de la tecnología. Y espera que quienes están involucrados en el sistema de justicia guíen su dirección, asegurando que el progreso tecnológico no eclipse el juicio humano.
Alejandro Chamatrópulos, Relator de la CSJT, Director del Suplemento de Innovación & Derecho - Diario La Ley
El especialista expresa el creciente interés de los operadores judiciales en las herramientas tecnológicas, particularmente la inteligencia artificial (IA). Inicialmente recibida con escepticismo, la IA ahora se ve como un activo valioso en el campo legal, lo que provoca la necesidad de un pensamiento crítico y una evaluación de su integración en los sistemas de justicia. Dialogamos con Chamatrópulos sobre el futuro de la justicia, enfatizando la importancia perdurable de elementos humanos como la prudencia y la imparcialidad, al tiempo que reconoce el potencial de la IA para mejorar la toma de decisiones y la eficiencia. La teoría del caos y el efecto mariposa se discuten en relación con la minimización de errores en los procesos legales a través del análisis detallado de casos.
José Sahián (Relator CSJT)
Dialogamos el papel crítico de la inteligencia artificial (IA) en la sociedad moderna, enfatizando su doble potencial para crear y mitigar vulnerabilidades. El mensaje clave es la importancia del uso responsable y riguroso de la IA, particularmente en el sistema judicial. Sahián destaca la necesidad de que los operadores judiciales, tanto nuevos como experimentados, profundicen su comprensión y aplicación de la IA. Se anima a los recién llegados a explorar y experimentar con la IA, superando cualquier aprensión inicial. Se insta a los operadores experimentados a maximizar los beneficios de la IA para las personas y la sociedad, manteniendo al mismo tiempo una estricta supervisión y control. Para Sahián la IA es una herramienta poderosa que requiere un manejo cuidadoso para asegurar resultados positivos.
“Si tuviera que elegir una idea clave para que retengan los asistentes a este congreso, es la importancia que tiene hoy por hoy la inteligencia artificial en la sociedad. Y cómo la inteligencia artificial puede generar espacios, vulnerabilidades o incrementar las existentes, pero fundamentalmente que también puede ser una herramienta, un remedio para paliar esas vulnerabilidades. ¿De qué va a depender? De las manos que usen esa inteligencia artificial. De eso va a depender si acrecentamos la vulnerabilidad de la sociedad o la disminuimos. Las manos que manejen la inteligencia artificial es lo que creo que hoy nos tiene que llevar a un horizonte donde la perspectiva sea incrementemos inteligencia artificial, pero de manera responsable, rigurosa, seria. Ese sería para mí el mensaje principal”.
¿Y qué consejo le darías a los operadores judiciales, aquellos que ya están en el tema, que ya están capacitados y aquellos que están empezando a conocer la herramienta que te brinda la inteligencia artificial?
Bueno, magnífica pregunta. Los operadores que están empezando, que profundicen, que profundicen en el estudio, que profundicen probando, experimentando, que hay que perderle el miedo, que es un viaje de también, porque una vez que te embarcás en la inteligencia artificial es difícil salir. Y a los que ya están en el tema, que son muchos, que son cada vez más, te diría que son la mayoría de los operadores jurídicos, los jueces, los funcionarios judiciales, que hay que maximizar el esfuerzo para utilizarla, siempre enfocando en el beneficio de la persona, del justiciable, de la sociedad. Y de nuevo, con un concepto que decía anteriormente, no perdiendo un escrutinio, un control, con mucha rigurosidad. Es una excelente herramienta, es tal vez la herramienta más importante del ser humano hoy, pero tiene que ser utilizada con mucho, mucho cuidado.
Agustina O'Donnell, Vocal del Tribunal Fiscal de la Nación
Abordó los desafíos de la vulnerabilidad digital y la perspectiva de género, los sesgos, desafíos y oportunidades que plantea la IA desde una perspectiva de derechos. La IA en la justicia debe avanzar con precaucion para no perpetuar la desigualdad.
María José Salomón, presidenta de Clúster
Prensa FAM. Contanos un poco qué es Clúster y obviamente reiteramos nuestro agradecimiento por la colaboración en la organización de este primer encuentro de inteligencia artificial en la justicia.
Bueno, muchas gracias de parte de todo el Clúster, la verdad que participar en este evento a nosotros nos da mucha alegría porque justamente es lo que hacemos todos los días, impulsar lo que es la tecnología. La inteligencia artificial es una más de las ramas de la Economía del Conocimiento. El clúster se basa en empresas que se dedican a Economía del Conocimiento, somos aproximadamente unas cincuenta empresas que trabajamos en distintas ramas de la Economía del Conocimiento, entonces para nosotros un placer poder acompañar y justamente impulsar una de nuestras ramas como la inteligencia artificial.
Prensa FAM. ¿Trabajan solo en Tucumán o es a nivel país?
Las empresas son de Tucumán, pero nosotros tenemos un amplio territorio. Como saben economía de Conocimiento pasa todas las fronteras. Nosotros no tenemos un lugar físico, sino que podemos trabajar para clientes en Buenos Aires, en Europa, en Estados Unidos, en cualquier lugar de Latinoamérica. Tenemos una amplia frontera de trabajo, pero nuestras empresas están acá en Tucumán.
Prensa FAM. Una empresa o alguna institución que necesita un asesoramiento, puede buscar a clúster.
Un producto, horas de programación, tenemos distintas áreas y está justamente enfocada en poder especializarnos en el área que necesita nuestro cliente y nuestros socios. Cada socio tiene su expertise.