Eunice MB Prado Luciane A. Corrêa Münch Márcia A. Corrêa Ughini Villarroel Resumen Este artículo investiga la formación de jueces brasileños para ejercer control ético sobre herramientas de inteligencia artificial (IA) aplicadas a la actividad judicial.El Poder Judicial de Brasil ha estado invirtiendo fuertemente en el uso y desarrollo de herramientas de IA, con 64 sistemas de IA en uso o desarrollo en los distintos tribunales.La Resolución N° 332/2020, que trata de la ética, la transparencia y la gobernanza en la producción y uso de la IA en el Poder Judicial, adoptó, entre otros, el principio de control de usuarios, que establece derechos y deberes de los usuarios en materia de control ético de la IA .Así, corresponde al juez, como usuario interno, ejercer dicho control al utilizar una herramienta de IA en el desempeño de la actividad judicial.Sin embargo, para ello necesita conocer el poder-deber que le corresponde y poder ejercerlo.Utilizando una metodología de investigación cuantitativa tipo encuesta, se constató que la gran mayoría de los jueces brasileños desconocen los términos de la Resolución N° 332/2020;no se considera preparado para ejercer el control o la supervisión de las herramientas de IA;ni ha calificado para eso en los últimos tres años.Considerando que las herramientas de IA ya están en uso por parte del Poder Judicial, se concluye que existe la necesidad de reflexionar sobre la política adoptada hasta el momento, sugiriendo que las inversiones en el área también estén dirigidas a la inclusión o ampliación de la formación de magistrados para ejercer el mando esperado.Palabras clave: Ética.Inteligencia artificial.judicial.Principios de Bangalore.Resumen Este artículo trata sobre la capacidad de los jueces brasileños para ejercer un control ético sobre herramientas de inteligencia artificial (IA) aplicadas a la función judicial.El Poder Judicial de Brasil ha invertido mucho en el uso y desarrollo de herramientas de IA, con 64 sistemas de IA actualmente en uso o desarrollo en varios tribunales.Resolución nro.332/2020, que regula la ética, la transparencia y la gobernanza en la producción y uso de la IA en el Poder Judicial, estableció, entre otros, el principio de control del usuario, que implica derechos y deberes del usuario en relación con el control ético de la IA.Así, como usuario interno, el juez debe realizar dicho control al utilizar herramientas de IA en la función judicial.Sin embargo, para hacerlo, deben estar informados de este deber de poder y estar capacitados para realizarlo.Los resultados de una investigación de encuesta cuantitativa revelaron que la gran mayoría de los jueces brasileños no conocen la Resolución núm.332/2020 de contenido;tampoco se siente capaz de controlar o supervisar las herramientas de IA;ni haber calificado para esto en los últimos tres años.Teniendo en cuenta que el Poder Judicial ya está utilizando herramientas de IA, este artículo apunta a la necesidad de reflexionar sobre las políticas actuales, sugiriendo que las inversiones en el campo también deben incluir la capacitación en el desarrollo de habilidades para realizar dicho control.Palabras clave: Ética.Inteligencia artificial.Magistratura.Principios de Bangalore.Resumen: Introducción.1 Un panorama de la inteligencia artificial en el Poder Judicial de Brasil.2 El poder-deber ético del juez como usuario controlador de la inteligencia artificial.3 Educación y ética para el uso de la inteligencia artificial en el Poder Judicial.4 Análisis de la investigación empírica.Consideraciones finales.Referencias.Introducción De manera similar a lo que viene ocurriendo en diferentes ámbitos del sector público en Brasil y en el mundo, el Poder Judicial de Brasil está pasando por una importante transformación digital, buscando adoptar y desarrollar tecnologías que contribuyan al mejor desempeño de sus funciones.En este camino, ya ha superado los límites de la digitalización procesal para incorporar herramientas más sofisticadas, como sistemas de inteligencia empresarial, robots, asistentes virtuales y cortes digitales.La frontera más nueva que ha sido pionera en el Poder Judicial es la de la inteligencia artificial (IA), tecnología con el potencial de impactar significativamente los juicios y las relaciones laborales en la institución, especialmente ante un Poder Judicial congestionado y cuya fuerza laboral se está reduciendo gradualmente.Investigación realizada por la Fundação Getúlio Vargas (2020, p. 69) informa la existencia de 64 proyectos de IA en los tribunales brasileños, destinados a atender diversas necesidades propias de la función jurisdiccional, como sugerencias para redacción, clasificación de peticiones y procesos, estimación de probabilidad de reversión de decisiones, entre otros.Frente a tal inversión en IA, vale la pena preguntarse: ¿Los jueces brasileños están preparados para los desafíos que trae esta tecnología?En 2020, el Consejo Nacional de Justicia (CNJ) emitió la Resolución nº 332/2020, que “dispone ética, transparencia y gobernabilidad en la producción y uso de inteligencia artificial en el Poder Judicial”.En dicha resolución, inspirada en gran parte por la Carta Ética Europea sobre el Uso de la Inteligencia Artificial en los Sistemas Judiciales y su Entorno (CEPEJ, 2018), se adoptó el principio “bajo el control del usuario”, con miras a “asegurar que los usuarios sean agentes informados y controlar sus elecciones” (FGV, 2020, p. 20).Si bien es una tecnología prometedora y revolucionaria, la IA también conlleva grandes riesgos que no se pueden ignorar, dado su potencial para dañar los derechos.Tales riesgos son de especial preocupación cuando se trata de sistemas de IA para uso del Poder Judicial, uno de los tres poderes del Estado Democrático de Derecho establecidos por la Constitución Federal, al que le corresponde evaluar la lesión o amenaza de derecho, en los términos de los arts. .1°, 2° y 5°, XXXV (BRASIL, 1988).De acuerdo con Peixoto (2020), el uso de la IA en el Poder Judicial trae riesgos como la reducción de derechos fundamentales, detrimento del debido proceso, ruptura de la paridad de armas, violación de la privacidad, reducción de la lucha contra la discriminación, debilitamiento democrático y debilitamiento de la ciudadanía.Uno de los ejemplos más conocidos y que mejor ilustran los riesgos que supone el uso de la IA en el sistema judicial es la herramienta norteamericana COMPAS, que, en el ámbito penal, creaba un perfil de gestión de los infractores para predecir la probabilidad de reincidencia, invariablemente concluyendo que los acusados negros tenían más probabilidades de reincidir que los blancos, según lo analizado por Kehl y Kessler (2017).Es precisamente atendiendo a estos y otro tipo de riesgos potenciales, incidentes en mayor o menor grado a los derechos jurídicamente tutelados, que Peixoto (2020) señala factores críticos que no pueden ser descuidados para producir IA en el Poder Judicial dentro de un marco ético. parámetrosEn efecto, dada la dimensión del papel del Poder Judicial en el ámbito del Estado Democrático de Derecho, como garante de los derechos y libertades fundamentales de la sociedad, la cuestión de los riesgos del uso de herramientas de IA por parte de los jueces adquiere especial relevancia.Existen enormes desafíos para cada juez que, al utilizar herramientas de IA en el rol jurisdiccional, necesita ejercer una supervisión efectiva sobre las mismas, asegurando su aplicación ética.Tal como lo determina la Resolución CNJ N° 332/2020, el usuario -y por lo tanto también el juez-usuario- debe tener control sobre la herramienta, garantizando así su autonomía en relación con esa herramienta.Es un verdadero poder-deber, pues, al mismo tiempo que busca garantizar al magistrado la independencia en la toma de decisiones, también le impone el deber de fiscalizar la tecnología para garantizar a la sociedad un servicio judicial legítimo y equitativo.El ejercicio del control de la IA por parte del juez usuario, sin embargo, presupone conocimientos para hacerlo.Después de todo, la tecnología transforma la percepción humana y su forma de vida (IHDE, 1979; TRIPATHI, 2017), lo que requiere que los jueces tomen una posición consciente y activa para llevarla a cabo.Así, además del deber ético general de competencia atribuido a los magistrados, según los Principios de Bangalore sobre la Conducta Judicial (ONU, 2008), existe un mandato específico de obtener información para ejercerla –después de todo, los jueces deben serlo–. conscientes de los riesgos de acomodarse a resultados automatizados, o dejarse influenciar por la previsibilidad de la reforma o la confirmación de sus decisiones por los órganos de apelación, incumpliendo su deber de analizar todas las circunstancias del caso concreto.Considerando el panorama actual del desarrollo y uso de herramientas de IA en el Poder Judicial brasileño, el presente estudio, basado en el supuesto de que el conocimiento es fundamental para el pleno ejercicio del control por parte del usuario-juez, investiga si los jueces, usuarios de estas herramientas, si se perciben o no aptos para operar con ellos.Asimismo, investiga si los jueces brasileños han buscado formación específica sobre el tema o la han recibido de las escuelas judiciales de los respectivos tribunales.En ese contexto, este artículo esboza un panorama de la IA en el Poder Judicial brasileño y analiza las reglas éticas establecidas por el CNJ a la luz de la ética aplicada, indagando sobre la implementación efectiva de las condiciones que permiten al juez-usuario ejercer el poder- deber de control que le corresponde a usted.1 Un panorama de la inteligencia artificial en el Poder Judicial de Brasil El informe Justiça em Números 2021, elaborado por el Consejo Nacional de Justicia (2021, p. 11), informa que el Poder Judicial de Brasil está compuesto por 90 tribunales diferentes, además del Supremo Federal Tribunal.Existen 27 Juzgados de Justicia Estatales, 5 Juzgados Regionales Federales, 24 Juzgados Regionales del Trabajo, 27 Juzgados Regionales Electorales, 3 Juzgados de Justicia Militares Estatales, el Tribunal Superior de Justicia, el Tribunal Superior del Trabajo, el Tribunal Superior Electoral y el Tribunal Superior de Justicia. Justicia Militar.Según el informe, durante 2020, casi la totalidad de los nuevos casos ingresaron al Poder Judicial en forma digital, con solo 3,1% en la modalidad física (CNJ, 2021, p. 127), hecho que demuestra claramente el avanzado nivel de digitalización. del proceso judicial que se ha logrado en todo el país.Paralelamente, el informe también señala que el Poder Judicial tenía un stock de 75,4 millones de casos pendientes al cierre de 2020 (CNJ, 2021, p. 102), para una plantilla de 22.695 magistrados - de los cuales el 20,7%, o 4.707 cargos, están vacantes (CNJ, 2021, p. 94).En cuanto a los servidores públicos, del total de 267.613, 224.001 son permanentes (83,7%) y, de estos, hay 49.662 puestos creados y no ocupados, lo que representa el 18% de los puestos (CNJ, 2021, p. 96).Dichos números indican una sobrecarga de trabajo humano que puede impactar directamente en el tiempo de procesamiento de las escrituras, problema que puede paliarse significativamente con la adopción de la IA como herramienta auxiliar para tareas repetitivas y de alto volumen, entre muchas otras posibilidades de aplicación.En diciembre de 2020, el Centro de Innovación, Gestión e Investigación del Poder Judicial de la Fundação Getúlio Vargas (FGV) publicó el informe de la primera fase de la investigación “Tecnología aplicada a la gestión de conflictos en el Poder Judicial con énfasis en inteligencia artificial”, coordinada del Ministro Luis Felipe Salomão, del Tribunal Superior de Justicia, quien mapeó el desarrollo y uso de la IA por los Tribunales de Justicia nacionales, verificando que, hasta diciembre de 2020, ya había al menos 64 proyectos de IA en 47 tribunales brasileños, en varios etapas de desarrollo (FGV, 2020, p. 26).También según el documento, se puede ver que tales proyectos iniciaron tímidamente en 2018, expandiéndose en 2019 y dando un salto en 2020 (FGV, 2020, p. 67-68).También se destaca que los proyectos de IA no generaron un aumento significativo en los gastos, pues se observó que “la serie histórica de gastos en TI se mantuvo prácticamente estable” (FGV, 2020, p. 69).El informe de investigación informó que, al momento de su publicación, en diferentes fases (desarrollo, proyecto piloto o producción), había nueve proyectos de IA en el Supremo Tribunal Federal, el Tribunal Superior de Justicia y el Tribunal Superior del Trabajo;16 proyectos distribuidos entre los cinco Tribunales Regionales Federales;siete proyectos en Juzgados Regionales del Trabajo;y 31 proyectos en Tribunales Estatales (FGV, 2020, p. 66).En cuanto a los números de proyectos mencionados, se señaló que los datos fueron recolectados entre febrero y agosto de 2020, principalmente por formulario, que tuvo una rentabilidad del 98%, no del 100%;y también que el número inicial de proyectos fue de 72, que se redujo después de darse cuenta de que algunos eran sistemas de TI y no IA en sí.También se destacó que, debido al dinamismo en el campo tecnológico, existe una constante necesidad de actualizar los números correspondientes (FGV, 2020, p. 8, 24 y 26).La encuesta de la FGV también se encargó de verificar el origen del desarrollador de las soluciones de IA encontradas en los distintos juzgados, destacando que, de la gran mayoría que se desarrollaron entre 2019 y 2020, 47 proyectos fueron desarrollados internamente por los propios juzgados. secretarías de tecnología, tres en alianza con universidades, 13 en alianza con una empresa privada y una por otros organismos (FGV, 2020, p. 69).En cuanto a la aplicabilidad de las diversas herramientas de IA existentes en los tribunales, el informe de investigación señala (FGV, 2020, p. 69): En general, los proyectos de IA en los tribunales tenían las siguientes funcionalidades: verificación de las hipótesis de pedido de sobreseimiento de medida cautelar en la forma enumerada en los incisos del art.332 del Código de Procedimiento Civil;proyecto de sugerencia;agrupar por similitud;llevar a cabo la sentencia de admisibilidad del recurso;clasificación de procesos por materias;manejo de demandas masivas;archivo adjunto en línea;extraer datos de juicios;reconocimiento facial;chatbot;cálculo de probabilidad de revocación de decisiones;clasificación de peticiones;indicación de prescripción;estandarización de documentos;transcripción de audiencias;distribución automatizada;y clasificación de oraciones.A través de las características mencionadas, se puede inferir que los tribunales están buscando utilizar la IA principalmente para aumentar la productividad, reducir el tiempo de procesamiento de los casos, optimizar los recursos humanos y materiales y garantizar una mayor seguridad jurídica respetando los precedentes, a través de la previsibilidad de la aplicación de la ley. mismas reglas a casos similares.En diciembre de 2020, la CNJ anunció que comenzó a poner a disposición, en su portal de Internet, para consulta en tiempo real, el Panel de Proyectos con Inteligencia Artificial, buscando brindar más transparencia sobre cuántos tribunales están usando la tecnología y cuáles son los funcionalidades, destacando que el 88% de las iniciativas utilizan, en alguna medida, código fuente en lenguaje Python.El panel presenta 41 proyectos en 32 tribunales, que contienen información diversa y permiten la descarga de informes (CNJ, 2020a).Parece, por lo tanto, que las herramientas de IA están avanzando en el Poder Judicial de Brasil, con un número significativo de proyectos en desarrollo o ya en pleno uso.Para efectos de este trabajo, resta investigar en qué medida los conocimientos y la formación de los jueces usuarios están a la altura de los avances tecnológicos.2 El poder-deber ético del juez como usuario controlador de inteligencia artificial En diciembre de 2018, la Comisión Europea para la Eficacia de la Justicia (CEPEJ), órgano del Consejo de Europa, publicó la Carta Ética Europea sobre el Uso de Inteligencia Artificial Inteligencia en los Sistemas Judiciales y su Entorno, estableciendo cinco principios que deben guiar la aplicación de la inteligencia artificial en el ámbito de la Justicia: principio de respeto a los derechos fundamentales;principio de no discriminación;principio de calidad y seguridad;principio de transparencia, imparcialidad y equidad;Principio “bajo el control del usuario”.En Brasil, la CNJ emitió la Resolución nº 332, de 21 de agosto de 2020, que “dispone ética, transparencia y gobernabilidad en la producción y uso de inteligencia artificial en el Poder Judicial”, indicando expresamente en sus “considerandos” que se basó en la Carta Ética Europea.En dicha resolución se incorporaron los cinco principios mencionados anteriormente, contenidos en la referida carta.Además, la Resolución N° 332/2020 asignó al juez, quien es un usuario interno, la tarea de controlar la herramienta de IA cuando la aplique en su actividad jurisdiccional.Esta es una tarea muy desafiante, ya que el magistrado debe ser capaz de detectar fallas en los datos utilizados o en los resultados presentados por la IA, o sesgos que revelen discriminación de género, raza y clase social, entre otras situaciones que pueden ser perjudiciales para las jurisdicciones. .Además, como ya se mencionó, el juez debe ser consciente de los riesgos de acomodarse a los resultados automatizados que ofrece la IA y los incentivos potenciales para hacerlo, particularmente en un contexto donde los jueces todavía son evaluados principalmente por producción numérica en comparación con otros criterios cualitativos. evaluación (CNJ, 2020b).Es interesante notar que la Resolución CNJ No. 332/2020 se preocupó por adoptar medidas concretas para mitigar el riesgo de sesgo en los sistemas de IA utilizados en la Justicia brasileña, como la búsqueda de una amplia diversidad expresada en el art.20 sobre los equipos desarrolladores, en cuanto a “género, raza, etnia, color, orientación sexual, personas con discapacidad, generación y otras características individuales”.Asimismo, según el § 1 de la misma disposición, existía la preocupación de que existiera participación representativa en todas las etapas del proceso (CNJ, 2020).También se debe observar la diversidad a los efectos de distribuir las vacantes de formación (CNJ, 2020).Sin embargo, si bien tales medidas son importantes y necesarias, no son suficientes en el caso del magistrado.El juez, usuario-controlador, también debe ser consciente de los posibles riesgos de discriminación algorítmica, preparándose para identificarlos y corregirlos.Para ello, la formación en juicio con perspectiva de género, en alfabetización racial y en protección de datos son de fundamental importancia, y corresponde también a los tribunales suplir esta necesidad.Para el alcance de este trabajo, por lo tanto, un análisis más detallado de las normas en torno a la figura del usuario, como controlador ?porque es el papel que va a jugar el juez.En este paso, en el capítulo que trata de las disposiciones generales de la Resolución N° 332/2020, se encuentra el concepto de usuario, dividido en interno y externo (CNJ, 2020).Se define usuario como “la persona que hace uso del sistema inteligente y que tiene derecho a controlarlo, según su posición endógena o exógena al Poder Judicial”, según el art.3, IV, de la resolución.El juez entra en la categoría de usuario interno, definido como “miembro, servidor o colaborador del Poder Judicial que desarrolla o utiliza el sistema inteligente”, en los términos del inciso V de la citada disposición.Usuario externo, a su vez, es “la persona que, aun sin ser miembro, servidor o colaborador del Poder Judicial, utilice o mantenga cualquier tipo de contacto con el sistema inteligente”.Ejemplos de usuarios externos son los abogados y jurisdicciones, entre otros actores incluidos en la lista ejemplar en el inciso VI del mismo art.3 de la Resolución N° 332/2020 (CNJ, 2020).La definición de usuario interno está relacionada con el hecho de que el desarrollo de un sistema de IA es interdisciplinario, según el art.20, caput y § 4, de la Resolución N° 332/2020, ya que se realiza en equipo e involucra tanto a profesionales del área de Tecnologías de la Información (ingenieros y científicos de datos, entre otros), que cuentan con los conocimientos técnicos necesarios para programar el sistema, así como profesionales del área en la que se aplicará el sistema inteligente?en este caso, ¿el área legal?, ya que es a partir de consideraciones, informaciones prácticas y sus necesidades concretas que se desarrollan los proyectos (CNJ, 2020).En el caso del Poder Judicial, estos profesionales son principalmente magistrados y funcionarios, y se espera también la participación de profesionales de otras áreas de conocimiento de acuerdo con cada proyecto específico.En cuanto a los usuarios internos, incluido el juez, el art.17, caput e inciso II, de la Resolución N° 332/2020 establece que “el sistema inteligente garantizará la autonomía de los usuarios internos”.Para ello, debe permitir “la revisión de la propuesta de decisión y los datos utilizados para su elaboración, sin ningún tipo de vínculo con la solución presentada por la inteligencia artificial” (CNJ, 2020).Según el párrafo único del art.18 de la resolución, “se destaca el carácter no vinculante de la propuesta de solución presentada por inteligencia artificial, la cual es siempre sometida al análisis de la autoridad competente” (CNJ, 2020).Además, el arte.19, caput y único párrafo, de la Resolución N° 332/2020 dispone que los sistemas de IA utilizados para la preparación de decisiones judiciales, como herramienta de ayuda, “observarán, como criterio preponderante para definir la técnica utilizada, la explicación de las diligencias que condujeron al resultado”, debiendo siempre “permitir la supervisión del magistrado competente” (CNJ, 2020).Es posible advertir, a partir de estas disposiciones normativas, una preocupación por reforzar el carácter auxiliar de la IA en el uso judicial, vista como una herramienta siempre sujeta al control del juez, quien debe poder evaluar la observancia de los parámetros éticos. de la propuesta elaborada por el sistema inteligente y corregir errores, sabiendo identificar si el error provino de los datos que alimentan al sistema o de la forma en que la IA procesó estos datos.Sucede que sólo es posible controlar lo que se sabe, lo que lleva a una reflexión sobre la aplicación de parámetros éticos relacionados con el juez-controlador en el seno del Poder Judicial brasileño.3 Educación y ética para el uso de la inteligencia artificial en el Poder Judicial El debate que se inicia con la definición de parámetros éticos para el adecuado ejercicio de la función jurisdiccional con el uso de la IA remite necesariamente a la discusión del concepto de ética y lo que implica .desde un punto de vista práctico.¿Qué podría definirse como ética en la Resolución N° 332/2020?Ciertamente, la lectura de la referida resolución conduce a una serie de reflexiones que no se pueden agotar en un solo artículo.Es claro, sin embargo, que la IA debe situarse en el “lugar” de la mera asistencia en el escenario legal, de forma que no exista riesgo de vulneración de derechos fundamentales, así como se garantice y preserve la transparencia, seguridad e integridad del usuario. control.Llama la atención, sin embargo, el hecho de que ya existen numerosos proyectos de IA en marcha sin que exista una política de formación instituida para que dichas iniciativas se lleven a cabo de una forma relativamente segura y en línea con el título de la “Carta Europea de Ética en la Uso de Inteligencia Artificial en los Sistemas Judiciales y su Entorno”, que inspiró el acto normativo brasileño.Los cinco principios que tratan de “derechos fundamentales;no discriminación;calidad y seguridad;transparencia, imparcialidad y equidad;bajo el control del usuario” parecen garantizar que se valore la cuestión ética y, al mismo tiempo, llevar al ciudadano a la conclusión básica de que, sin una formación educativa para el uso de la IA en el contexto judicial, tal perspectiva empieza a gozar de un peligroso fragilidad cuando el fin a alcanzar es el bien público.En este sentido, parece fundamental retomar primero el concepto de ética y, por lo tanto, examinar cómo el Poder Judicial puede utilizarlo para utilizar los recursos de IA en su vida diaria.Según Cortina y Martínez (2005), la ética no sólo tiene la función de esclarecer y fundamentar el fenómeno de la moral, sino también la aplicación de sus hallazgos a las distintas esferas de la vida social.Junto con la misión fundamental está la tarea de aplicación, que consiste en descubrir cómo los principios ayudan a guiar diferentes tipos de actividad.Los autores enfatizan que no basta reflexionar sobre cómo se aplican los principios en cada ámbito específico, siendo necesario tener en cuenta la especificidad de cada actividad con sus propias exigencias morales y sus propios valores.Se trata pues de verificar cuáles son los bienes internos que cada tipo de actividad debe aportar a la sociedad y cuáles son los valores y hábitos que se deben incorporar para alcanzarlos.Para lograrlo, es necesario trabajar de manera interdisciplinaria con especialistas en cada área, mediante la implementación de una cultura educativa comprometida y constante, que sea capaz de ampliar la mirada ética de la moral cívica, que rige el tipo de sociedad en que vivimos.El uso ético de los recursos de IA en el Poder Judicial carece, al menos, de la organización de una fuerte política de formación para que los usuarios internos estén mínimamente informados sobre el funcionamiento y/o impacto que este tipo de tecnología puede causar.El sesgo práctico de la cuestión ética está, en este caso, enteramente ligado a una propuesta educativa coherente que prioriza el aprendizaje de los magistrados y servidores públicos, capacitándolos también como agentes éticos al utilizar este tipo de recurso en el ámbito jurisdiccional.En este caso, la ética sólo se vuelve práctica a través de la existencia de un proceso de enseñanza que permita la adecuada preparación del magistrado para el ejercicio consciente e ilustrado de su función cuando se auxilia de este tipo de recurso.Es importante aclarar que, si la cuestión ética se limita a la deflagración de los principios sin preocuparse por su traducción concreta, termina constituyéndose la lesión de la ética misma como principio.Los filósofos alemanes de la Escuela de Frankfurt, durante el siglo XX, enfatizaron la importancia de que la actitud general de la sociedad sea guiada por la ética, el cuidado del otro, la alteridad y la solidaridad, enfatizando el deber humano de repensar constantemente las situaciones vividas y reconocer las sufrimiento de los demás.En este sentido, tal forma de ser social tendría la importante función de fortalecer su vínculo con la ética y conducir a los individuos a una mayor gama de experiencias.Siguiendo esta orientación, la relación entre ética y educación debe ser predominantemente reflejada para que pueda incorporarse al campo de las acciones.Según Adorno (1995), la educación no se restringe exclusivamente al desarrollo de estrategias para esclarecer la conciencia, sino que se compromete a tener en cuenta y en gran medida la forma social en que se desarrolla, concretándose, también, como apropiación de conocimientos técnicos.Por tanto, entender que cumplir con el compromiso ético del Poder Judicial en la implementación de proyectos de IA implica necesariamente un deber educativo sustancial es condición sine qua non para que la Carta Europea y la Resolución 332/2020 justifiquen su existencia.Nótese que el principio de jurisdicción está incluido entre los Principios de Bangalore sobre la Conducta Judicial, de conformidad con el art.6.3.Este principio se despliega en deberes tanto del juez -quien debe procurar mantener y mejorar sus conocimientos, habilidades y cualidades personales necesarias para el adecuado desempeño de sus funciones- como de los tribunales -que deben brindar una adecuada formación a los jueces (ONU, 2008) . ).Además, la CNJ recientemente modificó la Resolución N° 75/2009, que trata de las licitaciones públicas del poder judicial, exigiendo, entre otros contenidos, conocimientos sobre inteligencia artificial y otras tecnologías, en deliberación unánime del Acto Normativo N° 0006767- 49.2021.2.00.000, con motivo de la 93° Sesión Virtual de la CNJ, que finalizó el 24 de septiembre de 2021 (CNJ, 2021b).Así, en cuanto a los magistrados que ya están en su carrera, cabe investigar si el uso y desarrollo de los sistemas de IA en los tribunales ha ido acompañado del correspondiente deber ético educativo, indispensable para que el juez pueda ejercer efectivamente el control como tal. usuario de herramientas auxiliares de IA.4 Análisis de la investigación empírica El presente estudio, como se mencionó anteriormente, investiga la percepción de los jueces brasileños sobre su conocimiento de la IA, así como su búsqueda de capacitación y la oferta que ofrecen las escuelas judiciales.Por lo tanto, la investigación utilizó una metodología cuantitativa, de carácter aplicado, con objetivos exploratorios y procedimientos tipo encuesta.Como instrumento de recolección de datos, se estructuró un cuestionario con un formulario de consentimiento informado que contenía ocho preguntas, que fue respondido por 688 magistrados de cuatro de las cinco ramas de la Justicia brasileña, a saber: federal, estatal, laboral y militar.Se optó por no incluir la rama de Justicia Electoral, ya que dicha jurisdicción es ejercida por jueces estatales, en los términos del art.121 de la Constitución Federal (BRASIL, 1988), para evitar duplicidad de respuestas.En el universo de 17.988 cargos con magistrados, según el informe Justiça em Números 2021 (CNJ, 2021), el número de 688 respuestas obtenidas entre el 14 y el 21 de septiembre de 2021 supera la muestra ideal de 642 encuestados, lo que permite alcanzar el 99% de confianza nivel, con un margen de error del 5%, según la siguiente fórmula, donde (N) es el universo total de jueces que pudieron responder la encuesta;(e) es el margen de error;(k) es el nivel de confianza;(p) es la probabilidad de éxito;y (q) es la probabilidad de fracaso: Figura 1: Fórmula estadística utilizada en la investigación.Consideraciones finales.