Puede realizar búsquedas exactas dentro de este documento, ingrese el texto a buscar en la siguiente casilla:
ACUERDO PCSJA24-12243 DE 2024
(diciembre 16)
<Fuente: Archivo interno entidad emisora>
CONSEJO SUPERIOR DE LA JUDICATURA
Por el cual se adoptan lineamientos para el uso y aprovechamiento respetuoso, responsable, seguro y ético de la inteligencia artificial en la Rama Judicial.
EL CONSEJO SUPERIOR DE LA JUDICATURA
En ejercicio de sus facultades constitucionales y legales, en especial las señaladas en el numeral 3 del artículo 257 de la Constitución Política de Colombia y el literal a del numeral 1 del artículo 85 de la Ley 270 de 1996, modificada por la Ley 2430 de 2024; de conformidad con lo aprobado en la sesión del 11 de diciembre de 2024 y,
CONSIDERANDO
Que de conformidad con el artículo 95 de la Ley 270 de 1996, modificado por el artículo 41 de la Ley 2430 de 2024, la incorporación de nuevas tecnologías al servicio de la administración de justicia estará enfocada en mejorar el acceso a la justicia; la comunicación con los usuarios; la gestión del expediente, las actuaciones procesales y el litigio en línea; la producción y divulgación de la información judicial, en condiciones de seguridad y protección de datos.
Que el uso de la inteligencia artificial tiene el potencial de mejorar el acceso, transparencia, eficiencia, eficacia, seguridad jurídica y comunicación en la administración de justicia, a través del apoyo a las tareas de gestión documental o administrativa, corrección o síntesis de textos o tareas de apoyo a las funciones judiciales.
Que el uso de herramientas de inteligencia artificial generativa como chatbots de uso general o herramientas no especializadas de acceso e interacción abierta o sistemas que operan a partir de modelos de lenguaje a gran escala implican potenciales riesgos en relación con el desarrollo de tareas que pueden impactar los procesos de adopción y emisión de decisiones de fondo; la eventual exposición de datos personales o información confidencial a terceros; opacidades de sus algoritmos o de su funcionamiento; la manera en la que se utilizan los textos generados por las herramientas y; la probabilidad de que las respuestas generadas por estas herramientas contengan errores, imprecisiones, falsedades, prejuicios o sesgos discriminatorios, todo lo cual puede derivar en vulneraciones a derechos fundamentales y garantías.
Que algunas de las limitaciones de este tipo de herramientas podrían ser parcial o totalmente superadas si se especializan a partir de una base de conocimiento específica o institucional, se integran con otro tipo de herramientas que desarrollen funcionalidades complementarias y se mantiene un control y supervisión humana y/o institucional.
Que el Consejo Superior de la Judicatura viene impulsando una estrategia para el aprovechamiento de las herramientas de inteligencia artificial, en el marco de la transformación digital en la Rama Judicial, con el objetivo de mejorar atributos de la administración de justicia a través del uso seguro, ético, responsable y respetuoso de estas tecnologías, bajo tres componentes o líneas de acción: (i) conocimiento, competencias y capacidades; (ii) proyectos, iniciativas y casos de uso; (iii) lineamientos para el uso.
Que en desarrollo de esta última línea de acción, el Consejo Superior de la Judicatura, durante esta vigencia, ha adelantado mesas de trabajo y talleres con la participación y colaboración de especialistas en la materia, servidores judiciales de las distintas jurisdicciones y especialidades, actores del sector justicia, universidades y de la industria tecnológica, que permitieron levantar los insumos de contexto relevantes sobre las necesidades y expectativas en este ámbito, sumado al análisis realizado de los instrumentos y prácticas desarrolladas a nivel nacional e internacional, en el ámbito de los poderes judiciales, así como normativo y de política pública, todo lo cual hace parte del Documento Técnico soporte que refleja el proceso adelantado de investigación, análisis y construcción participativa.
Que entre el 11 y el 26 de julio de 2024, el Consejo Superior de la Judicatura implementó una encuesta sobre experiencias de inteligencia artificial en servidores de la Rama Judicial, en la cual cerca del 30% de los encuestados ha utilizado herramientas de inteligencia artificial en su trabajo, con preponderancia de la generativa en versiones comerciales y gratuitas. Las preocupaciones éticas y legales sobre la seguridad de la información, la protección de datos, la fiabilidad de los resultados y los sesgos para la toma de decisiones fueron cuestiones ampliamente advertidas en las respuestas recibidas. El 91,68% de los encuestados consideró necesaria la adopción de lineamientos de uso de inteligencia artificial en la Rama Judicial.
Que el 10 de octubre de 2024, el Consejo Superior de la Judicatura formalizó una alianza con la UNESCO para impulsar el uso seguro y respetuoso de los derechos humanos en las herramientas de inteligencia artificial, lo que ha permitido recibir su permanente aporte y retroalimentación, así como complementar el análisis de referentes, con los principios, las guías y directrices de uso de sistemas de inteligencia artificial en juzgados y tribunales que viene formulando esa entidad.
Que la Corte Constitucional, en la sentencia T-323 del 2 de agosto de 2024 y con efectos inter comunis, fijó algunos principios y criterios orientadores sobre el uso de la inteligencia artificial en el ámbito judicial, exhortó a los jueces de la República a evaluar el adecuado uso de herramientas tecnológicas de inteligencia artificial generativas, aplicar mejores prácticas, criterios éticos y los mandatos superiores de garantía de derechos en los procesos judiciales.
Que la Corte Constitucional dispuso que el Consejo Superior de la Judicatura promulgaría los lineamientos para el uso e implementación de la IA generativa en la Rama Judicial.
Que en mérito de lo expuesto,
ACUERDA
DISPOSICIONES GENERALES.
ARTÍCULO 1. OBJETO. Adoptar los lineamientos para el uso de herramientas de inteligencia artificial (IA) en la Rama Judicial.
Los magistrados, jueces y empleados de todas las jurisdicciones y especialidades, así como los directores y empleados de las unidades y dependencias administrativas de la Rama Judicial deberán cumplir con las reglas de este Acuerdo, las cuales servirán de orientación para los demás actores involucrados en los servicios de justicia, con el fin de maximizar los beneficios y potencialidades de esas tecnologías, mientras se mitigan y gestionan sus riesgos potenciales.
ARTÍCULO 2. DEFINICIONES. Se adoptan como referentes las siguientes definiciones utilizadas principalmente en instrumentos de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura -UNESCO-, la Organización para la Cooperación y el Desarrollo Económico -OCDE- y, la Comisión Europea para la Eficacia de la Justicia -CEPEJ.
2.1. Definiciones generales:
Algoritmo: Serie de instrucciones para realizar cálculos u otras tareas, ya sea en matemáticas o en informática. En el caso de la inteligencia artificial, un algoritmo proporciona las reglas o instrucciones que permiten a un computador aprender a aprender del entorno y realizar un conjunto de tareas.
Sistemas o herramientas de inteligencia artificial: Sistema basado en máquinas que, por objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales. Los distintos sistemas de IA varían en sus niveles de autonomía y capacidad de adaptación tras su despliegue.
Sistemas o herramientas de inteligencia artificial generativa: Sistemas computacionales que se comunican en lenguaje natural, es decir, se comunican de manera similar a como lo harían los humanos, que son capaces de dar respuestas a preguntas relativamente complejas y pueden crear contenidos, proporcionar un texto, imagen o sonido, siguiendo una pregunta formulada o instrucciones (prompt). La IA generativa, en lugar de conservar las páginas web existentes, genera nuevos contenidos de forma automática en respuesta a instrucciones en interfaces conversacionales de lenguaje natural (prompts). Normalmente, las aplicaciones informáticas conocidas como chatbots operan a partir de estos sistemas.
Modelo de lenguaje de gran tamaño (LLM por su sigla en inglés): Es un tipo de algoritmo de inteligencia artificial que utiliza técnicas de aprendizaje profundo y conjuntos de datos muy grandes para comprender, resumir, generar y predecir nuevo contenido. El término IA generativa también está estrechamente relacionado con los LLM, que son, de hecho, un tipo de IA generativa que se ha diseñado específicamente para ayudar a generar contenido.
Procesamiento del lenguaje natural (PLN): Es una técnica de aprendizaje automático que analiza grandes cantidades de texto humano o datos del habla, transcritos o acústicos, en busca de propiedades específicas, como significado, contenido, intención, actitud y contexto.
Prompt: Instrucciones realizadas por el usuario de la IA generativa, para que esta produzca un resultado o salida.
2.2. Definiciones asociadas a los riesgos:
Alucinaciones y desinformación: Resultados imprecisos o inexactos que pueden generar los sistemas de IA generativa, especialmente los basados en modelos de lenguaje de gran tamaño (LLM).
Sesgo de IA: el sesgo de IA es una diferencia sistemática en el tratamiento de ciertos objetos, personas o grupos (por ejemplo, estereotipos, prejuicios o favoritismo) en comparación con otros mediante algoritmos de IA. Este tipo de sesgos resultan de los datos usados para entrenar el algoritmo, lo que puede reforzar prejuicios de raza, género, sexualidad, etnia o discapacidad.
IA explicable: Sistemas, algoritmos y modelos con la capacidad de explicar su justificación para las decisiones, caracterizar las fortalezas y debilidades de su proceso de toma de decisiones y transmitir una comprensión de cómo se comportarán en el futuro.
ARTÍCULO 3. PRINCIPIOS Y GARANTÍAS. El uso y aprovechamiento de la IA en la Rama Judicial se sujetará a los siguientes principios y garantías:
3.1. Primacía de los derechos fundamentales. El desarrollo, adopción y uso de sistemas de IA en la Rama Judicial garantizarán el respeto, protección y promoción de los derechos fundamentales.
3.2. Regulación ética. Los funcionarios y empleados de la Rama Judicial desarrollarán estándares de comportamiento individual que se adecúen a los mandatos constitucionales, legales, jurisprudenciales, así como del Código Iberoamericano de Ética y harán un uso razonable de los sistemas de IA.
3.3. Adecuación a buenas prácticas y estándares colectivos. La Rama Judicial adoptará prácticas y estándares que se adecúen a los principios, diseño y funcionamiento de la Rama Judicial, en el marco de las definiciones que adopten sus autoridades, tanto en sede de administración como de orientación jurisprudencial.
3.4. Seguimiento, mejoramiento y adaptación continua. Para el uso de sistemas de IA en la Rama Judicial se consultarán permanentemente los avances jurídicos, sociológicos y tecnológicos que se vayan implementando, así como los esquemas de mejora y control que se construyan en forma progresiva.
3.5. Gobernanza colaborativa y multiactor. Para el diseño, implementación y seguimiento de las iniciativas de uso y aprovechamiento de IA, la Rama Judicial promoverá un esquema de gobernanza que cuente con la participación de las distintas dependencias y jurisdicciones, así como de otros grupos de interés.
3.6. No sustitución de la racionalidad humana y atribución. Los funcionarios y empleados de la Rama Judicial son responsables del uso, gestión, actuaciones y decisiones que adopten utilizando sistemas de IA.
Los sistemas de IA no deben suplantar, en ningún caso, las actividades de motivación de las providencias y decisiones, valoración de los hechos, análisis de las pruebas, aplicación normativa, interpretación o toma de decisión. Por ende, toda decisión o actuación judicial en la que se haya hecho uso de la IA se atribuye al funcionario judicial.
3.7. Idoneidad. El uso de herramientas de IA en la gestión y trámite de los procesos judiciales y asuntos en curso debe ser adecuado para facilitar y agilizar el acceso a la justicia y la administración de la justicia. Los servidores judiciales deben tener una finalidad clara, especificada y justificada para el uso de herramientas basadas en IA.
3.8. Responsabilidad y uso informado. Los usuarios de herramientas de IA en la Rama Judicial deben estar capacitados y comprender los impactos del uso de estas tecnologías. Además, darán cuenta del origen, idoneidad, limitaciones y necesidad del uso de la IA, lo mismo que de la información suministrada por la misma, que deberá ser, en todo caso, verificada.
3.9. Supervisión, control y verificación humana. Los funcionarios y empleados de la Rama Judicial son responsables de realizar un estricto escrutinio sobre las actuaciones y decisiones en las cuales usen herramientas de IA, en particular sobre las fuentes, alcances, restricciones, posibilidades, falencias y riesgos que presente la herramienta de cara a la actuación en curso o a la solución del problema jurídico correspondiente.
3.10. Prevención de riesgos. La Rama Judicial aplicará estándares adecuados de identificación, evaluación, gestión, mitigación y control sobre situaciones que generen riesgo por la aplicación de herramientas de IA, en aspectos como imprecisiones, desactualizaciones, alucinaciones, sesgos o inconsistencias.
3.11. Igualdad y equidad. Los funcionarios y empleados de la Rama Judicial deben evitar y proscribir cualquier forma de discriminación relacionada con la aplicación de sesgos derivados del uso de IA y, en general, cualquier impacto negativo en los derechos humanos.
3.12. Protección de datos personales y privacidad. Los funcionarios y empleados de la Rama Judicial son responsables del uso, custodia y protección de la reserva de los datos personales y sensibles que se ponen en conocimiento de la administración de justicia para cumplir con los fines propios de la Rama Judicial. Por lo tanto, deberán cumplir las obligaciones establecidas en la ley y en las políticas institucionales definidas sobre la materia.
3.13. Seguridad de la información. La Rama Judicial aplicará estándares para asegurar la integridad, confidencialidad y disponibilidad de la información que sea gestionada a través de herramientas de IA, cumpliendo con las obligaciones establecidas en la ley, en los lineamientos previstos en este Acuerdo y en las directrices institucionales definidas al respecto.
3.14. Explicabilidad. Los funcionarios y empleados de la Rama Judicial podrán utilizar herramientas de IA que ofrezcan evidencia, razones o justificaciones sobre los procesos que realiza y los resultados que genera, las cuales, además, deberán ser comprensibles para los usuarios internos y externos.
3.15. Transparencia. Los funcionarios y empleados de la Rama Judicial deben hacer explícito, de manera clara y precisa, el uso, alcance y ubicación en las actuaciones o decisiones de los resultados obtenidos por la utilización de las herramientas de IA, de forma tal que le permita a los usuarios e interesados su pleno conocimiento y la posibilidad efectiva de contradicción.
DIRECTRICES Y BUENAS PRÁCTICAS DE USO DE IA PARA SERVIDORES DE LA RAMA JUDICIAL.
ARTÍCULO 4. USO DE INTELIGENCIA ARTIFICIAL. Los funcionarios y empleados de la Rama Judicial podrán usar herramientas de IA, para el cumplimiento de sus funciones, con sujeción a las siguientes reglas:
4.1. Usos en la gestión administrativa o de soporte a la gestión judicial:
a. Redacción asistida de textos asociados a temas administrativos, tales como oficios, reportes administrativos, discursos y correos electrónicos. También, para mejorar la gramática, ortografía y la estructura de los textos elaborados por el servidor.
b. Organización de agenda para la programación de actividades o diligencias.
c. Asistencia en el diseño y elaboración de presentaciones.
d. Comparación de datos o información entre textos.
e. Traducción de información y documentos.
f. Reorganización de citas y referencias de un texto, según determinado sistema de citación de fuentes.
g. Asistencia en la redacción de actas.
h. Clasificación de necesidades de activos y recursos de despachos y sedes.
4.2. Usos que requieren revisión detallada de los productos y resultados obtenidos, para su empleo o interpretación:
a. Buscar, recopilar, ampliar y sintetizar información que pueda relacionarse con un caso en estudio y, en general, sugerir fuentes de derecho para consulta.
b. Clasificación, consulta y referenciación jurisprudencial, de precedentes y líneas jurisprudenciales, en casos y situaciones específicas.
c. Resumen de jurisprudencia o sentencias ejecutoriadas, sin incluir en las instrucciones datos personales o información confidencial.
d. Efectuar recordatorios y alertas sobre actuaciones y procesos pendientes de trámite.
e. Transcribir audiencias con identificación de intervinientes, así como la búsqueda de conceptos y palabras claves.
f. Convertir documentos procesales a formato editable.
g. Extractar y clasificar información de expedientes.
h. Apoyar la clasificación temática de actuaciones, documentos y procesos recibidos en los despachos.
i. Revisar la completitud de documentos aportados en el marco de los trámites y procesos.
j. Identificar los temas y tipos de procesos repetitivos y apoyar su clasificación o asignación.
k. Analizar y gestionar las cargas de trabajo o el reparto.
l. Asistir procesos de notificaciones.
m. Asistir en la elaboración de autos de trámite, sustentación o impulso procesal.
n. Apoyar la generación de ideas y estructuración de ideas, alternativas o argumentos en los procesos.
o. Apoyar la planificación o estructuración de textos.
p. Realizar un análisis semántico que apoye la comprensión del contexto y significado de textos.
q. Asistir en la corrección, mejora de la redacción y síntesis de textos de providencias o decisiones.
r. Apoyar en la generación o asistencia de versiones de documentos en lenguaje claro y apropiado para distintos públicos objetivo.
s. Proponer explicaciones claras o ejemplos sobre conceptos complejos, sólo si son comprendidos por el servidor judicial, pero que quiere explicar de forma didáctica.
t. Anonimizar datos personales y sensibles en documentos o sistemas de acceso público.
u. Orientar y asistir el acceso a los servicios y trámites de la Rama Judicial.
v. Orientar y asistir la interposición de peticiones, quejas, reclamos y denuncias.
w. Asistir la clasificación y análisis de datos estadísticos.
x. Apoyar la generación y ajuste de código escrito en un lenguaje computacional.
4.3. Usos que requieren la observancia especial de transparencia, responsabilidad y privacidad:
a. Simulación de escenarios de decisión de un caso específico.
b. Asistencia a las actividades relacionadas con operaciones aritméticas y matemáticas.
c. Asistencia en tareas que impactan la labor de motivación de decisiones judiciales.
d. Asistencia en resúmenes de hechos y de testimonios.
e. Análisis y asistencia en decisiones ante procesos relacionados con problemas jurídicos estandarizados y recurrentes.
PARÁGRAFO PRIMERO. Para los efectos previstos en este artículo, los servidores judiciales podrán utilizar las herramientas de IA que tengan a su disposición, cumpliendo con los deberes previstos en el artículo 8 de este Acuerdo.
PARÁGRAFO SEGUNDO. El desarrollo, utilización o implementación de ayudas tecnológicas o herramientas de IA por los servidores judiciales no suplirá, en ningún caso, las ayudas tecnológicas o herramientas de IA que provea, avale o habilite el Consejo Superior de la Judicatura.
ARTÍCULO 5. USO DE INTELIGENCIA ARTIFICIAL GENERATIVA. Para usos diferentes de los contemplados en el artículo anterior, los funcionarios y empleados de la Rama Judicial sólo podrán usar las herramientas de IA generativa, para el cumplimiento de sus funciones, cuando sean determinadas, provistas, avaladas o habilitadas por el Consejo Superior de la Judicatura.
ARTÍCULO 6. ANÁLISIS DE IDONEIDAD, UTILIDAD Y SELECCIÓN. Antes de utilizar herramientas de IA generativa para el apoyo de labores, tareas o actividades institucionales, los servidores judiciales deberán:
1. Definir con claridad la tarea o actividad que adelantarán con posible apoyo de IA generativa.
2. Evaluar si la actividad o tarea puede llevarse a cabo con otro tipo de herramientas que sean más fiables o seguras que la IA generativa.
3. Asegurarse de que las capacidades y funcionalidades de la herramienta de IA generativa a utilizar sean adecuadas para atender las necesidades específicas de la tarea o actividad a ejecutar.
ARTÍCULO 7. RESPONSABILIDAD Y CONOCIMIENTO PREVIO. Para asegurar la comprensión y uso informado de determinada herramienta de IA generativa para el apoyo de labores, tareas o actividades institucionales, conforme a lo previsto en este Acuerdo, los servidores judiciales son responsables de:
1. Informarse sobre el uso, las funcionalidades, puntos fuertes y precisión de la herramienta de IA generativa.
2. Informarse acerca de sus potenciales limitaciones y riesgos como alucinaciones, incoherencias y sesgos en los resultados.
3. Informarse acerca de la manera en que manejan y tratan la información compartida o ingresada por el usuario.
4. Capacitarse en torno a su manejo e informarse acerca de las consecuencias del uso inadecuado o negligente.
Para los fines previstos en este artículo, los servidores judiciales deberán revisar y analizar previamente, entre otras fuentes, los términos y condiciones de uso de las herramientas de IA que tengan a su disposición. Además, promoverán y participarán en espacios de gestión del conocimiento sobre la materia.
ARTÍCULO 8. DEBERES. Los funcionarios y empleados de la Rama Judicial que usen herramientas de IA para el ejercicio de sus funciones deberán:
1. Evitar el uso de chatbots generales o comerciales de IA en sus versiones gratuitas.
2. Para los usos descritos en los numerales 4.2 y 4.3 del artículo 4, a partir de las condiciones y términos de uso y demás medios disponibles, prescindir de herramientas de IA que no permitan conocer el origen de los datos que fueron usados para su entrenamiento, la manera en que son procesados, o su funcionamiento.
3. Prescindir de herramientas de IA para la valoración de medios probatorios, escrutinio de hechos, realización de juicios de valor, ni la solución de problemas jurídicos.
4. Prescindir de herramientas de IA para aplicar las normas que conforman el ordenamiento jurídico, motivar o adoptar las decisiones en un proceso, partiendo, exclusivamente, de las respuestas ofrecidas por la respectiva herramienta.
5. Prescindir de herramientas de IA si se advierte que generan daños potenciales a derechos humanos.
6. Abstenerse de introducir, por cualquier medio, datos personales, información sensible o confidencial en herramientas de IA, cuando estas se apropien de los datos o información ingresada, permitan compartirlos o los empleen para reentrenar sus modelos.
7. Abstenerse de hacer pasar como de autoría propia el texto elaborado con herramientas de IA generativa, o no citar en forma adecuada los materiales creados por estas.
ARTÍCULO 9. CONTROL Y VERIFICACIÓN HUMANA. Para contrastar y verificar la fiabilidad de las herramientas de IA generativa en el apoyo de labores, tareas o actividades institucionales, los servidores judiciales deben:
1. Cumplir los términos y condiciones de riesgos, usos adecuados, no permitidos y prohibidos de las herramientas de IA, publicadas por el proveedor de la herramienta, bien sea externo o institucional.
2. Contrastar y verificar la veracidad, relevancia y suficiencia de los resultados obtenidos, las fuentes y datos referenciados por la herramienta.
ARTÍCULO 10. TRANSPARENCIA E INTEGRIDAD. Los servidores judiciales deberán informar expresamente sobre el uso de sistemas de IA generativa para el apoyo de labores, tareas o actividades institucionales. En especial para actividades que terminan impactando y reflejándose en los procesos de adopción y emisión de decisiones sustanciales, los funcionarios y empleados harán explícito en el expediente, carpeta, actuación, documento o decisión, el nombre de la herramienta usada, modelo y empresa proveedora; fecha en que fue usada; que leyeron, entendieron y aceptaron los términos y condiciones de uso; explicarán para qué fue empleada, el detalle sobre cómo fue usada y los prompts o instrucciones utilizadas; referirán la ubicación específica de los productos o resultados reproducidos, transcritos o incorporados, con comillas, negrillas, letra cursiva o cualquier otro, para distinguir claramente los textos de la decisión que fueron producidos directamente por la herramienta.
PARÁGRAFO. Para los fines de este artículo, dichas manifestaciones o revelaciones podrán incluirse en el cuerpo principal del expediente, carpeta, actuación, documento o decisión, en notas a pie de página o en anexos.
DIRECTRICES Y BUENAS PRÁCTICAS PARA LA IMPLEMENTACIÓN DE SOLUCIONES O PROYECTOS INSTITUCIONALES.
ARTÍCULO 11. IMPLEMENTACIÓN DE SOLUCIONES O PROYECTOS INSTITUCIONALES. La Unidad de Transformación Digital e Informática, y las dependencias que implementen proyectos y soluciones institucionales basadas en IA generativa, deberán validar el cumplimiento de las pautas y lineamientos para su uso respetuoso, responsable y seguro, y en particular:
1. Analizar la adopción de herramientas sobre las cuales se haya realizado un análisis de impacto algorítmico, con el fin de prever y gestionar posibles riesgos de uso, especialmente para los derechos fundamentales.
2. Evaluar la elección de herramientas que ofrezcan una mayor transparencia de sus datos de entrenamiento, que permitan a los implementadores y usuarios evaluar la calidad e integridad de dichos datos, que proporcionen información comprensible y rastreable sobre las entradas, los resultados y el funcionamiento, en particular cuando el uso se refiere a actividades que terminan impactando y reflejándose en los procesos de adopción y emisión de decisiones de fondo.
3. Disponer de medidas técnicas y procedimentales que aseguren el cumplimiento de la normativa nacional, los Acuerdos y las políticas institucionales adoptadas por el Consejo Superior de la Judicatura para la seguridad informática y la seguridad de la información y los datos. Deberán implementar controles específicos de seguridad de la información adecuados para cada tipo de sistema de IA.
4. Contemplar los procesos propios de calidad de los datos que se involucrarán en el uso de las herramientas de IA, con el objeto de disminuir sesgos y alucinaciones y usar técnicas para vincular el uso de datos propios al procesamiento de las herramientas de IA generativa.
5. No usar datos personales y/o confidenciales en los procesos de entrenamiento de los modelos que soportarán este tipo de herramientas.
6. Llevar a cabo análisis de impacto de privacidad y protección de datos personales respecto del uso de determinadas herramientas de IA generativa, cuando requieran la incorporación y uso de este tipo de datos por parte de los usuarios finales. El análisis de impacto de privacidad debe identificar las implicaciones del uso de las herramientas en relación con los derechos de privacidad y protección de datos de los usuarios y terceros. De dicho análisis se derivarán recomendaciones acerca de su eventual adopción, así como protocolos, prácticas y lineamientos para evitar o mitigar los riesgos de afectación de derechos de privacidad y protección de datos personales.
7. Evitar la dependencia por tecnologías y proveedores específicos, promover la neutralidad tecnológica, buscando fomentar la sostenibilidad y autonomía en el uso de las tecnologías. En todo caso, asegurarán que los proveedores externos de herramientas o sistemas de IA tengan términos y condiciones de uso que sean compatibles con la normatividad nacional, lo previsto en este Acuerdo y las políticas trazadas por el Consejo Superior de la Judicatura y, que incorporen provisiones, medidas y obligaciones relacionadas con el cumplimiento de las políticas y lineamientos para el uso y aprovechamiento responsable y seguro de IA. Se priorizarán los proveedores que permitan realizar auditorías y evaluaciones de impacto, así como conocer información sobre los procesos y datos de entrenamiento de las herramientas y el funcionamiento de sus algoritmos.
8. Propender por el desarrollo interno de tecnologías que sean idóneas para apoyar iniciativas estratégicas para la Rama Judicial, de acuerdo con los lineamientos o estándares establecidos por el Consejo Superior de la Judicatura.
9. Priorizar la integración de herramientas de IA con otros sistemas o aplicaciones existentes en la Rama Judicial, con el fin de potenciar y complementar funcionalidades, prácticas y usos.
10. Usar herramientas que sean accesibles por parte de los distintos grupos de interés de la Rama Judicial, evitando el uso de tecnologías y sistemas que tengan barreras económicas y técnicas sustanciales de uso por parte de las personas.
ARTÍCULO 12. ANÁLISIS PARA SOLUCIONES O PROYECTOS INSTITUCIONALES. La Unidad de Transformación Digital e Informática, en coordinación con las unidades competentes, deberá priorizar las siguientes acciones tendientes a la implementación de proyectos, la habilitación y disposición de soluciones institucionales con IA:
1. Adelantar pruebas y estudios de viabilidad para implementar proyectos, disponer y habilitar soluciones o herramientas institucionales de IA, enfocados inicialmente en los siguientes tipos de uso, sin perjuicio de otros que sean identificados o solicitados:
a. Gestión administrativa y documental: reparto, agenda para la programación de diligencias, digitalización y clasificación de expedientes, revisión de completitud de documentos, textualización de las grabaciones de las audiencias, sistemas de relatoría y motores de búsqueda de jurisprudencia y anonimización de datos.
b. Apoyo a la función judicial: referenciación de jurisprudencia, seguimiento de líneas jurisprudenciales, análisis de datos estadísticos, identificación de temas repetitivos, asistencia en procesos de notificaciones, orientar el acceso a servicios y trámites e interacción con usuarios, sin que estos usos supongan una labor de creación de contenido, interpretación de hechos o textos, ni solución de casos.
c. Corrección y síntesis de textos, con supervisión humana posterior para su aplicación.
2. Avanzar, en el análisis de idoneidad y pertinencia del desarrollo, habilitación o el uso de sistemas, servicios o herramientas de IA generativa especializados en jurisprudencia y normativa, para el apoyo en el ejercicio de la función pública de administración de justicia.
3. Analizar las acciones de fortalecimiento del componente asociado al conocimiento y uso de las tecnologías dentro de los sistemas, programas y esquemas de ingreso, evaluación y reconocimiento institucional.
CAPACITACIÓN Y FORTALECIMIENTO INSTITUCIONAL.
ARTÍCULO 13. PLAN DE FORMACIÓN. La Escuela Judicial Rodrigo Lara Bonilla, en articulación y coordinación con la Unidad de Transformación Digital e Informática, incorporará dentro del Plan de Formación de la Rama Judicial la ruta de aprendizaje y competencias digitales y de IA, considerando diferencias sociodemográficas y del tipo de cargo que ejerce el personal a capacitar; niveles de conocimiento y componentes teórico - prácticos; mecanismos de evaluación y posibilidad de alianzas con la academia, centros de pensamiento, investigación e innovación.
ACOMPAÑAMIENTO, SEGUIMIENTO Y ACTUALIZACIÓN.
ARTÍCULO 14. COMUNICACIÓN Y REPORTE. Los servidores de la Rama Judicial deberán:
1. Comunicar y compartir proyectos o iniciativas que impliquen la implementación de herramientas de IA, incluida la generativa para el apoyo en las labores, tareas o actividades institucionales, a través de los canales y mecanismos que disponga la Unidad de Transformación Digital e Informática. El uso eventual y específico de herramientas por parte de los servidores no se considerará en términos de iniciativa o proyecto de implementación.
2. Informar al Consejo Superior de la Judicatura, a través de la Unidad de Transformación Digital e Informática, las necesidades de actualización, ajuste y evolución de los lineamientos para el uso responsable, seguro y respetuoso de los derechos fundamentales, de las herramientas de IA en la Rama Judicial.
3. Informar al Consejo Superior de la Judicatura, a través de la Unidad de Transformación Digital e Informática la sospecha de un mal funcionamiento o de impactos negativos potenciales o probables para la Rama Judicial, como consecuencia del uso de herramientas de IA.
ARTÍCULO 15. MECANISMOS DE ACOMPAÑAMIENTO Y SEGUIMIENTO AL USO DE IA GENERATIVA. El acompañamiento y seguimiento al uso de la inteligencia artificial en la Rama Judicial será liderado por la Unidad de Transformación Digital e Informática del Consejo Superior de la Judicatura, para lo cual deberá:
1. Realizar actividades de recolección y análisis de información periódica con líderes y usuarios, para identificar prácticas de uso, necesidades, oportunidades, iniciativas o proyectos en las distintas especialidades, despachos, dependencias del ámbito judicial y administrativo.
2. Adelantar análisis y reportes de tendencias y comparativos sobre las técnicas, servicios o productos de IA, con potencial de aplicación en la gestión judicial o administrativa.
3. Preparar y presentar reportes e informes que sirvan para ilustrar e informar el estado de apropiación del uso y aprovechamiento de IA en la Rama Judicial, así como los proyectos, iniciativas o soluciones implementadas.
4. Adelantar estudios y análisis de viabilidad con miras a acompañar, validar o implementar iniciativas o proyectos, disponer y habilitar soluciones o herramientas institucionales de IA.
5. Realizar acciones de acompañamiento a las iniciativas y proyectos de aprovechamiento de IA generativa que sean priorizados, promover sinergias, escenarios de mejora o escalamiento, así como el cumplimiento de políticas, lineamientos y estándares.
6. Promover y coordinar espacios, alianzas y sinergias multiactor para la gestión del conocimiento, competencias, capacidades, experimentación, innovación, acompañamiento e implementación.
7. Construir colaborativamente, divulgar, sensibilizar y actualizar recomendaciones prácticas sobre tipos o casos de uso de IA, elaboración de prompts, impactos potenciales de un mal uso de las herramientas e interpretación sobre determinados términos y condiciones de uso, entre otras, de conformidad con las políticas y lineamientos institucionales.
ARTÍCULO 16. VIGENCIA. El presente Acuerdo rige a partir de su publicación
PUBLÍQUESE, COMUNÍQUESE Y CÚMPLASE
Dado en la ciudad de Bogotá, D. C., el dieciséis (16) de diciembre de dos mil veinticuatro (2024).
DIANA ALEXANDRA REMOLINA BOTÍA
Presidenta