Las preocupaciones legales asociadas con la implementación de la inteligencia artificial
En medio del crecimiento de la IA, se identificó que uno de los sectores que más está involucrado con esta tecnología es el derecho
25 de septiembre de 2023Sin duda alguna las tecnología disruptivas llegaron para quedarse. Es por esto que fue uno de los temas centrales en el VIII Congreso Internacional de Derecho Empresarial y Arbitral, “por una justicia inclusiva”, de la Cámara de Comercio de Cartagena.
El panel de la IA lo estuvo moderando Iván Darío Marrugo Jiménez, director general de la firma FuturLex; en la conversación estuvieron: Germán Darío Flórez Acero, presidente de la Asociación Colombiana de Legal Tech y director de la Maestría en Legal Tech de la Universidad Sergio Arboleda; y Juan Sebastián Alejandro Perilla Granados, docente investigador de la Universidad Tecnológica de Bolívar, experto en inteligencia artificial.
En medio del crecimiento de la IA, se identificó que uno de los sectores que más está involucrado con esta tecnología es el derecho, pues no solamente ha logrado optimizar procesos como la gestión de juicios, la facturación electrónica, el cobro a clientes y la revisión de documentos; también hay que enfrentar los vacíos legales en temas de propiedad intelectual o inconsistencias jurídicas.
Hace dos semanas, la inteligencia artificial dejó ver ampliamente las implicaciones de no contar con seguridad cibernética. Pues, aunque es una gran herramienta para agilizar procesos y automatizar funciones, la IA en el sistema judicial también aumenta la posibilidad de un ataque cibernético.
Marrugo ratificó que la ciberseguridad hoy está utilizando la inteligencia artificial para sus propios fines. “El reciente ataque del que hemos tenido noticia lo que demuestra es que hay una necesidad de fortalecer los temas de seguridad digital, no solamente los gobiernos, porque es un tema también relacionado con las entidades, pero también con las empresas, es no confiarse y no bajar la guardia en temas de seguridad”.
Además, aseguró que el impacto de la IA puede medirse de distintas formas. “Hay muchos aportes que está haciendo en el campo del derecho porque está ayudando como instrumento a fortalecer muchísimas de las capacidades que nosotros tradicionalmente como profesionales del derecho tenemos. Una de ellas podría ser, por ejemplo, los usos de la inteligencia artificial generativa que ayudan en el proceso del lenguaje natural y que nos puede significar una ayuda interesante en el momento de redactar textos, de hacer comprensión de sentencias y de generar mucha analítica sobre la información ya existente, pero hay que tener presente que la tecnología es una ayuda a la profesión del derecho, pero no busca hacer el trabajo que nosotros tenemos. La tecnología no reemplaza la tarea que desde nuestro criterio tenemos que realizar”.
Hay una serie de iniciativas que marcarán el camino de todo lo que puede hacer la IA. “A futuro se pueden abrir debates interesantes de si se pueden automatizar las decisiones judiciales, es decir, si vamos a tener algún tipo de decisión basada en procesos robotizados, sobre todo en tareas repetitivas”, agregó Marrugo.
Uno de los debates que mayor interés está causando es el de ¿cómo se garantiza la transparencia y la equidad en los algoritmos utilizados por la IA en el proceso judicial? Marrugo aseguró que este tema podría ser una arista negativa o un escenario en el que hay que tener prevención, “dentro del contexto de la IA se llama ‘el fenómeno de la opacidad’, que es básicamente el no conocer de manera previa el proceso de programación y los procesos que están detrás de la creación del algoritmo y cómo las máquinas han hecho ese proceso de caracterización inicial”. Por esta razón, aseguró que por más transparencia que haya, hay que detenerse a pensar en cómo la industria tecnológica inicia el proceso de entendimiento de los servicios basados en IA.
Perilla, entre tanto, dijo que en esta pregunta radica el verdadero problema. “La inteligencia artificial está construida desde unos algoritmos de unos sujetos particulares. ¿Cuáles? Pueden ser muchos, por ejemplo, en la Universidad estamos trabajando en el desarrollo de unos algoritmos para aportar a la administración de la justicia”.
Dijo que lo que buscan con esto es que los algoritmos tengan la posibilidad de gestionar todos los asuntos formales y no los sustanciales. “¿Cómo aseguramos objetividad? Teniendo la posibilidad de tener las reglas claras, de validar la información, etc.”.
La inteligencia artificial se mueve por las tendencias, pero aprende con todos los datos que los usuarios le suministran, entonces “¿cómo se genera objetividad? Haciendo validaciones y pruebas mientras va aprendiendo. Es por eso que hasta este momento no hemos sido capaces de desarrollar una forma de solucionar casos jurídicos porque tienen muchas variables”.
No obstante, si la tendencia sigue, Perilla aseguró que se podría lograr.
También agregó que la principal preocupación legal y ética está asociada a la ignorancia de la IA. “La gente cree que la IA va a ser ahora el juez y que las máquinas van a ser ahora las que resuelvan los casos, la IA es un apoyo para resolver los procesos. Hasta este momento no se ha llegado a resolver de fondo un caso”.
Concluyó que es una preocupación infundada, pues a lo que se dedica la IA en este momento en los despachos jurídicos es a sistematizar la información y esta labor, “no tiene ningún problema ni ético ni laboral, es un apoyo como cualquier otro, en los años 2000 era Encarta”.
Antecedentes
Por lo menos 60 países realizan estrategias en Inteligencia Artificial, según el más reciente estudio de la Organización para la Cooperación y el Desarrollo Económicos “Uso estratégico y responsable de la Inteligencia Artificial”; la mayoría de esas naciones incluyen un énfasis específico en el sector público. Además, la Oecd también aseguró que Colombia y Uruguay lideran las innovaciones en los debates y actualizaciones de la IA.
¿Quiere publicar su edicto en línea?
Contáctenos vía WhatsApp