"Usar la inteligencia artificial hasta el límite que sea necesario y no de forma excesiva"
La entrevistada alega que no se cuenta con la legislación suficiente con respecto al uso de la inteligencia artificial y la ética del caso
04 de diciembre de 2023Fabiana Ramírez Cuenca, investigadora de seguridad informática Eset, explicó en el congreso de tecnología y ciberseguridad los principales riesgos de la inteligencia artificial en Latinoamérica. También habló sobre los esfuerzos de la Unesco por crear un documento en el que se establezcan ciertos parámetros de ética respecto a las tecnologías emergentes.
¿Cuáles son los principales desafíos en la regulación de la IA?
En general, el mayor desafío en el mundo es que casi no hay legislación. Hoy en día estamos utilizando inteligencia artificial, no solamente en las naciones, sino que también internacionalmente traspasamos información.
¿Qué temas debería abordar esas regulaciones?
Debe abordar la problemática de quién trata los datos, para qué, cómo se los provee, si alguien los controla y qué pasa cuando los intercambiamos de país a país. Es una cuestión de datos, por un lado, y por el otro lado, el respeto a los derechos humanos porque la inteligencia artificial está en contacto con las personas constantemente y muchas veces no se sabe para qué o cómo.
¿Debería haber una regulación general para Latinoamérica, por ejemplo?
Estamos en un momento histórico, cada país está regulando sus propias normas con base a la situación que afronta cada país, pero más o menos siguen los mismos lineamientos. Por ejemplo, la Unesco sacó un documento con las recomendaciones para la ética y es un parámetro que están siguiendo todos, pero dudo mucho que algún día se vaya a hacer una norma internacional, pero sí deben crearse convenios.
¿Qué clase de convenios?
Convenios de derecho internacional para que cuando choquen las soberanías, ver quién resuelve. Eso se da por ejemplo en el tema de la protección de datos. Te doy un ejemplo para que se entienda lo que digo: si un europeo tiene sus datos en internet, en cualquier lado, y resulta que sus datos quedaron guardados en África, la ley que se aplica es la europea, porque el titular de datos es europeo. Y en el ámbito de la inteligencia artificial, donde se dan muchos de estos choques, no existe una forma de determinar a quién le compete resolver la problemática.
¿Podemos retomar los esfuerzos de la Unesco por entablar unos parámetros de regulación?
La Unesco es una organización que se enfoca en el ámbito educativo. Ellos se cuestionaron el cómo influye la inteligencia artificial en la educación, hoy en día en el contacto más que nada con los niños, por ejemplo, el Chat GPT. Con base en eso empezaron a hacer distintos estudios y decidieron sacar este documento que se llama ‘Recomendaciones sobre la Ética’, en el cual se promueve el uso de la inteligencia artificial porque la ven útil para el desarrollo sostenible.
¿Cuáles son los principales puntos de este documento?
El primer principio del que hablan es el de proporcionalidad, que en realidad es un principio legal. Por ejemplo, cuando se habla de las penas se habla de la proporcionalidad. Esto sería lo mismo. La idea es usar la inteligencia artificial hasta el límite que sea necesario y no de forma excesiva. Lo bueno o lo malo siempre va a estar dado por el uso. El segundo es promover que sea equitativo, sea accesible a todos los sectores. Y también que se promueva la idea de que no perpetúe sesgos ni discriminaciones.
¿Hay otras consideraciones?
También promover la transparencia del uso y la explicabilidad. Entre otros, porque los algoritmos funcionan de una manera muy compleja y muchas veces es difícil entender por qué resuelven lo que resuelven. Y, de hecho, mucha gente que la construye no lo sabe. Una vez que lo dejas andando queda ahí. Y la idea es que la sociedad pueda pedir explicaciones sobre cómo la inteligencia artificial resolvió el problema.
¿Quiere publicar su edicto en línea?
Contáctenos vía WhatsApp