Mucho se habla de cómo sacar provecho de las herramientas de inteligencia artificial (IA) disponibles en el mercado, pero poco sobre cómo proteger la privacidad de las personas en este contexto. Esto es especialmente relevante puesto que, al recibir ciertos datos, la IA puede deducir otros y esa es información potencialmente sensible.
Así, por ejemplo, usando un software de geolocalización se podría llegar a deducir qué hace una persona en su día a día, llegando a descubrir datos públicos como su profesión u oficio o sensibles, como que asiste a clínicas que se encargan del tratamiento de ciertas enfermedades.
Con esto, a nivel interno, las empresas deben entender exactamente cómo va a ser la cadena de tratamiento de los datos personales, desde su recaudo hasta su eliminación. Esto tiene tres finalidades: la primera es informar a los titulares cómo y para qué se van a tratar sus datos (esto es, los medios y finalidades del tratamiento); la segunda es adoptar medidas de seguridad proporcionales a los datos que se traten o deduzcan (entre más sensibles, más controles), y la tercera es proteger los derechos de los titulares de la información.
Hay datos aparentemente inofensivos que se pueden volver sensibles si es que llevan a la discriminación de una persona. Y es que se ha encontrado que, de recibir datos parcializados o con sesgos, las herramientas de IA o los algoritmos que usan modelos de machine-learning pueden replicarlos. Por ejemplo, en la contratación de personal, un campo que ya usa IA para filtrar hojas de vida y evaluar entrevistas en video, la IA puede amplificar sesgos de estereotipos incrustados en los datos históricos de contratación con los que se entrena a esta tecnología. Estos sesgos perpetúan prácticas de segregación por género, raza, clase social, entre otras. La mitigación de los mismos es complicada, ya que la IA puede deducir información personal a partir de datos correlacionados.
Recordemos que, según el artículo 5 de la Ley 1581 de 2012, “se entiende por datos sensibles aquellos que afectan la intimidad del Titular o cuyo uso indebido puede generar su discriminación”. Así, es recomendable que las empresas desarrollen procesos como parte de evaluaciones de las herramientas de IA, para identificar si decisiones automatizadas pueden llevar a discriminar a personas, y si hay medidas que puedan reducir este riesgo.
El tratamiento de datos que puedan llevar a la discriminación de una persona debería seguir los lineamientos de los artículos 6 y siguientes de la ya mencionada Ley 1581. Entre otras, los titulares deberían poder abstenerse de dar su consentimiento para el tratamiento de cualquier información que lleve a su discriminación, y que, por lo mismo, sea considerada como sensible. En otras palabras, las personas deberían poder negarse a que sus hojas de vida o entrevistas sean analizadas con inteligencia artificial.
En la misma línea, los titulares deberían poder ejercer todos los derechos que la ley les otorga, incluyendo los de supresión y rectificación de sus datos. Puede suceder que sea difícil que los modelos ‘desaprendan’ información. Con esto, desde el desarrollo se debería pensar en mecanismos para respetar los derechos de los titulares, como mantener un inventario detallado de la información usada al entrenar a la IA.
Es esencial que las empresas no solo se centren en aprovechar las ventajas de la IA, sino que también adopten medidas rigurosas para proteger la privacidad y los derechos de las personas.
*Natalia Fernández López, Área Tecnología y protección de datos, Asociada Senior de Martínez Quintero Mendoza González Laguado & De La Rosa
¿Quiere publicar su edicto en línea?
Contáctenos vía WhatsApp