Microsoft recientemente patentó un Chatbot o Griefbot que permite tener contacto a través de tecnología con las personas que ya fallecieron. Ciertamente, un Griefbot se fundamenta en Inteligencia Artificial para poder tener contacto, dícese contacto artificial, con las personas ya fallecidas, esto es, Microsoft hará uso de datos de las personas fallecidas buscando replicar características relevantes de esas personas, por ejemplo, crear patrones 2D o 3D basándose en fotos, vídeos, audios, correos electrónicos, mensajes de texto, entre otros. Ahora bien, definitivamente antes que Microsoft tuviera esta patente ya se hablaba de los Griefbots en Estados Unidos, país que se encuentra a la vanguardia en la implementación de Chatbots en la cotidianidad de las personas.
Efectivamente, los Griefbots rastrean y reproducen la huella digital que deja la persona que ya falleció, entendiéndose huella digital como todos los registros y datos que dejan las personas cuando usan internet; sin lugar a dudas, la huella digital se encuentra relacionada con lo que se conoce como Big Data. No obstante, el uso de esta tecnología puede resultar polémica y controversial para algunos, toda vez que, hacer uso de Griefbots puede ser riesgoso para sus usuarios en materia de salud en todos sus ordenes, especialmente el psicológico.
Ahora, igualmente, se pueden presentar discrepancias de cara al tratamiento de datos o frente a aspectos de seguridad y privacidad que se encuentran latentes. Vale la pena preguntarse si ¿Las Leyes mas importantes de privacidad y protección de datos a nivel mundial, tienen previsto mecanismos de protección de cara al uso de los Griefbots? o en su defecto, hay que interrogarse si ¿Deberán promulgarse nuevas Leyes o algunas derogatorias normativas particulares al respecto?
Al analizar la huella digital, nos conduce a pensar en la identidad digital de las personas, que corresponde no sólo a los datos que dejan las personas en la red como consumidores de contenidos Online, sino a esa identificación que hacen las personas en la red, unos de otros. Contrario sensu, el debate jurídico puede ofrecer mas aristas, esto es, la tecnología en efecto es de gran utilidad para los esquemas nuevos y tradicionales de negocios, sin embargo, es debatible como se puede usar la psicología del consumidor para ofrecer productos tecnológicos que pueden llegar a ser perjudiciales en algunas personas en materia de salud, por ejemplo, usar Griefbots para tener ‘‘contacto’’ con familiares o amigos ya fallecidos.
En conclusión, se deberá analizar los márgenes de responsabilidad contractual y porque no extracontractual, cuando el uso de Griefbots cause daños colaterales a terceros, ergo, por mas que dichas empresas que ofrezcan Griefbots exijan a sus usuarios firmar contratos o consentimientos informados en aras de limitar su responsabilidad, existen riesgos de daños eventualmente graves para dichas personas que haciendo uso de estos, puedan tener afectaciones en su salud. Por tal motivo, corresponderá a una política de Estado rígida, la de inspeccionar y buscar ofrecer mecanismos de control en la oferta de dichos productos tecnológicos, volviendo nuevamente a relucir la necesidad de una política legislativa robusta que esté a la par con los desarrollos tecnológicos, en particular, los Griefbots que haciendo uso de inteligencia artificial, permiten tener contacto con una imagen, holograma o grabación, de las personas que ya fallecieron.
¿Quiere publicar su edicto en línea?
Contáctenos vía WhatsApp