Por María Luisa Acuña, Socia Cyber Risk Advisory Deloitte.
Pueden existir muchas definiciones de la inteligencia artificial generativa, pero en términos sencillos es un tipo de inteligencia artificial (IA) que puede generar nuevos contenidos, como texto, imágenes o videos, a través de patrones de aprendizaje que se obtienen de datos preexistentes. Asimismo, este tipo de IA también puede incluir varias técnicas de aprendizaje automático.
A menudo escuchamos historias de familiares y colegas que usan ChatGPT (el chatbot de IA generativa más difundido) para distintas labores que pueden tardar mucho tiempo, porque la persona no tiene conocimiento experto. Algunos ejemplos van desde la confección de un discurso de apertura señalando la temática, público objetivo y extensión de tiempo; el envío de un correo electrónico de comunicaciones dentro de la compañía en el que el remitente quiere parecer más cercano y empático cuando esas características no son innatas; o con nuestros hijos, al crear cuentos a la medida que se pueden hasta ilustrar, indicando características del niño, extensión y gustos particulares. Todos estos casos se tratan justamente del uso de inteligencia artificial generativa.
La cuestión relevante es que en todas estas interacciones con ChatGPT, que nos parecen muy lógicas e intuitivas, no hay ningún cuestionamiento sobre la entrega de información sensible ni hacia dónde se dirige este caudal; o qué hacen con la información que envío; o en lo legal, si lo que se entrega a la IA generativa está protegido por derechos de autor.
Información y riesgos asociados no son propios sólo de este tipo de IA, pero su uso cada vez más frecuente, su libre acceso y la asombrosa capacidad que posee nos presentan nuevos desafíos para la seguridad de la información y la privacidad de los datos, un factor muy importante de tener en consideración cuando no existe en Chile, por ejemplo, una regulación específica.
En ese escenario, es importante conocer los conceptos que engloban una IA responsable.
*IA de uso libre: si es de su interés que los colaboradores tengan acceso y puedan usar IA en sus labores diarias, al menos deberá establecer una política en la que incluya cómo usar correctamente IA, qué información se debe proteger y las implicancias de una violación a la confidencialidad en esta materia. En este mismo sentido, deberá actualizar las cláusulas contractuales que sean atingentes.
*IA como procesos de negocio: si está evaluando que IA sea parte de sus procesos de negocio, debe sopesar los riesgos de privacidad de los datos a lo largo del ciclo de vida del desarrollo. Para eso, puede ser de utilidad el Framework de la NIST AI 100-1 que entrega elementos específicos de gestión de riesgos para IA (AI RMF 1.0).
*IA transparente: El miedo al uso de IA es generalizado, principalmente, porque representa un conjunto de habilidades que en muchos aspectos puede superar a la inteligencia humana con la ayuda de la tecnología; y porque es como una caja negra dentro de la que se desconoce lo que pasa con la información. Por ello, las organizaciones que están analizando utilizar IA en sus procesos de negocios, o que ya la han desplegado, deben trabajar en transparentar a su entorno cuáles son sus políticas de privacidad y protección de datos; cómo sus algoritmos se hacen cargo de cuestiones éticas como la no discriminación, sesgos y equidad, entre otros asuntos; y cómo la IA puede complementar y mejorar ciertas tareas humanas.
En efecto, todos estos conceptos se agrupan dentro de lo que hoy comúnmente conocemos como «inteligencia artificial responsable», que es la corriente destinada a diseñar, desarrollar e implementar IA con una intención de empoderar a los colaboradores y organizaciones, impactando de una manera positiva y justa hacia los clientes y sociedad, para así contribuir a un entorno de confianza donde el uso de esta tecnología pueda ser utilizada democráticamente y de una manera sana por todos.
Descubre más desde TEKIOS
Suscríbete y recibe las últimas entradas en tu correo electrónico.