La reciente presentación del proyecto de ley de Inteligencia Artificial (IA) en Chile marca un hito en el desarrollo de la industria tecnológica en nuestro país. Sin embargo, aún queda camino por recorrer para garantizar un marco regulatorio robusto y efectivo desde la perspectiva de la ciberseguridad.
Para comprender la importancia de este proyecto y su impacto en materia de ciberseguridad, es necesario tener una idea clara del panorama de este negocio en nuestro país. Actualmente, el mercado de la ciberseguridad chileno supera los 282 millones de dólares y muestra una proyección de crecimiento anual superior al 10%, convirtiéndonos en un jugador clave en toda la región. Junto con Perú y Brasil, Chile lidera los temas de regulación de la IA en América Latina.
El proyecto de ley presenta avances significativos en materia de ciberseguridad, con un enfoque basado en la clasificación de los sistemas de IA según su nivel de riesgo, lo que permite aplicar medidas proporcionales para mitigar los posibles daños. La inclusión de sistemas de IA de alto riesgo, con requisitos específicos de seguridad, es un paso fundamental para proteger la integridad de infraestructuras críticas y la privacidad de los datos.
Asimismo, la creación de un Consejo Asesor Técnico de IA, con la participación de expertos en ciberseguridad, y de una Agencia de Protección de Datos Personales, que tendrá las facultades de fiscalización y cumplimiento de las disposiciones del proyecto, es un gran acierto para orientar las políticas públicas en esta materia.
La inclusión de espacios controlados de pruebas para sistemas de IA innovadores es una medida que fomenta la investigación y el desarrollo responsable de esta tecnología. Estos espacios permiten a las empresas probar sus sistemas en un entorno seguro, minimizando los riesgos para la seguridad y la privacidad.
Sin embargo, a pesar de los avances, el proyecto de ley deja vacíos en algunos puntos clave. En primer lugar, la definición de «incidente grave» es demasiado amplia, lo que podría generar incertidumbre y dificultar la aplicación de la ley. La falta de detalles sobre las medidas de seguridad específicas para los sistemas de IA de alto riesgo deja un vacío que podría ser explotado por actores maliciosos, por lo cual será preciso adecuar, madurar y explicitar definiciones para sistemas de alto y limitado riesgo.
Adicionalmente, la ausencia de sanciones específicas para las infracciones a la ley de IA es una debilidad importante. Sin sanciones claras y disuasorias, la ley podría ser ineficaz para prevenir el uso malicioso de la IA.
Entendemos que este es un gran paso y definitivamente la colaboración entre el sector público y privado es crucial para desarrollar soluciones innovadoras y efectivas para los desafíos de la ciberseguridad en la era de la IA. Todos los actores del sector esperamos poder tener el espacio y la posibilidad de sumar valor en el establecimiento de las reglas de una de las industrias clave para el impulso del comercio y la tecnología a nivel global.
Descubre más desde TEKIOS
Suscríbete y recibe las últimas entradas en tu correo electrónico.