04/07/2023
1.4K vistas

Legisladores o innovadores: ¿quién crees que ganará la carrera de la inteligencia artificial?

La competición para marcar el rumbo en el floreciente ecosistema de la IA se acelera. Los legisladores se enfrentan al reto de garantizar que el desarrollo de la IA sea seguro y, a la vez, fomentar un terreno fértil para la innovación.

La competición para marcar el rumbo en el floreciente ecosistema de la IA se acelera. Los legisladores se enfrentan al reto de garantizar que el desarrollo de la IA sea seguro y, a la vez, fomentar un terreno fértil para la innovación.

Cuando la empresa de investigación OpenAI lanzó ChatGPT en noviembre de 2022, el sistema de inteligencia artificial (IA) se convirtió en la app en experimentar el crecimiento más rápido de todos los tiempos.  

Hace tiempo que la IA se usa para facilitar tareas y funciones cotidianas; si estás en Internet, la estás usando. Chatbots de atención al cliente, resultados de búsquedas a medida, anuncios publicitarios personalizados y herramientas de traducción: todos ellos funcionan con IA. 

Pero ChatGPT propulsó la IA a una esfera completamente nueva. Esta herramienta de procesamiento del lenguaje natural que se guía por prompts (órdenes o preguntas) del usuario, es capaz de escribir artículos enteros, ofrecer soluciones a problemas legales, crear obras de arte y generar código complicado.  

Las ventajas que ofrece, y también las posibilidades de que se haga un uso inadecuado de ella, son obvias y numerosas. “Los sistemas de IA están pasando a formar parte de la vida diaria”, afirma Mira Murati, directora de sistemas de información (CIO) de OpenAI. “La clave es garantizar que estas máquinas estén alineadas con las intenciones y los valores de los seres humanos”. 

¿QUIÉN ESTÁ GANANDO LA CARRERA?

Los gigantes tecnológicos han sido rápidos a la hora de incorporar en su funcionalidad diaria ChatGPT y sus iteraciones de rápida evolución (GPT-4, lanzada en marzo, “supera a ChatGPT en cuanto a sus capacidades de razonamiento avanzadas”).  

También en marzo, Microsoft presentó CoPilot, que conecta ChatGPT con Microsoft 365. “Copilot está integrado en las aplicaciones de Microsoft 365 que ves cada día, como?Word, Excel, PowerPoint, Outlook y?Teams, entre otras, y trabaja contigo para ayudarte a dar rienda suelta a tu creatividad, potenciar la productividad, y mejorar tus habilidades”, según la empresa. 

Para mayo, Microsoft y Windows ya habían anunciado que sus funciones de IA de CoPilot conectadas con GPT-4 se integrarían en Windows 11 y podrían usarse en todas las aplicaciones y programas. Los gigantes tecnológicos también presentaron su propia librería de IA para Windows, “una cuidada colección de API y modelos de aprendizaje automático listos para usar” para desarrolladores.  

Bard, el rival de ChatGPT de Google, lleva desarrollándose desde 2017. Afirman que el modelo de lenguaje para aplicaciones de diálogo de Google (LaMDA) fue el gran avance significativo en aprendizaje automático. Y, según los expertos del sector, “Google va ganando el partido del mercado de la IA, pero todo puede pasar”. 

“La cuestión es que la carrera para dominar el mercado está dejando atrás las regulaciones necesarias para contener los riesgos”, dice Xavier Ferràs de Esade. 

“La carrera de la IA está más centrada en romper récords de escala que en garantizar su seguridad”, advierte. “ChatGPT es una gota en el océano, en medio de una explosión de aplicaciones y start-ups de IA que pronto alcanzará a todos los aspectos de nuestra vida. 

“Pero, ¿estamos creando una IA alineada con los valores democráticos y humanos? No creo en el supuesto panorama de escenarios apocalípticos en los que una IA perversa toma el mando del mundo. Pero me aterroriza la idea de que seres humanos perversos o irresponsables se hagan con el control de los sistemas de IA».

LOS RETOS DE LA NORMATIVA SOBRE IA

La Comisión Europea está tomando medidas para reducir los posibles daños con su Ley de Inteligencia Artificial, un marco normativo aplicable en todos los Estados miembros que clasificará el uso de la IA según el riesgo que represente: inaceptable, alto, bajo o mínimo. 

No se permitirán las aplicaciones cuyos riesgos se consideren inaceptables, como el uso de reconocimiento facial en lugares públicos o los sistemas de puntuación social utilizados por los gobiernos.  

Las aplicaciones clasificadas de alto riesgo, como los dispositivos médicos y los vehículos autónomos, requerirán autorización antes de que se pueda proceder a su desarrollo. La IA para fines generales, como ChatGPT, estará regulada mediante estrictas normativas, pudiendo alcanzar las sanciones económicas los 30 millones de euros en caso de incumplimiento. 

Europa es, indiscutiblemente, líder en legislación en materia de privacidad, datos e IA” apunta Esteve Almirall, profesor y director del Center for Innovation in Cities de Esade. 

Pero una ley solo será útil en la medida en que se aplique. Si creamos leyes que no podemos implementar de forma eficaz, solo estamos generando más burocracia. El caso de las cookies es un ejemplo claro. Todos estamos de acuerdo en cuanto a sus objetivos, pero su implementación ha hecho que millones de europeos acepten los términos y condiciones de las cookies sin haberlas leído nunca”. 

“El efecto combinado de una falta de soberanía creada por una normativa de la UE y la implementación burocratizada puede ser muy perjudicial y crear barreras de entrada que impidan que la legislación proteja adecuadamente y, a la vez, repriman la innovación”. 

“¿Pero significa eso que debemos dejar de promover una legislación avanzada? De ninguna manera. Al contrario, hemos de encontrar el equilibrio entre la rapidez con la que se legisla y nuestra capacidad para llevar a cabo implementaciones digitales ágiles en el marco de nuestra soberanía”. 

EL FLORECIENTE ECOSISTEMA DE LA IA

Mientras los políticos discuten los pormenores de la legislación propuesta, las empresas de todos los sectores se apresuran a implementar aplicaciones de IA cada vez más innovadoras. 

“Tenemos muchos sectores y organizaciones que ya se han apuntado a unirse a esta carrera” afirma Almirall. “En programación y consultoría veremos una mayor productividad y menos errores. Bain, una de las grandes consultoras norteamericanas, tiene desde hace tiempo un acuerdo con Open AI para desarrollar productos que utilicen ChatGPT. Una de las revoluciones más grandes se producirá en el sector legal; PwC ya cuenta con un acuerdo similar para su departamento legal”.  

Y en el ámbito de la educación también van a pasar cosas. Khan Academy, con Khanmigo, su tutor basado en GPT, nos muestra por dónde irán los tiros, y también Duolingo, con su tutor que nos permite hablar con un ‘nativo’ en situaciones reales”.  

Almirall añade: “Por supuesto, hay ecosistemas enteros de apps que usarán estos modelos en forma de API. Y es entonces cuando asistiremos a una explosión parecida a la de los primeros teléfonos iPhone”.  

“Nos encontramos ante una ventana de oportunidad que nos permite situarnos en una posición a nosotros mismos, así como definir la posición de nuestros países, nuestras empresas y nuestra gente. No se trata de que la IA vaya a sustituir a los seres humanos, sino de que las personas que utilicen la IA sustituirán a las que no lo hagan«.


Descubre más desde TEKIOS

Suscríbete y recibe las últimas entradas en tu correo electrónico.