La legislación sobre IA propuesta por la UE podría asestar un duro golpe a las empresas que trabajan con modelos generativos si se ratifica tal cual, han advertido los fundadores del sector, lo que situaría a la región aún más por detrás de EE.UU. y China en la carrera armamentística de la IA.
Según los empresarios que trabajan con estos modelos, la legislación, tal como está redactada, sometería a los grandes modelos lingüísticos (LLM) al mayor grado de escrutinio y burocracia, aunque no se utilicen para casos de uso sensibles como la contratación.
Las empresas e inversores europeos están cada vez más preocupados por la capacidad de la región para competir con rivales estadounidenses como OpenAI, NVIDIA y Anthropic sin el apoyo de los reguladores. El bloque tiene las normas de privacidad más estrictas del mundo; a principios de este mes, los reguladores italianos dijeron que iban a prohibir ChatGPT de OpenAI por motivos de privacidad.
“Tenemos que ponernos al día, y ahora lo haremos con desventaja”, dice Jonas Andrulis, director general de Aleph Alpha, un rival europeo de OpenAI.
El borrador de la Ley de IA, que aún se está debatiendo, establece distintas categorías de riesgo para el uso de la IA, que van desde el “bajo riesgo” al “alto” y el “riesgo inaceptable”, aplicándose este último a los casos de uso que estarán totalmente prohibidos, como la tecnología de reconocimiento facial en lugares públicos.
Dado que la ley será el primer marco regulador del mundo y, por tanto, probablemente servirá de modelo para otros países -como las leyes de privacidad californianas inspiradas en el RGPD-, los políticos dicen que es importante hacerlo bien.
Negocios arriesgados
Los casos de uso de “alto riesgo” -las aplicaciones más sensibles que se permitirán- incluyen cosas como el uso de la IA en la contratación o el análisis de la solvencia crediticia. Las empresas que utilicen estas tecnologías estarán obligadas a informar periódicamente a los reguladores de la UE sobre su tecnología, además de someterse a auditorías de terceros.
El problema, según Andrulis, es que la “IA de propósito general”, como los LLM, se trataría como de alto riesgo si hipotéticamente pudiera utilizarse para una aplicación de alto riesgo.
Andrulis afirma que esto supondrá una “fuga de recursos” -tiempo y dinero necesarios para informar- que dificultará aún más a empresas como la suya competir en un mercado global.
Peter Sarlin, cofundador y director general de Silo AI, que desarrolla modelos generativos para clientes corporativos, está de acuerdo en que clasificar toda la “IA de propósito general” como de alto riesgo hará que las empresas sean reguladas innecesariamente.
“Si generalizamos la tecnología de IA generativa y decimos que todos los casos de uso que utilizan transformadores generativos preentrenados (GPT) son de alto riesgo, creo que también regularemos muchos casos de uso que en realidad no son de alto riesgo”, afirma.
‘Regular mal no es bueno’
Sarlin insiste en que apoya los esfuerzos reguladores para hacer que la IA sea más segura (firmó una reciente carta abierta pidiendo una pausa de seis meses en la construcción de modelos de IA más potentes que el GPT-4 de OpenAI), pero afirma que hay límites.
“No digo que la regulación sea mala. Digo que una mala regulación no es buena”, argumenta.
Clasificar todos los modelos generativos como de alto riesgo forma parte de un problema más amplio de la legislación, afirma: que aplica un conjunto de normas generalizadas a una amplia gama de tecnologías que se enfrentan a retos muy diferentes relacionados con la IA.
“El principal reto es esta especie de perspectiva horizontal de la regulación, en la que se intenta generalizar a través de una serie de verticales o casos de uso diferentes”, afirma. “Va a haber una diferencia muy, muy grande si comparamos, por ejemplo, los vehículos autónomos con el comercio minorista o las finanzas.”
Sus críticas se hacen eco de un llamamiento realizado la semana pasada por el inversor en IA Ian Hogarth en el Financial Times, quien argumentó que la IA de uso general debería regularse de forma totalmente separada de los sistemas de IA “de utilidad limitada”.
Nicklas Bergman, asesor estratégico del Consejo Europeo de Innovación de la UE y fundador de la empresa de inversión en tecnología profunda Intergalactic Industries, afirma que los reguladores europeos deberían intentar armonizar las normas con las de EE.UU.
Nicklas Bergman
La mayor economía del mundo aún no ha decidido cómo regulará la potente IA, pero el líder de la mayoría en el Senado, Chuck Schumer, ha explicado las áreas que, en su opinión, debería examinar el Congreso, incluida la transparencia en torno a los datos, la formación de algoritmos y la posibilidad de explicar cómo funcionan las IAs.
“Cuantos más países participen en un debate de este tipo, mejor”, afirma Bergman. “Al igual que ocurre con la genética, los nanomateriales y la energía nuclear, cuanto más se pueda alinear la regulación, mejor será.”
La eurodiputada búlgara Eva Maydell es ponente sobre la Ley de IA de la Comisión de Industria, Investigación y Energía del Parlamento Europeo, uno de los órganos que contribuyen a dar forma a la legislación. Está de acuerdo en que la clasificación de todos los modelos generativos como de alto riesgo no debería figurar en la ley final.
“No creo que todos los modelos generativos de IA deban considerarse automáticamente de ‘alto riesgo’; simplemente, hay demasiados casos de uso posibles con distintos niveles de riesgo”, dice a Sifted. “Dicho esto, también tenemos que ocuparnos de los modelos fundacionales potentes. El modo exacto de hacerlo se está negociando actualmente, pero existe voluntad política de actuar en este tema.”
Eva Maydell, eurodiputada
Impactos
Europa no tiene el mismo número de grandes empresas de IA generativa que EE.UU., pero alberga una serie de empresas más pequeñas que crean modelos generativos para clientes corporativos, como Zeta Alpha, con sede en Ámsterdam, e Iris.AI, con sede en Oslo.
En una encuesta reciente realizada por la Iniciativa para la IA Aplicada a 14 sociedades de capital riesgo europeas, 11 afirmaron que sería menos probable que invirtieran en una startup clasificada como de alto riesgo, mientras que ocho dijeron que también afectaría negativamente a la valoración de la startup.
Andrulis afirma que si la UE se equivoca en la regulación, el impacto final será que el bloque se convierta en comprador en lugar de vendedor.
“Esto nos quitará toda la energía creativa y todos los recursos que tenemos y que deberíamos utilizar para innovar”, afirma. “Viviremos en un mundo definido y estructurado por otros.”
Algunos podrían leer comentarios como éste como una contribución a la “dinámica racial” -el aceleracionismo de Sam Altman con tintes europeos-, pero Andrulis señala que, mientras los expertos piden una pausa en los modelos más potentes que el GPT-4, Europa sigue estando sólo en el “GPT-tres-punto-algo”.
“Llevamos una generación de retraso con tres órdenes de magnitud menos de financiación”, afirma. “Todo esto hace que a Europa le resulte más difícil competir.”