La ley de IA que Europa quería perseguir, y quizás la superó


Costfoto/NurPhoto vía Getty Images
Italia por fin cuenta con una regulación (centrada en el ser humano y responsable) sobre inteligencia artificial. Ahora solo nos falta la propia IA.
El Parlamento acaba de aprobar una nueva ley sobre inteligencia artificial, un proyecto que, si bien pretende equilibrar la innovación y la protección de los derechos, corre el riesgo de añadir una inflexibilidad significativa a un sector que necesita avanzar.
El proyecto de ley, aprobado definitivamente por el Senado el 17 de septiembre, presenta una ambición loable: adoptar un enfoque de IA centrado en el ser humano y responsable. La idea es situar a las personas en el centro, protegiéndolas de los riesgos económicos y sociales y de posibles violaciones de los derechos fundamentales. Sin duda, se trata de un concepto noble, en consonancia con la Ley Europea de IA, pero, como bien señaló Mario Draghi en un discurso reciente, corre el riesgo de convertirse en una fuente de incertidumbre en lugar de un marco claro. Draghi señaló claramente el riesgo de que la regulación europea de una tecnología aún emergente se convierta en un freno para la innovación. La legislación italiana parece haber hecho todo lo posible por adaptarse a la baja, amplificando las restricciones europeas a nivel nacional.
El texto está dividido en cuatro capítulos, y ya aquí comprendemos lo buenos que somos para complicarnos la vida.
Los artículos 1 a 6 establecen los principios generales. Entre muchos otros, el artículo 3 impone principios vinculantes como la transparencia, la proporcionalidad, la seguridad, la protección de datos (de conformidad con el RGPD), la no discriminación y la supervisión humana. Todo ello está muy bien, pero con un toque de rigidez adicional: impone requisitos de "ciberseguridad" y accesibilidad para las personas con discapacidad, con el riesgo de sanciones para quienes no los cumplan. El artículo 4 también prohíbe los usos de la IA que socaven el pluralismo mediático o la libertad de expresión. Además, exige el consentimiento paterno para que los menores de 14 años utilicen sistemas de IA. En resumen, antes incluso de empezar, ya existe un fuerte freno regulatorio. Además, el Estado se reserva el derecho de "fomentar mercados justos e innovadores", favoreciendo los centros de datos nacionales de alta seguridad en la contratación pública. No es precisamente una premisa alentadora para quienes buscan la innovación, dados los retrasos acumulados por el importante centro estratégico nacional. Los artículos 7 a 15 se centran en las aplicaciones sectoriales. En este caso, el tono se vuelve aún más estricto. En el ámbito sanitario, por ejemplo, la IA para el diagnóstico debe garantizar la no discriminación, la transparencia y, sobre todo, la inclusión social. Y en el ámbito laboral, un nuevo observatorio ministerial se encargará de supervisar el impacto de la IA en la contratación, los ascensos y la supervisión de los empleados. Pero la verdadera joya de la burocracia reside en el artículo 13, que regula profesiones intelectuales como la abogacía y la medicina. Aquí, la IA queda relegada a un papel meramente instrumental, protegiendo los ingresos profesionales. El «pensamiento crítico humano» debe prevalecer, siempre y en cualquier caso. Desafortunadamente, es precisamente el «pensamiento crítico» el que demuestra que la verdadera innovación proviene de una automatización audaz, no de un criterio impuesto legalmente.
Los artículos 16 a 21 se centran en las protecciones y responsabilidades. En este caso, se prohíbe el uso de la IA para la manipulación del comportamiento o la vigilancia encubierta. Y, de acuerdo con la Ley de IA, los proveedores de sistemas de alto riesgo deben realizar evaluaciones de impacto y garantizar la transparencia y la supervisión humana. De nuevo, todo bien, pero ¿a qué precio? Mario Draghi ha planteado la cuestión de la inseguridad jurídica que generan estas normas, impulsando las inversiones hacia Estados Unidos y China, donde la competencia está sujeta a muchas menos restricciones ex ante y los riesgos se evalúan, en todo caso, ex post.
Finalmente, los artículos 22 a 24 abordan las inversiones, las delegaciones y las disposiciones finales. En ellos, descubrimos que el Estado pretende invertir hasta 1.000 millones de euros. Esta cifra es insignificante en comparación con las inversiones privadas planificadas por los principales actores del sector, con planes de desarrollo para nuevos centros de datos por valor de cientos de miles de millones. A esto se suma el mandato del gobierno para adoptar decretos en un plazo de 12 a 18 meses, con multas de hasta 35 millones de euros o el 7 % de la facturación para las empresas que incumplan. Este sistema de sanciones, como lamentó Draghi, genera una "inseguridad jurídica" prácticamente imposible de abordar para las startups y pymes italianas.
En resumen, la ley italiana de IA, a pesar de sus nobles intenciones, parece replicar un antiguo modelo de regulación ex ante de una tecnología que aún no ha dado sus primeros pasos operativos, lo que obstaculiza la innovación. Este enfoque centrado en el ser humano corre el riesgo de convertirse en un laberinto burocrático, imponiendo costes y retrasos y, una vez más, haciéndonos perder la oportunidad de competir en un sector en rápida evolución. Draghi advirtió que Europa corre el riesgo de quedarse atrás. Y con esta ley, Italia parece estar haciendo todo lo posible para ampliar la brecha. En lugar de una estrategia proactiva para una IA "soberana", se prefieren las salvaguardias reactivas. Quizás sea hora de reconsiderar y centrarse en una simplificación radical, en lugar de una sobrerregulación. De lo contrario, Italia, y con ella Europa, corren el riesgo de resignarse a ver cómo otros compiten, quedándose estancados. Y eso sería una pena, porque en Italia tenemos mucha inteligencia natural. Ojalá la dejáramos actuar libremente.
Más sobre estos temas:
ilmanifesto