IA: responsabilidades de sus creadores y usuarios

La semana pasada abordé en esta columna algunos de los principales retos que implicará la regulación de la inteligencia artificial en México. El problema nace desde la propia definición legal del concepto y sus colindancias con la regulación de materias relacionadas, pero no se limita a estos aspectos. Otro de los retos que conlleva la regulación en esta materia es la delimitación de responsabilidades entre quienes diseñan los sistemas de IA, y quienes los utilizan.
La inteligencia artificial ha penetrado en nuestras vidas de manera tan abrupta que en ocasiones es percibida por la sociedad como si fuera autónoma, un ente anónimo que se construye y desarrolla a sí mismo, como si obrara por voluntad propia, sin el cordón umbilical que la conecta con sus creadores, y sin la interferencia del usuario que le gira instrucciones y le formula requerimientos. El problema de esta concepción es que, si fuera replicada en el plano jurídico, no habría manera de definir a los responsables de cualquier violación de derechos que se cometiera con el uso de la IA, pues los algoritmos no son personas jurídicas identificables que puedan asumir responsabilidad.
Es por eso que al regular esta materia se debe analizar cuidadosamente el alcance de las responsabilidades, tanto de creadores como usuarios, para preservar la certeza jurídica y los derechos y libertades de ambos. Así como el Derecho desarrolló la teoría de la ficción jurídica para permitir la creación de personas morales, con sus respectivas esferas jurídicas, ahora corresponde adaptar la legislación para permitir e incentivar el desarrollo y expansión de los sistemas de inteligencia artificial, sin dejar desprotegidos los derechos de todos los involucrados.
Por lo que hace a los desarrolladores de la IA, es claro que su responsabilidad incluye el proceso de identificar y seleccionar las bases de datos e información con la que alimentarán a sus sistemas o plataformas. Un ejemplo claro son las disputas que han surgido en varios países sobre la posible violación de derechos de propiedad intelectual, cuando los desarrolladores de sistemas de IA incorporan en ellos bases de datos o contenidos que son propiedad de terceros, sin obtener su autorización o pagar por su explotación comercial. Por lo que hace a la implementación de algoritmos sesgados, cualquier restricción tendría que evaluarse con lupa, para asegurar el respeto a la libertad de expresión.
En cuanto a los usuarios, muchos de ellos han generado una confianza casi ciega en la información que obtienen de los sistemas de IA. Algunos los perciben como una especie de oráculos modernos, responsables de resolver sus problemas, a tal grado que toman decisiones de gran impacto en sus vidas, con base en las recomendaciones generadas por una plataforma de IA.
Hay quienes solicitan a la IA apoyo psicológico, o asesoría personalizada para resolver cierta situación concreta, y acatan los resultados de la consulta incluso por encima de su propio criterio. De acuerdo con la Dra. Mara Dierssen, presidenta del Consejo Español del Cerebro, cuando se delegan tareas en exceso a la IA, se reduce el esfuerzo neurológico, con lo que también disminuye la capacidad para pensar críticamente y resolver problemas de manera independiente (Vademecum, Real Academia Nacional de Medicina de España). También están los casos en los que los usuarios utilizan las herramientas de IA para generar o difundir contenidos ilegales.
En estos supuestos, los creadores de IA no tendrían que asumir la responsabilidad sobre el uso que cada persona le dé a sus plataformas, o las decisiones que tome a partir de éstas. Quizá simplemente deberían obligarse a incluir leyendas de advertencia, y no a la reducción o verificación exhaustiva de los contenidos que generan, pues ésta disminuiría drásticamente los beneficios de la IA.
Eleconomista