Un año de inteligencia artificial: bienvenidos a las primeras leyes de la robótica
Doce meses después de que eclosionaran los sistemas de IA, la UE desarrolla la primera normativa al respecto
La Ley de Inteligencia Artificial marca como prácticas de riesgo inadmisible cuestiones la puntuación social, el control de emociones en el trabajo o el control policial predictivo
Cómo evitar que Meta use tu contenido de Facebook e Instagram en sus programas de IA
Un año después de que hicieran acto de aparición ante el común de los mortales, los sistemas de Inteligencia Artificial han crecido en gracia y sabiduría –bueno, hasta cierto punto: ChatGPT te incluye tiradas de tarot–. Los hemos metido en casa. Nos sirven de base para solventar cuestiones administrativas básicas, como redactar un contrato de alquiler. Nos aconsejan qué visitar. Editoriales de peso no han tenido empacho en publicar portadas generadas por IA. Nos hemos comido deepfakes como el del Papa vestido de Balenciaga. Hemos hecho boleros con Pedro Sánchez enamorado.
Si el anterior modelo de Chat GPT no estaba conectado al flujo de internet, ahora mismo los modelos de IA generativa se lo están bebiendo todo –Meta ya ha avisado que tragará fuerte y flojo con nuestro contenido en sus redes a partir del 26 de junio–.Meta ya ha avisado que tragará fuerte y flojo con nuestro contenido en sus redes a partir del 26 de junio–.
Más allá de las risas, en este tiempo, los modelos de IA han mejorado: cometen menos errores. Aún no han llegado, sin embargo, al momento EMI: a mediados de los 90, el programa Experimentos en Inteligencia Musical se hizo famoso por crear obras al estilo de Bach y Chopin. Cuando se compararon dos piezas ante profesores de música para distinguir cuál era la escrita por el músico, la mayoría se equivocó. Para Mario Crespo, profesor en la UCA y miembro del Instituto de Lingüística Aplicada (ILA), aún queda bastante para que un robot de generación de textos consiga hacer eso con un texto literario. De hecho, ese fue uno de los ejercicios que realizaron los asistentes a las jornadas sobre Inteligencia Artificial en la Lingüística y las Humanidades celebradas en la Universidad de Cádiz: “Los sistemas aún fallan en cuestiones básicas del lenguaje, como los mecanismos de coherencia y cohesión –asegura–. Ahora mismo, se encuentran en un momento en el que están aprendiendo a construir frases cada vez más largas y elaboradas”.
También es cierto que no hablamos de un texto plano o descriptivo: para crearlo y comprenderlo necesitas contexto, entrelíneas, metalenguaje, sentido de la metáfora y de la musicalidad, conocimiento profundo de los signos y referentes en el comportamiento humano. No es fácil ser humano.
¿Sabrán pulsar nuestro Ctrl+Alt+Supr emocional, nuestras teclas de reinicio, saber cómo asustarnos, cómo hacernos llorar, cómo provocarnos la risa? La risa es –Guillermo de Baskerville sonríe– lo que más les cuesta, aunque están en ello. No sabemos si conseguirán darnos en la línea de flotación pero desde luego, eso es lo que están intentando: si hace falta la voz de Scarlett Johansson, metemos a Scarlett Johansson –aunque luego OpenAI OpenAIhaya tenido que retirar a uno de sus nuevos asistentes, con cadencia parecida-casi idéntica a la de la actriz, para pasmo de ella misma–
Dos de los gigantes de las nuevas tecnologías presentaron estos días sus nuevos juguetes de inteligencia artificial. OpenAI dio a conocer GPT4o, la gran Thermomix: deglute todo lo que le eches. Interactúa con texto, audio e imágenes y da predominio a la voz como gran conductora. Casi al mismo tiempo, Google presentó Google Veo, un paquete con diversas mejoras que incluye creación de vídeo e IA generativa de texto a imagen, y un buscador con nuevos modos.
Toda esta revolución empieza a hacer que asomen, también, nuevos espacios laborales. Si trabaja en algo relacionado con la creación y edición de texto es raro que no le haya llegado alguna oferta de “entrenador” de sistemas generación de texto. “Lo sé por los estudiantes, aunque no les pagan mucho –comenta Mario Crespo–. Aquí entra otro tema, que es el de la ética que rodea todos estos sistemas. Y deberíamos empezar a tratarlo ya, porque nos está afectando y va a ir muy rápido”.
¿Ha cambiado sustancialmente la introducción de la IA dinámicas en el ámbito académico, por ejemplo, la elaboración de trabajos? “Pues todavía no hay unas líneas a nivel oficial, e incluso entre el alumnado no va a la velocidad que creí que iría, pero claramente hemos de cambiar las cosas respecto a control y métodos de entrega”, afirma. Gran parte de los profesionales indica , lo ven como algo de lo que todavía pueden escapar: “En parte, organizar estas jornadas fue para quitar el miedo, las reticencias o la indiferencia a este tipo de modelos: muchos aún piensan que no tiene nada que ver con ellos -desarrolla-. Nosotros hemos tratado aplicaciones que tienen que ve con lo lingüístico, o un bot específico para la docencia, que habla contigo y te soluciona dudas. Es un área de trabajo que incluye a informáticos pero que ha de incluir necesariamente a especialistas de otras materias, que abre un amplio abanico de colaboración. Hay compañeros en Historia que utilizan sistemas de IA para hacer reconstrucciones de yacimientos, por ejemplo: es una de esas tareas que ahorra muchísimo tiempo”.
El matemático Jesús Medina, uno de los expertos en Inteligencia Artificial de la UCA, sigue siendo, a un año vista, escéptico respecto al borrado de los humanos: no tiene, de hecho, aplicaciones de sistemas de IA en su móvil. Como Crespo, piensa que los nuevos sistemas, aplicados a los desempeños actuales, no harán más que llamar a la excelencia, quitando la labor mentalmente tediosa de en medio. Para automatismos ya estarán las máquinas.
A pesar del famoso 10/90 que rige a la ingeniería –en el 10%del tiempo de un proyecto, se crea el 90% de ese proyecto; el 90% del tiempo restante se emplea el terminar el 10% del proyecto– no cree que la inercia en la que están sumidos los modelos de inteligencia artificial vaya a cambiar o detenerse: lo que llamamos IA está aquí para quedarse, e irá creciendo.
Melanie Mitchell, autora de Inteligencia Artificial (Capitán Swing)Melanie Mitchell, Inteligencia Artificial es también cauta respecto a los estragos de estos sistemas: “Los humanos tendemos a sobrevalorar los avances de la IA y a subestimar el alcance de nuestra propia inteligencia”, y cita a otro investigador de estas nuevas tecnologías, Pedro Domingos, para apuntar que nuestro problema no es que las máquinas sean muy listas, sino que son “demasiado estúpidas y ya se han apoderado del mundo”.
LEY DE INTELIGENCIA ARTIFICIAL
Aun así, la bola de nieve avanza con pinta de alud. Por eso, el Consejo de la UE acaba de aprobar la AI Act, la nueva Ley de Inteligencia Artificial que convierte a los europeos en pioneros a la hora de legislar esta nueva realidad. El texto cuenta con dos años para aplicarse, aunque algún punto pueda llegar a desarrollarse en un plazo de seis meses.
En total, en torno al 85% de los sistemas de IA no se han considerado lo suficientemente relevantes como para quedar bajo este paraguas. La normativa ha querido evitar la regulación desde el caso o lo particular: “Es siempre una decisión difícil para el legislador. Podríamos esperar a ver cómo evoluciona y poner algunos cotos, pero quizá entonces sea demasiado tarde”, comenta al respecto Miquel Peguera, catedrático de Estudios de Derecho y Ciencia Política de la UOC. Por eso se ha optado, al final, por desarrollar una normativa generalista, “aunque también sea un riesgo empezar a regular sabiendo muy poco de cómo puede evolucionar todo esto, o cómo va a afectar a nuestro futuro”.
Todo va demasiado rápido, es cierto, pero precisamente por eso lo que no se quería era continuar en el vacío. “Se sabe que hay ámbitos en los que podría haber más riegos potenciales, y es ahí donde se ha querido incidir: por ejemplo, en el espacio laboral (selección de personal, asignación de una persona a un puesto, y otros cambios). También en cuestiones como control de fronteras y peticiones de asilo, así como temas que puedan afectar al desarrollo de los procesos electorales, etc. En todos esos sistemas que se consideren de riesgo alto, se exigirán una serie de requisitos y obligaciones”.
La norma afectará también a aquellos proveedores fuera de la UE si sus sistemas se usan en territorio europeo, independientemente de donde tengan sus servidores: “Si un proveedor estadounidense, por ejemplo, quiere comercializar en Europa, no podrá hacerlo si no cumple con la normativa, y no podrá usar el marcado CE de Conformidad Europea”.
La sanciones que plantea imponer la UE son muy altas, “porque lo que se cuantifica a nivel europeo es el importe máximo: luego serán los distintos estados los encargados de desarrollar los criterios y el modo de regular el sistema de sanciones”, añade Peguera.
Dentro de los supuestos que hacen referencia a los sistemas diseñados para interactuar con personas físicas, se especifica que el proveedor tiene que haberlo diseñado de tal modo que resulte claro para el usuario que es un sistema el que está interactuando. En la generación de contenidos de texto, audio o vídeo, ha de haber un marcaje detectable de que su generación a sido por IA: “Luego, si la publico en mi periódico, la duda está en si mi intención es engañar a la gente o no, pero me enfrento a posibles sanciones respecto a algo que podríamos llamar ultrasuplantación, o ultrafalsificación: ahí también hay que informar de qué contenido ha sido generado o manipulado por IA”, indica Miquel Peguera. Bienvenidos a las primeras leyes de la robótica.
Hay zonas grises, desde luego. La normativa especifica que no se pueden emplear sistemas de IA en aquellos colectivos considerados vulnerables, “que puedan tomar decisiones que de otra forma no hubieran tomado” –¿no lo somos la mayoría?–.
EL IMPOSIBLE DE LOS DERECHOS DE AUTOR
Y está la jugosa cuestión de los derechos de autor, que protagoniza gran parte de las demandas que se están moviendo en este terreno –entre ellas, la puesta en marcha a finales del año pasado por The New York Times contra OpenAIy Microsoft–.
Claro, ¿quién tiene derechos en un dibujo generado por IA? “En principio no habría propiedad intelectual, pero lo que la máquina te ofrece es fruto de la creación de un ser humano. La parte del león –apunta Peguera– está en los datos que los modelos usan para su entrenamiento: están aprendiendo mi estilo, o chupando mi conocimiento, y no me han pagado nada. Uno de los puntos del reglamento en su versión final sí se refiere a los modelos de uso general: los proveedores de los modelos tienen que informar y documentar cómo han respetado los derechos de propiedad intelectual”.
Arena en los dedos:“Hasta ahora, lo que se plantean en Estados Unidos es que lo que hacen los modelos es un fair use, que emplean la información disponible para aprender y entrenarse. Podría considerarse un uso legítimo cuando Google decidió escanear todos los libros del mundo, que se consideró que era fair use porque no hacía un negocio con ello, o un sustituto que pudiera reemplazar al negocio del que vende un libro –desarrolla Peguera–. Pero aquí, en general, lo que vemos es un contenido desmenuzado hasta tal punto que es irreconocible, aunque a veces veamos un calco”.
¿Y si hubiera un juez Unabomber, que decidiera que todo el contenido creado a través de un modelo de IA es ilícito? Pues nada. No pasaría nada:“Cuando la pasta de dientes sale del tubo, no puede volver para adentro”, reconoce Miquel Peguera, recordando el pleito sobre la propiedad intelectual que Sony realizó contra las cintas de vídeo grabables, sosteniendo que se infringían los derechos de propiedad intelectual: “La línea era, haces una copia de mi programa, no me has pagado, hay que retirar todos los aparatos del mercado. En ese caso –refiere–, el Supremo estadounidense buscó una salida precisamente por la vía del fair use. Yo diría que una medida radical, eliminando todo lo generado a partir de IA, no es que sea difícil, es que es imposible”.
Dentro de las actividades y sistemas que suponen un riesgo inadmisible para la Unión Europea encontramos prácticas que ya se han puesto en marcha en otros lugares, como la puntuación social –¿recuerdan el Nosedive de ‘Blackmirror’?–. También están absolutamente prohibidas prácticas como el reconocimiento de emociones en el lugar de trabajo o en los centros educativos, el aprovechamiento de los puntos vulnerables de las personas o la categorización biométrica, es decir, deducir o inferir la raza de una persona, opiniones políticas, afiliación sindical, creencias u orientación sexual; aunque seguirá siendo posible filtrar conjuntos de datos basados en datos biométricos, bajo ciertas excepciones, en el ámbito policial. Queda completamente fuera la cuestión de la actuación policial predictiva individual, a lo Minority Report.
Todo esto lo he escrito y aún no me creo que estemos aquí.
También te puede interesar