Rogelio Velasco
Migraciones
Palma/Ignasi Belda, director de la Agencia Española de Supervisión de la Inteligencia Artificial (Aesia), ha remarcado este viernes que la prioridad de su organismo y del reglamento europeo aprobado en agosto de 2024 es la protección del consumidor ante posibles abusos.
Belda ha explicado en una conferencia en Palma que el organismo que dirige comenzó el pasado mes de febrero a vigilar los usos prohibidos de la IA por parte de empresas e instituciones públicas y, aunque ha eludido comentar resultados concretos, sí ha asegurado que la Aesia trabaja "a un ritmo trepidante".
En una charla con profesionales organizada por el Instituto de Inteligencia Artificial de las Islas Baleares, el experto ha puesto el acento en que la regulación de la IA no representa un freno a la innovación, ya que la normativa europea veta las prácticas que atentan contra derechos fundamentales pero no limita las investigaciones de empresas y universidades.
Belda ha apuntado que la regulación europea de la IA, una tecnología revolucionaria que "va a cambiar sustancialmente todos los oficios", clasifica las aplicaciones en cuatro categorías en función de su riesgo.
La primera, la de las aplicaciones prohibidas, contempla aquellas dedicadas a la manipulación subliminal, la explotación de vulnerabilidades de colectivos frágiles como los menores y el reconocimiento de emociones en centros de trabajo y educativos, entre otros usos.
Asimismo, se prohíben herramientas que parecían de ciencia ficción hace muy poco tiempo y ya son reales, como las de reconocimiento biométrico en espacios públicos en tiempo real o de acción policial predictiva, para actuar contra personas en función de su potencial delictivo, ha explicado Belda.
El segundo escalón es el de las aplicaciones de alto riesgo, con posible incidencia en derechos fundamentales como la protección de la salud, la privacidad o la seguridad, que pueden desarrollarse y aplicarse pero siempre sometidas a un control especial.
Belda ha apuntado que las empresas e instituciones que las utilicen deben aplicar condiciones de transparencia, sesgo, trazabilidad y respeto a la propiedad intelectual, entre otras.
El reglamento, que establece la autocertificación por parte de las entidades que actúen en este ámbito, prevé la creación de un registro europeo de aplicaciones de alto riesgo.
Las aplicaciones de riesgo medio son aquellas que solo requieren que se informe a los usuarios de que están en relación con un sistema de IA, como los chatbots o las imágenes deepfake, y las de bajo riesgo son las que no están sujetas a supervisión, ha detallado.
El reglamento de la UE prevé una introducción escalonada con hitos como la vigilancia de las aplicaciones prohibidas desde el pasado febrero y la entrada en vigor en agosto de 2026 de forma generalizada en los países miembros del registro de alto riesgo.
El Consejo de Ministros de esta semana tramitó el anteproyecto de ley que contempla el régimen sancionador español, una normativa con finalidad "disuasoria, no recaudatoria", ha recalcado Belda, que entrará en vigor el próximo agosto.
En el debate posterior a la exposición del director de la Aesia se han planteado cuestiones como las recomendaciones publicitarias en respuestas a consultas en aplicaciones como ChatGPT, legales en el marco de la regulación general de la publicidad siempre que no inciten al usuario a "autoinflingurse daño", ha precisado.
En cuanto al debate sobre el uso de contenidos con propiedad intelectual para desarrollar aplicaciones de IA, Belda ha apuntado que, en su opinión, tanto autores como empresas tienen razones para defender sus intereses. "Como sociedad, tenemos que tomar una decisión", ha dicho.
También te puede interesar
Lo último
Entrevista | Carola Hermoso, directora general de Unesid
"China invade el mercado europeo del acero con productos a precios de derribo y socava nuestra competitividad"Rogelio Velasco
Migraciones
No hay comentarios