Buscar
Cerrar este cuadro de búsqueda.
Suscríbete a nuestra Newsletter
YouTube video

Tertulia Especial INTELIGENCIA ARTIFICIAL

Escuchar podcast

Especial Inteligencia Artificial con Javier Etcheverry, de ActivTrades; a Bruno Marcial, de Covisian y a José Antonio Pinilla, CEO de Asseco Spain.

La Eurocámara ha llegado a un acuerdo provisional sobre una normativa armonizada sobre Inteligencia Artificial. La llaman Ley de Inteligencia Artificial, aunque es un acuerdo previo, un proyecto de reglamento que todavía no es una ley. Este acuerdo es de mínimos, por ahora, y si se aprueba finalmente entrará en vigor en 2026. 

Aquí surge la primera reflexión… Si en menos de un año de vida, el ChatGPT ha cambiado el mundo, ¿qué nos depararán los siguientes dos años? Desde la UE explican que este acuerdo tiene la suficiente flexibilidad para hacer frente a los potenciales cambios de este sector. Es decir, que por mucho que avance la IA, en principio esta normativa podrá hacer frente a esos cambios. 

Inteligencia Artificial regulada desde el miedo

Otro punto que me parece interesante es el del miedo. Os leo el comunicado de prensa que ha colgado en su web la Presidencia Española del Consejo de la UE: “La idea principal es regular la IA basándose en la capacidad de esta última para causar daño a la sociedad siguiendo un enfoque ‘basado en el riesgo’: cuanto mayor sea el riesgo, más estrictas serán las normas”. 

Esta semana estuvo en el programa un experto en IA, llamado Arturo Carrasco que nos contó que el principal escollo de la negociación ha sido el de la biometría. El ejemplo negativo, como en muchísimas cosas, es el de China. En el gigante asiático ya han utilizado la biometría facial para controlar la población y hasta para poner notas de ciudadanía según los principios del régimen. 

Que ya exista esta tecnología, obliga a los países a aclarar en qué ocasiones se puede utilizar. Todos pensamos en casos específicos en los que su uso es razonable. Terrorismo, asesinatos, desapariciones… Pero claro, ¿tenemos que confiar en que un Gobierno cualquiera no lo use con fines políticos, por ejemplo? O para perseguir a ciertas personas o colectivos… (Estas preguntas me recuerdan mucho a las que surgen alrededor de las CBDC…)…

Otro puntazo importante. la innovación. ¿Hasta dónde puede avanzar un sector hiperregulado? Por otro lado, ¿hacia qué peligros puede avanzar un sector de este tipo sin ningún tipo de regulación? ¿Dónde ponemos el límite? También importante, como pasa en el ecosistema cripto, ves países que les viene bien dejar a su aire al sector, otros que lo paralizan… 

Hay mil temas posibles, y de hecho ya me estoy agobiando con el tiempo… El caso es que, en mi opinión, es importante mantener un equilibrio entre el miedo -lógico a veces- y el avance del sector. No hay que perder de vista que existen peligros, pero no hay que ser tan obtusos como para frenar la innovación y no aprovechar todas las oportunidades que puede ofrecer este sector. 

En este podcast se habla de: