Buscar
Cerrar este cuadro de búsqueda.
Suscríbete a nuestra Newsletter

18 naciones se unen para la regulación de la IA

IA
Presentarán medidas para garantizar la robustez y la integridad de estos sistemas en un entorno cada vez más dependiente de la IA.

Directrices para la seguridad en IA

Un consorcio de 18 naciones, incluyendo Estados Unidos, Reino Unido y Australia, ha presentado directrices internacionales destinadas a salvaguardar los sistemas de inteligencia artificial (IA) ante posibles manipulaciones, abogando por la implementación de un enfoque de «seguridad inherente» en los modelos.

El 26 de noviembre, se difundió un extenso documento de 20 páginas por parte de estos países, delineando las medidas que las empresas de IA deben adoptar para gestionar la ciberseguridad al crear o emplear modelos de IA. Estos países destacaron que, en la industria de avance acelerado, la seguridad suele quedar en segundo plano, subrayando así la necesidad apremiante de priorizarla.

Las directrices buscan abordar las brechas existentes en la consideración de la seguridad en el desarrollo y uso de la IA, enfatizando la importancia de medidas proactivas para garantizar la robustez y la integridad de estos sistemas en un entorno cada vez más conectado y dependiente de la IA.

Las pautas presentadas se centraron principalmente en consejos generales para garantizar la seguridad de los modelos de IA. Estos consejos incluyen la implementación de un estricto control sobre la infraestructura de estos modelos, la vigilancia continua de cualquier manipulación tanto antes como después de su implementación, así como la capacitación del personal en la identificación y manejo de riesgos relacionados con la ciberseguridad.

Enfoque prioritario en la seguridad

Sin embargo, vale la pena señalar que estas directrices no abordaron ciertos temas polémicos y desafiantes dentro del ámbito de la inteligencia artificial. Entre estos temas se encuentran la falta de menciones sobre el control de modelos que generan imágenes y la problemática asociada con los deep fakes. Tampoco se profundizó en los métodos de recolección de datos y su utilización en el entrenamiento de los modelos, un aspecto que ha desencadenado demandas legales contra varias empresas de IA por presuntas infracciones de derechos de autor.

«Estamos en un momento crítico en el avance de la inteligencia artificial, una tecnología que podría ser considerada como una de las más significativas de nuestra era», afirmó Alejandro Mayorkas, Secretario de Seguridad Nacional de los Estados Unidos, en un comunicado oficial. Mayorkas resaltó la importancia crucial de la ciberseguridad en la edificación de sistemas de IA que sean seguros, robustos y confiables para su implementación efectiva y ética.

Estas directrices se suman a una serie de iniciativas gubernamentales que han puesto el foco en la IA. Una de ellas fue la reunión llevada a cabo recientemente en Londres, donde gobiernos y empresas especializadas en IA se congregaron en un Encuentro sobre Seguridad en IA. El objetivo fue establecer un acuerdo conjunto para coordinar el desarrollo de esta tecnología.

Desafíos pendientes y áreas no abordadas

En paralelo, la Unión Europea se encuentra en la fase final de la elaboración de su marco regulatorio sobre inteligencia artificial, mientras que el presidente de los Estados Unidos, Joe Biden, promulgó una orden ejecutiva en octubre estableciendo parámetros para la seguridad y la ciberseguridad en el ámbito de la IA. Sin embargo, ambas iniciativas han generado resistencia por parte de la industria de la inteligencia artificial, que argumenta que podrían obstaculizar la innovación en este campo.

Entre los países que se han unido a las nuevas directrices orientadas a la seguridad en el diseño de la IA se encuentran Canadá, Francia, Alemania, Israel, Italia, Japón, Nueva Zelanda, Nigeria, Noruega, Corea del Sur y Singapur. Además, empresas líderes en IA, como OpenAI, Microsoft, Google, Anthropic y Scale AI, también han colaborado activamente en la elaboración de estas directrices.

El surgimiento de estos enfoques regulatorios y la participación de diversas naciones y empresas muestran una creciente preocupación global por establecer estándares y salvaguardias para garantizar un desarrollo ético y seguro de la inteligencia artificial en beneficio de la sociedad y la innovación responsable.

Puedes seguir toda la actualidad diaria en nuestra sección de noticias.

En esta noticia se habla de: