para controlarla

Las grandes potencias crearán un "código de conducta" para la Inteligencia Artificial

La Unión Europea y los Estados Unidos se empiezan a mover más en firme para regular los desarrollos en torno a la inteligencia artificial.

La Unión Europea y los Estados Unidos mueven las fichas para tratar de mostrar capacidad de reacción frente a los desarrollos en torno a la inteligencia artificial (IA). Luego de la última reunión del Consejo transatlántico sobre Comercio y Tecnología, celebrada en la ciudad de Lulea, Suecia, el secretario de Estado de EE.UU., Antony Blinken, adelantó que en las próximas semanas se dará a conocer un "código de conducta" voluntario dirigido a las empresas desarrolladoras de la IA.

En tanto, la vicepresidenta de la Comisión Europea, Margrethe Vestager, agregó que próximamente se presentará un borrador porque “creemos que es realmente importante que los ciudadanos puedan ver que las democracias pueden cumplir”.

Esta novedad aparece en medio de las fuertes advertencias de parte de los propios referentes del sector de la IA sobre el impacto en términos de destrucción de empleos y desinformación que puede tener un desarrollo no controlado de estas tecnologías.

"Como pasa con otras tecnologías, ya estamos viendo cuestiones asociadas con la privacidad de los datos, mala utilización y desinformación. Pero a diferencia de las otras tecnologías, el ritmo de innovación es mucho más vertiginoso", advirtió Gina Raimondo, secretaria de Estado de Comercio de EE.UU.

Rezagados

La UE viene trabajando en una regulación de fondo de la IA. La idea es catalogar a los desarrollos en torno a la IA en cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo. Los sistemas de IA con un nivel de riesgo inaceptable estarán prohibidos. Esa lista incluiría a las técnicas manipulativas, usos intrusivos y discriminatorios y el social scoring, es decir clasificar a las personas basándose en su comportamiento social, su estatus socioeconómico y sus características personales.

En tanto, a medida que los niveles de riesgo son más bajos, la rigurosidad del control estatal se va moderando. Se trata de la iniciativa más sólida en términos regulatorios. Sin embargo, los tiempos son largos y se calcula que recién entraría en vigor luego de 2025.

Como ha sucedido reiteradas veces a lo largo del capitalismo, la capacidad regulatoria queda rezagada frente a la vorágine de innovación que realizan las empresas para incrementar las ganancias. En este caso, se llega al extremo que los desarrollos se mueven tan rápido que da la sensación de que ni siquiera son comprendidos cabalmente por la sociedad civil en general y los reguladores en particular.

"Casi siempre hay una brecha cuando surgen nuevas tecnologías y el tiempo que les toma a los gobiernos e instituciones descubrir cómo legislar o regular. Ahora hay una feroz urgencia de actuar y estas acciones van en ese sentido", dijo Blinken. El funcionario de la administración Biden también a pidió "nuestros amigos en Canadá, Reino Unido, Japón e India" que adopten el próximo marco de conducta.

"Hay muchas cosas por hacer. Pero debemos mostrar que la democracia es rápida, porque los procedimientos legislativos necesitan tomarse su tiempo, siempre ha sido así su funcionamiento. Este es un modo de ofrecer una respuesta en tiempo real", agregó Vestager.

Código de conducta

La idea con esta herramienta es "cerrar el puente" hasta que aparezcan legislaciones más robustas. Si bien se tratará de un programa voluntario, en la medida en que las propias empresas más grandes del sector manifestaron su preocupación por el tema, se espera que rápidamente adopten las recomendaciones.

Todavía no hay precisiones sobre qué cuestiones regulatorias abarcará el Código acordado por Europa y EE.UU., aunque en el curso del debate del Consejo transatlántico aparecieron varias pistas.

Un eje del Código pasaría por evitar la desinformación generada por la IA, en particular las fakenews de cara a los procesos electorales, otro es la transparencia en la generación de datos, en particular apuntar a que los usuarios sepan con certeza cuánto se están comunicando con una IA y en lugar de hacerlo con una persona. También se espera algún lineamiento sobre las auditorías externas, el monitoreo y evitar las barreras al ingreso de pequeñas y medianas empresas.

Otros de los grandes temas asociados a los riesgos de la IA, que no está claro que ingresen en esta primera movida regulatoria, es la cyberseguridad y el control sobre la manipulación biológica.

Por el contrario, las potencias de Occidente consideran que las áreas en donde se concentran los beneficios de la IA son las siguientes: predicción de eventos climáticos extremos, mejoras en salud y medicina, optimización de la red de distribución energética y en la agricultura.