Ciencia

Microsoft, Google y OpenAI se juntan para regular la inteligencia artificial

“The Frontier Model Forum” reúne a las compañías que desarrollan los modelos de IA más avanzados en la actualidad

Cuatro compañías dedicadas al desarrollo de inteligencia artificial como Microsoft, Google, OpenAI y Anthropic, crearon una organización que estará encargada de velar por la regulación de los avances de esta tecnología y la seguridad de los usuarios.

El grupo, que tiene como nombre “The Frontier Model Forum”, se dedicará a intercambiar sus experiencias con la inteligencia artificial “para beneficiar a todo el ecosistema de IA”, como la creación de evaluaciones técnicas y una biblioteca pública de soluciones para recopilar las mejores prácticas y estándares”.

En el comunicado emitido por OpenAI donde se anuncia la creación de esta organización, “las compañías que crean modelos de inteligencia artificial tienen la responsabilidad de asegurar que es segura y que se mantiene bajo el control humano”.

Según Brad Smith, presidente de Microsoft, “esta iniciativa es vital para que todo el sector tecnológico se acerque al desarrollo responsable de la IA y enfrente los desafíos de forma que beneficie a la humanidad”.

Como parte de sus responsabilidades, los miembros han asumido el rol de líderes para fomentar el avance en el desarrollo de los modelos de inteligencia artificial de tal forma que sea utilizada de forma positiva por los ciudadanos en aspectos clave como la mitigación de los efectos del cambio climático y la detección temprana del cáncer.

En ese sentido, Anna Makanju, vicepresidenta de asuntos globales de OpenAI, indicó que la inteligencia artificial tiene el potencial de beneficiar a toda la humanidad, por lo que es necesario que las empresas que tienen los modelos más avanzados tengan un lugar común en el que puedan impulsar la creacion de herramientas que sean útiles para la mayor cantidad de personas posible.

Lógicamente, las compañías fundadoras de “The Frontier Model Forum” no cierran las puertas a que otras organizaciones (como Apple, que estaría trabajando en su propia versión de ChatGPT), puedan integrarse como miembros activos de la organización. Sin embargo, para que esto sea posible deberán cumplir con ciertos criterios.

Te puede interesar: El CEO de Google, Sundar Pichai, afirmó que la Inteligencia Artificial es uno de los cambios más profundos de la historia: “Afectará todo”

El foro indica que cualquier empresa que quiera ser integrante primero deberá desarrollar y lanzar al mercado un “modelo frontier” al que definen como una inteligencia artificial que excede las capacidades actuales de la mayoría de IA disponibles y que pueden cumplir con gran variedad de tareas.

Además se incluye dentro de los requisitos que este eventual postulante al Foro esté comprometido a la seguridad de su modelo desde puntos de vista técnicos e institucionales.

Es decir que deberá demostrar que tiene un interés genuino en promover y poner en práctica actividades que mejoren la seguridad de los usuarios al momento de usar su inteligencia artificial.

La creación de esta organización se alínea con la idea que propuso en su momento el CEO de OpenAI, Sam Altman, quien se pronunció en muchas oportunidades a favor de la regulación de los modelos de inteligencia artificial para evitar que se caiga en abusos y asegurar que esta tecnología se mantenga bajo control.

De igual forma, el Foro también estará en posición de acercarse a legisladores para promover su experiencia y mejorar las propuestas de leyes regulatorias en diferentes territorios alrededor del mundo.