Ciencia

Inteligencia artificial: un "riesgo de extinción para la humanidad

Expertos del sector tecnológico, entre ellos el creador del ChatGPT Sam Altman, publicó una carta para advertir sobre el "riesgo de extinción" que supone la inteligencia artificial.

"Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear", señalaron los especialistas en el texto publicado en la web safe.ai.

El comunicado fue firmado por decenas de expertos, entre ellos Martín Hellman, Profesor Emérito de Ingeniería Eléctrica de la Universidad de Stanford; Lila Ibrahim, directora de operaciones de Google DeepMind; y Marian Rogers Croak, vicepresidenta del Centro de IA Responsable y Tecnología Centrada en el Ser Humano de Google.

La carta también fue rubricada por el dueño de la empresa OpenAI que creó el robot conversacional ChatGPT, que a finales del año pasado generó un gran revuelo a nivel internacional por su capacidad para realizar tareas complejas como crear obras de arte, ensayos académicos o mantener un diálogo con un ser humano sobre cualquier tema.

El sitio web donde se publicó el comuinicado destaca que expertos, periodistas, legisladores y la sociedad en general "están discutiendo cada vez más un amplio espectro de riesgos importantes y urgentes de la IA" y que la carta "tiene como objetivo superar los obstáculos y abrir la discusión".

El documento difundido este martes tiene lugar días después de que Altman advirtiera sobre una posible salida de ChatGPT de Europa si la compañía no puede cumplir con la legislación europea sobre inteligencia artificial que se está negociando en los países de esa región.

Dos meses atrás, otras figuras del sector tecnológico, entre ellas el multimillonario y dueño de Tesla, Elon Musk, firmaron otra carta pública en la que pedían "una pausa" en el desarrollo de la IA hasta poder garantizar su total seguridad.