Tecnología

¿Necesita la Inteligencia Artificial ser regulada?

Ante el "impacto que van a tener estas tecnologías", la creadora del ChatGPT abrió el dialogo para pensar el rol humano en el asunto.

OpenAI es la empresa que creó a ChatGPT, el famoso chat que responde preguntas sencillas y complejas e incluso se corrige a sí mismo. La directora de Tecnología de la compañía (CTO en inglés), Mira Murati, alzó su voz para abrir el dialogo sobre si esta nueva tecnología debe ser regulada debido a su basta capacidad. 

"Somos un grupo pequeño de personas y necesitamos muchos más aportes a este sistema (hablando de la inteligencia artificial) y muchos más aportes que vayan más allá de las tecnologías. Definitivamente reguladores, gobiernos y más", sostuvo Murati en una entrevista con la revista Time.

La opinión de la CTO alcanzó gran importancia luego de que su empresa mostrara un brillante futuro. OpenAI pasó de ser una pequeña startup privada, con 375 empleados y pocos ingresos, a ser valorada en casi 30 mil millones de dólares. El explosivo uso de su ChatGPT, 100 millones de usuarios en dos meses, y la inversión de 10.000 millones de dólares que Microsoft realizó puso en el mapa a la compañía.

El uso del chat es tal que para poder probarlo hay lista de espera, puesto que los servidores del mismo están constantemente saturados.

Pero la historia no termina en el ChatGPT, Murati también lidera el equipo encargado de DALL-E, otro sistema de OpenAi la cual crea imágenes en base a las indicaciones del usuario. Una herramienta que despierta el repudio de artistas en todo el mundo y que muestra el peligro y potencial de estas inteligencias artificiales.

La revista Time le hizo a Murati una pregunta que le pidió directamente ChatGPT y fue esta: "¿Cuáles fueron algunas de las limitaciones o de los desafíos que encontraste mientras trabajabas con ChatGPT y cómo los superaste?".

"Buena pregunta", respondió ella. "ChatGPT es esencialmente un gran modelo conversacional, una gran red neuronal que ha sido entrenada para predecir la siguiente palabra. Y los desafíos con él son desafíos similares a los que vemos con los modelos básicos de lenguaje más grandes: que pueda inventar hechos".

La tecnóloga explicó que eligieron específicamente el diálogo porque "es una forma de interactuar con un modelo y darle retroalimentación". Por ejemplo, si pensamos que la respuesta del modelo es incorrecta, podemos decir: “¿Estás seguro? De hecho, creo que…” Y luego el modelo va a tener la oportunidad de ir y venir con vos, de forma similar a como conversaríamos con otro ser humano.

Fase actual del ChatGPT y su potencial

La CTO dijo que ChatGPT se encuentra en la etapa de revisión de la investigación, por lo que "no puede hablar con seguridad de qué problemas está resolviendo" ese chat. Lo que sí consideró es en el potencial que tiene de "revolucionar realmente la forma en que aprendemos".

"Las personas están en aulas de, digamos, 30 personas. Todas tienen diferentes contextos de vida, formas de aprender y todas reciben básicamente el mismo plan de estudios. Con herramientas como ChatGPT, se puede conversar continuamente con un modelo para comprender un concepto de una manera que se adapte a su nivel de comprensión. Tiene un inmenso potencial para ayudarnos con la educación personalizada".

El impacto de la inteligencia artificial

Consultada por Time sobre que los peligros que se advierten vinculados con la IA, la especialista consideró que este es un momento único en el tiempo en el que tenemos la perspectiva sobre cómo da forma a la sociedad. Y va en ambos sentidos: la tecnología nos moldea y nosotros la moldeamos.

"Hay muchos problemas difíciles de resolver. ¿Cómo lográs que el modelo haga lo que querés que haga y cómo te aseguras de que esté alineado con la intención humana y, en última instancia, al servicio de la humanidad? También hay un montón de preguntas sobre el impacto social, y hay muchas cuestiones éticas y filosóficas que debemos considerar. Y es importante que traigamos diferentes voces, como filósofos, científicos sociales, artistas y personas de las humanidades".

Sostuvo que la IA puede ser mal utilizada, o puede ser utilizada por malos actores. Entonces, hay preguntas sobre cómo se gobierna el uso de esta tecnología a nivel mundial. "¿Cómo se gobierna el uso de la IA de una manera que esté alineada con los valores humanos?".

Entonces ¿en manos de quién deberían dejarse estas preguntas? ¿Empresas, gobiernos?

La directiva respondió: "Es importante para OpenAI y empresas como la nuestra traer esto a la conciencia pública de una manera controlada y responsable. Pero somos un pequeño grupo de personas y necesitamos muchos más aportes a este sistema y muchos más aportes que vayan más allá de las tecnologías. Definitivamente reguladores, gobiernos y más".

Amplió que "no es demasiado pronto" para que los legisladores y los reguladores se involucren." Es muy importante que todos comiencen a involucrarse, dado el impacto que van a tener estas tecnologías".