¿nueva era de la Ilustración?
El historiador Harari y el investigar de Meta debatieron sobre IA y no se pusieron de acuerdo
El prestigioso historiador y el Jefe máximo de Meta analizaron los peligros de las nuevas tecnologías, los trastornos en el mercado laboral y el futuro de las nuevas generaciones.
Se podría decir: Yann LeCun vs. Yuval Noah Harari. Uno es investigador, el otro historiador. El primero no ve motivos para alarmarse por la aparición de la inteligencia artificial mientras que el segundo teme que conduzca al colapso de nuestra civilización.
Harari firmó la carta abierta lanzada por el think tank The Future of Life, junto a cerca de 30.000 pensadores, pidiendo una pausa de seis meses en el desarrollo de herramientas más potentes que GPT-4, el modelo de lenguaje que aceleró la adopción de ChatGPT en un tiempo récord, mientras que LeCun calificó de ridículo tanto alarmismo.
La revista francesa Le Point les propuso un debate por videoconferencia. Uno desde Nueva York y el otro desde Jerusalén, argumentaron sus puntos de vista sobre las promesas, los peligros y el futuro de la IA.
Le Point rompió el hielo con una pregunta básica: ¿cuál es su definición de inteligencia?
Para Yann LeCun, la inteligencia significa ser capaz de percibir una situación, planificar una respuesta y actuar para alcanzar un objetivo, es decir, ser capaz de perseguir una situación y planificar una secuencia de acciones.
Y para Yuval Noah Harari, la inteligencia es la capacidad de resolver problemas. Desde los organismos unicelulares que buscan alimento hasta los humanos que descubren cómo volar a la Luna, eso es inteligencia. “No es lo mismo que la conciencia. En los humanos, se mezclan. La conciencia es la capacidad de sentir cosas, dolor, placer, amor, odio. Nosotros, los humanos, a veces utilizamos la conciencia para resolver problemas, pero no es un ingrediente esencial. Muchos organismos resuelven problemas sin tener conciencia, como las plantas y los microorganismos. Las máquinas también pueden ser inteligentes y resolver problemas sin tener sentimientos”, detalló.
“Todavía no, pero ocurrirá”, interrumpió LeCun y comenzó el verdadero debate.
El jefe de IA de Meta detalló que es muy difícil predecir cuánto tardará. “Pero no me cabe duda de que tendremos máquinas al menos tan inteligentes como los humanos. Y si tienen la capacidad de planificar y fijar objetivos, también tendrán el equivalente de los sentimientos, porque muy a menudo las emociones no son más que una anticipación de los resultados”, adelantó.
Y detalló: “Como humanos, si anticipamos que una situación puede ser peligrosa, sentimos miedo, lo que nos motiva a explorar distintas opciones para escapar de la situación de peligro. Si las máquinas pueden hacer esto, tendrán emociones. Pero aún estamos muy lejos de la posibilidad de que una máquina adquiera consciencia…”
Harari reaccionó rápidamente: “Es posible, pero no inevitable”.
Explicó que en la evolución de los humanos, así como de los mamíferos y las aves, la conciencia y la inteligencia han ido de la mano, resolvemos problemas teniendo sentimientos. Pero podría haber otras rutas para la evolución de la inteligencia, en las que se tuviera un tipo diferente de inteligencia, que podría ser superior a la inteligencia humana y aún así no implicar ningún sentimiento en absoluto. Ya es el caso en áreas limitadas como el ajedrez o el Go.” No creo que nadie piense realmente que AlphaGo se alegra cuando gana la partida, y sin embargo es más inteligente que los humanos en este campo tan limitado. Podría darse el caso, incluso con la inteligencia artificial general, de que nos superara con creces en inteligencia y aun así no sintiera ningún tipo de emoción”.
“Pero si queremos que los sistemas tengan cierto nivel de autonomía y funcionen intentando satisfacer un objetivo, entonces esos sistemas probablemente tendrán el equivalente de las emociones, porque entonces tendrán que ser capaces de predecir con antelación cuál va a ser el resultado de una determinada secuencia de acciones”, se diferenció Le Cun.
“¿El ChatGPT es peligroso para nuestra democracia y nuestras creencias?”, interpeló a ambos Le Poit.
“No creo que sea peligroso por el momento, pero la razón por la que podría serlo es que está cerrado, por lo que la gente no puede entenderlo y los investigadores no pueden investigarlo. En mi opinión, la manera de avanzar con los grandes modelos lingüísticos es hacerlos abiertos. Y hoy en día se ven varios esfuerzos en todo el mundo para producir pruebas que sean de código abierto”, afirmó el investigador de Meta.
Optimista, invitó a Hariri a unirse a su club: “La gente no debería sentirse amenazada. De la misma manera que tu coche es más potente que tú, imagina un futuro en el que todo el mundo tenga a su disposición un equipo de máquinas inteligentes que les haga más eficientes, productivos o creativos. Por eso creo que traerá un nuevo Renacimiento, básicamente una nueva Ilustración”.
Sin embargo, advirtió que, se necesita una regulación que garantice que los productos que se despliegan en la sociedad tienen un efecto positivo. “Lo mismo que ocurre con cualquier tecnología”.
El historiador israelí fue lapidario: “¿La cuestión es en manos de quién está? Podría ser potencialmente maravilloso, pero en las manos equivocadas podría destruir la democracia”.
Harari explicó que la democracia es una conversación entre personas, y si la conversación entre personas es pirateada o secuestrada, algo que la IA es ahora plenamente capaz de hacer, eso destruiría los cimientos del sistema democrático. “Imagina que estás hablando con alguien online y no sabes si es un ser humano o un bot de IA. Y al igual que con las redes sociales hace diez años vimos una carrera armamentista por la atención, ahora podemos ver una carrera armamentista por la intimidad, y la intimidad es mucho más poderosa que la atención”, alertó.
“Tenemos que protegernos de estos peligros, porque lo que hemos visto antes con los algoritmos de recomendación no es nada comparado con el poder de estas IA para cambiar la opinión de la gente sobre cualquier cosa, desde qué productos comprar hasta a qué político votar”, insistió.
LeCun, una vez más, intentó alejar el análisis del pesimismo. “Creo que la analogía correcta de ese mundo es Wikipedia. La gente confía en Wikipedia. Hay una gran cantidad de trabajo editorial que se dedica a tratar de mantener esas opiniones bajo control. Así que hay una manera de hacerlo éticamente, y lo que acabamos teniendo es algo como Wikipedia, que fue inventada por millones de personas. Y lo que eso significa es que los sistemas de IA del futuro básicamente tendrán que ser creados por miles de millones de personas trabajando juntas”.
El jefe de inteligencia artificial de Meta volvió a remarcar que la seguridad de la IA radicará en que la tecnología no sea propiedad de una sola empresa.
El moderador recordó que los sistemas actuales tienen un alto porcentaje de alucinación…
“En efecto -aceptó Le Cun- los sistemas actuales son muy poco fiables. Son muy buenos como asistentes de escritura, pero no como fuentes fiables de información”. Pero afirmó que lo que va a ocurrir en los próximos años es que el diseño básico del sistema va a cambiar para crear sistemas que sean más directamente dirigibles, controlables y factuales, si es necesario. Así que, con el tiempo, agregó, esos sistemas serán más fiables que cualquier otro método de búsqueda de información. “Y va a ser un poco como la conducción autónoma y la asistencia a la conducción. Actualmente, puedes tener sistemas de asistencia a la conducción para tu coche. Son algo fiables en la autopista, pero no en todas partes, y se supone que tienes que mantener las manos en el volante en todo momento”.
Pero Harari advirtió que la IA es la primera herramienta que potencialmente puede sustituirnos en la toma de decisiones. “Y aquí el peligro es sustancial porque es probable que cometamos errores. Y podría tratarse de un error a un nivel tal que no tengamos tiempo de aprender de él”. El historiador recordó que en el siglo XX, los humanos cometimos algunos errores terribles, terribles experimentos fallidos sobre cómo construir sociedades industriales. “El nazismo y el comunismo fueron experimentos fallidos. Las dos guerras mundiales fueron errores terribles. Después de destruir las vidas de cientos de millones de personas, aprendimos de estos errores y, finalmente, aprendimos a construir mejores sociedades industriales. Pero con la nueva tecnología del siglo XXI, si volvemos a cometer esos errores, por ejemplo construyendo un régimen totalitario basado en la IA, o iniciando la Tercera Guerra Mundial, quizá no haya vuelta atrás”, advirtió.
El israelí remarcó que la tecnología del siglo XXI es mucho más poderosa: “Si cometemos el mismo tipo de errores con la tecnología actual, hay muchas posibilidades de que no sobrevivamos para aprender de esos errores”.
LeCun respondió que lo mismo podría decirse de todas las revoluciones tecnológicas de la historia. “La imprenta destruyó la sociedad en Europa a principios del siglo XVI con las divisiones religiosas, pero también trajo la Ilustración, el racionalismo, la ciencia, la filosofía y la democracia”.
El argumento no convenció a Harari… “La imprenta impulsó la Ilustración, pero también el imperialismo europeo y las guerras de religión. Sin embargo, no era lo bastante poderosa como para destruir totalmente a la humanidad. La IA es lo bastante poderosa. Si hay otra ronda de guerras religiosas, como entre protestantes y católicos en la Francia del siglo XVI, pero con inteligencia artificial y bombas nucleares, no creo que la humanidad sobreviva”.
Para el historiador es claro que el peligro radica en que la IA destruya los cimientos de la democracia y lleve a la creación de nuevas dictaduras digitales que podrían ser aún más extremas que la Unión Soviética.
El investigador en jefe de Meta cree todo lo contrario. Para él, la nueva tecnología amplificará la inteligencia humana y permitirá un nuevo renacimiento impulsada por una aceleración del progreso científico, técnico, médico y social gracias a la IA.
“No creo que una ralentización o una pausa en la investigación sea útil porque no creo que eso ponga en pausa ningún peligro”, insistió y sentenció: “La idea de que en el momento en que enciendas el sistema de superinteligencia se va a apoderar del mundo es ridículo”.
Harari, en cambio, asegura que es primordial ralentizarla para que la sociedad pueda identificar los peligros y decidir qué hacer al respecto.
“¿Estamos perdiendo ya el control?”, preguntó el moderador.
“Por ahora, seguimos teniendo el control, pero puede que no lo tengamos en un futuro muy próximo. Desde una perspectiva histórica, la IA es la primera herramienta de la historia que puede tomar decisiones por sí misma. Mucha gente la compara con revoluciones anteriores, como la energía nuclear. Pero no es una bomba atómica. La bomba atómica no podía tomar decisiones sobre cómo utilizarla. La IA puede tomar decisiones sobre cómo utilizarla”, aseguró Harari.
Lecun lo refutó una vez más. “Por el momento, los sistemas de IA requieren enormes recursos para poder ser creados, pero al final pueden ser utilizados por cualquiera. Así que no va a ser como las armas nucleares. Además, la gran diferencia es que la IA está diseñada para hacer a la gente más inteligente o para aumentar la inteligencia humana, mientras que las armas nucleares están diseñadas para matar a la gente”.
Harari no está tan convencido… “¿Diseñamos la IA para hacer a la gente más inteligente o la diseñamos para controlar a la gente? Depende del país”, golpeó.
LeCun recogió el guante, admitió que probablemente algunos países la están diseñando para controlar a la gente pero aseguró que esos países se quedarán inevitablemente rezagados en términos de tecnología, como hizo el Imperio Otomano en el siglo XVII al prohibir el uso de la imprenta. “En la Edad Media, el mundo musulmán dominaba la ciencia. En el siglo XVII, estaban muy atrasados y se quedaron aún más atrás después. Algo así puede ocurrir en China, que se está aislando del ecosistema de la IA. Y si no consiguen que su población tenga acceso a una inteligencia artificial más potente porque les preocupa controlar la inmigración, también se quedarán atrás”, vaticinó.
El futuro del empleo
LeCun detalló que economistas como Erik Brynjolfsson, de Stanford, afirman que las nuevas tecnologías desplazan puestos de trabajo, pero también hacen que la gente sea más productiva, aunque se tarda entre 15 y 20 años en hacer que la gente sea más productiva de forma mensurable. “La cantidad de riqueza producida por hora trabajada aumenta en total”, se entusiasmó. Y adelantó que el desplazamiento de puestos de trabajo también estará limitado por la velocidad a la que la gente puede aprender a utilizar la nueva tecnología. “Así que llevará 10 o 15 años. Va a haber algunos cambios importantes en ciertas áreas de la economía. Algunas personas tendrán que reciclarse. Tendrá que haber planes sociales en los países que sepan hacerlo... No cabe duda de que habrá trastornos. Pero al final, la gente va a ganar más dinero por una cierta cantidad de trabajo o va a trabajar menos por la misma cantidad de dinero”, vaticinó.
El investigador de Meta explicó que aparecerán nuevas profesiones que sustituirán a las antiguas. “¿Quién hubiera pensado hace 20 años que se podía vivir bastante bien produciendo vídeos para YouTube, aplicaciones para móviles o siendo diseñador de páginas web?”, dijo.
Harari identificó como preocupante el proceso de transición. “En la historia, las transiciones son peligrosas. Incluso si a largo plazo habrá suficientes empleos para todos, en los periodos de transición, mucha gente puede sufrir mucho en el ínterin. Volviendo al ejemplo habitual de Alemania, tras la crisis de 1929 sólo hubo 4 años de alto desempleo en Alemania... y tuvimos a Hitler. Así que el tiempo es crucial”.
Consejos para las nuevas generaciones
“Creo que es mejor que nuestros hijos aprendan profesiones creativas que sean artísticas o científicas y que requieran habilidades profundas. Y todo lo que tenga que ver con la experiencia humana intrínseca y la comunicación, porque no es sustituible por máquinas”, recomendó LeCun. “Se puede hacer arte bonito, pero ¿qué se comunica? Estas herramientas van a amplificar la creatividad humana, pero no la van a dejar obsoleta. Sólo facilitarán que un mayor número de personas sean creativas y ejerciten su creatividad”.
Siempre más pesimista, Harari advirtió del peligroso apostar por una habilidad específica: “Es mejor centrarse en aprender a aprender y también en las herramientas psicológicas necesarias para seguir cambiando a lo largo de la vida. El mayor problema será psicológico: cómo seguir cambiando, seguir reinventándose, a medida que el mercado laboral se vuelve cada vez más volátil”.
El debate, de alto nivel, terminó en terminó sin ponerse de acuerdo pero con admirable cordialidad.
“Buena suerte Yann, creo que el futuro de la democracia depende en gran medida de ti y de otras personas del sector. Así que, por favor, sé responsable”, pidió Harari.
“Este ha sido siempre mi principio rector”, prometió LeCun.