Para bien o para mal, la llegada de una superinteligencia autónoma podría ocurrir tarde o temprano. Las consecuencias en nuestra civilización podrían sobrepasar la imaginación...
Es un tema que a menudo irrumpe en primer plano: con los avances de los nuevos modelos de IA como GPT-4 Turbo o Llama 3, ¿nos encontramos al borde de la revolución de la AGI?
La AGI se describe como una inteligencia que no estaría especializada en tarea alguna en concreto. Este término se refiere a sistemas capaces de aprender por sí mismos a ejecutar cualquier tarea que los seres humanos puedan realizar, e incluso superarles en ella. Su inteligencia comprendería cualquier ámbito, eliminando la necesidad de intervención humana previa. ¿Es esto una quimera o una realidad inminente?
Actualmente, el tema de la AGI es tomado muy en serio en las altas esferas. OpenAI lo definía en su carta (2018) como «sistemas altamente autónomos que superan a los humanos en la mayoría de las tareas de valor económico — en beneficio de toda la humanidad». Sin embargo, el CEO de OpenAI, Sam Altman, ha modificado recientemente esta idea al referirse a «sistemas de IA generalmente más inteligentes que los humanos», un escalón aparentemente más accesible.
¿Cuál es la diferencia entre AGI e IA?
La AGI suele contrastarse con la IA estrecha o especializada, diseñada para realizar tareas específicas o resolver problemas determinados. La mayoría de las IA actuales están enfocadas en un problema concreto y a menudo lo solucionan mejor que los humanos. El superordenador Watson de IBM, aplicaciones como ChatGPT o Midjourney, los sistemas para evaluar créditos bancarios, aquellos dedicados al diagnóstico de enfermedades, son ejemplos de IA estrecha.
Recordemos que tal IA estrecha derrotó a Garry Kasparov en ajedrez hace más de 20 años. Sin embargo… No sabía cómo cortar césped, preparar una receta de cocina o realizar cualquier otra cosa que los humanos puedan hacer. Una AGI sabría cómo realizar todas estas tareas, por lo tanto, podría considerarse como una inteligencia artificial fuerte.
¿Veremos la AGI en nuestra vida?
Los expertos difieren en la fecha potencial para la llegada de la AGI. Geoff Hinton, ganador del Premio Turing (el galardón más prestigioso en informática), cree que la AGI podría estar a menos de 20 años de distancia y no considera que represente una amenaza existencial.
El CEO de Anthropic (Claude), Dario Amodei, ha insinuado que la llegada de la AGI podría ser cuestión de apenas unos pocos años. El cofundador de Google DeepMind, Shane Legg, estima que existe un 50 % de probabilidades de que la AGI llegue antes de 2028.
El futurólogo Ray Kurzweil ha calculado que las computadoras alcanzarán niveles de inteligencia humana para 2029 y se mejorarán a un ritmo exponencial, lo que les permitirá funcionar a niveles superiores a la comprensión y el control humanos. Kurzweil denomina a este punto de superinteligencia como la singularidad.
Por otro lado, Yoshua Bengio, otro galardonado con el Premio Turing, estima que se necesitarán décadas indefinidas para alcanzar la AGI. El cofundador de Google Brain, Andrew Ng, afirma que la industria todavía está «muy lejos» de desarrollar sistemas lo suficientemente inteligentes como para ser considerados AGI.
¿Debemos temer a la AGI?
Aunque muchos expertos permanecen escépticos sobre la factibilidad de la AGI, otros se preguntan sobre todo si es deseable su realización.
Hay numerosos debates acerca del riesgo potencial de la AGI. Algunos piensan que los sistemas AGI serán intrínsecamente peligrosos ya que podrían idear sus propios planes y objetivos. Otros consideran que el desarrollo de la AGI será un proceso gradual e iterativo y que dispondremos de tiempo para construir salvaguardas en cada etapa.
Si hay un aspecto de la AGI que nos preocupa especialmente, es su potencial autonomía completa. Los sistemas superinteligentes del futuro podrían operar independientemente de la supervisión humana, e incluso colaborar entre sí para alcanzar metas que ellos mismos se propongan. Si la AGI se aplicase en los coches autónomos, que actualmente requieren de un humano para gestionar la toma de decisiones en situaciones ambiguas, ¿quién sería el responsable en caso de que algo no saliera según lo previsto? Este y muchos otros interrogantes ya están sobre la mesa.
El cosmólogo Stephen Hawking ya advertía en 2014 en una entrevista con la BBC sobre los peligros de la AGI. «El desarrollo de una inteligencia artificial completa podría significar el fin de la raza humana. Se desarrollaría de manera autónoma y se rediseñaría a un ritmo cada vez más acelerado. Los humanos, limitados por una evolución biológica lenta, no podrían competir y quedarían superados».
De manera más pragmática, la capacidad para realizar tareas generalizadas significa que la AGI tendrá un impacto en el mercado laboral mucho mayor que las IA actuales. Una AGI capaz de leer una radiografía, tomar en cuenta el historial del paciente, redactar una recomendación apropiada y explicarla de manera cordial al paciente, estaría en condiciones de reemplazar a nuestros médicos. Las consecuencias potenciales para nuestra civilización son inmensas.
A esto se suma la habilidad de las AGI para producir nuevas AGI, llevándonos a un territorio impredecible que merece nuestra reflexión intensa y potencialmente preventiva desde ya. La comprensión de este fenómeno requiere un constante estudio y análisis.