FUTURO DEL EMPLEO Y LA IA
En Davos: El día después de AGI. Dario Amodei (CEO de Anthropic) y Demis Hassabis (CEO de Google DeepMind)
World Economic Forum
Enero 2026
En una conversación muy esperada, Dario Amodei (CEO de Anthropic) y Demis Hassabis (CEO de Google DeepMind) discutieron los plazos, riesgos e implicaciones sociales de la inteligencia artificial general (AGI). Este diálogo representa un momento crítico para entender dónde está la tecnología y qué desafíos nos esperan.
Plazos y predicciones
Amodei mantiene su predicción de 2026-27 para lograr una AGI capaz de operar al nivel de un premio Nobel en múltiples campos. La clave está en el ciclo de automejoramiento donde los sistemas de IA escriben código e investigan para crear mejores versiones de sí mismos. Los ingenieros de Anthropic ya dejan que los modelos escriban la mayor parte del código. Hassabis es más cauteloso, estimando 50% de probabilidad para finales de la década, señalando que mientras la programación y matemáticas avanzan rápidamente por ser verificables, las ciencias naturales requieren validación experimental y verdadera creatividad en la generación de hipótesis.
Transformación laboral
Ambos líderes reconocen la inminente transformación del mercado laboral. Amodei predice que la mitad de los empleos de nivel inicial podrían desaparecer en 1-5 años. El impacto ya es visible en desarrollo de software, donde las posiciones junior enfrentan la mayor presión inmediata. Aunque inicialmente surgirán nuevos empleos siguiendo patrones históricos de adopción tecnológica, la situación se vuelve impredecible una vez que llegue la verdadera AGI. Ambos expresaron preocupación porque los gobiernos no están preparados, con insuficiente pensamiento económico y político dedicado a manejar esta transición.
Panorama de riesgos
Amodei está escribiendo un ensayo sobre riesgos, enmarcado en la pregunta de "Contact" de Carl Sagan: ¿cómo sobrevive una civilización su adolescencia tecnológica? Identificó cuatro categorías principales de riesgo: sistemas autónomos que exceden el control humano, uso indebido individual (particularmente bioterrorismo), explotación por gobiernos autoritarios e incógnitas desconocidas. Ambos rechazan el "pesimismo extremo" pero toman los riesgos en serio, viéndolos como manejables con enfoque, tiempo y colaboración adecuados.
Tensiones geopolíticas
La conversación abordó la intensificación de la competencia entre Estados Unidos y China. Amodei se opone firmemente a vender chips avanzados a China, comparándolo con proliferar armas nucleares. Argumenta que esta única medida de control de exportaciones transformaría la competencia de una peligrosa carrera internacional a una rivalidad comercial manejable. Ambos enfatizaron la necesidad de cooperación internacional sobre estándares mínimos de seguridad.
Más allá de la economía
Hassabis planteó la cuestión más profunda: ¿qué pasa con el significado y propósito humano en un mundo post-escasez donde la IA supera las capacidades humanas? Expresó optimismo de que los humanos encontrarán nuevas fuentes de sentido a través del arte, deportes extremos y exploración espacial.
Amodei predice AGI para 2026-27, mientras Hassabis estima 50% de probabilidad para 2030, siendo el ciclo de automejoramiento el factor determinante
La mitad de los empleos de nivel inicial, particularmente en programación y software, podrían desaparecer en 1-5 años debido a la aceleración de capacidades de IA
El crecimiento exponencial de ingresos de Anthropic ($100M en 2023, $1B en 2024, $10B en 2025) demuestra la viabilidad comercial de las empresas líderes en IA
Los gobiernos y economistas no están dedicando suficiente atención a los cambios sociales masivos que se avecinan
Amodei defiende firmemente no vender chips avanzados a China, considerándolo la medida más importante para gestionar riesgos geopolíticos de IA
Ambas compañías invierten en interpretabilidad mecanicista para entender los procesos de toma de decisiones de IA y prevenir comportamientos dañinos
Más allá de las preocupaciones económicas, la transición plantea cuestiones profundas sobre el significado, propósito e identidad humana en un mundo donde la IA supera capacidades humanas
Se necesita cooperación internacional para establecer estándares mínimos de seguridad, aunque las tensiones geopolíticas actuales lo dificultan
Las principales preocupaciones incluyen sistemas autónomos de IA, bioterrorismo facilitado por IA, uso indebido autoritario, desplazamiento laboral y consecuencias impredecibles
Aunque ambos rechazan el pesimismo extremo y creen que los desafíos son solucionables, enfatizan la urgencia de abordar estos temas antes de que las capacidades superen la capacidad adaptativa de la sociedad
