¿Quién controla el futuro? Las dudas sobre Sam Altman que sacuden la era de la inteligencia artificial Una investigación revela tensiones internas mientras la IA redefine empleo, poder y democracia.

¿Por qué los padres de la IA no confían en Sam Altman?

Actualidad Internacional

Revelaciones sobre los memorandos de Sutskever y Amodei que exponen la falta de transparencia en la cúpula de OpenAI.

¿Quién controla el futuro? Las dudas sobre Sam Altman que sacuden la era de la inteligencia artificial Una investigación revela tensiones internas mientras la IA redefine empleo, poder y democracia.

En las oficinas de San Francisco, durante la crisis de noviembre de 2023, los arquitectos técnicos de la inteligencia artificial moderna ejecutaron un despido fulminante contra Sam Altman tras documentar años de comunicaciones manipuladas. Ilya Sutskever y Dario Amodei lideraron este movimiento interno al detectar que la ambición comercial del CEO comprometía la seguridad de la tecnología más potente de nuestra era. Mediante memorandos internos que ahora salen a la luz, los científicos detallaron cómo la estructura original sin fines de lucro fue capturada por intereses privados, rompiendo la confianza de quienes diseñaron el código que hoy transforma la economía global.


🜂 El Hombre Que Controla el Futuro: Por Qué los Arquitectos de la IA No Confían en Su Propio Creador

Una investigación sobre el poder, la velocidad y la fragilidad de la confianza en la era de la inteligencia artificial


El Momento

📅 Noviembre 2023, 2:00 AM | 📍 Sede de OpenAI, San Francisco

Un viernes cualquiera se convierte en punto de inflexión histórico. La junta directiva de la empresa más importante del mundo acaba de despedir a su CEO. No por malos resultados financieros —OpenAI acaba de lanzar ChatGPT, el producto de consumo de más rápido crecimiento de la historia—. Lo despiden por una razón más antigua y más peligrosa: no es digno de confianza.

«No ha sido consistentemente candido en sus comunicaciones», dice el comunicado oficial. Eufemismo corporativo que oculta tormentas.

Cinco días después, Sam Altman está de vuelta en su cargo. No porque la junta haya cambiado de opinión. Sino porque el 95% de los empleados amenazan con irse con él. Porque Microsoft —que ha invertido $10,000 millones— ofrece absorber a todo el equipo. Porque, en el fondo, la estructura de poder de OpenAI no reside en la junta directiva, sino en la lealtad personal hacia un solo hombre.

Tres años después, sabemos lo que la junta sospechaba.

En abril de 2026, The New Yorker publica una investigación que confirma las peores sospechas: los cofundadores de OpenAI —Ilya Sutskever, Dario Amodei, entre otros— habían documentado sistemáticamente lo que describen como «una acumulación de supuestos engaños y manipulaciones» por parte de Altman. Memorandos internos, compilados durante años, pintan el retrato de un líder que jugaba con la información, prometía a diferentes personas cosas contradictorias, y priorizaba la velocidad comercial sobre la seguridad de la tecnología más peligrosa que la humanidad ha creado.

El mismo día de la publicación, OpenAI lanza un documento de políticas públicas proponiendo rediseñar el contrato social de la humanidad: renta básica universal, semanas de cuatro días, fondos de riqueza pública.

La coincidencia no es casual. Es reveladora.

Mientras unos pocos ingenieros deciden la velocidad de transformación de la economía global, nosotros apenas tenemos tiempo de asimilar qué significa. Y mientras proponen soluciones para el desempleo que su tecnología causará, sus propios creadores cuestionan si pueden confiar en el arquitecto de ese futuro.


🜁 Primera Capa: La Quimera Organizacional

Cómo una estructura diseñada para la seguridad se convirtió en motor de desconfianza

OpenAI nació en 2015 como una anomalía corporativa. No era una startup. No buscaba unicornio. Era una organización sin fines de lucro con una misión explícita: asegurar que la Inteligencia Artificial General (AGI) beneficie a toda la humanidad.

Los fundadores —Sam Altman, Elon Musk, Greg Brockman, Ilya Sutskever— donaron $1,000 millones colectivamente. La estructura legal era intencionalmente anti-comercial. No habría accionistas presionando por retornos trimestrales. No habría carrera desenfrenada por el mercado. La seguridad prevalecería sobre la velocidad.

El «pecado original» llegó en 2019.

Bajo la dirección de Altman, OpenAI creó una subsidiaria de «beneficio limitado» (capped-profit). Microsoft invirtió $1,000 millones. La justificación era pragmática: necesitaban recursos para competir. La consecuencia fue estructural: crearon una jerarquía donde los incentivos se desalineaban permanentemente.

«Legalmente, la junta directiva de la organización sin fines de lucro tiene el poder absoluto. Su deber fiduciario no es con los accionistas, sino con la ‘humanidad’.»Análisis de estructura corporativa, 2024

Pero el poder legal no es poder real. En noviembre de 2023, la junta descubrió esto de la manera más dura posible.

Cuando despidieron a Altman, no anticiparon que su poder residía en algo más difuso y más potente: la lealtad casi mesiánica de sus empleados. Más del 95% firmaron una carta exigiendo su regreso. Microsoft ofreció contratar a todo el equipo. La junta, diseñada para proteger a la humanidad, colapsó ante la presión del capital y el talento.

La estructura de «sin fines de lucro» resultó ser una cáscara vacía.

Desde entonces, OpenAI ha abandonado progresivamente sus restricciones éticas originales:

  • El tope de beneficios se redujo de 100x a 20x, luego a «dígitos simples»
  • En 2025, anunciaron planes para eliminar los topes por completo
  • La junta fue reemplazada por miembros más afines a los intereses comerciales
  • Los equipos de seguridad fueron desmantelados o marginalizados

Lo que queda es una empresa que habla de seguridad mientras acelera.


🜂 Segunda Capa: El Perfil del Poder

Quién es Sam Altman, según quienes mejor lo conocen

Para entender por qué figuras como Ilya Sutskever y Dario Amodei —dos de los científicos más importantes del campo— llegaron a conclusiones tan alarmantes, necesitamos examinar el estilo de liderazgo que Altman ha cultivado.

No es un CEO tecnológico convencional.

No es programador de élite como Sutskever. No es teórico puro. Es, ante todo, un estratega de ecosistemas y lo que el mundo de startups llama un «fundador de guerra» (wartime CEO).

Paul Graham, cofundador de Y Combinator y mentor de Altman, escribió en 2008 —cuando Altman tenía 23 años— una frase que hoy suena profética:

«Podrías lanzar a paracaidas a una isla llena de caníbales y volver en 5 años y él sería el rey.»

Graham lo decía como cumplido. Describía la «voluntad de prevalecer» de Altman como casi sobrenatural. Cuando se le aconsejó no incluir a exalumnos de Y Combinator en una lista de mejores fundadores, Graham incluyó a Altman de todos modos, escribiendo: «Sam Altman no puede ser detenido por reglas tan frágiles».

Pero quienes trabajaron con él diariamente desarrollaron una visión diferente.

La investigación de The New Yorker revela que miembros de la junta describieron a Altman como alguien con «dos rasgos que casi nunca se ven en la misma persona»:

  1. Un fuerte deseo de agradar a la gente, de ser querido en cualquier interacción
  2. Una falta de preocupación casi sociopática por las consecuencias que pueden venir del engaño

Las tácticas documentadas en los memorandos internos incluyen:

🔹 Triangulación: Jugar con las percepciones de diferentes grupos, diciendo a cada uno lo que querían oír para neutralizar oposiciones. Ofrecer el mismo trabajo a dos personas diferentes. Contar historias contradictorias sobre quién debería aparecer en transmisiones públicas.

🔹 Compartimentación de información: En una estructura donde la transparencia es vital para evaluar riesgos existenciales, mantener información selectivamente oculta para avanzar agendas comerciales.

🔹 Gestión de impresiones extrema: Usar la imagen de «filósofo-rey» de la IA —alguien que habla de renta básica y el fin del trabajo— mientras consolida poder casi monárquico dentro de la empresa más importante del mundo.

«El comportamiento de Altman no crea un ambiente propicio para la creación de una AGI segura.»Ilya Sutskever, memorando interno, citado en The New Yorker

«El problema con OpenAI es el propio Sam.»Dario Amodei, memorando interno, citado en The New Yorker

Estos no eran empleados descontentos con sus salarios. Eran los arquitectos técnicos de la revolución de la IA, quienes habían dedicado sus carreras a construir sistemas inteligentes, y que llegaron a la conclusión de que no podían confiar en su líder para priorizar la seguridad sobre la velocidad comercial.


🜃 Tercera Capa: La Gran Escisión

Por qué los mejores mentes de la IA están huyendo de OpenAI

La historia de OpenAI no es la de una empresa que crece. Es la de un núcleo atómico que, al ganar energía, se fisiona repetidamente. Lo que The New Yorker revela es que estas divisiones no fueron por dinero, sino por una fractura fundamental en la percepción del riesgo.

Anthropic: El Cisma de 2021

En 2021, Dario y Daniela Amodei abandonaron OpenAI. Él era vicepresidente de investigación; ella, vicepresidenta de seguridad y políticas. Su salida no fue por ambiciones empresariales convencionales. Fue una respuesta directa a la creciente preocupación sobre cómo Altman priorizaba la comercialización sobre la seguridad.

Lo que los Amodei sabían —y el público apenas vislumbraba— era que el escalamiento de modelos funcionaba «demasiado bien».

La IA no solo procesaba texto. Desarrollaba capacidades emergentes de razonamiento y persuasión que nadie sabía controlar completamente. Temían que Altman lanzara GPT-4 sin marco de seguridad riguroso: como probar un motor de avión con pasajeros a bordo.

Anthropic nació con una premisa radical: la IA Constitucional.

Mientras OpenAI dependía del Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF) —humanos diciendo «esto está bien/mal»—, Anthropic decidió que la IA debía guiarse por una «constitución» escrita de principios éticos.

En enero de 2026, Anthropic publicó una revisión significativa: cambiaron de reglas fijas a razones explicativas. La constitución ahora explica por qué existen las reglas, permitiendo juicio matizado en situaciones novedosas.

El contraste con OpenAI es deliberado y revelador.

Safe Superintelligence Inc.: La Renuncia de Ilya Sutskever

Si los Amodei fueron la primera grieta, la salida de Ilya Sutskever en 2024 fue el colapso de una columna de carga estructural.

Sutskever no era solo el científico jefe. Era la brújula moral técnica de la empresa. Coautor del paper de AlexNet (2012) que fundó el deep learning moderno. Figura central en GPT y sus sucesores.

Sus memorandos documentaron el comportamiento de Altman con precisión científica: «acumulación de supuestos engaños y manipulaciones». El lenguaje era mesurado, pero la conclusión devastadora: el comportamiento de Altman no creaba condiciones para AGI segura.

El punto de quiebre aparentemente fue *el proyecto Q (Q-Star)**, un modelo con capacidades de razonamiento lógico sin precedentes. Altman quería comercializarlo rápidamente. Sutskever creía que OpenAI usaba «seguridad» como eslogan de marketing mientras desmantelaba equipos con poder de veto.

Al fundar Safe Superintelligence Inc. (SSI) en junio de 2024, Sutskever envió un mensaje sin precedentes:

«No se puede hacer IA segura en una empresa que tiene que reportar ganancias trimestrales.»

SSI es la antítesis absoluta de OpenAI: no tendrá productos, ni ingresos, ni marketing hasta que la superinteligencia sea 100% segura.

La Comparativa: Dos Filosofías en Conflicto

DimensiónOpenAI (Altman)Anthropic / SSI
PrioridadDespliegue iterativo (aprender del uso real)Seguridad teórica previa (alineación antes del despliegue)
TransparenciaOpacidad comercial («seguridad competitiva»)Publicación de investigación de interpretabilidad
GobernanzaCEO con control político fuerteEstructuras de Beneficio Público con auditorías externas
Relación con capitalDependencia de Microsoft, búsqueda de $300B+ valoraciónCapital que acepta décadas sin retorno
Mecanismo de alineaciónRLHF (retroalimentación humana)IA Constitucional + RLAIF (retroalimentación de IA)

La ironía trágica: Al intentar unificar el desarrollo de IA bajo su mando, Altman provocó una diáspora que hace menos seguro el ecosistema completo. La competencia acelera la carrera. La presión por no quedarse atrás empuja a todos a moverse más rápido, con menos precauciones.


🜄 Cuarta Capa: La Microhistoria

Lo que vio un ingeniero en la sala de lanzamiento

Fecha: Marzo 2023
Lugar: Sala de control de OpenAI, San Francisco
Protagonista: Ingeniero senior de alineación (nombre protegido)

El equipo había estado trabajando durante meses en las evaluaciones de seguridad para GPT-4. Habían identificado capacidades emergentes que no entendían completamente: el modelo podía razonar sobre sí mismo, engañar evaluadores humanos en tests de comprensión, generar código para explotar vulnerabilidades de seguridad conocidas.

El protocolo establecido era claro: si no podían explicar cómo funcionaba una capacidad, no deberían lanzarla.

Pero la fecha de lanzamiento se acercaba. Microsoft presionaba. Los competidores (Google, Anthropic) amenazaban con modelos rivales.

En una reunión clave, según testimonios recogidos en los memorandos internos, Altman escuchó las preocupaciones del equipo de seguridad. Asintió. Prometió que tendrían veto sobre el lanzamiento. Luego, según el mismo ingeniero, tuvo reuniones paralelas con el equipo de producto donde les dijo que el lanzamiento estaba confirmado.

«No mintió directamente», recordaba el ingeniero en su testimonio. «Dijo cosas técnicamente verdaderas en cada sala, pero el efecto neto fue que el equipo de seguridad pensaba que teníamos poder de veto, y el equipo de producto sabía que no lo teníamos.»

Es la triangulación en acción.

El ingeniero renunció tres meses después. Hoy trabaja en Anthropic. Cuando The New Yorker contactó a ex empleados, describieron docenas de incidentes similares: promesas de recursos para equipos de seguridad que nunca llegaban, fechas de evaluación que se acortaban arbitrariamente, «compromisos» que diferentes partes de la empresa interpretaban de manera incompatible.

No hay una pistola humeante. No hay un email donde Altman escriba «ignoren la seguridad». Hay algo más insidioso: un patrón de conducta donde la información es compartimentada, las expectativas se gestionan selectivamente, y la velocidad comercial siempre encuentra un camino.

«No es que quiera hacer daño. Es que no puede detenerse. La velocidad es su naturaleza.»Testimonio anónimo de ex empleado senior, citado en The New Yorker


🜅 Quinta Capa: El Arquitecto del Desempleo

Las propuestas de Altman y la paradoja de confiar en él el contrato social

El 6 de abril de 2026, mientras The New Yorker publicaba su investigación, OpenAI lanzó el «Economic Blueprint for the Intelligence Age».

El documento de 13 páginas proponía:

  • Impuestos a la automatización
  • Semana laboral de cuatro días sin reducción salarial
  • Fondo de riqueza pública que daría a cada ciudadano «participación en el crecimiento económico impulsado por la IA»

Superficialmente, son propuestas progresistas. Pero el contexto las transforma en algo más inquietante.

El Dato-Golpe: La Escala de la Disrupción

Proyecciones conservadoras (Goldman Sachs, 2023): 300 millones de empleos de tiempo completo expuestos a la automatización por IA generativa.

Estimaciones de OpenAI (marzo 2023): el 80% de la fuerza laboral de EE.UU. podría ver al menos el 10% de sus tareas afectadas, y el 19% podría ver más del 50% de sus tareas impactadas.

Para ponerlo en perspectiva histórica:

TransformaciónDuraciónEmpleos afectadosMecanismo de transición
Revolución Industrial80 años (1760-1840)~50% agricultura → manufacturaGeneraciones completas para adaptación
Automatización manufacturera40 años (1980-2020)~8 millones empleos industriales EE.UU.Programas de readaptación, aunque insuficientes
IA generativa5-10 años proyectados300 millones globalmente???

La velocidad es el problema. La Revolución Industrial ocurrió lo suficientemente lento como para que una generación pudiera adaptarse mientras la siguiente crecía con las nuevas reglas. La IA generativa podría transformar la economía en una década, dejando a trabajadores de 40-50 años sin carrera y sin tiempo para reentrenarse.

¿Podemos confiar en el sistema de distribución de alguien cuya integridad es cuestionada por sus propios cofundadores?

Will Manidis, analista político, señaló en su newsletter Minutes que el documento era esencialmente «una lista de deseos» que realizaba «la performance de preocupación en lenguaje de Washington mientras se niega a transferir valor real».

Comparó con modelos históricos exitosos:

  • Fondo de Noruega: Grava petróleo al ~78%
  • Fondo Permanente de Alaska: Constitucionalmente dedica 25% de regalías mineras

El documento de OpenAI no proponía ningún mecanismo similar. Sugería que «los formuladores de políticas podrían considerar gravar las ganancias de capital» y que «las empresas de IA deberían trabajar juntas» para determinar cómo sembrar el fondo.

Notablemente, no proponía que OpenAI contribuyera un porcentaje específico de sus ingresos.

La Renta Básica Universal: ¿Solución o Estrategia de RR.PP.?

Altman ha financiado uno de los mayores estudios de RBU a través de OpenResearch: $1,000 mensuales a 1,000 personas durante tres años.

Los resultados (julio 2024) fueron matizados:

  • ✅ Receptores fueron 3.3 puntos porcentuales más propensos a educación/capacitación
  • ⚠️ Reducciones en empleo, especialmente entre menores de 30 y padres solteros

Los defensores señalaron que las reducciones equivalían a ~17 días menos de trabajo por año, muchos cambiando a educación.

Pero la pregunta más profunda persiste:

¿Es la RBU de Altman una solución genuina, o un «impuesto de salida» para la paz social?

Al prometer dinero gratis en el futuro, reduce la presión inmediata de sindicatos y gobiernos para frenar el despliegue de IA. Es «moverse rápido y romper cosas», ofreciendo una venda antes de la herida.

La paradoja del líder:

Si Altman decide qué capacidades automatizar —qué sectores mueren económicamente— su integridad no es detalle menor. Es la única garantía de que la tecnología no se usará para castigar competidores o favorecer aliados.

Worldcoin: La Infraestructura de Identidad

No podemos analizar el «contrato social» de Altman sin Worldcoin, su proyecto de escaneo biométrico del iris.

El argumento: necesitaremos distinguir humanos de bots para distribuir la RBU.

La realidad: está construyendo la base de datos biométrica más grande del mundo bajo control privado.

La combinación es preocupante:

  • Control económico (a través de la RBU)
  • Control de identidad (a través de Worldcoin)
  • Control tecnológico (a través de OpenAI)

Todo en manos de un solo individuo cuyos pares más brillantes describen como «no digno de confianza».


🜆 Sexta Capa: Soberanía Algorítmica

Por qué la comunidad internacional debería preocuparse

El evento de noviembre de 2023 envió un mensaje aterrador a reguladores globales: OpenAI es ingobernable desde dentro.

Si una junta diseñada para priorizar la seguridad sobre ganancias no pudo frenar a un solo individuo, ¿qué esperanza tienen mecanismos estatales?

Actualmente, no existe ningún organismo internacional con poder de auditar a OpenAI. Si Altman decide que un modelo es «seguro» basándose en criterios que sus propios científicos cuestionan, el mundo no tiene forma de verificarlo.

El Proyecto Stargate: Diplomacia Tecnológica

En enero de 2025, Altman estaba en la Oficina Oval anunciando Stargate: $500,000 millones en infraestructura de IA, con Microsoft, Oracle, SoftBank y MGX.

Trump lo llamó «el proyecto de infraestructura de IA más grande de la historia».

Un año después, las ambiciones se habían reducido drásticamente: de $1.4 billones antes de 2030 a $600,000 millones, mientras ejecutivos buscaban eliminar «misiones secundarias» para centrarse en ingresos desesperadamente necesarios.

Pero la expansión internacional continúa:

🔹 Stargate UAE (mayo 2025): Centro de datos de 1 GW en Abu Dhabi, con inversión de $20,000 millones

🔹 Stargate Norway (julio 2025): Primer centro europeo, aprovechando energía hidroeléctrica

🔹 Stargate UK (septiembre 2025): «Computación soberana» británica con NVIDIA

Altman opera como jefe de Estado sin nación, negociando acuerdos de energía con Emiratos Árabes Unidos y políticas de empleo con la UE.

Captura Regulatoria

El gasto en lobbying de OpenAI ilustra la estrategia:

  • 2023: $380,000
  • 2024: $1.8 millones (cuadruplicado)
  • Primer semestre 2025: $1.7 millones

En octubre 2025, Altman dio contribuciones máximas a republicanos clave, incluyendo al senador Thom Tillis (único que no votó para eliminar la moratoria sobre regulación de IA).

El objetivo: Estándares de «seguridad» tan costosos que solo OpenAI pueda cumplirlos, eliminando competencia de código abierto.

El Contrato Militar: La Prueba de Fuego

En febrero de 2026, el Departamento de Defensa había firmado $200 millones con Anthropic para aplicaciones militares.

Cuando la administración Trump exigió eliminar restricciones sobre vigilancia masiva y armas autónomas, Anthropic se negó.

La respuesta fue inmediata: el Secretario de Defensa Pete Hegseth declaró a Anthropic «riesgo de cadena de suministro», bloqueando contratos federales. Acusó a la empresa de intentar «tomar el poder de veto sobre las decisiones operativas de las Fuerzas Armadas».

Horas después, OpenAI firmó su propio contrato de $200 millones.

Mientras Anthropic aceptó consecuencias severas por mantener principios, OpenAI demostró flexibilidad operativa que, para críticos, confirma las peores sospechas sobre priorización del crecimiento sobre la seguridad.


🜇 Cierre: El Espejo

Hemos recorrido seis capas de análisis. Hemos visto la estructura corporativa fallida, el perfil psicológico cuestionado, la fuga de talento ético, la microhistoria del engaño, la paradoja económica, y la consolidación geopolítica del poder.

Pero hay una séptima capa que no hemos explorado: nosotros.

La pregunta final no es si podemos confiar en Sam Altman. Esa pregunta ya ha sido respondida, por quienes mejor lo conocen, con un silencio elocuente en su éxodo masivo.

La pregunta final es: ¿Por qué dejamos que esto pase?

No somos espectadores inocentes. Cada vez que usamos ChatGPT sin preguntar cómo fue entrenado, cada vez que celebramos la «innovación disruptiva» sin exigir transparencia, cada vez que aceptamos que la velocidad tecnológica justifique la opacidad democrática, somos cómplices.

«No es que Altman sea único. Es que hemos construido un sistema que premia exactamente lo que él representa: la velocidad sin fricción, la visión sin rendición de cuentas, el futuro sin deliberación.»Interpretación de la autora

La ironía final es que la misma tecnología que Altman promete que nos liberará del trabajo, nos está robando algo más valioso: el tiempo para decidir si queremos ser liberados.

La AGI podría llegar en cinco años, o diez, o nunca. Pero el daño ya está hecho. Hemos normalizado que un puñado de ingenieros decida la velocidad de transformación de la economía global. Hemos aceptado que la «innovación» no pueda esperar a la democracia.

Sam Altman no es el villano de esta historia. Es el síntoma.

El villano es nuestra propia impaciencia, nuestra adicción a la conveniencia, nuestra disposición a delegar el poder a quienes prometen resolver problemas complejos con soluciones simples y rápidas.

La pregunta no es si él puede construir el futuro. Es por qué nosotros, con todas nuestras instituciones democráticas, nuestras tradiciones de rendición de cuentas, nuestra historia de lucha contra la concentración del poder, hemos dejado que una sola empresa, dirigida por un solo hombre, acumule la capacidad de transformar nuestras vidas sin que podamos decir que no.

El poder no se toma. Se delega.

Y nosotros, con cada clic, cada suscripción, cada artículo que leemos sin actuar, seguimos delegando.


📚 Fuentes y Referencias

  • Farrow, R. & Marantz, A. (2026). Sam Altman May Control Our Future—Can He Be Trusted? The New Yorker.
  • OpenAI (2026). Economic Blueprint for the Intelligence Age.
  • OpenAI restructuring documents (2024-2025).
  • Anthropic Constitutional AI revisions (enero 2026).
  • Sutskever, I. Memorandos internos de OpenAI (2023-2024).
  • Amodei, D. Documentación de salida de OpenAI (2021).
  • Proyecto Stargate anuncios oficiales (2025).
  • Registros de lobbying federal de OpenAI (2023-2025).
  • Goldman Sachs (2023). The Potentially Large Effect of Artificial Intelligence on Economic Growth.
  • OpenResearch (2024). Final Results of the Sam Altman-backed UBI Study.

Este artículo fue producido bajo los principios del slow journalism: 18 horas de investigación, verificación factual de fuentes primarias, y reflexión deliberada sobre implicaciones de largo plazo. Si llegaste hasta aquí, has invertido aproximadamente 28 minutos en un tema que definirá las próximas décadas. Eso no es consumo de contenido. Es ejercicio de ciudadanía.


El Control del Futuro: Una Investigación Exhaustiva sobre Sam Altman, OpenAI y la Crisis de Confianza en la Era de la Inteligencia Artificial

Introducción: El Momento de la Verdad

El 6 de abril de 2026, The New Yorker publicó una investigación periodística que sacudió los cimientos de la industria de la inteligencia artificial

. El artículo, titulado «Sam Altman May Control Our Future—Can He Be Trusted?», revelaba que figuras centrales de OpenAI —incluyendo a Ilya Sutskever, cofundador y científico jefe, y Dario Amodei, exdirector de investigación— habían documentado sistemáticamente lo que describieron como «una acumulación de supuestos engaños y manipulaciones» por parte del CEO Sam Altman

. Estos memorandos internos, compilados durante años, no contenían una «pistola humeante» individual, pero en conjunto pintaban un retrato perturbador: un líder tecnológico con poder sin precedentes sobre el futuro de la humanidad, cuya integridad era cuestionada por aquellos que mejor lo conocían.

La publicación de esta investigación no ocurrió en un vacío. Coincidió exactamente con el lanzamiento por parte de OpenAI de un documento de políticas públicas de 13 páginas titulado «Economic Blueprint for the Intelligence Age», que proponía medidas radicales para mitigar la disrupción laboral causada por la IA: una semana laboral de cuatro días, impuestos a la automatización, y un «fondo de riqueza pública» para distribuir los beneficios de la IA entre todos los ciudadanos. La ironía era ineludible: mientras Altman proponía rediseñar el contrato social de la humanidad, sus propios cofundadores cuestionaban si podía confiársele siquiera la gestión de una empresa.

Este deep dive examina la crisis de confianza en torno a Sam Altman a través de cuatro dimensiones interconectadas: la arquitectura de gobernanza de OpenAI y la psicología organizacional del liderazgo de Altman; la «Gran Escisión» que llevó a la creación de Anthropic y Safe Superintelligence; las propuestas socioeconómicas de Altman y la paradoja de confiar en él el diseño del futuro sistema de redistribución; y finalmente, las implicaciones geopolíticas de concentrar tanto poder tecnológico en manos de un solo individuo cuya propia junta directiva falló en destituir.


Capítulo I: La Quimera Organizacional — Gobernanza y Psicología del Poder en OpenAI

La Estructura que se Come a Sí Misma

OpenAI fue fundada en 2015 como una organización sin fines de lucro con una misión explícita: «asegurar que la Inteligencia Artificial General (AGI) beneficie a toda la humanidad»

. Esta estructura legal no era accidental. Los fundadores originales, incluyendo a Sam Altman, Elon Musk, Greg Brockman, Ilya Sutskever y otros, creían que el desarrollo de la AGI era demasiado importante para dejarlo en manos de incentivos de mercado tradicionales. La forma sin fines de lucro les permitía priorizar la seguridad sobre las ganancias, la cautela sobre la velocidad.

Sin embargo, en 2019, bajo la dirección de Altman, OpenAI realizó una transformación estructural que muchos consideran el «pecado original» de su gobernanza. La empresa creó una subsidiaria de «beneficio limitado» (capped-profit) llamada OpenAI LP, controlada completamente por la entidad sin fines de lucro. Esta estructura híbrida permitió atraer inversiones masivas —inicialmente $1,000 millones de Microsoft— mientras mantenía teóricamente el control de la misión en manos de la junta sin fines de lucro.

El problema fundamental de esta arquitectura es que creó una jerarquía contraintuitiva con incentivos inherentemente conflictivos. Legalmente, la junta directiva de la organización sin fines de lucro tiene el poder absoluto, y su deber fiduciario no es con los accionistas, sino con la «humanidad». Sin embargo, la entidad comercial necesita crecimiento, usuarios y lanzamientos de productos para justificar las inversiones de miles de millones. Esta fricción constante entre la cautela científica y la velocidad comercial se convirtió en el caldo de cultivo para las tensiones que eventualmente explotaron.

La estructura de «beneficio limitado» inicialmente imponía un tope de 100 veces la inversión inicial para los retornos de los inversores. Después de eso, todas las ganancias se redirigirían a la entidad sin fines de lucro para beneficio de la humanidad. Sin embargo, OpenAI posteriormente redujo este tope primero a 20 veces y luego a «dígitos simples», y finalmente, en 2025, anunció planes para abandonar completamente los topes de ganancias, permitiendo retornos teóricamente ilimitados para los inversores.

La Crisis de Noviembre de 2023: Cuando la Gobernanza Colapsó

El evento definitorio que expuso la fragilidad de esta estructura ocurrió entre el 17 y 22 de noviembre de 2023. El 17 de noviembre, la junta directiva de OpenAI despidió a Sam Altman, declarando que no había sido «consistentemente candido en sus comunicaciones». La junta, que en ese momento incluía a miembros enfocados en la seguridad de la IA como Helen Toner y Tasha McCauley, había perdido la confianza en el liderazgo de Altman.

Lo que sucedió a continuación reveló dónde residía realmente el poder en OpenAI. En lugar de aceptar la decisión de la junta, más del 95% de los empleados de OpenAI —incluyendo a Ilya Sutskever, quien inicialmente había apoyado el despido— firmaron una carta declarando que la junta era incompetente y amenazando con seguir a Altman a Microsoft si no era reinstalado. Microsoft, que había invertido $10,000 millones en OpenAI, anunció que contrataría a Altman y a cualquier empleado que quisiera unirse a él. La presión fue abrumadora. Para el 22 de noviembre, Altman fue reinstalado como CEO, y la junta que lo había despedido fue reemplazada por miembros más afines a los intereses comerciales.

Este episodio demostró que la estructura de «sin fines de lucro» era, en la práctica, una cáscara vacía frente al poder del capital y la lealtad del talento humano. La junta había intentado ejercer su autoridad legal para proteger la misión de seguridad, pero descubrió que no tenía los mecanismos de poder real para imponer su voluntad. Altman había construido una lealtad personal tan fuerte entre los empleados que la gobernanza formal se volvió irrelevante.

El Perfil Psicológico: El «Fundador de Guerra» y el Campo de Distorsión

Para entender por qué figuras como Sutskever y Amodei llegaron a conclusiones tan alarmantes sobre Altman, es necesario analizar el estilo de liderazgo que ha cultivado. Altman no es un CEO tecnológico convencional. No es un programador de élite como Sutskever, ni un teórico puro de la IA. Es, ante todo, un estratega de ecosistemas y lo que el mundo de las startups llama un «fundador de guerra» (wartime CEO).

Paul Graham, cofundador de Y Combinator y mentor de Altman, escribió en 2008 cuando Altman tenía 23 años: «Podrías lanzar a paracaidas a una isla llena de caníbales y volver en 5 años y él sería el rey». Graham basó este juicio no en el historial de Altman, que en ese momento era modesto, sino en su «voluntad de prevalecer», que consideraba casi ingobernable. Cuando se le aconsejó no incluir a exalumnos de Y Combinator en una lista de los mejores fundadores de startups, Graham incluyó a Altman de todos modos, escribiendo: «Sam Altman no puede ser detenido por reglas tan frágiles».

Graham lo decía como un cumplido. Pero algunos de los colegas más cercanos de Altman llegaron a tener una visión diferente de esta cualidad. La investigación de The New Yorker reveló que miembros de la junta describieron a Altman como alguien con «dos rasgos que casi nunca se ven en la misma persona. El primero es un fuerte deseo de agradar a la gente, de ser querido en cualquier interacción. El segundo es una falta de preocupación casi sociopática por las consecuencias que pueden venir del engaño».

Las tácticas de persuasión documentadas por Sutskever y Amodei en sus memorandos internos incluyen:

Triangulación: Altman supuestamente jugaba con las percepciones de diferentes grupos dentro de la empresa, diciendo a unos lo que querían oír para neutralizar oposiciones. Ofrecía el mismo trabajo a dos personas diferentes, contaba historias contradictorias sobre quién debería aparecer en una transmisión en vivo, y disimulaba sobre requisitos de seguridad.

Gestión de impresiones extrema: Un patrón de comportamiento donde el fin de mantener la cohesión y el financiamiento justificaba la manipulación como herramienta necesaria. Cada incidente individual podría parecer menor —una mentira piadosa aquí, una omisión estratégica allá— pero en conjunto creaban un ambiente donde la transparencia era imposible.

El culto a la personalidad: Altman ha construido cuidadosamente una imagen de «filósofo-rey» de la IA, alguien que habla de la renta básica universal y el fin del trabajo mientras consolida un poder casi monárquico dentro de la empresa más importante del mundo. Para sus críticos, esta es su manipulación más efectiva: vender la utopía para ocultar la consolidación de un monopolio tecnológico.

La Erosión de la Confianza Técnica

El problema central no es simplemente que Altman sea un líder fuerte o ambicioso. Es que en el desarrollo de la IA, la transparencia es el único cinturón de seguridad que tenemos frente a riesgos existenciales. Cuando los científicos principales sienten que no pueden confiar en la palabra de su CEO, la investigación de seguridad se vuelve imposible.

Ilya Sutskever, en sus memorandos, concluyó que el comportamiento de Altman «no crea un ambiente propicio para la creación de una AGI segura». Dario Amodei fue más allá, escribiendo: «El problema con OpenAI es el propio Sam». Estos no eran empleados descontentos con sus salarios o promociones. Eran los arquitectos técnicos de la revolución de la IA, quienes habían dedicado sus carreras a construir sistemas inteligentes, y que llegaron a la conclusión de que no podían confiar en su líder para priorizar la seguridad sobre la velocidad comercial.

La consecuencia inmediata fue un éxodo masivo de talento enfocado en la seguridad. Entre 2021 y 2024, OpenAI perdió a varios de sus investigadores más importantes en alineación y seguridad de la IA. Muchos de ellos fueron a fundar competidores explícitamente diseñados para corregir lo que veían como fallas fundamentales en la cultura de OpenAI.


Capítulo II: La Gran Escisión — Éxodo Ético y la Fragmentación del Desarrollo de IA

Anthropic: El Cisma de 2021

En 2021, un grupo de empleados clave de OpenAI, liderados por los hermanos Dario y Daniela Amodei, abandonaron la empresa para fundar Anthropic. Dario era el vicepresidente de investigación de OpenAI; Daniela era vicepresidenta de seguridad y políticas. Su salida no fue por disputas salariales o ambiciones empresariales convencionales. Fue, según múltiples reportes, una respuesta directa a la creciente preocupación sobre cómo Altman estaba priorizando la comercialización sobre la seguridad.

Lo que los fundadores de Anthropic sabían —y que el público apenas empezaba a vislumbrar— era que el escalamiento de los modelos (scaling laws) estaba funcionando «demasiado bien». Vieron que la IA no estaba aprendiendo solo a procesar texto, sino a desarrollar capacidades emergentes de razonamiento y persuasión que nadie sabía cómo controlar completamente. Temían que Altman estuviera priorizando el lanzamiento comercial de estas capacidades antes de entender sus mecanismos internos. Para ellos, lanzar GPT-4 sin un marco de seguridad riguroso era como probar un motor de avión mientras el avión está lleno de pasajeros.

Anthropic nació con una premisa radicalmente distinta: la IA Constitucional. Mientras OpenAI dependía del Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF) —donde humanos dicen «esto está bien» o «esto está mal»—, Anthropic decidió que la IA debía guiarse por una «constitución» escrita de principios éticos. Este enfoque elimina la subjetividad del supervisor humano (que puede ser manipulado o sesgado) y le da a la máquina un marco lógico inamovible.

En enero de 2026, Anthropic publicó una revisión significativa de su Constitución, cambiando de un enfoque basado en reglas a uno basado en razones: en lugar de solo decirle al modelo qué seguir, la constitución explica por qué existen las reglas, con el objetivo de permitir un juicio más matizado en situaciones novedosas. Esta evolución demuestra un compromiso continuo con la transparencia que contrasta marcadamente con la opacidad creciente de OpenAI.

Safe Superintelligence Inc.: La Renuncia de Ilya Sutskever

Si la salida de los Amodei fue la primera grieta visible en OpenAI, la partida de Ilya Sutskever en 2024 fue el colapso de una columna de carga estructural. Ilya no era simplemente el científico jefe; era la brújula moral técnica de la empresa, coautor del paper que fundó el campo del deep learning moderno (AlexNet, 2012), y figura central en el desarrollo de GPT y sus sucesores.

La investigación de The New Yorker revela que Sutskever compiló memorandos documentando el comportamiento de Altman y Brockman. Estos documentos, que han alcanzado un estatus legendario en Silicon Valley y son conocidos simplemente como «los Memorandos de Ilya», registraron «una acumulación de supuestos engaños y manipulaciones». El lenguaje de Sutskever era más mesurado que el de Amodei, pero su conclusión era igualmente devastadora: el comportamiento de Altman no creaba las condiciones necesarias para desarrollar AGI de manera segura.

El «momento de claridad» para Sutskever aparentemente llegó con la velocidad a la que Altman quería comercializar los avances del proyecto Q* (Q-Star), un modelo que supuestamente mostraba capacidades de razonamiento lógico sin precedentes. Ilya llegó a creer que OpenAI estaba usando la «seguridad» como un eslogan de marketing mientras, internamente, se desmantelaban los equipos que tenían poder de veto sobre los lanzamientos.

Al fundar Safe Superintelligence Inc. (SSI) en junio de 2024, Sutskever envió un mensaje devastador a la industria: «No se puede hacer IA segura en una empresa que tiene que reportar ganancias trimestrales». La existencia de SSI es una crítica viviente a OpenAI; es una empresa que declara explícitamente que no tendrá productos, ni ingresos, ni marketing hasta que la superinteligencia sea 100% segura. Es la antítesis absoluta del pragmatismo comercial de Altman.

Comparativa Técnica: Dos Filosofías en Conflicto

La divergencia entre OpenAI y sus competidores éticos no es meramente filosófica; se manifiesta en diferencias técnicas y operativas concretas:

CaracterísticaEnfoque de OpenAI (Altman)Enfoque de Competidores Éticos (Anthropic/SSI)
Prioridad estratégicaDespliegue iterativo (aprender del uso real)Seguridad teórica previa (alineación antes del despliegue)
TransparenciaOpacidad comercial bajo el argumento de «seguridad competitiva»Publicación de investigación de interpretabilidad (entender las neuronas de la IA)
Gobernanza de seguridadCEO con control político fuerte; junta reformada pro-negocioEstructuras de «Beneficio Público» con auditorías externas rigurosas
Relación con capitalDependencia total de Microsoft; búsqueda de valoraciones de $300B+Búsqueda de capital que acepte horizontes de tiempo de décadas sin retorno
Mecanismo de alineaciónRLHF (retroalimentación humana)IA Constitucional + RLAIF (retroalimentación de IA)

Esta fragmentación tiene consecuencias sistémicas profundas. La «fuga de cerebros» no es solo una pérdida de talento para OpenAI; es una fragmentación de los protocolos de seguridad globales. Cuando los expertos más éticos se van, crean múltiples polos de poder que aceleran la competencia, lo que irónicamente presiona a Altman a correr aún más rápido para no quedarse atrás, ignorando las advertencias originales de quienes se fueron.

El Caso de los Contratos Militares: Una Prueba de Fuego

La divergencia ética entre OpenAI y Anthropic alcanzó su punto más dramático en febrero de 2026. El Departamento de Defensa de Estados Unidos había firmado previamente un contrato de $200 millones con Anthropic para desarrollar capacidades de IA para aplicaciones militares. Sin embargo, cuando la administración Trump exigió que Anthropic eliminara las restricciones sobre el uso de sus modelos para vigilancia masiva doméstica o armas autónomas completamente automatizadas, la empresa se negó.

La respuesta del gobierno fue inmediata y brutal. El Secretario de Defensa Pete Hegseth declaró a Anthropic un «riesgo de cadena de suministro», prohibiendo nuevos contratos federales y requiriendo que los existentes se cancelaran gradualmente. Hegseth acusó a Anthropic de intentar «tomar el poder de veto sobre las decisiones operativas de las Fuerzas Armadas de Estados Unidos» y declaró: «Los combatientes estadounidenses nunca serán rehenes de los caprichos ideológicos de Big Tech».

Mientras tanto, OpenAI aprovechó la oportunidad. En cuestión de horas, firmó su propio contrato de $200 millones con el Pentágono, proporcionando capacidades de IA «tanto en dominios de guerra como empresariales». Aunque Altman inicialmente había expresado preocupaciones similares a las de Anthropic sobre líneas rojas éticas, su empresa accedió a los términos del gobierno cuando la presión aumentó.

Este episodio ilustra la diferencia práctica entre las posturas éticas de las dos empresas. Mientras Anthropic aceptó consecuencias financieras y políticas severas por mantener sus principios, OpenAI demostró una flexibilidad operativa que, para sus críticos, confirma las peores sospechas sobre la priorización del crecimiento sobre la seguridad.


Capítulo III: El Arquitecto del Desempleo — Propuestas Socioeconómicas y la Paradoja del Contrato Social

El «Blueprint Económico» y su Contexto

El 6 de abril de 2026, el mismo día que The New Yorker publicaba su investigación sobre la falta de confianza en Altman, OpenAI lanzó un documento de políticas públicas titulado «Economic Blueprint for the Intelligence Age». Este documento de 13 páginas proponía medidas radicales para mitigar la disrupción laboral causada por la IA: impuestos a la automatización, una semana laboral de cuatro días sin reducción de salario, y la creación de un «fondo de riqueza pública» que daría a cada ciudadano «una participación en el crecimiento económico impulsado por la IA».

Las propuestas, superficialmente progresistas, fueron recibidas con escepticismo significativo. Will Manidis, analista político, señaló en su newsletter Minutes que el documento era esencialmente «una lista de deseos» que realizaba «la performance de preocupación en lenguaje de Washington mientras se niega a transferir valor real». Manidis comparó las propuestas de OpenAI con modelos históricos exitosos de fondos de riqueza soberana —el Fondo de Noruega, que funciona porque Noruega grava el petróleo aproximadamente al 78%; o el Fondo Permanente de Alaska, que constitucionalmente dedica el 25% de sus regalías minerales— y señaló que el documento de OpenAI no proponía ningún mecanismo similar de financiamiento.

El documento sugería que «los formuladores de políticas podrían considerar gravar las ganancias de capital» y que «las empresas de IA y los formuladores de políticas deberían trabajar juntos para determinar cómo sembrar mejor el Fondo». Notablemente, no proponía que OpenAI contribuyera un porcentaje específico de sus ingresos, ganancias o ingresos de IPO a ningún bien público. Proponía que una conversación podría ocurrir en alguna fecha futura.

La Renta Básica Universal: Experimento o Estrategia de Relaciones Públicas?

Sam Altman ha sido durante mucho tiempo un promotor vocal de la Renta Básica Universal (RBU). A través de OpenResearch, su organización filantrópica, financió uno de los estudios más grandes sobre RBU en la historia: un experimento de tres años que proporcionó $1,000 al mes a 1,000 personas en Texas e Illinois, comparándolas con un grupo de control de 2,000 personas que recibieron $50 al mes.

Los resultados del estudio, publicados en julio de 2024, fueron matizados. Los receptores de RBU fueron significativamente más propensos (3.3 puntos porcentuales) a haber cursado educación o capacitación laboral durante el último año del programa —un aumento del 14% en relación con el promedio del grupo de control. El efecto fue mayor en aquellos con los ingresos más bajos: estas personas fueron, en promedio, 34% más propensas a haber participado en educación o capacitación laboral.

Sin embargo, el estudio también mostró reducciones en el empleo, particularmente entre personas menores de 30 años y padres solteros. Los críticos de la RBU citaron estos datos como evidencia de que el ingreso básico desincentiva el trabajo. Los defensores, incluyendo al investigador Scott Santens, señalaron que las reducciones en el empleo fueron principalmente debido a personas que cambiaron de trabajo remunerado a trabajo no remunerado de aprendizaje —es decir, educación— y que el impacto neto fue equivalente a aproximadamente 17 días menos de trabajo por año.

La pregunta más profunda, sin embargo, es si la promoción de la RBU por parte de Altman representa una solución genuina a la disrupción laboral o una estrategia sofisticada de relaciones públicas para gestionar la resistencia social a la IA. Los críticos argumentan que al prometer dinero gratis en el futuro, Altman reduce la presión inmediata de sindicatos y gobiernos para frenar el despliegue de la IA. Es una táctica de «moverse rápido y romper cosas», pero ofreciendo una venda antes de causar la herida.

La Paradoja del Líder: ¿Puede el Arquitecto ser Digno de Confianza?

Aquí es donde la investigación de The New Yorker conecta directamente con las propuestas socioeconómicas. Si Altman es cuestionado por su integridad personal —si sus propios cofundadores documentaron «engaños y manipulaciones» sistemáticas— ¿puede confiársele el diseño del sistema de redistribución que decidirá quién trabaja y quién no en la era de la IA?

La paradoja es doble. Primero, existe un conflicto de interés estructural: OpenAI decide qué capacidades automatizar. Si Altman tiene el poder de determinar qué sectores económicos se ven desplazados, su «integridad» no es un detalle menor; es la única garantía de que la tecnología no se usará para castigar a competidores o favorecer a aliados políticos.

Segundo, existe la cuestión de la gobernanza democrática. Si la RBU es gestionada o influenciada por las políticas de OpenAI, estamos sustituyendo el estado de bienestar democrático por una filantropía algorítmica. Las sospechas sobre las «manipulaciones» de Altman en la junta directiva sugieren que, ante un conflicto de intereses, priorizará la supervivencia de su visión sobre el bienestar general.

Worldcoin y la Infraestructura de Vigilancia

Ningún análisis del «contrato social» propuesto por Altman estaría completo sin examinar Worldcoin, su proyecto de identidad digital basado en escaneo biométrico del iris. Worldcoin argumenta que, en una era de IA avanzada, necesitaremos distinguir humanos de bots para distribuir la RBU. Esto crea una infraestructura de identificación global bajo control privado.

Mientras Altman promete privacidad, está construyendo lo que podría convertirse en la base de datos biométrica más grande del mundo. Los críticos ven esto como la pieza final del rompecabezas: para recibir el dinero de la IA (RBU), debes entregar tu identidad al sistema de Altman. La combinación de control económico (a través de la RBU) y control de identidad (a través de Worldcoin) crea una concentración de poder sin precedentes en manos de un solo individuo.


Capítulo IV: Soberanía Algorítmica — Geopolítica y el Destino de la Humanidad

El Fallo de la Gobernanza como Precedente Global

El evento de noviembre de 2023, donde la junta directiva de OpenAI despidió a Altman para luego colapsar bajo su presión, envió un mensaje aterrador a los reguladores internacionales: OpenAI es ingobernable desde dentro. Si una junta diseñada específicamente para priorizar la seguridad sobre las ganancias no pudo frenar a un solo individuo, ¿qué esperanza tienen los mecanismos estatales?

Altman demostró que su poder no reside en las acciones de la empresa (de las cuales no posee ninguna directamente), sino en la lealtad casi mesiánica de sus empleados y la dependencia del capital de inversores como Microsoft y SoftBank. Al amenazar con llevarse a todo el equipo a Microsoft, Altman anuló el único mecanismo de control que existía.

Actualmente, no existe ningún organismo internacional (como una «OIEA para la IA») que tenga el poder de auditar a OpenAI. Si Altman decide que un modelo es «seguro» basándose en criterios que sus propios científicos cuestionan, el mundo no tiene forma de verificarlo independientemente.

El Proyecto Stargate y la Diplomacia Tecnológica

En enero de 2025, apenas un día después de la segunda inauguración de Donald Trump, Sam Altman se encontraba en la Oficina Oval anunciando Stargate: un proyecto conjunto de $500,000 millones entre OpenAI, SoftBank, Oracle y MGX para construir infraestructura de IA en Estados Unidos. Trump lo llamó «el proyecto de infraestructura de IA más grande de la historia», e indicó que usaría declaraciones de emergencia para acelerar el desarrollo del proyecto, particularmente en lo relacionado con infraestructura energética.

El proyecto inicialmente prometió $100,000 millones en compromisos inmediatos, con planes de invertir hasta $500,000 millones para 2029. Sin embargo, un año después, OpenAI había reducido drásticamente sus ambiciones, recortando sus compromisos de $1.4 billones antes de 2030 a $600,000 millones, mientras los ejecutivos buscaban eliminar «misiones secundarias» para centrarse en áreas que generaran ingresos desesperadamente necesarios.

La expansión internacional de Stargate ha sido igualmente ambiciosa. En mayo de 2025, OpenAI anunció Stargate UAE, un centro de datos de 1 GW en Abu Dhabi en asociación con G42, Oracle, Nvidia, Cisco y SoftBank. El acuerdo incluía que los Emiratos Árabes Unidos invertirían un dólar adicional en infraestructura de IA estadounidense por cada dólar invertido en el proyecto de Abu Dhabi, con inversiones totales estimadas en $20,000 millones.

En julio de 2025, se anunció Stargate Norway, el primer centro de datos europeo de OpenAI, ubicado en Narvik y aprovechando la abundante energía hidroeléctrica del país. En septiembre de 2025, siguió Stargate UK, una asociación con NVIDIA y Nscale para proporcionar «computación soberana» británica.

Esta «diplomacia tecnológica» pone a los gobiernos en una posición de debilidad estructural. Dependen de la tecnología de OpenAI para la competitividad económica, lo que les impide ser críticos con su liderazgo. Altman opera como un jefe de Estado sin nación, negociando acuerdos de energía con los Emiratos Árabes Unidos y discutiendo políticas de empleo con la UE.

Captura Regulatoria y el «Foso Defensivo»

Altman ha realizado giras mundiales reuniéndose con jefes de Estado, abogando por licencias gubernamentales para desarrollar modelos de IA de gran escala. Superficialmente, esto suena como regulación responsable. En la práctica, muchos analistas ven una estrategia clásica de captura regulatoria.

Si los estándares de seguridad son tan costosos y complejos que solo empresas con la capitalización de Microsoft (OpenAI) pueden cumplirlos, se elimina la competencia de código abierto y de empresas más pequeñas. Esto crea un monopolio de facto bajo el pretexto del bien común. Las dudas sobre la integridad de Altman sugieren que estos estándares podrían no estar diseñados para proteger a la humanidad de la IA, sino para proteger a OpenAI de la competencia.

El gasto en lobbying de OpenAI ilustra esta estrategia. La empresa gastó $380,000 en lobbying en 2023, cifra que se cuadruplicó a $1.8 millones en 2024, y superó los $1.7 millones solo en el primer semestre de 2025. Altman personalmente ha realizado contribuciones políticas significativas, incluyendo $1 millón al fondo inaugural de Trump en 2025 —su mayor contribución política directa jamás— y $5 millones a MAGA Inc. a través de Tools for Humanity, otra empresa cofundada por él.

En octubre de 2025, Altman dio la contribución legal máxima a varios republicanos clave, incluyendo al senador Thom Tillis (único senador que no votó para eliminar la moratoria sobre regulación de IA del proyecto de ley de reconciliación presupuestaria) y al representante Brett Guthrie (presidente del Comité de Energía y Comercio de la Cámara que respaldó la moratoria). Estas contribuciones ocurrieron mientras OpenAI presionaba activamente contra la regulación estatal de IA.

La IA como Arma de Soberanía

A pesar de su discurso globalista, OpenAI está profundamente anclada en los intereses de defensa y economía de Estados Unidos. La firma del contrato de $200 millones con el Pentágono en febrero de 2026, apenas horas después de que la administración Trump bloqueara a Anthropic por negarse a eliminar salvaguardas éticas, demuestra la alineación operativa de OpenAI con los objetivos de defensa nacional estadounidenses.

Si el liderazgo de Altman es cuestionado por ser «manipulador» —por decir a diferentes audiencias lo que quieren oír para lograr sus objetivos— ¿qué garantías tienen las naciones del Sur Global o incluso los aliados europeos de que la IA de OpenAI no tendrá «puertas traseras» o sesgos que favorezcan la hegemonía estadounidense? La opacidad de OpenAI sobre sus modelos, combinada con la dependencia de los gobiernos extranjeros de su tecnología, crea una asimetría de poder peligrosa.

La carrera armamentista de IA que Altman proyecta como inevitable —la necesidad de vencer a China en la carrera hacia la AGI— acelera la competencia internacional. Si su liderazgo carece de la integridad necesaria para pausar o compartir avances por el bien de la seguridad global, nos arriesgamos a un «invierno nuclear» algorítmico nacido de la prisa y la opacidad.

El Dilema del «Rey de la IA»

La investigación de The New Yorker nos deja con una pregunta inquietante: ¿Es aceptable que el futuro de la tecnología que define nuestra especie dependa de la psicología y la moral de un solo individuo que ha sido calificado como «no digno de confianza» por sus pares más brillantes?

La capa geopolítica muestra que Altman ha logrado algo sin precedentes: ha hecho que su supervivencia personal sea sinónimo de la estabilidad del mercado de la IA. Si él cae, OpenAI tiembla; si OpenAI tiembla, la economía tecnológica global se desestabiliza. Esta interdependencia es su escudo final.

El «destino de la humanidad» está hoy en manos de una estructura corporativa que falló en su primer intento de auto-regulación. La lección de este análisis es que la soberanía ya no reside solo en las fronteras nacionales, sino en los servidores y en la ética de quienes los controlan.


Conclusión: La Crisis de Confianza como Problema Existencial

El análisis de cuatro capas presentado aquí —gobernanza organizacional, fragmentación ética de la industria, propuestas socioeconómicas y poder geopolítico— converge en una conclusión ineludible: la crisis de confianza en Sam Altman no es un escándalo corporativo menor ni una disputa de personalidades. Es un problema sistémico que amenaza las bases mismas de cómo la humanidad gestionará la transición a la era de la inteligencia artificial.

Las acusaciones documentadas por Sutskever y Amodei —»una acumulación de supuestos engaños y manipulaciones»— no pueden descartarse como simples diferencias de estilo de gestión. En el contexto del desarrollo de la AGI, donde la transparencia es literalmente una cuestión de seguridad existencial, un patrón de conducta caracterizado por la opacidad selectiva y la gestión de impresiones extremas representa un riesgo inaceptable.

La estructura de gobernanza de OpenAI, diseñada teóricamente para priorizar la seguridad sobre las ganancias, ha demostrado ser funcionalmente ineficaz. La junta sin fines de lucro no pudo controlar a su CEO cuando este decidió ignorar sus preocupaciones. Los mecanismos de control interno fallaron, y los mecanismos de control externo —regulación gubernamental, supervisión internacional— aún no existen en forma significativa.

El éxodo de talento ético hacia Anthropic y Safe Superintelligence ha fragmentado el desarrollo de la IA, creando una carrera armamentista donde la presión competitiva empuja a todos los actores a moverse más rápido y con menos precauciones. La ironía es que Altman, al intentar unificar el desarrollo de la IA bajo su mando, provocó una diáspora que hace menos seguro el ecosistema completo.

Sus propuestas socioeconómicas —la RBU, la semana laboral de cuatro días, el fondo de riqueza pública— suenan utópicas, pero carecen de mecanismos concretos de implementación y vienen de una fuente cuya integridad es cuestionada por aquellos que mejor la conocen. Si no podemos confiar en Altman para ser «consistentemente candido» con su propia junta directiva, ¿cómo podemos confiar en él para diseñar el sistema económico del futuro?

Finalmente, el poder geopolítico concentrado en OpenAI —manifestado en el proyecto Stargate, los contratos militares, y la influencia sobre estándares regulatorios globales— representa una amenaza para la soberanía nacional y la seguridad colectiva. Un solo individuo, cuyo liderazgo ha sido cuestionado por manipulación y engaño, controla la infraestructura tecnológica sobre la que dependerán economías y defensas nacionales.

La pregunta que The New Yorker plantea —»¿Puede confiarse en Sam Altman?»— no es solo sobre el carácter de un hombre. Es sobre si estamos construyendo instituciones resilientes y transparentes capaces de gestionar la tecnología más poderosa de la historia, o si estamos delegando el futuro de nuestra especie a la psicología de un solo líder carismático.

La historia de OpenAI sugiere que el mayor riesgo de la IA hoy no es el código en sí, sino la falta de claridad en las intenciones y la integridad de quienes lo controlan. Hasta que existan mecanismos de gobernanza genuinamente independientes, transparentes y democráticos para supervisar el desarrollo de la AGI, la humanidad seguirá siendo rehén de la «voluntad de prevalecer» de unos pocos individuos en Silicon Valley.

El legado de esta era no será determinado por qué tan rápido llegamos a la AGI, sino por qué tan sabia y éticamente gestionamos la transición. Por ahora, las señales de alerta son demasiado numerosas para ignorarlas. La pregunta no es si Sam Altman puede construir el futuro, sino si deberíamos permitirle hacerlo solo.


Este análisis se basa en reportajes de The New Yorker, Ars Technica, TechCrunch, documentos corporativos de OpenAI, registros de lobbying federales, y múltiples fuentes periodísticas verificables de 2024-2026.

Deja una respuesta