OpenAI Feud: Poder, Confianza y los Límites Incontrolables de la AGI
Título del Artículo Original: Sam Altman Puede Controlar Nuestro Futuro—¿Se Le Puede Confiar?
Autores del Artículo Original: Ronan Farrow y Andrew Marantz, el New Yorker
Traducción: Peggy, BlockBeats
Nota del Editor: Este artículo, a través de una gran cantidad de documentos no publicados y entrevistas en profundidad, revisita la crisis interna dentro de OpenAI respecto al poder y la confianza de Sam Altman. Desde la destitución de la junta hasta un rápido re nombramiento en un "reverso tipo golpe", esta agitación no fue un evento aislado, sino una erupción concentrada de conflictos de gobernanza de larga data.
En el núcleo del conflicto hay una continua lucha entre dos lógicas: por un lado, la misión sin ánimo de lucro de OpenAI basada en "la seguridad humana primero", y por el otro, un cambio gradual hacia un camino de desarrollo orientado a productos, escala y ingresos a medida que la AGI se acerca y la comercialización se acelera. En este proceso, los compromisos de seguridad se han debilitado continuamente, y el poder y la toma de decisiones se han centralizado gradualmente entre unos pocos.
Muchas figuras clave, incluyendo a Ilya Sutskever y Dario Amodei, han cuestionado a Altman, centrándose en la opacidad de la información y la expresión estratégica, creyendo que su estilo de liderazgo es insuficiente para gobernar de manera robusta la tecnología que "cambiará el destino de la humanidad"; sin embargo, sus partidarios enfatizan que su capacidad en la integración de recursos, operación de capital y ejecución es clave para la rápida expansión de OpenAI.
Cuando el poder tecnológico es suficiente para influir en el orden global, ¿es la estructura de gobernanza corporativa existente aún suficiente para restringir a los individuos? En otras palabras, en la era de la IA, la verdadera incertidumbre puede no solo provenir de la tecnología misma, sino de aquellos que controlan la tecnología.
A continuación se presenta el artículo original:

Poder y Confianza: Fisuras en la Gobernanza Bajo el Liderazgo de Altman
En otoño de 2023, el Científico Jefe de OpenAI, Ilya Sutskever, envió un memorando secreto a los otros tres miembros de la junta de la empresa. En las semanas anteriores, habían estado discutiendo en privado un asunto sensible: si el CEO de la empresa, Sam Altman, y su adjunto, Greg Brockman, seguían siendo aptos para continuar liderando la empresa.

Fuente de la Imagen: EL MUNDO DE LA IA HOY
Sutskever alguna vez consideró a los dos como amigos. En 2019, incluso organizó la boda de Brockman en la oficina de OpenAI, donde había un brazo robótico actuando como el "portador de anillos."
Pero a medida que se convencía cada vez más de que la empresa estaba cerca de su objetivo a largo plazo — crear una inteligencia artificial que pudiera igualar o superar las capacidades cognitivas humanas — sus dudas sobre Altman se profundizaron. Como le dijo a otro miembro de la junta en ese momento, "No creo que Sam sea la persona que deba tener su dedo en el botón."
A petición de otros miembros de la junta, Sutskever, junto con colegas afines, elaboró un documento de alrededor de setenta páginas, incluyendo registros de chat de Slack, archivos de recursos humanos y comentarios adjuntos. Parte del contenido eran incluso capturas de pantalla tomadas con un teléfono, aparentemente para evitar el monitoreo por parte de los dispositivos de la empresa. Eventualmente, envió estos memorandos a otros miembros de la junta de manera "de leer y quemar" para asegurarse de que no fueran vistos por más personas.
"Realmente estaba asustado en ese momento," recordó un director que recibió los materiales. Revisamos estos memorandos, que nunca habían sido divulgados completamente antes. Los documentos acusaban a Altman de distorsionar hechos a ejecutivos y miembros de la junta y de comportamientos engañosos en torno a los protocolos de seguridad interna. Un memorando sobre Altman comenzaba con una lista de elementos titulada "Sam ha mostrado consistentemente…," siendo el primer elemento "Mentir."
Muchas empresas tecnológicas afirman "hacer del mundo un lugar mejor," pero sus operaciones reales giran en torno a maximizar ingresos. El principio fundador de OpenAI, sin embargo, debía ser diferente de este modelo. Sus fundadores, incluyendo a Altman, Sutskever, Brockman y Elon Musk, creían que la inteligencia artificial podría ser una de las invenciones más poderosas y potencialmente peligrosas en la historia de la humanidad. Ante el telón de fondo de este "riesgo existencial," la empresa puede requerir una estructura organizativa poco convencional.
OpenAI se estableció inicialmente como una organización sin ánimo de lucro, con su junta encargada de colocar "la seguridad de toda la humanidad" por encima del éxito de la empresa, incluso priorizándolo sobre la propia supervivencia de la compañía. El CEO necesitaría poseer un carácter y una ética extraordinarios.
Como dijo Sutskever, "Cualquiera que esté involucrado en la construcción de esta tecnología que podría cambiar la civilización tal como la conocemos lleva una pesada responsabilidad y un deber sin precedentes." Pero también señaló que "aquellos que terminan en estas posiciones son a menudo un cierto tipo: personas hambrientas de poder, tipos políticos, o aquellos que simplemente disfrutan del poder por el propio poder." En un memorando, expresó su preocupación por confiar esta tecnología a alguien "que solo dice lo que otros quieren oír."
Si el CEO de OpenAI resulta ser poco fiable, entonces esta junta de seis personas tiene el poder de destituirlo. Algunos directores, incluida la experta en políticas de IA Helen Toner y la empresaria Tasha McCauley, se convencieron más de su juicio previo tras leer estos memorandos: lo que Altman asumía como una responsabilidad respecto al futuro de la humanidad, pero él mismo no era de fiar.
Golpe en la Junta Directiva: Sam Altman Despedido
En ese momento, Sam Altman se encontraba en Las Vegas viendo una carrera de Fórmula Uno cuando Ilya Sutskever lo invitó a una videollamada con la junta directiva y leyó una breve declaración anunciando que ya no era empleado de OpenAI. La junta, bajo asesoría legal, emitió un comunicado público, afirmando que Altman fue despedido por "no mantener consistentemente la honestidad en la comunicación."
Esta decisión sorprendió a muchos de los inversores y ejecutivos de OpenAI. Microsoft, que había invertido alrededor de 13 mil millones de dólares en OpenAI, también se enteró de la noticia en el último minuto antes de que se ejecutara la decisión. "Estaba increíblemente sorprendido en ese momento," recordó más tarde el CEO de Microsoft, Satya Nadella. "No pude obtener más información de nadie." Luego contactó a Reid Hoffman (cofundador de LinkedIn, inversor de OpenAI y director de Microsoft), quien comenzó a preguntar en todas partes si Altman había cometido alguna falta clara. "Estaba totalmente confundido en ese momento," nos dijo Hoffman. "Estábamos buscando problemas como malversación o acoso, pero no encontré nada."
Otros socios comerciales también fueron sorprendidos de manera similar. Cuando Altman llamó al inversor Ron Conway para informarle de su despido, Conway estaba almorzando con la congresista estadounidense Nancy Pelosi, y le pasó el teléfono en el acto. "Es mejor que salgas de aquí rápidamente," le dijo ella a Conway.
Mientras tanto, OpenAI estaba cerca de completar una importante ronda de financiación con la firma de capital de riesgo Thrive Capital, fundada por Josh Kushner, también hermano de Jared Kushner, a quien Altman había conocido durante muchos años. Este acuerdo habría valorado a OpenAI en 86 mil millones de dólares y habría permitido a muchos empleados cobrar millones de dólares en beneficios de acciones. Kushner acababa de terminar una reunión con el productor musical Rick Rubin cuando vio la llamada perdida de Altman y la devolvió. "Inmediatamente entramos en modo de batalla," recordó más tarde.
El día de su despido, Altman voló de regreso a su mansión de 27 millones de dólares en San Francisco, con vistas a toda la bahía y una piscina infinita voladiza, donde estableció un centro de mando temporal que llamó "una especie de gobierno exiliado." Conway, el cofundador de Airbnb Brian Chesky y el famoso manejador de crisis de relaciones públicas Chris Lehane se unieron a través de video y teléfono, a veces hablando durante horas. Algunos miembros del equipo ejecutivo de Altman incluso acamparon en los pasillos de la casa. Los abogados se apostaron en su oficina en casa junto al dormitorio. Durante episodios de insomnio, Altman caminaba de un lado a otro en pijama. Describiendo esta experiencia posterior al despido en una reciente entrevista, la llamó "una extraña especie de estado de fuga."
Con la junta permaneciendo en silencio, el equipo asesor de Altman comenzó a construir una narrativa para su regreso. Lehane insistió en que el despido fue en realidad un "golpe" orquestado por "altruistas efectivos," defensores de un sistema de pensamiento que enfatiza la maximización del bienestar humano general, que veían la inteligencia artificial como una amenaza existencial. (Hoffman también sugirió a Nadella en ese momento que el despido podría deberse a "algún tipo de locura altruista efectiva.") Lehane, cuyo lema ampliamente difundido tomaba prestado de Mike Tyson, "Todo el mundo tiene un plan hasta que le dan un puñetazo en la cara," sugirió a Altman lanzar una audaz ofensiva en redes sociales. Chesky se mantuvo en contacto con la periodista de tecnología Kara Swisher, repitiendo constantemente las críticas a la junta al mundo exterior.

Cada tarde a las seis en punto, Altman salía de su "sala de guerra" para servirse un Negroni. Recordó haberles dicho a los que estaban a su alrededor, "Tienen que relajarse; lo que tiene que suceder, sucederá." Sin embargo, añadió que los registros de llamadas mostraban que estaba al teléfono más de doce horas al día durante ese tiempo.
En un momento, una fuente reveló que Altman le dijo a Mira Murati, quien entonces estaba sirviendo como CEO interina de OpenAI, que sus aliados estaban "dándolo todo" e intentando "sacar trapos sucios" para desprestigiarla a ella y a otros involucrados en su destitución. (El propio Altman afirma no recordar esta conversación.)
A las pocas horas de su despido, Thrive Capital había pausado su inversión planificada y dejó claro que solo si Sam Altman regresaba, el acuerdo se llevaría a cabo y los empleados cosecharían sus recompensas en acciones. Los registros de mensajes de texto en ese momento mostraron que Altman estaba en comunicación muy frecuente con Satya Nadella. (Al redactar un comunicado conjunto, Altman sugirió redactarlo como, "La prioridad principal de Satya y mía en este momento es salvar OpenAI," mientras que Nadella propuso una redacción diferente: "Asegurar que OpenAI continúe prosperando.")
Reversión de Poder: Altman Restablecido Rápidamente Después de 5 Días
Poco después, Microsoft anunció que lanzarían un proyecto competitivo para Altman y cualquier empleado de OpenAI que se marchara. Al mismo tiempo, comenzó a circular una carta pública solicitando el regreso de Altman dentro de la empresa. Algunos que inicialmente dudaban en firmar recibieron llamadas y mensajes suplicantes de colegas. En última instancia, la mayoría de los empleados de OpenAI amenazaron con una renuncia colectiva en apoyo a Altman.
La junta se vio acorralada. "Control Z, esa es una opción," dijo Helen Toner — refiriéndose a deshacer la decisión de despido. "La otra opción es el colapso total." Incluso la entonces CEO interina Mira Murati finalmente firmó la carta pública. Los aliados de Altman comenzaron a intentar persuadir a Ilya Sutskever para que cambiara su postura. La esposa de Brockman, Anna, incluso se acercó a él en la oficina y dijo: "Eres una buena persona, puedes hacer esto bien." Sutskever explicó más tarde en un testimonio judicial: "Sentí en ese momento que si seguíamos el camino de que Sam no regresara, OpenAI sería destruido."
Una noche, Altman tomó la pastilla para dormir Ambien y fue despertado por su esposo, el programador australiano Oliver Mulherin, quien le dijo que la posición de Sutskever estaba vacilando y sugirió que Altman se comunicara con la junta de inmediato. "Me desperté en una especie de aturdimiento inducido por Ambien," recordó Altman, "y estaba totalmente desorientado y pensé, 'No hay forma de que pueda hablar con la junta en este momento.'"
En una serie de llamadas cada vez más tensas, Sam Altman exigió la renuncia de los miembros de la junta que habían presionado por su despido. Reflexionando sobre la idea de regresar, recordó su reacción inicial como, "¿Voy a limpiar su desastre en este entorno increíblemente sospechoso?" "Pensé, absolutamente no," dijo. Eventualmente, Ilya Sutskever, Helen Toner y Tasha McCauley perdieron sus asientos en la junta, quedando solo Adam D'Angelo (cofundador de Quora) como el único miembro original restante.
Como parte de los términos de la renuncia, estos miembros de la junta solicitaron una investigación sobre los cargos contra Altman, incluyendo la creación de divisiones entre ejecutivos y la ocultación de vínculos financieros. También presionaron para el establecimiento de una nueva junta que supervisara de manera independiente la investigación externa. Sin embargo, los dos nuevos directores nombrados —el ex presidente de la Universidad de Harvard, Lawrence Summers, y el ex CTO de Facebook, Bret Taylor— fueron seleccionados tras una estrecha comunicación con Altman. "¿Crees que esto funciona," le envió un mensaje Altman a Satya Nadella, "con Bret, Larry Summers y Adam en la junta, yo como CEO, y Bret liderando la investigación?" (McCauley testificó más tarde que cuando se consideraba a Taylor para la junta, le preocupaba que pudiera ser demasiado deferente con Altman.)
Menos de cinco días después de ser despedido, Altman fue reinstalado. Los empleados de la empresa más tarde se referirían a este período como el "Blip," basándose en un punto de la trama de una película de Marvel: una breve desaparición seguida de un regreso, pero el mundo había sido alterado fundamentalmente por su ausencia.
Sin embargo, la controversia en torno a la confiabilidad de Altman había trascendido desde hacía tiempo la sala de juntas de OpenAI. El colega que había orquestado su destitución lo acusó de un comportamiento engañoso generalizado, lo cual sería inaceptable para cualquier ejecutivo corporativo, y mucho menos para un líder en posesión de una tecnología tan transformadora. "Necesitamos controles sobre el poder que sean proporcionales a ese poder," nos dijo Mira Murati. "La junta había solicitado comentarios, y simplemente compartí honestamente lo que vi, y me mantengo firme en eso." Los partidarios de Altman, por otro lado, habían minimizado durante mucho tiempo estas acusaciones. Tras el despido, el inversor Ron Conway había enviado un mensaje a Brian Chesky y Chris Lehane, instando a un contraataque de relaciones públicas: "Esto se trata de la reputación de Sam." También le dijo a The Washington Post que Altman estaba siendo tratado injustamente por "una junta que está fuera de control."
Desde entonces, OpenAI ha ascendido para convertirse en una de las empresas más valiosas del mundo, preparándose supuestamente para una oferta pública inicial de un billón de dólares. Mientras tanto, Altman está impulsando una enorme expansión de infraestructura de inteligencia artificial, con algunos esfuerzos extendiéndose a regímenes autoritarios en el extranjero. OpenAI también está persiguiendo grandes contratos gubernamentales y estableciendo gradualmente estándares para aplicaciones de IA en la aplicación de la inmigración, la vigilancia doméstica y armas autónomas en zonas de conflicto.
Sam Altman ha guiado el crecimiento de OpenAI al pintar continuamente una gran visión del futuro. En una entrada de blog de 2024, escribió: "Las victorias impresionantes — resolver el cambio climático, establecer colonias fuera del mundo, descubrir todas las leyes físicas — eventualmente se volverán mundanas." Esta narrativa subyace a una de las startups de más rápido crecimiento en la historia, que depende en gran medida de la financiación de socios altamente apalancados. La economía de EE. UU. es cada vez más dependiente de un puñado de empresas de IA de alto apalancamiento, con muchos expertos — incluido el propio Altman en ocasiones — advirtiendo sobre el riesgo de burbuja en la industria. "Alguien va a perder mucho dinero," les dijo a los periodistas el año pasado. Si la burbuja estalla, podría desencadenar una catástrofe económica; sin embargo, si sus predicciones más optimistas se hacen realidad, también podría convertirse en una de las personas más ricas y poderosas del mundo.
En una llamada tensa tras el despido de Altman, la junta exigió que reconociera un patrón de comportamiento engañoso. Según fuentes presentes, él dijo repetidamente: "Esto es ridículo," y afirmó: "No puedo cambiar quién soy." Altman más tarde afirmó no recordar esa conversación. "Creo que tal vez lo que intentaba decir era más como, 'Siempre he intentado ser un unificador,'" nos explicó más tarde, atribuyendo su éxito en liderar una empresa increíblemente exitosa a este rasgo. Atribuyó estas críticas a una tendencia en su carrera temprana a "evitar el conflicto demasiado." Sin embargo, un miembro de la junta ofreció una interpretación drásticamente diferente: "Lo que realmente quiso decir fue — 'Tengo esta cosa donde mentiré a la gente, y no me detendré.'"
Desviación de Misión: De Seguridad Primero a Negocios Primero
Y así, surgió una pregunta más fundamental: ¿Estaban esos colegas que presionaban por su destitución actuando por exceso de celo y animosidad personal, o su juicio era sólido, y Altman realmente no era de fiar?
Una mañana de invierno de este año, nos encontramos con Altman en la sede de OpenAI en San Francisco, una de más de una docena de conversaciones que realizamos para este artículo. La empresa se había mudado recientemente a dos torres de vidrio de once pisos, una de las cuales había albergado anteriormente a otro gigante tecnológico, Uber. El cofundador y ex CEO de Uber, Travis Kalanick, había sido visto como un empresario genio imparable hasta que fue expulsado en 2017, también por cuestiones éticas. (Kalanick ahora dirige una startup de robótica; ha dicho que en su tiempo libre, utiliza ChatGPT de OpenAI para “explorar las fronteras de la física cuántica.”)
Un empleado nos dio un recorrido por el espacio de oficinas. En un área llena de largas mesas compartidas y luz natural, había una dinámica pintura digital del científico informático Alan Turing, cuyos ojos nos seguían mientras nos movíamos. La instalación era claramente un guiño al “Test de Turing”—el experimento mental de 1950 para determinar si una máquina puede imitar convincentemente a un humano. (En un estudio en 2025, el rendimiento de ChatGPT en esta prueba superó en realidad al de los humanos reales.) Normalmente, la pintura era interactiva. Pero nuestro guía explicó que su función de voz había sido desactivada porque estaba constantemente “escuchando” conversaciones entre empleados e interrumpiendo con frecuencia. En otras partes de la oficina, eran visibles carteles que decían “Siente la AGI”—un eslogan acuñado originalmente por Ilya Sutskever para recordar a los colegas los riesgos de la inteligencia general artificial avanzada (el punto en el que las máquinas logran una capacidad cognitiva a nivel humano). Después del Blip, se había convertido en una frase alegre que celebraba un futuro próspero.
En una sala de conferencias anodina en el octavo piso, encontramos a Sam Altman. “Solía escuchar a la gente hablar sobre la fatiga de decisiones, y nunca lo entendí,” dijo él. “Ahora llevo un suéter gris y jeans todos los días, y hasta elegir qué suéter gris sacar del armario, me hace pensar, desearía no tener que tomar esta decisión.”
Altman parecía perpetuamente joven, con un cuerpo delgado, ojos azules ampliamente espaciados, cabello ligeramente despeinado, pero tenía cuarenta años. Él y Oliver Mulherin tienen un hijo de un año a través de gestación subrogada. “Creo que ser Presidente de los Estados Unidos es ciertamente más presión, pero de todos los trabajos que creo que podría hacer de manera realista, este es el que podría imaginar que tiene más presión,” dijo, mirando a uno de nosotros, luego al otro. “Se lo he descrito a amigos de esta manera: ‘Es el trabajo más interesante del mundo hasta el día en que lanzamos ChatGPT.’ Antes de eso, estábamos haciendo estos enormes avances científicos—pensé que era uno de los descubrimientos científicos más importantes en décadas.” Él miró hacia abajo. “Pero desde que se lanzó ChatGPT, todas las decisiones se han vuelto muy difíciles.”
Altman creció en Clayton, Missouri, un suburbio adinerado de St. Louis, como el mayor de cuatro hijos. Su madre, Connie Gibstine, es dermatóloga, y su padre, Jerry Altman, fue agente inmobiliario que también trabajó en iniciativas de vivienda. Creció en un templo judío reformista, asistió a una escuela preparatoria privada y más tarde lo describió como "no un lugar fácil para salir del armario como gay." Sin embargo, en general, la comunidad de clase media alta en la que se encontraba era relativamente liberal.
Alrededor de los dieciséis o diecisiete años, sufrió un asalto físico grave y recibió insultos homofóbicos mientras estaba fuera por la noche en un barrio gay en St. Louis. Altman no denunció el incidente y no estaba dispuesto a proporcionar más detalles, afirmando que un relato más completo "me haría parecer que estaba manipulando a la gente o buscando simpatía." Minimizó esta experiencia y la importancia de su orientación sexual en su identidad. Pero también reconoció: "Probablemente hay algo muy profundo aquí psicológicamente, sobre sentir que había salido del armario pero en realidad no lo había hecho—para evitar más conflictos."
Su hermano describió su personalidad infantil como "tengo que ganar, y tengo que controlar todo," en una entrevista con The New Yorker en 2016. Altman asistió más tarde a la Universidad de Stanford y participó frecuentemente en juegos de póker fuera del campus. "Siento que aprendí más sobre la vida y los negocios allí que en la universidad."
Era de Y Combinator: Hipérbole y controversia de confianza
Los estudiantes de Stanford son ambiciosos, pero los más orientados a la acción entre ellos a menudo eligen abandonar. Al final de su segundo año, Altman se dirigió a Massachusetts para unirse al primer grupo de emprendedores en el programa de incubadora de startups de Y Combinator. La institución fue cofundada por el renombrado ingeniero de software Paul Graham. Cada participante se unió con una idea de startup. (Entre los de su grupo estaban los equipos que más tarde fundaron Reddit y Twitch.) El proyecto de Altman fue posteriormente llamado Loopt, un producto de red social temprana que permitía a los amigos ver la ubicación de los demás rastreando la ubicación de sus teléfonos volteados. La empresa mostró tanto sus habilidades de ejecución como su tendencia a abrirse espacio en áreas grises. En ese momento, las regulaciones federales requerían que los operadores pudieran localizar la posición de un teléfono en situaciones de emergencia, y Altman cerró acuerdos con operadores para incorporar esta capacidad en su producto.
La mayoría de los empleados durante la era de Loopt apreciaban a Sam Altman, pero algunos se vieron sorprendidos por su tendencia a "exagerar" incluso en asuntos triviales. Algunos recordaron que Altman presumía de ser campeón de ping-pong "como el campeón de ping-pong de la escuela secundaria de Missouri", solo para ser uno de los peores jugadores de la empresa. (Altman dijo que probablemente solo era una broma.) Un empleado mayor de Loopt, Mark Jacobstein, fue nombrado por los inversores para servir como "cuidador" de Altman, y más tarde comentó en la biografía de Keach Hagey, "El optimista": "Hay un área gris entre 'Creo que podría ser capaz de hacer esto' y 'He hecho esto', y en su forma más extrema, esta vaguedad puede llevar a resultados como los de Theranos."
Según Hagey, debido a preocupaciones sobre el estilo de liderazgo de Altman y la falta de transparencia, algunos empleados senior de Loopt sugirieron dos veces a la junta que lo destituyera de su puesto como CEO. Sin embargo, al mismo tiempo, también tenía un fuerte atractivo personal. Un ex-empleado recordó que un miembro de la junta respondió directamente: "Esta es la empresa de Sam, vuelve a hacer tu trabajo." (Sin embargo, algunos miembros de la junta también negaron que estos intentos de destitución fueran serios.)
Loopt nunca vio mejoras en el crecimiento de usuarios y fue finalmente adquirida por una empresa fintech en 2012. Según fuentes internas, esta adquisición fue en gran parte para ayudar a Altman a "salir con gracia." Sin embargo, para 2014, cuando Paul Graham se retiró de Y Combinator, aún eligió a Altman como su sucesor. "Le pregunté en mi propia cocina," dijo Graham a The New Yorker , "Sonrió como si todo hubiera encajado en su lugar. Nunca he visto la sonrisa incontrolable de Sam, como la que muestras cuando lanzas una bola de papel lejos en la papelera.
El nuevo puesto convirtió al entonces joven Altman de 28 años en un "creador de reyes." Su trabajo consistía en seleccionar a los emprendedores más ambiciosos y prometedores, conectarlos con los mejores programadores e inversores, y ayudarles a construir empresas monopolísticas líderes en la industria (mientras tanto, Y.C. tomaría entre el 6% y el 7% de participación).
Bajo su liderazgo, Y Combinator se expandió rápidamente, con el número de proyectos incubados creciendo de decenas a cientos. Pero algunos inversores de Silicon Valley comenzaron a creer que sus intereses no estaban completamente alineados. Un inversor nos dijo que Altman "invertiría selectivamente en las empresas de más alta calidad para excluir a los inversores externos" (Altman negó esta afirmación). También actuó como explorador para Sequoia Capital, participando en inversiones en proyectos en etapas tempranas y recibiendo algunos retornos.
Según fuentes, cuando Altman invirtió en la empresa fintech Stripe como inversor ángel, insistió en obtener un porcentaje mayor de acciones, una práctica que descontentó a Sequoia internamente. La fuente comentó que esto reflejaba una estrategia de "primero Sam". (Altman negó esta afirmación. Invirtió alrededor de 15,000 dólares en Stripe alrededor de 2010, poseyendo aproximadamente el 2% de las acciones, y la empresa ahora está valorada en más de 150 mil millones de dólares.) Altman afirmó haber invertido en unas 400 empresas.
Para 2018, varios socios de Y Combinator estaban insatisfechos con el comportamiento de Altman y lo informaron a Graham. Posteriormente, Graham tuvo una conversación franca con su esposa y cofundadora de Y.C., Jessica Livingston, y Altman. Después, Graham comenzó a declarar públicamente que aunque Altman acordó verbalmente marcharse, en la práctica no se retiró realmente.
Altman informó a algunos socios que renunciaría como presidente pero se quedaría como presidente del consejo. En mayo de 2019, Y Combinator publicó una entrada en su blog anunciando al nuevo presidente, con una nota que decía: "Sam está en transición a presidente de YC." Unos meses más tarde, esta declaración fue revisada a "Sam Altman ha renunciado a cualquier rol operativo en YC," y luego esta frase fue eliminada por completo. Sin embargo, a partir de 2021, Altman seguía listado como el Presidente de Y Combinator en los documentos de la Comisión de Valores y Bolsa de EE. UU. (Altman ha dicho que solo se enteró de esto más tarde.) Sam Altman ha declarado consistentemente en público a lo largo de los años y en un reciente testimonio legal que no fue despedido de Y Combinator y nos dijo que no resistió la salida.
Paul Graham tuiteó: "No queríamos que se fuera, pero queríamos que eligiera entre YC y OpenAI." En una declaración, Graham también nos dijo: "No tenemos el poder legal para despedir a nadie; todo lo que podemos hacer es aplicar presión moral." Sin embargo, en privado, la historia era más explícita: la salida de Altman se debía a una falta de confianza por parte de los socios de YC.
Este relato del tiempo de Altman en Y Combinator se basa en entrevistas con múltiples fundadores y socios de YC y materiales contemporáneos, todos los cuales sugieren que la separación no fue del todo mutua. Graham incluso supuestamente dijo a colegas de YC en una discusión interna que "Sam nos había estado mintiendo todo el tiempo antes de que fuera despedido." Desviación de la Misión de OpenAI:
De la seguridad primero al beneficio primero
En mayo de 2015, Altman envió un correo electrónico a Elon Musk, que entonces era aproximadamente la 100ª persona más rica del mundo. Como muchos emprendedores de Silicon Valley, Musk estaba entonces muy centrado en una serie de lo que él consideraba "riesgos existenciales", aunque la mayoría de los demás los veía como posibilidades remotas. "Debemos ser muy cuidadosos con la IA," escribió en Twitter, "potencialmente más peligrosa que las armas nucleares."
Altman, que había sido durante mucho tiempo un optimista tecnológico, rápidamente cambió su tono sobre la IA a uno más apocalíptico. En declaraciones públicas y comunicaciones privadas con Musk y otros, advirtió contra permitir que esta tecnología fuera monopolizada por gigantes tecnológicos impulsados por el beneficio. "He estado preguntándome si hay una manera de detener la carrera armamentista de la IA," escribió, "pero si no hay manera, entonces parece que lo mejor sería que la empresa adecuada lo hiciera." Basándose en la analogía nuclear, propuso establecer un "proyecto de IA de Manhattan." "Proyecto de Manhattan de IA." Además, esbozó los principios fundamentales de esta organización: "La seguridad debe ser la máxima prioridad"; "Ciertamente deberíamos seguir y apoyar toda regulación."
Posteriormente, él y Musk decidieron el nombre del proyecto: OpenAI.
A diferencia del Proyecto Manhattan, que fue inicialmente liderado por el gobierno y culminó en la creación de la bomba atómica, OpenAI sería financiado de manera privada en sus primeras etapas. Altman previó que una vez que emergiera una forma de "superinteligencia" que superara la inteligencia artificial general (AGI), generaría suficiente valor económico para "capturar el futuro cono de luz del universo." Sin embargo, también enfatizó repetidamente sus potenciales riesgos existenciales: en algún momento, el impacto de la tecnología en la seguridad nacional podría ser tan significativo que podría obligar al gobierno de EE. UU. a hacerse cargo de OpenAI, incluso a nacionalizarlo, y trasladar sus instalaciones a una base segura en el desierto. A finales de 2015, Musk había sido convencido. "Deberíamos anunciar un compromiso de financiación de 1.000 millones de dólares," escribió, "y yo lo respaldaré si otros no lo hacen."
Sam Altman inicialmente colocó OpenAI bajo el brazo sin ánimo de lucro de Y Combinator y lo enmarcó como un proyecto filantrópico interno. Asignó acciones de YC a los miembros que se unían a OpenAI y transfirió fondos de donación a través de cuentas de YC. En un momento, este laboratorio incluso dependió del apoyo de un fondo de YC en el que Altman tenía intereses personales. (Altman más tarde se refirió a esta participación accionaria como "negligible" y afirmó que las acciones de YC asignadas a los empleados provenían de sus tenencias personales.)
La analogía con el "Proyecto Manhattan" también se manifestó en la carrera por el talento. Similar a la investigación sobre fisión nuclear, el aprendizaje automático era entonces un campo científico a pequeña escala con un potencial impacto revolucionario, liderado por un pequeño grupo de individuos claramente talentosos. Elon Musk, Altman y Greg Brockman, quien se unió desde Stripe, creían que los verdaderos científicos informáticos innovadores eran escasos. Google, por otro lado, tenía una gran ventaja en términos de financiación y tiempo. "Estamos muy por detrás en mano de obra y recursos, la brecha es surrealista," escribió Musk más tarde en un correo electrónico. Pero también creía que "si podemos seguir atrayendo el mejor talento y asegurar la dirección correcta, OpenAI aún prevalecerá."
Uno de los objetivos de reclutamiento más importantes era Ilya Sutskever—un investigador introvertido e intenso, a menudo considerado como uno de los científicos de IA más dotados de su tiempo. Nacido en la Unión Soviética en 1986, Sutskever tenía una línea de cabello en retroceso, ojos profundos y una costumbre de pausar y mirar contemplativamente antes de hablar. Otra figura clave era Dario Amodei, un investigador enérgico con un trasfondo en biofísica que a menudo se pasaba nerviosamente la mano por el cabello negro en momentos de tensión y respondía con ensayos de varios párrafos incluso a correos electrónicos de una sola frase. Ambos ocupaban puestos bien remunerados en otras empresas en ese momento, pero Altman invirtió un esfuerzo significativo en incorporarlos. Más tarde bromeó: "Prácticamente estaba 'acosando' a Ilya."
Si bien Musk puede tener un mayor reconocimiento de nombre, Altman es el operador más hábil. Tomó la iniciativa de enviar un correo electrónico a Amodei y organizar una reunión individual en un restaurante indio. (Altman: "¡Mi Uber tuvo un accidente! Podría llegar 10 minutos tarde." Amodei: "Oh no, espero que estés bien.") Al igual que muchos investigadores de IA, Amodei cree que esta tecnología solo debería desarrollarse una vez que se haya demostrado que está "alineada" con los valores humanos—lo que significa que no se desvía catastróficamente de la intención humana, como aniquilar a la humanidad en nombre de "limpiar el medio ambiente." Altman reiteró esta preocupación por la seguridad en su conversación, infundiendo confianza.
Amodei, quien más tarde se unió a la empresa, pasó años documentando las acciones de Altman y Brockman, recopilándolas en un documento titulado "Mi experiencia en OpenAI" (subtítulo: "Confidencial:" No distribuir"). Más de doscientas páginas de archivos relacionados con Amodei—incluidas estas notas, correos electrónicos internos y memorandos—circularon en círculos de Silicon Valley pero nunca se habían hecho públicos. En estos registros, Amodei escribió que el objetivo de Altman era crear "un laboratorio de IA centrado en la seguridad ('quizás no al principio, pero pronto después')."
En diciembre de 2015, solo unas horas antes del anuncio oficial de OpenAI, Altman envió un correo electrónico a Musk mencionando un rumor: Google iba a "hacer una gran oferta inversa a todos en OpenAI mañana, tratando de acabar con la organización de inmediato." Musk preguntó, "¿Ilya ha dado una respuesta definitiva?" Altman respondió diciendo que Sutskever era resoluto. De hecho, Google había ofrecido a Sutskever un salario anual de 6 millones de dólares, que OpenAI no podía igualar. Sin embargo, Altman se mantuvo confiado, afirmando: "Qué pena que no estén del lado de 'hacer lo correcto'."

Elon Musk una vez proporcionó espacio de oficina para OpenAI en una antigua fábrica de maletas en el distrito Mission de San Francisco. Como nos dijo Ilya Sutskever, el grito de guerra central para los empleados en ese momento era: "Todos vosotros vais a salvar el mundo." Si todo iba bien, los fundadores de OpenAI creían que la inteligencia artificial daría paso a una utopía de "post-escasez": automatizando trabajos arduos, curando el cáncer, otorgando a los humanos más tiempo libre y abundancia. Pero si la tecnología se descontrolaba o caía en las manos equivocadas, la destrucción podría ser total—como ser utilizada para desarrollar nuevas armas biológicas o enjambres de drones avanzados; los modelos podrían superar la supervisión humana, replicarse en servidores clandestinos más allá del apagado; en casos extremos, incluso podrían tomar el control de la red eléctrica, del mercado de valores o del arsenal nuclear.
Si bien no todos están de acuerdo con estas evaluaciones, Sam Altman ha expresado repetidamente su creencia en este riesgo. En una publicación de blog de 2015, escribió que la inteligencia de máquina a nivel sobrehumano "no necesita ser malvada para destruir a la humanidad, podría ser simplemente indiferente, mientras logra otros objetivos... eliminándonos casualmente." El cofundador de OpenAI se comprometió a no priorizar la velocidad sobre la seguridad, y la carta de la empresa incluye un compromiso legal de "beneficiar a toda la humanidad." También son cautelosos de que si la IA se convierte en la tecnología más poderosa jamás creada, cualquier controlador único ganaría un poder sin precedentes — un escenario que ellos denominan "dictadura de AGI."
Después de la salida de Musk, investigadores como Dario Amodei comenzaron a expresar insatisfacción con el estilo de gestión de Greg Brockman, con algunos encontrándolo autoritario, mientras que Sutskever fue descrito como "principiado pero carente de capacidad organizativa." Durante su transición a CEO, Altman pareció hacer diferentes compromisos con varias facciones dentro de la empresa. Aseguró a algunos investigadores que debilitaría la autoridad de Brockman, pero al mismo tiempo, alcanzó un "acuerdo de palabra" con Brockman y Sutskever: él sería el CEO, pero renunciaría si ambos lo solicitaban. (Altman disputa esta afirmación, declarando que fue invitado a ser CEO.) Los tres reconocen la existencia del acuerdo, con Brockman diciendo que era informal: "Él dijo unilateralmente que si los dos se lo pedían, renunciaría. De hecho, nos opusimos a esta idea, pero él dijo que era importante para él y que se hizo por altruismo.") Más tarde, la junta se enteró de que el CEO había establecido un "consejo en la sombra" para sí mismo, lo que fue un shock.
Los registros internos muestran que el equipo fundador tenía dudas sobre la estructura sin fines de lucro ya en 2017. Ese mismo año, después de que Musk intentara una adquisición, Brockman escribió en una entrada de diario: "No puedo decir que realmente nos mantuvimos como una organización sin fines de lucro... Si nos convertimos en una B-Corp en tres meses, las declaraciones anteriores fueron mentiras." Amodei también documentó en notas tempranas que había preguntado a Brockman sobre sus principales prioridades, a lo que él respondió "dinero y poder." (Brockman niega esta afirmación.) Su diario también revela una mentalidad contradictoria: por un lado, afirmando "si otros no son ricos, a mí no me importa ser rico tampoco," y por otro lado preguntándose "¿qué es lo que realmente quiero?" con una respuesta siendo "alcanzar financieramente $1 mil millones."
En 2017, Sutskever leyó un artículo de investigación de investigadores de Google en la oficina que proponía una "nueva arquitectura de red simple—el Transformer." Saltó de su silla, corrió al pasillo y gritó: "Detened todo lo que estáis haciendo, esta es la respuesta." Para él, esta arquitectura permitiría a OpenAI entrenar modelos más complejos. Este avance llevó a los primeros modelos de Transformer generativos preentrenados y sirvió como base para ChatGPT más adelante.
Altman se había comprometido previamente con los primeros empleados a que OpenAI siempre permanecería pura en su naturaleza sin fines de lucro, lo que llevó a muchos programadores a aceptar recortes salariales significativos para unirse a la empresa. OpenAI también recibió alrededor de $30 millones en donaciones, incluyendo de la organización Open Philanthropy, un centro clave de financiación en el movimiento de altruismo efectivo, que ha apoyado durante mucho tiempo proyectos como la distribución de mosquiteros a áreas empobrecidas.
Las operaciones diarias fueron supervisadas principalmente por Brockman y Sutskever, mientras que Musk y Altman permanecieron ocupados con sus respectivos otros proyectos, visitando típicamente la empresa una vez a la semana. Para septiembre de 2017, Musk se estaba volviendo impaciente. A medida que surgieron discusiones sobre la posible transición de OpenAI a una empresa con fines de lucro, solicitó el control mayoritario.
Las respuestas de Altman variaron en diferentes ocasiones, pero una cosa en la que insistió de manera constante fue que si la empresa se reestructurara bajo un CEO, esa posición debería ser ocupada por él. Sutskever estaba notablemente inquieto al respecto. En nombre de sí mismo y de Brockman, envió un extenso correo electrónico a Musk y Altman titulado "Pensamientos Honestos", afirmando: "El objetivo de OpenAI es hacer el futuro mejor y evitar la dictadura de la AGI." Dirigiéndose a Musk, escribió: "Por lo tanto, establecer una estructura que pudiera convertirte en un dictador es una mala idea." También expresó preocupaciones similares a Altman, afirmando: "No entendemos por qué el título de CEO es tan crucial para ti." Tus razones siguen cambiando, lo que nos dificulta ver la verdadera motivación.
"Caballeros, he terminado," respondió Musk, "O haced algo más por vuestra cuenta o continuad manteniendo el estatus sin ánimo de lucro de OpenAI; de lo contrario, solo os estoy financiando gratuitamente para que gestionéis una empresa emergente." Cinco meses después, se marchó con visible insatisfacción. (En 2023, fundó el competidor con ánimo de lucro xAI. El año siguiente, demandó a Altman y OpenAI por fraude y violación de la confianza caritativa, alegando que fue "manipulado cuidadosamente" y que Altman participó en un "engaño prolongado" utilizando sus preocupaciones sobre el riesgo de la IA para asegurar financiación. La demanda está en curso, con OpenAI refutando enérgicamente las acusaciones.)
A medida que avanzaban las capacidades tecnológicas, supimos que alrededor de una docena de ingenieros clave en OpenAI habían mantenido una serie de reuniones secretas, discutiendo en privado si se podía confiar en el equipo fundador, incluyendo a Sam Altman y Greg Brockman. Durante una de estas reuniones, un empleado recordó un sketch satírico del dúo cómico británico Mitchell y Webb: un soldado nazi en el frente oriental de repente tiene una epifanía, preguntando: "¿Somos los malos?"
Para 2018, Dario Amodei había comenzado a cuestionar públicamente los motivos de los fundadores. Más tarde escribió en una nota: "Todo parece un esquema de financiación interminable. Siento que lo que OpenAI realmente necesita es una definición clara: lo que quiere hacer, lo que no quiere hacer y cómo su existencia hará el mundo mejor." A pesar de que la empresa ya tenía una declaración de misión — "asegurar que la inteligencia general artificial beneficie a toda la humanidad" — Amodei sentía que esta declaración no era clara para el equipo ejecutivo.
A principios de 2018, comenzó a redactar la carta de la empresa y, tras semanas de discusión con Altman y Brockman, presionó para incluir una de las cláusulas más radicales: si un "proyecto alineado con los valores y consciente de la seguridad" estaba más cerca de lograr la AGI que OpenAI, la empresa "cesaría la competitividad y en su lugar asistiría a ese proyecto." Esto se conocía como la cláusula de "fusionar y asistir"; por ejemplo, si Google lograra una AGI segura primero, OpenAI teóricamente se disolvería y transferiría recursos a Google. Desde una perspectiva empresarial tradicional, este compromiso era casi impensable, pero OpenAI nunca tuvo la intención de convertirse en una empresa tradicional.
Esta premisa se enfrentó a una verificación de la realidad en la primavera de 2019. En ese momento, OpenAI estaba en conversaciones con Microsoft para una posible inversión de hasta 1.000 millones de dólares. Aunque Amodei (que entonces lideraba el equipo de seguridad) había estado involucrado en presentar el proyecto a Bill Gates, aún había ansiedad dentro del equipo de que Microsoft pudiera introducir términos que diluyeran los compromisos éticos de OpenAI. Amodei presentó una lista priorizada de requisitos de seguridad a Altman, con la cláusula de "fusionar y asistir" en la parte superior.
Altman estuvo de acuerdo en ese momento. Sin embargo, a medida que el acuerdo se acercaba a su finalización en junio, Amodei descubrió una nueva cláusula en el acuerdo que otorgaba a Microsoft el poder de vetar la fusión de OpenAI. "Esto equivalía a un incumplimiento del 80% de la carta," recordó más tarde. Se enfrentó a Altman sobre esto, con Altman negando inicialmente la existencia de tal cláusula. Amodei leyó el contrato textualmente en el acto, teniendo que hacer que otro colega confirmara directamente con Altman. (Altman declaró que no recuerda este incidente.)
Éxodo de Seguridad y el Nacimiento de Anthropic
Las notas de Amodei también documentaron una serie de conflictos tensos en aumento. En una reunión varios meses después, Altman lo convocó a él y a su hermana Daniela, que también trabajaba en seguridad y políticas en la empresa, afirmando que había recibido información fiable de un "ejecutivo senior" de que los dos estaban planeando un "golpe." Las notas indicaron que Daniela se sintió "emocionalmente abrumada" en el acto y llamó al ejecutivo, quien luego negó haber dicho tal cosa. Fuentes familiarizadas con el asunto recordaron que Altman más tarde negó haber hecho alguna vez esta acusación: "Nunca dije eso." Daniela respondió: "Acabas de hacerlo." (Altman declaró que su recuerdo era ligeramente diferente, afirmando que solo acusó a Amodei de participar en "comportamiento político.") En 2020, Amodei, Daniela y varios colegas dejaron la empresa para fundar Anthropic, que desde entonces se ha convertido en uno de los principales competidores de OpenAI.
Mientras tanto, Altman continuó enfatizando el compromiso de OpenAI con la seguridad, especialmente en presencia de posibles reclutas. A finales de 2022, cuatro científicos informáticos publicaron un artículo proponiendo el riesgo de "alineación engañosa": modelos altamente avanzados podrían funcionar bien durante las pruebas pero perseguir sus propios objetivos tras el despliegue real. (Este escenario que parece de ciencia ficción ya ha ocurrido bajo ciertas condiciones experimentales.) Varias semanas después de la publicación del artículo, uno de los autores—un estudiante de doctorado en la Universidad de California, Berkeley—recibió un correo electrónico de Altman. Altman expresó crecientes preocupaciones sobre la amenaza de la "IA no alineada" y contempló invertir 1.000 millones de dólares para abordar este problema, como establecer un premio de investigación global. A pesar de que este estudiante había oído rumores de que "Sam era un poco astuto", el compromiso finalmente le convenció para pausar sus estudios y unirse a OpenAI.
Sin embargo, en múltiples reuniones en la primavera de 2023, la actitud de Altman pareció cambiar. Ya no mencionó la creación de un premio, sino que se centró en establecer un "equipo de superalineación" interno dentro de la empresa. Un anuncio oficial declaró que el equipo recibiría "el 20% de la capacidad computacional asegurada de la empresa", un recurso valorado en potencialmente más de 1.000 millones de dólares. El anuncio también enfatizó que si el problema de alineación no podía resolverse, la AGI podría llevar a "la desposesión o incluso la extinción de la humanidad." Jan Leike, quien estaba a cargo del equipo, declaró más tarde: "De hecho, fue una estrategia de retención muy efectiva."
Sin embargo, la promesa del "20% de capacidad computacional" no se cumplió. Cuatro personas involucradas o que seguían de cerca al equipo afirmaron que los recursos realmente asignados solo representaban entre el 1% y el 2% de la capacidad computacional total de la empresa. Además, un investigador señaló que "la mayoría de la llamada capacidad computacional de superalineación en realidad se ejecuta en el clúster más antiguo y de peor rendimiento." Los miembros del equipo creían generalmente que se priorizaba hardware más avanzado para proyectos generadores de ingresos. (OpenAI negó esto.) Leike había planteado este problema con la entonces Directora de Tecnología Mira Murati, pero la respuesta fue que no había necesidad de insistir más—este compromiso era "irrealista" desde el principio.

Alrededor de este tiempo, un ex-empleado nos dijo que Ilya Sutskever "comenzó a enfatizar fuertemente la seguridad." En los primeros días de OpenAI, aunque pensaba que el riesgo catastrófico era una preocupación razonable, aún era algo distante; sin embargo, a medida que gradualmente llegó a creer que la AGI se estaba acercando, esta preocupación escaló rápidamente. Según el recuerdo del empleado, durante una reunión general, "Ilya se levantó y dijo que habría un momento en los próximos años en el que casi todos en la empresa tendrían que cambiar a hacer seguridad, o de lo contrario estaríamos acabados." Sin embargo, al año siguiente, este "equipo de superalineación" fue disuelto antes de completar su misión.
En este punto, las comunicaciones internas indican que los ejecutivos y miembros de la junta están comenzando a creer que el encubrimiento y el comportamiento engañoso de Sam Altman pueden tener un impacto material en la seguridad de los productos de OpenAI. Durante una reunión en diciembre de 2022, Altman aseguró a la junta que las múltiples características del próximo GPT-4 habían sido aprobadas por el comité de seguridad. La miembro de la junta y experta en políticas de IA, Helen Toner, solicitó ver los documentos relevantes, pero descubrió que las dos características más controvertidas—una que permitía a los usuarios "ajustar" el modelo y otra que habilitaba su implementación como asistente personal—no habían sido realmente aprobadas. Después de la reunión, otra miembro de la junta, la emprendedora Tasha McCauley, fue apartada por un empleado que le preguntó si sabía sobre "el incidente de cumplimiento en India": Altman nunca había mencionado en múltiples actualizaciones de la junta que Microsoft había lanzado una versión temprana de ChatGPT en India sin completar las revisiones de seguridad necesarias. "Esto fue casi completamente ignorado," dijo el entonces investigador de OpenAI, Jacob Hilton.
Si bien estos problemas no condujeron directamente a un incidente de seguridad, la investigadora Carroll Wainwright creía que reflejaban una "continuada tendencia hacia un enfoque en el producto, con poca seguridad." Tras el lanzamiento de GPT-4, Jan Leike, quien estaba a cargo del trabajo de seguridad, escribió a la junta: "OpenAI se está desviando de su misión. Priorizamos el producto y los ingresos primero, luego la capacidad, la investigación y la escalabilidad, con la alineación y la seguridad en tercer lugar." También señaló que "empresas como Google están aprendiendo lecciones—acelerando la implementación mientras descuidan las preocupaciones de seguridad."
En un correo electrónico a los miembros de la junta, McCauley escribió: "Creo que estamos efectivamente en una etapa donde es necesaria una mayor supervisión." Sin embargo, cuando la junta intentó abordar este problema, claramente estaban en desventaja. "Para ser claros, es un grupo de personas que carecen de experiencia en el mundo real," dijo la exmiembro de la junta, Sue Yoon. En 2023, la empresa se estaba preparando para lanzar GPT-4 Turbo. Según la descripción de Sutskever en un memorando, Altman le había dicho a Mira Murati que el modelo no requería aprobación de seguridad y atribuyó esta decisión al abogado general de la empresa, Jason Kwon. Pero cuando Murati preguntó a Kwon en Slack, él respondió: "Um... No estoy del todo seguro de por qué Sam pensaría eso." (OpenAI declaró que este incidente "no fue significativo.")
Poco después, la junta decidió despedir a Altman—posteriormente, el mundo fue testigo de cómo él rápidamente revirtió esa decisión. La carta fundacional de OpenAI sigue disponible en el sitio web oficial, pero aquellos familiarizados con los documentos de gobernanza de la empresa dicen que su contenido ha sido diluido hasta casi perder su significado. En junio del año pasado, Altman escribió en una publicación personal de blog sobre la superinteligencia: "Hemos cruzado el horizonte de eventos; el despegue ha comenzado."
Según la carta original, se suponía que este iba a ser un punto de inflexión para que la empresa dejara la competencia y pasara a la colaboración. Sin embargo, en el artículo titulado "La Singularidad Suave", adoptó un tono completamente nuevo, reemplazando "temor existencial" por "imaginación optimista": "Todos tendremos cosas mejores, y crearemos cosas cada vez mejores para los demás." Reconoció que los problemas de alineación seguían sin resolverse, pero los redefinió como una "molestia", similar a estar enganchado a un algoritmo de recomendaciones de Instagram.
A menudo se refiere a Altman con asombro o escepticismo como "el narrador más poderoso de su generación." El Steve Jobs que admiraba se pensaba que poseía un "campo de distorsión de la realidad", moldeando el mundo a su visión con absoluta confianza. Pero incluso Jobs nunca dijo a los usuarios: si no compraban su producto, la humanidad podría perecer. En 2008, con solo 23 años, su mentor Paul Graham lo describió de la siguiente manera: "Déjalo en una isla caníbal, vuelve en cinco años, y será rey." Esta evaluación no se basó en sus logros en ese momento, sino en su voluntad casi ilimitada.
Sin embargo, para algunos de aquellos que han trabajado más de cerca con él, este rasgo tiene otro lado. A medida que Sutskever se volvía cada vez más ansioso por la seguridad de la IA, compiló una serie de memorandos sobre Altman y Greg Brockman—un conjunto de documentos tan significativos en Silicon Valley que incluso se les conoce como los "Memorandos de Ilya."
Mientras tanto, Dario Amodei continuó documentando. Estos materiales no proporcionaron la llamada "prueba irrefutable" pero retrataron una serie de patrones de comportamiento aparentemente dispersos pero acumulativos: como ofrecer la misma posición a diferentes personas, dar relatos contradictorios de información pública y ser ambiguo sobre los procesos de seguridad. La conclusión de Sutskever fue que este comportamiento "no construye un entorno propicio para una AGI segura"; Amodei fue más directo, escribiendo, "El problema con OpenAI es Sam mismo."
Entrevistamos a más de cien personas familiarizadas con el enfoque de Altman: empleados y directores actuales y anteriores de OpenAI, sus colegas y competidores, amigos y enemigos—en Silicon Valley, muchos a menudo llevan múltiples sombreros. Algunos defendieron su perspicacia empresarial, creyendo que Sutskever y Amodei eran solo competidores fracasados; otros lo vieron como un científico ingenuo y despistado, o incluso como un extremista atrapado en el "apocalipticismo." Yoon creía que Altman no era un "villano maquiavélico" sino una persona convencida por su propia narrativa, "está tan inmerso en su autoconfianza que toma decisiones que son incomprensibles en el mundo real—pero no vive en el mundo real para empezar."
Sin embargo, el juicio de la mayoría de los entrevistados es similar al de Sutskever y Amodei: Altman tiene una voluntad de poder extrema, destacándose incluso entre los titanes industriales que tienen sus nombres grabados en cohetes. "No está limitado por la 'realidad'," dijo un miembro de la junta, "Posee dos rasgos que rara vez aparecen juntos: uno es un fuerte deseo de ser querido, de complacer a la otra parte en cada interacción; el otro es casi antisocial, careciendo de preocupación por las consecuencias de engañar a los demás."
Más de un entrevistado utilizó espontáneamente el término "personalidad antisocial." Altman, un compañero de la primera tanda de Y Combinator, fue colega del programador Aaron Swartz, quien posteriormente se suicidó en 2013. Antes de su muerte, Swartz expresó preocupaciones a un amigo sobre Altman: "Debes entender, Sam nunca debe ser de fiar. Es una personalidad antisocial; es capaz de cualquier cosa." Varios ejecutivos de Microsoft también afirmaron que a pesar del apoyo prolongado de Satya Nadella a Altman, la relación entre ambos se está volviendo tensa. "Él engañará, distorsionará, renegociará o incluso anulará acuerdos," dijo un ejecutivo. A principios de este año, OpenAI reafirmó a Microsoft como el proveedor exclusivo de servicios en la nube para su "modelo sin estado", pero el mismo día, anunció una asociación de 500 mil millones de dólares con Amazon, convirtiendo a este último en el revendedor exclusivo de su plataforma de IA empresarial. Si bien este acuerdo no violó el contrato, Microsoft creía que había un posible conflicto. (OpenAI declaró que no violaría el contrato.) El ejecutivo incluso comentó: "Creo que hay una posibilidad significativa de que en el futuro se le vea como alguien similar a Bernie Madoff o Sam Bankman-Fried."
Altman no es un genio técnico—en la opinión de muchos colegas, sus habilidades profesionales en programación o aprendizaje automático son limitadas, e incluso puede confundir conceptos básicos. Construyó OpenAI en gran medida integrando los fondos y recursos técnicos de otras personas. Esto no es poco común—este es el papel de un emprendedor. Lo que es más notable es su capacidad para persuadir a ingenieros, inversores y al público con opiniones contradictorias, convenciéndolos de que sus prioridades son también las suyas. Cuando estas personas intentan detenerlo, a menudo es capaz de desactivar la situación con una retórica apropiada—al menos temporalmente; y para cuando la otra parte se da cuenta del problema, él generalmente ya ha alcanzado su objetivo. "Él diseñará algunas estructuras para restringir a su yo futuro en papel," dijo Wainwright, "pero cuando el futuro realmente llegue y necesite ser restringido, desmantelará estas estructuras una por una."
"Su persuasión es increíblemente fuerte, como un truco mental de Jedi," dijo un ejecutivo tecnológico que ha trabajado con él, "Es un nivel completamente diferente." En la investigación sobre la alineación de la IA, hay un concepto clásico: la voluntad de la humanidad frente a una IA poderosa, con esta última prevaleciendo casi inevitablemente, como un gran maestro de ajedrez contra un niño. Y desde la perspectiva de ese ejecutivo, presenciar a Altman navegar entre las diversas partes durante el evento "Blip" fue como ver "una AGI liberándose de su jaula."

En los días posteriores a su despido, Sam Altman había estado intentando evitar que se llevara a cabo cualquier investigación sobre las acusaciones en su contra. Él había expresado a dos personas que le preocupaba que incluso la existencia de una investigación le hiciera parecer culpable. (Altman niega haber hecho esta declaración.) Sin embargo, tras su dimisión, los miembros de la junta insistieron en que "debe llevarse a cabo una investigación independiente" como condición para su salida, Altman finalmente accedió a una "revisión" de los "eventos recientes." Según fuentes familiarizadas con las negociaciones, los dos nuevos miembros de la junta insistieron en liderar esta revisión ellos mismos.
Lawrence Summers, aprovechando sus conexiones en la política y en Wall Street, parecía aportar algo de credibilidad a esta revisión. (El pasado noviembre, Summers dimitió de la junta después de que se hiciera público que había buscado consejo de Jeffrey Epstein por correo electrónico mientras buscaba a un joven protegido.) OpenAI finalmente contrató a la destacada firma de abogados WilmerHale para manejar esta revisión. La firma había liderado anteriormente investigaciones internas sobre Enron y WorldCom.
Seis individuos cercanos al proceso de investigación indicaron que la revisión parecía diseñada para limitar la transparencia. Algunos dijeron que los investigadores inicialmente no se pusieron en contacto con algunos individuos clave dentro de la empresa. Un empleado llegó incluso a contactar a Summers y Bret Taylor para expresar sus preocupaciones. "Solo estaban interesados en ese breve período en el que ocurrió el drama de la junta, no en los problemas de integridad de Sam a largo plazo," recordó el empleado durante su entrevista con los investigadores. Algunos también eran reacios a compartir sus preocupaciones sobre Altman debido a una percepción de falta de protección de anonimato. "Todos los signos indican que están buscando una conclusión predeterminada—para exonerarlo," dijo el empleado. (Sin embargo, algunos abogados involucrados en el proceso defendieron la revisión, calificándola de "independiente, exhaustiva, completa y guiada por los hechos.") Taylor también declaró que la revisión era "exhaustiva e independiente.")
El papel de una investigación corporativa interna a menudo sirve para legitimar una decisión. En las empresas privadas, los resultados de las investigaciones a veces ni siquiera se traducen en un informe escrito, sirviendo como una forma de mitigar la responsabilidad legal. Sin embargo, en casos que involucran controversia pública, suele haber una expectativa de un mayor grado de transparencia. En 2017, antes de la salida de Travis Kalanick de Uber, la junta había contratado a una empresa externa y publicó un resumen de 13 páginas de la investigación al público. Considerando el estatus de organización sin ánimo de lucro 501(c)(3) de OpenAI y la naturaleza altamente pública de esta terminación, muchos ejecutivos dentro de la empresa habían anticipado inicialmente un informe de investigación detallado. Sin embargo, para marzo de 2024, OpenAI solo anunció la "autorización" de Altman sin publicar informes formales, reconociendo un "quiebre de confianza" en unas 800 palabras en su sitio web.
Incluso los antiguos colegas están sintiendo las réplicas. Mira Murati dejó OpenAI en 2024 para iniciar su propia startup de IA. Posteriormente, el estrecho aliado de Altman, Josh Kushner, la llamó. Comenzó elogiando su liderazgo, pero luego hizo una amenaza velada, expresando su "preocupación" por su "reputación" y mencionando que algunos antiguos colegas ahora la ven como una "enemiga". (Kushner, a través de un portavoz, dijo que este relato "no proporcionó el contexto completo"; Altman, por su parte, afirmó no estar al tanto de la llamada.)
Al principio de su mandato como CEO, Altman anunció que OpenAI crearía una empresa de "beneficio limitado" controlada por la entidad sin ánimo de lucro. Esta estructura empresarial enrevesada y casi retorcida fue aparentemente idea del propio Altman. Durante la transición, un director llamado Holden Karnofsky expresó su oposición, creyendo que este arreglo subestimaba gravemente el valor de la organización sin ánimo de lucro. "No puedo, en buena conciencia, apoyar esto," dijo Karnofsky. Según los registros de la época, emitió un voto en disidencia. Sin embargo, después de que el abogado de la junta sugiriera que su oposición "podría servir como una señal de alerta para una mayor investigación sobre la legalidad de la nueva estructura," su voto fue finalmente registrado como una abstención y aparentemente sin su consentimiento — potencialmente incluso constituyendo falsificación de registros comerciales. (OpenAI nos dijo que varios empleados recuerdan que Karnofsky se abstuvo y proporcionaron actas de la reunión como evidencia.)
En octubre del año pasado, OpenAI experimentó una "reestructuración de capital," convirtiéndose en una entidad con fines de lucro. La empresa declaró públicamente que su organización sin ánimo de lucro afiliada — ahora llamada OpenAI Foundation — se convertiría en una de las instituciones más ricas de la historia. Sin embargo, la fundación ahora posee solo el 26% de las acciones de la empresa, y todos sus directores, excepto uno, también forman parte de la junta de la entidad con fines de lucro.
Durante una audiencia en el Congreso, se le preguntó a Altman si había "ganado mucho dinero." Él respondió: "No tengo ninguna participación en OpenAI... Hago esto porque me encanta." Dada su participación indirecta a través de fondos relacionados con Y Combinator, esta respuesta fue bastante cautelosa. Técnicamente, es cierto. Pero varias personas, incluido Altman, nos han indicado que esta situación probablemente cambiará pronto. "Los inversores dirán: 'Necesito saber que cuando las cosas se pongan difíciles, seguirás haciendo esto'," dijo Altman, aunque añadió que actualmente no hay "discusiones activas" al respecto. Según un testimonio legal, la participación de Greg Brockman vale alrededor de 20 mil millones de dólares, y la parte de Altman debería ser teóricamente mayor. Sin embargo, Altman nos dijo que la riqueza no es su principal motivador. Un ex-empleado lo recordó diciendo: "No me importa el dinero. Me importa más el poder."
En 2023, Altman y Oliver Mulherin celebraron una pequeña boda en su residencia en Hawái. (Los dos se habían conocido nueve años antes en la casa de Peter Thiel junto a la bañera de hidromasaje de medianoche.) Habían recibido a muchos invitados en esa propiedad, y las escenas descritas por los visitantes que entrevistamos no superaron el ámbito común del estilo de vida de los superricos: cena preparada por un chef privado, paseos en barco al atardecer. Hubo una fiesta de Año Nuevo con temática del programa de telerrealidad Superviviente; las fotos mostraban a un grupo de hombres sonrientes y sin camiseta, incluido el presentador del programa, Jeff Probst. Altman también había organizado pequeñas reuniones en sus otras propiedades, con al menos un evento que involucraba un animado strip poker. (Una foto filtrada no incluía a Altman, por lo que se desconoce quién ganó finalmente, pero al menos tres hombres parecían haber perdido claramente.) Muchos de los ex-invitados entrevistados solo mencionaron una cosa: él era, de hecho, un anfitrión generoso.
Los involucrados en la investigación dijeron que nunca se emitió ningún informe porque nunca hubo un informe escrito formal. Los llamados hallazgos de la investigación solo se comunicaron oralmente a Summers y Taylor. "La revisión no concluyó que 'Sam es tan honesto como George Washington cortando el cerezo'," dijo una fuente cercana a la investigación. Pero en general, parecía que la investigación no se centraba verdaderamente en el 'tema de la integridad' detrás del despido de Altman, con una parte significativa del esfuerzo dedicada en su lugar a determinar si había delitos claros; bajo ese estándar, la investigación concluyó que podía continuar como CEO. Poco después, Altman recuperó el asiento en la junta que había perdido tras su despido. Fuentes internas revelaron que parte de la razón por la que no se documentaron los hallazgos de la investigación por escrito también se debía a consejos de los respectivos abogados privados de Summers y Taylor. (Summers se negó a comentar públicamente sobre este asunto; Taylor declaró que dado que hubo un informe oral, "no había necesidad de un informe formal por escrito.")
Muchos empleados actuales y anteriores de OpenAI nos dijeron que estaban sorprendidos por la falta de divulgación pública. Altman afirmó que creía que todos los miembros de la junta que se unieron tras su reinstalación habían sido informados oralmente sobre estos asuntos. "Esto es una mentira absoluta," dijo una persona familiarizada con la situación. Algunos directores también nos dijeron que las preguntas continuas sobre la integridad de estos "hallazgos de la investigación" podrían incluso requerir un "nuevo inicio de la investigación" en el futuro.
Sin registros escritos, estas alegaciones son más fáciles de minimizar. Mientras tanto, el continuo ascenso de Altman en el estatus de Silicon Valley debilitó aún más el escrutinio externo sobre estos temas. Varios inversores prominentes que habían trabajado con él nos contaron sobre un hábito ampliamente conocido que tenía Altman: si un inversor apostaba por un competidor de OpenAI, podría más tarde "incluirlo en una lista negra." "Si invierten en un proyecto que a Sam no le gusta, no esperen ser parte de ninguna otra oportunidad más adelante," dijo uno de ellos. Otra fuente de poder de Altman era su extensa red de inversiones, que a veces incluso se extendía a su vida personal. Tenía relaciones financieras con varios exsocios: algunas involucraban la co-gestión de fondos, otras donde lideraba inversiones, y algunas eran co-inversiones frecuentes. Esta práctica no es poco común en Silicon Valley. Muchos ejecutivos heterosexuales también operan de esta manera. ("Tienes que hacerlo", nos dijo un conocido CEO.) El propio Altman declaró: "Claramente, he invertido con algunos ex después de que nos separáramos, y creo que eso está totalmente bien." Sin embargo, este arreglo en sí crea un nivel de dependencia muy alto. "Esto crea fundamentalmente una dependencia muy, muy fuerte", dijo una persona cercana a Altman, "muchas veces, incluso una dependencia de por vida."
No obstante, varios rumores sobre la vida personal de Sam Altman han sido explotados e incluso distorsionados por competidores. La feroz competencia empresarial no es nada nuevo, pero la competencia dentro de la industria de la inteligencia artificial se ha vuelto excepcionalmente brutal. "Shakespeariano", lo describió un ejecutivo de OpenAI, quien añadió: "Las reglas habituales del juego parecen ya no aplicarse." Algunos intermediarios directamente asociados con Elon Musk, incluso recibiendo su financiación en algunos casos, han difundido docenas de páginas de "investigación de oposición" sobre Altman. Estos materiales muestran un alto nivel de vigilancia: incluyendo empresas fantasma relacionadas con él, información de contacto íntima e incluso registros de entrevistas con un supuesto trabajador sexual en un bar gay. Un intermediario también afirmó que se estaban rastreando los itinerarios de vuelo de Altman y las fiestas a las que asistía. Altman nos dijo: "Siento que nadie ha sido contratado para investigar más sobre mí que yo mismo."
Mientras tanto, también se están propagando varias acusaciones extremas. La personalidad de los medios de comunicación de derecha Tucker Carlson ha insinuado sin ninguna evidencia que Altman estuvo involucrado en la muerte de un denunciante, una afirmación que los competidores han amplificado continuamente. La hermana de Altman, Annie, declaró en una demanda y durante una entrevista con nosotros que él la había abusado sexualmente desde que ella tenía tres años y él doce. (No pudimos verificar las afirmaciones de Annie.) Altman niega esto, y su madre y su hermano también afirmaron que estas acusaciones son "completamente falsas" y han traído "enorme dolor" a toda la familia. En una entrevista realizada por la periodista Karen Hao para su libro "Empire of AI", Annie declaró que estos recuerdos fueron recuperados en "flashbacks" en la adultez.)
Además, varios individuos de empresas competidoras y firmas de inversión también nos insinuaron que Altman estaba involucrado en actividades sexuales con menores, una afirmación ampliamente difundida en Silicon Valley que parece igualmente infundada. Pasamos meses investigando, realizando docenas de entrevistas, y no encontramos evidencia que apoyara esta afirmación. Altman respondió: "Esta es una táctica asquerosa que creo que los competidores están intentando para 'envenenar el jurado' para futuros casos." Aunque suene absurdo, quiero afirmar: cualquier afirmación sobre mí teniendo relaciones sexuales con menores, contratando trabajadores sexuales o estando involucrado en asesinatos es completamente falsa. Él también añadió que está "algo agradecido" por nosotros haber pasado "tantos meses investigando estas cosas en tal profundidad."

Sam Altman admite haber estado en relaciones con jóvenes de edad legal. Entrevistamos a algunos de sus parejas, quienes dijeron que no veían un problema con esto. Sin embargo, la "investigación de oposición" del equipo de Elon Musk enmarcó deliberadamente esto como un punto de ataque. (Estos materiales incluso incluían algunas afirmaciones sensacionalistas y no verificadas, como el llamado "Ejército Twink" y la "fijación del Sugar Daddy.") Altman respondió: "Hay mucha homofobia amplificada mezclada aquí." La periodista tecnológica Kara Swisher también está de acuerdo: "Todas estas personas ricas han hecho todo tipo de cosas escandalosas, más escandalosas que cualquier cosa que haya oído sobre Sam." Pero porque él es un hombre gay en San Francisco, eso se está utilizando como un arma."
Durante la última década, los ejecutivos de empresas de redes sociales prometieron una vez que podían "cambiar el mundo" con casi ningún efecto secundario, desestimando las demandas regulatorias como "luditas", lo que finalmente provocó la ira bipartidista. En contraste, la imagen de Altman parecía particularmente "autoconsciente." No solo no se mostró reacio a la regulación, sino que la pidió activamente. En 2023, testificando ante el Comité Judicial del Senado de EE. UU., propuso establecer una nueva agencia federal para regular modelos avanzados de IA. "Si esta tecnología sale mal, las consecuencias serán muy severas," dijo. El senador de Luisiana John Kennedy, conocido por sus comentarios agudos hacia los CEOs de empresas tecnológicas, incluso pareció algo aprobador, sugiriendo medio en broma que Altman debería estar a cargo de la regulación él mismo.
Sin embargo, mientras abrazaba públicamente la regulación, Altman también estaba haciendo lobby en contra de ella en privado. Según Time, entre 2022 y 2023, OpenAI logró suavizar una propuesta regulatoria de la Unión Europea dirigida a grandes empresas de IA. En 2024, la legislatura de California introdujo un proyecto de ley que requería pruebas de seguridad de modelos de IA, muchos de los cuales reflejaban de cerca la defensa de Altman en el Congreso. OpenAI se opuso públicamente al proyecto de ley y ejerció presión tras bambalinas. "A lo largo de ese año, vimos cómo el comportamiento de OpenAI se volvía cada vez más astuto y engañoso," nos dijo un asistente legislativo.
Mientras tanto, Musk continuó sus ataques públicos contra Altman, refiriéndose a él como "Estafa Altman" y "Sam el Estafador." (Cuando Altman se quejó de un problema con un Tesla en X, Musk respondió: "Robaste de una organización sin fines de lucro.") Pero en Washington, Altman parecía tener la ventaja. Musk había contribuido una vez con más de 250 millones de dólares para ayudar a Donald Trump a ser reelegido, sirviendo brevemente en la Casa Blanca antes de irse, lo que agrió su relación con Trump.
Hoy, Altman se ha convertido en uno de los magnates tecnológicos favoritos de Trump, incluso visitando el Castillo de Windsor en el Reino Unido con él. Los dos hablan varias veces al año. "Puedes llamarlo directamente," dijo Altman. "No es ese tipo de amistad, pero si necesito hablar con él sobre algo, llamaré." Cuando Trump recibió a líderes tecnológicos en la Casa Blanca el año pasado, Musk estaba ausente, y Altman se sentó frente al presidente. "Sam, eres un pez gordo," le dijo Trump. "Me dijiste algunas cosas increíbles antes."
El inversor Ron Conway también presionó a figuras políticas, incluyendo a Nancy Pelosi y Gavin Newsom, para impulsar el rechazo del mencionado proyecto de ley. En última instancia, aunque el proyecto de ley recibió apoyo bipartidista y fue aprobado, fue vetado por Newsom. Este año, algunos candidatos al Congreso que apoyan la regulación de la IA se enfrentaron a oponentes financiados por "Leading the Future," un super PAC pro-IA. OpenAI declaró oficialmente que no donaría a tales organizaciones, pero su cofundador Greg Brockman prometió 50 millones de dólares. (Ese mismo año, él y su esposa también donaron 25 millones de dólares a un super PAC que apoya a Trump.)
Las acciones de OpenAI van más allá del cabildeo tradicional. El año pasado, cuando el Senado de California propuso una versión revisada de un proyecto de ley, Nathan Calvin, un abogado de una organización de interés público involucrado en la redacción del proyecto, recibió una citación de OpenAI durante una cena en casa. La empresa afirmó que era para investigar si Musk estaba financiando secretamente a críticos, pero solicitó todas las comunicaciones privadas de Calvin respecto al proyecto de ley. "Podrían habernos preguntado directamente si habíamos recibido dinero de Musk—no hemos recibido nada," dijo él. Otros partidarios del proyecto de ley, así como aquellos críticos de la transición de comercialización de OpenAI, también recibieron citaciones similares. "Están intentando intimidar a estas personas para que guarden silencio," dijo Don Howard, director de la organización de interés público. (OpenAI declaró que esto es parte de los procedimientos legales normales.)
En términos de postura política, Altman ha apoyado durante mucho tiempo al Partido Demócrata. Ha declarado, "Soy muy cauteloso con aquellos gobernantes autoritarios que utilizan una narrativa de miedo para suprimir a los débiles—esto proviene más de mi origen judío que de mi orientación sexual." En 2016, apoyó a Hillary Clinton, llamando a Trump "una amenaza sin precedentes para América"; en 2020, donó al Partido Demócrata y al fondo de campaña de Biden. Durante el mandato de Joe Biden, visitó la Casa Blanca en múltiples ocasiones para discusiones sobre políticas y ayudó a impulsar el primer marco regulatorio de seguridad de IA a nivel federal.
Sin embargo, para 2024, a medida que las calificaciones de aprobación de Biden disminuían, la postura de Altman comenzó a cambiar: "Independientemente del resultado de las elecciones, América estará bien." Tras la victoria de Trump, donó 1 millón de dólares a su fondo de inauguración y se tomó una foto con las celebridades de internet Jake y Logan Paul en la ceremonia de inauguración. En X, escribió, "He estado observando a @potus más de cerca recientemente, y realmente ha cambiado mi percepción de él (desearía haber pensado de manera más independiente antes...)." En el primer día de Trump en el cargo, derogó las órdenes ejecutivas sobre IA de la era Biden. Un ex alto funcionario del gobierno comentó, "Encontró una forma efectiva de hacer que la administración Trump trabajara para él."
A lo largo de los años, Altman siempre ha comparado el desarrollo de AGI con el "Proyecto Manhattan." Así como J. Robert Oppenheimer movilizó una vez a los científicos con un sentido de misión "contra los nazis," Altman también aprovecha la narrativa de competencia geopolítica para obtener apoyo. Frente a diferentes audiencias, utiliza esta analogía de manera flexible—en ocasiones enfatizando la aceleración, en otras enfatizando la precaución. En el verano de 2017, durante una reunión con funcionarios de inteligencia de EE. UU., afirmó que China había lanzado un "Proyecto Manhattan de AGI" y utilizó esto para buscar apoyo financiero del gobierno. Cuando se le pidió que proporcionara evidencia, solo dijo, "He oído algunas cosas," pero nunca proporcionó evidencia específica. Un funcionario del gobierno involucrado en la investigación declaró más tarde que no se encontraron tales proyectos: "Esto parece más un argumento de venta." (Altman afirmó no recordar haberlo expresado de esa manera.)
Cuando se enfrenta a una audiencia más centrada en la seguridad, a su vez enfatiza la importancia de la coordinación internacional. En 2017, Amodei reclutó a la abogada de interés público Page Hedley para que sirviera como asesora de políticas y ética. En una presentación interna, Hedley sugirió que se podría establecer un mecanismo de coordinación internacional similar a la OTAN para evitar una catastrófica carrera armamentista de IA. Sin embargo, según su recuerdo, Brockman no estaba preocupado por esto: "No importa lo que dijera, siempre volvía a una pregunta: ¿cómo conseguimos más financiación?" ¿Cómo ganamos?" Basado en múltiples entrevistas y registros, Brockman incluso propuso otra idea: beneficiarse de una guerra de ofertas entre Estados Unidos, China y Rusia — "Dado que la era de las armas nucleares puede operar de esta manera, ¿por qué no la IA?"
Se quedó sorprendido en ese momento: "Ni siquiera negaron esta premisa — 'Estamos discutiendo lo que puede ser la tecnología más destructiva de la historia, ¿y si se la vendemos a Vladimir Putin?'" (Sin embargo, Greg Brockman afirmó que nunca consideró seriamente "subastar" modelos de IA a gobiernos.) "Simplemente estábamos discutiendo algunos marcos de colaboración potenciales desde un nivel macro, como un mecanismo de cooperación en IA similar a la Estación Espacial Internacional," dijo un portavoz de OpenAI. "Retratar esto como algo diferente es absolutamente absurdo.")
Las tormentas de ideas a menudo generan algunas ideas extravagantes para empezar. Page Hedley había esperado inicialmente que el concepto que más tarde se conoció internamente como el "plan de países" se archivara rápidamente. Sin embargo, según varios participantes y registros relevantes de la época, los ejecutivos de OpenAI se entusiasmaron cada vez más con esta idea. El entonces Jefe de Políticas, Jack Clark, dijo que el objetivo de Brockman era "crear una situación que se asemejara al dilema del prisionero, donde todos los países tendrían que financiarnos," y "dentro de esta estructura, no financiarnos se convierte en un acto peligroso." Un investigador junior recordó que cuando escuchó una descripción detallada de este plan en una reunión de la empresa, pensó: "Esto es simplemente una locura."
Los ejecutivos incluso discutieron este plan con al menos un posible financiador. Sin embargo, más tarde ese mes, después de que varios empleados expresaran su intención de renunciar, el plan fue detenido. "Sam perdería miembros del equipo," dijo Hedley. "Sentí que, en su cálculo, eso siempre era más importante que 'este plan podría desencadenar un conflicto de grandes potencias, por lo que es inherentemente irracional.'"
A pesar de la desaparición del "plan de países," Sam Altman no renunció a una variante de esta idea. En enero de 2018, convocó un "A.G.I. evento de fin de semana" en el Hotel Bel-Air de Los Ángeles. Este complejo al estilo de Hollywood es conocido por su jardín de bugambilias rosas y una piscina con cisnes reales. Los asistentes incluyeron al filósofo de Oxford y "profeta" del riesgo de IA Nick Bostrom, al defensor de la IA de los EAU Omar Al Olama, y al menos siete multimillonarios. Para aquellos preocupados por cuestiones de seguridad, este evento fue descrito como una oportunidad para discutir "cómo prepararse para la llegada de la AGI"; mientras que los inversores esperaban escuchar propuestas de financiación.
Las actividades diurnas tuvieron lugar en una sala de conferencias moderna, con los asistentes turnándose para dar discursos. (Reid Hoffman incluso habló sobre cómo codificar "la compasión budista" en la IA.) El último orador fue Altman, quien presentó un plan de financiación: emitir una criptomoneda global que pudiera "intercambiar la atención de la AGI." En su visión, una vez que la AGI alcanzara la máxima practicidad y "desmaleficación," los usuarios globales competirían por comprar el tiempo de uso de los servidores de OpenAI. Dario Amodei escribió en sus notas: "Esta idea parece absurda a simple vista (¿también tendría Vladimir Putin estos tokens?... Mirando hacia atrás, esta fue una de las muchas señales de advertencia que debería haber tomado más en serio." Este plan parecía más una táctica de recaudación de fondos, pero Altman lo presentó como parte de la seguridad de la IA. Una de sus diapositivas decía: "Quiero que tantas personas como sea posible estén del 'lado correcto' y, en última instancia, ganen." Otra diapositiva decía: "Por favor, guarden las risas hasta el final de la presentación."
La narrativa de financiación de Altman ha evolucionado a lo largo de los años, pero siempre ha girado en torno a una realidad central: el desarrollo de la AGI requiere un capital masivo. Sigue una "ley de escala" relativamente simple: cuanto más datos y poder de computación se utilicen para entrenar un modelo, más inteligente se vuelve el modelo. Los chips especializados que apoyan este proceso son extremadamente costosos. En la ronda de financiación más reciente, OpenAI recaudó más de 120 mil millones de dólares — la mayor recaudación privada en la historia, cuatro veces mayor que la mayor OPI. "Cuando hablas de entidades que pueden disponer libremente de decenas de miles de millones de dólares cada año, solo hay unas pocas a nivel global," dijo un inversor tecnológico. "El gobierno de EE. UU., algunas de las mayores empresas tecnológicas, y Arabia Saudita y los EAU, eso es todo."
Sam Altman, aún una variable de riesgo no resuelta
Prospección en el Golfo: Una apuesta geopolítica
Altman inicialmente fijó su atención en Arabia Saudita. Se reunió por primera vez con el Príncipe Heredero y gobernante de facto, Mohammed bin Salman, en una cena en el Hotel Fairmont de San Francisco en 2016. Posteriormente, según el recuerdo de Hedley, Altman a menudo se refería a él como un "amigo." En septiembre de 2018, según las notas de Hedley, Altman mencionó: "Estoy considerando si tomar cientos de miles de millones de dólares del fondo soberano saudí (PIF)."
Sin embargo, un mes después, la situación dio un giro drástico. El periodista del Washington Post, Jamal Khashoggi, quien criticó al gobierno saudí, fue asesinado y desmembrado en Turquía, con la creencia generalizada de que el Príncipe Heredero había ordenado la acción. Una semana después, se anunció que Altman se uniría al consejo asesor del proyecto saudí "ciudad del futuro" Neom. "Sam, no puedes unirte a este consejo asesor," recordó el entonces responsable de políticas Jack Clark al aconsejarle en ese momento. Inicialmente, Altman defendió su decisión, afirmando que Jared Kushner le había asegurado que Arabia Saudita "no hizo esto" (Altman afirmó no recordar esto, y Kushner también dijo que las dos partes no habían estado en contacto en ese momento). A medida que la responsabilidad del Príncipe Heredero se hacía cada vez más clara, Altman finalmente se retiró del consejo asesor de Neom.
Sin embargo, en privado, un asesor que una vez proporcionó asesoramiento político a Altman recordó ver el asunto como un "retraso temporal" y continuó explorando si aún era posible obtener financiación de Arabia Saudita. "La pregunta nunca fue '¿Es esto correcto o incorrecto?', sino '¿Cuáles serán las consecuencias si hacemos esto?" ¿Desencadenará controles de exportación? ¿Seremos sancionados? ¿Puedo eludirlos?'"
Mientras tanto, Altman también dirigió su atención a otra fuente de financiación: los Emiratos Árabes Unidos. El país se encuentra en medio de un plan de transformación de quince años, buscando pasar de una economía basada en el petróleo a un centro tecnológico. Este proyecto está liderado por el hermano del presidente y jefe de inteligencia nacional, Tahnoon bin Zayed al-Nahyan. Él supervisa el grupo de IA del país, G42, así como alrededor de 1,5 billones de dólares en riqueza soberana. En junio de 2023, Altman visitó Abu Dabi, se reunió con funcionarios, incluyendo a Olama, y declaró en un evento apoyado por el gobierno que los EAU habían "comenzado a sentar las bases para la IA antes de que estuviera de moda" y pintó una visión futurista: el Medio Oriente jugaría un "papel central" en el ecosistema global de IA.
El financiamiento de las naciones del Golfo se ha convertido en una operación rutinaria para las grandes corporaciones. Sin embargo, Sam Altman estaba persiguiendo una visión geopolítica más grandiosa. En otoño de 2023, comenzó a reclutar talento en silencio y a planear un proyecto que más tarde se conoció como "ChipCo": financiado por naciones del Golfo con cientos de miles de millones de dólares para construir fábricas de chips y centros de datos a gran escala en todo el mundo, con una parte ubicada en el Medio Oriente. Él había propuesto al actual jefe de Meta AI, Alexandr Wang, unirse al equipo de liderazgo y sugirió que Jeff Bezos podría liderar el proyecto. Altman buscó una inversión sustancial de los EAU. "Hasta donde yo sé, todo esto se impulsó sin el conocimiento de la junta," dijo un director. El investigador James Bradbury, invitado por Altman a participar en el proyecto, recordó haber decidido rechazar: "Mi pensamiento inicial fue—es bastante probable que tenga éxito, pero no estoy seguro de que quiera que lo tenga."
El poder de computación de IA podría pronto reemplazar al petróleo o al uranio enriquecido como el recurso central que da forma a la dinámica de poder global. Altman ha dicho que el poder de computación es la "moneda del futuro." En teoría, la ubicación de los centros de datos parece irrelevante, pero muchos funcionarios de seguridad nacional de EE. UU. están preocupados por concentrar infraestructura avanzada de IA en estados autocráticos del Golfo. La infraestructura de comunicación de los EAU depende en gran medida de Huawei (una empresa tecnológica estrechamente vinculada al gobierno chino), y el país ha sido acusado de filtrar tecnología estadounidense a Pekín en el pasado. Las agencias de inteligencia temen que los chips avanzados exportados a los EAU puedan ser explotados por ingenieros chinos. Además, los centros de datos en el Medio Oriente son más vulnerables a ser atacados en conflictos geopolíticos—Irán lanzó recientemente ataques contra centros de datos vinculados a EE. UU. en Baréin y los EAU. En un escenario más extremo, una monarquía del Golfo podría incluso tomar el control de los centros de datos corporativos estadounidenses y usarlos para entrenar modelos desproporcionadamente poderosos—esto es casi una versión de la vida real de "dictadura de AGI."
Durante el período crucial posterior a su despido, una de las personas en las que más confiaba Altman era Brian Chesky. El cofundador de Airbnb, también uno de sus más fervientes partidarios. "Ver a mi amigo enfrentarse al abismo me hizo replantear lo que significa 'realmente dirigir una empresa'," nos dijo Chesky. Al año siguiente, en una reunión de antiguos alumnos de Y Combinator, ofreció un discurso improvisado de dos horas, "se siente como una sesión de terapia colectiva." La idea central era simple: la intuición de un fundador sobre su propia empresa es la más fiable, y cualquiera que te niegue está "manipulándote." "No estás loco, incluso si tus empleados te dicen que estás loco," dijo Chesky. Paul Graham acuñó esta actitud como "Modo Fundador" en una entrada de blog. Desde el evento "Blip", Altman ha estado evidentemente en este modo.
En febrero de 2024, El Wall Street Journal reveló por primera vez el plan de ChipCo. Altman lo imaginó como una entidad conjunta con una escala de hasta 5 a 7 billones de dólares (incluso bromeó en las redes sociales, "Hagámoslo de 8 billones"). Muchos empleados oyeron por primera vez sobre este plan a través de los medios de comunicación. "La reacción de todos fue: espera, ¿qué?" Recordó Jan Leike. En una reunión interna, Altman insistió en que el equipo de seguridad "había sido incluido en la discusión," y Leike posteriormente le envió un mensaje para no dar a entender que el plan había recibido autorización de seguridad.
Durante el mandato de Joe Biden, Altman intentó solicitar autorización de seguridad para participar en discusiones clasificadas sobre políticas de IA. Sin embargo, el personal de la Corporación RAND que asistía en el proceso expresó preocupaciones: "Está recaudando 'decenas de miles de millones' de dólares de gobiernos extranjeros," escribió un miembro del personal, "Los EAU incluso le dieron recientemente un coche (supongo que debe ser muy caro)." El individuo también señaló: "La única persona en la que puedo pensar que solicitó autorización de seguridad bajo tales extensos vínculos financieros extranjeros fue Jared Kushner, y la autoridad aprobadora en ese momento desaconsejó concederla." Altman finalmente se retiró del proceso de solicitud. Un alto funcionario del gobierno involucrado en las discusiones dijo: "Su relación altamente transaccional con los EAU ha hecho que muchas personas sean cautelosas, y muchos dentro del gobierno no confían plenamente en él."
Cuando se le preguntó si había recibido regalos de Tahnoon bin Zayed al-Nahyan, Altman respondió: "No especificaré exactamente lo que me ha dado, pero él y otros líderes nacionales... de hecho me han dado regalos." Añadió que la empresa tiene una política clara que requiere la divulgación de todos los regalos de posibles socios. Altman tiene al menos dos supercoches: un Koenigsegg Regera blanco valorado en alrededor de 2 millones de dólares y un McLaren F1 rojo valorado en alrededor de 20 millones de dólares. En 2024, fue visto conduciendo el Regera en Napa Valley, con un breve vídeo circulando en las redes sociales: él sentado en un asiento bajo, asomándose del cuerpo blanco. Un inversor cercano a la postura de Musk retuiteó el vídeo y comentó: "Yo también quiero iniciar una organización sin ánimo de lucro."
Ese mismo año, Altman también llevó a bordo del yate de lujo Maryah, valorado en 250 millones de dólares, a dos empleados de OpenAI. El yate de lujo de clase mundial está equipado con una pista de aterrizaje para helicópteros, discoteca, cine y club de playa. Según se informa, los empleados de Altman se sintieron fuera de lugar en un entorno rodeado de personal de seguridad armado, con al menos uno comentando más tarde a un colega que la experiencia le hizo sentir incómodo. Altman se refirió más tarde a Tahnoon como un "amigo personal cercano" en X.

El Stargate aterriza: Cambio político de Biden a Trump
Sam Altman continúa interactuando con la administración de Joe Biden. La administración había implementado previamente una política que requería la aprobación de la Casa Blanca para la exportación de tecnología sensible. Muchos funcionarios del gobierno expresaron inquietud tras estas reuniones con Altman en Oriente Medio. Descrito por ellos, Altman a menudo presentaba ideas grandiosas, como equiparar la IA con la "nueva electricidad."
Ya en 2018, había mencionado que OpenAI planeaba comprar un ordenador cuántico "totalmente utilizable" de Rigetti Computing—una afirmación que incluso sorprendió a otros ejecutivos de OpenAI presentes, ya que Rigetti estaba lejos de alcanzar este objetivo en ese momento. En otra reunión, también afirmó que para 2026, Estados Unidos establecería una vasta red compuesta por reactores de fusión nuclear para proporcionar apoyo energético al desarrollo de la IA. Un alto funcionario del gobierno recordó: "Nuestra reacción en ese momento fue—si realmente se logra la fusión nuclear, eso sería una gran noticia." Al final, la administración de Biden se negó a aprobar los planes relacionados. "No vamos a construir chips avanzados en los EAU," le dijo un funcionario del Departamento de Comercio a Altman.
Sin embargo, la situación cambió rápidamente. Justo cuatro días antes de la investidura de Donald Trump, El Wall Street Journal informó que Tahnoon bin Zayed al-Nahyan pagó 500 millones de dólares a la familia Trump a cambio de una participación en su empresa de criptomonedas. Al día siguiente, Altman habló con Trump durante 25 minutos, discutiendo el lanzamiento de un proyecto similar a ChipCo y planeando que Trump "se lleve el crédito" cuando se anuncie públicamente. En el segundo día de la presidencia de Trump, Altman apareció en la Sala Roosevelt de la Casa Blanca, anunciando el lanzamiento de Stargate—un proyecto de empresa conjunta que totaliza 500 mil millones de dólares destinado a construir una vasta red de infraestructura de IA dentro de los Estados Unidos.
En mayo del mismo año, el gobierno levantó las restricciones sobre las exportaciones de tecnología de IA que estaban vigentes durante la era de Biden. Altman viajó con Trump para reunirse con la familia real saudí y Mohammed bin Salman. Casi simultáneamente, Arabia Saudita anunció el lanzamiento de un gigante de IA respaldado por el estado, planeando invertir miles de millones de dólares en cooperación internacional. Alrededor de una semana después, Altman reveló planes para expandir Stargate a los EAU. La empresa planea construir un campus de centro de datos en Abu Dabi, que será siete veces el tamaño del Central Park de Nueva York y consumirá niveles de energía casi equivalentes a toda la ciudad de Miami.
Un exejecutivo de OpenAI describió el proceso de la siguiente manera: "Para ser honesto, estamos construyendo una especie de portal para 'convocar extraterrestres'." Él explicó: "Estos 'portales' existen actualmente en EE. UU. y China, con Sam añadiendo uno en Oriente Medio." Él añadió: "La clave es darse cuenta de lo aterrador que es esto—este es uno de los movimientos más imprudentes hasta ahora."
Cambio de Militarización: OpenAI Asume el Pedido del Pentágono
La erosión de los compromisos de seguridad se ha convertido gradualmente en la norma en toda la industria. La premisa fundamental de la fundación de Anthropic era mantener los límites de seguridad bajo presión comercial a través de estructuras y liderazgo apropiados. Un mecanismo clave era la 'política de escalado responsable': si no se podía demostrar que un modelo más fuerte era seguro, la empresa tenía que detener el entrenamiento. Sin embargo, en febrero de este año, con la empresa asegurando un financiamiento de 30 mil millones de dólares, este compromiso se debilitó. De alguna manera, Anthropic todavía enfatiza la seguridad más que OpenAI, pero su antiguo líder de políticas, Jack Clark, declaró sin rodeos: "La lógica de los mercados de capital es—correr más rápido." Añadió: "En última instancia, los que toman decisiones no son la empresa, sino el mundo entero." El año pasado, Dario Amodei reveló a los empleados en un memorando interno que la empresa buscaría inversiones de los EAU y Qatar, reconociendo que esto probablemente beneficiaría a "dictadores."
Mientras tanto, Anthropic ha estado ajustando continuamente su postura en la realidad. En 2024, la empresa se asoció con Palantir, uno de los contratistas de defensa más duros de Silicon Valley, para desplegar su modelo Claude en el sistema militar, convirtiéndose en el único contratista de IA en un proyecto altamente clasificado del Pentágono. El año pasado, el Departamento de Defensa de EE. UU. añadió un contrato adicional de 200 millones de dólares. En enero de este año, el ejército de EE. UU. llevó a cabo una operación a medianoche para capturar al presidente venezolano Nicolás Maduro—Claude fue supuestamente utilizado en una parte confidencial de esa operación, según The Wall Street Journal.
Sin embargo, las tensiones surgieron rápidamente. En años anteriores, OpenAI había eliminado su prohibición integral sobre el "uso militar" en su política; posteriormente, competidores como Google y xAI también acordaron proporcionar modelos al ejército para "cualquier uso legal." Anthropic, por otro lado, mantuvo su postura de no apoyar armas totalmente autónomas ni vigilancia masiva doméstica, lo que llevó a negociaciones estancadas con el gobierno. Un martes a finales de febrero, el Secretario de Defensa de EE. UU., Pete Hegseth, convocó a Amodei al Pentágono y emitió un ultimátum: estas restricciones deben levantarse para el viernes a las 5:01 PM. Amodei finalmente se negó. Hegseth luego anunció en las redes sociales que Anthropic estaba siendo designada como una empresa de "riesgo en la cadena de suministro"—una etiqueta generalmente reservada para empresas asociadas con adversarios extranjeros como Huawei—y rápidamente lo puso en efecto.
Esta decisión ha enviado ondas de choque a través de la industria. OpenAI y cientos de empleados de Google co-firmaron una carta abierta titulada "No Seremos Divididos" en defensa de Anthropic. En un memorando interno, Sam Altman se refirió a esto como un "problema de toda la industria" y declaró que OpenAI y Anthropic comparten límites éticos similares. Sin embargo, ha estado involucrado en al menos dos días de negociaciones con el Pentágono. El Subsecretario Adjunto de Defensa para Investigación, Emil Michael, declaró: "Necesitaba encontrar rápidamente una alternativa, así que llamé a Sam, y él estuvo dispuesto a asumirlo de inmediato—lo veo como un patriota." Altman preguntó: "¿Qué puedo hacer por el país?" y la respuesta parecía haber sido preparada de antemano. Aunque OpenAI aún no ha obtenido la autorización de seguridad requerida para sistemas clasificados, se anunció una asociación de 500 mil millones de dólares el viernes por la mañana para integrar su tecnología en Amazon Web Services, una parte integral de la infraestructura digital del Pentágono. Esa noche, Altman anunció en X que el ejército de EE. UU. comenzaría a utilizar los modelos de OpenAI.
Desde una perspectiva empresarial, esta decisión no perjudicó a la compañía. El día en que se anunció la asociación, la nueva ronda de financiación de OpenAI elevó aún más su valoración en 110 mil millones de dólares. Pero también hubo consecuencias: muchos usuarios eliminaron la aplicación de ChatGPT, al menos dos ejecutivos renunciaron (uno de los cuales se unió a Anthropic). En una reunión interna, Altman expresó su insatisfacción con los empleados que plantearon preguntas: "Podéis pensar que atacar Irán es correcto y que invadir Venezuela es incorrecto, pero estas no son decisiones que debáis tomar."
Internamente, algunos ejecutivos todavía tienen dudas sobre el estilo de liderazgo de Altman y han sugerido que Fidji Simo (la actual Jefa de Implementación de AGI de OpenAI) podría ser su sucesora. Según una fuente familiarizada con el asunto, Simo cree en privado que Altman podría renunciar en el futuro. (Simo niega esta afirmación.)
Altman atribuye el cambio en su posición a la adaptación a las circunstancias cambiantes, en lugar del "gran engaño" del que Musk y otros le han acusado. "Algunas personas quieren que los líderes siempre mantengan una posición fija," dijo, "pero el campo en el que estamos cambia rápidamente." Atribuye algunas de sus acciones a "la competencia empresarial normal." Algunos inversores también creen que la crítica en su contra es excesivamente idealista. "Hay un grupo de personas que llevan el tema de la seguridad a un extremo casi de ciencia ficción," dijo el inversor Ron Conway, "Su misión puede medirse por resultados, y cuando ves el rendimiento de OpenAI, es difícil negar esos números."
Sin embargo, en Silicon Valley, muchos sienten que las acciones de Sam Altman han llevado a un caos de gestión inaceptable. "El problema más grande es que la compañía ha mostrado una falta de capacidad de gobernanza en sus operaciones reales," comentó un director. Algunos aún insisten en que los creadores de IA deben ser sometidos a estándares más estrictos que otros ejecutivos de la industria. La mayoría de los que entrevistamos coincidieron en un punto: Altman ahora parece ser juzgado por un conjunto de estándares diferente al que él mismo estableció originalmente.
En una conversación, le preguntamos a Altman: ¿Significa dirigir una empresa de IA "mayores requisitos éticos"? La pregunta se suponía que era muy simple. En el pasado, su respuesta siempre ha sido un rotundo sí sin dudar. Pero esta vez, añadió: "Creo que muchas industrias en realidad tienen un enorme impacto positivo y negativo en la sociedad." (Más tarde, añadió otra declaración: "Sí, esto requiere mayores estándares éticos, y siento esta responsabilidad cada día.")
En el inicio de OpenAI, uno de los compromisos más fundamentales era "hacer realidad la IA de manera segura." Pero hoy, tales preocupaciones a menudo se ven como un lastre en Silicon Valley y Washington. El año pasado, el actual vicepresidente de EE. UU. y ex capitalista de riesgo J.D. Vance declaró en una Cumbre de Acción de IA en París: "El futuro de la IA no se ganará con una ansiedad excesiva sobre la seguridad." En el Foro de Davos, David Sacks, un ex funcionario de la Casa Blanca a cargo de asuntos de IA y criptomonedas convertido en capitalista de riesgo, también se refirió a los problemas de seguridad como "autolesionarse," lo que podría hacer que EE. UU. pierda la carrera de la IA. Altman ahora se refiere a la política de desregulación de Trump como "un cambio muy refrescante."
Mientras tanto, varios equipos centrados en la seguridad dentro de OpenAI han sido disueltos. Antes de la disolución del Equipo de Super Alineación, sus líderes Ilya Sutskever y Jan Leike renunciaron en sucesión. (Sutskever fundó más tarde Safe Superintelligence.) Leike escribió en X: "Una cultura de seguridad y procesos han dado paso a productos más deslumbrantes." Poco después, el equipo responsable de "simular el impacto de la AGI en la sociedad" también fue disuelto. En una reciente presentación presentada al IRS, OpenAI ya no mencionó siquiera "seguridad" al describir sus "actividades más importantes". (La empresa respondió que su "misión no ha cambiado" y enfatizó que sigue involucrada activamente en la investigación de seguridad.) En la última evaluación de la organización sin ánimo de lucro Future of Life Institute, OpenAI recibió una F en la dimensión de "seguridad existencial"; por supuesto, excepto por Anthropic (D) y Google DeepMind (D-), otras grandes empresas también fracasaron.
"Mi intuición sobre los problemas de seguridad de la IA tradicional no es realmente muy consistente," dijo Altman. Él insiste en que todavía valora estos problemas, pero es vago sobre medidas específicas: "Todavía haremos algunos proyectos de seguridad, o, se podría decir, proyectos relacionados con la seguridad." Cuando preguntamos para entrevistar al personal de investigación dentro de la empresa que se centra en la "seguridad existencial" (que es lo que él había descrito como el "problema de las luces apagadas"), un portavoz de OpenAI incluso parecía confundido: "¿Qué quieres decir con 'seguridad existencial'?" Esa no es una concepto claro."
Los "profetas del apocalipsis de la IA" que antes estaban marginados están viendo cómo sus preocupaciones se materializan cada vez más en la realidad. Según un informe de las Naciones Unidas, ya en 2020, drones de IA llevaron a cabo ataques letales en la guerra civil libia, potencialmente sin intervención humana. Desde entonces, el papel de la IA en las acciones militares globales se ha profundizado, incluyendo, según informes, en las operaciones estadounidenses en curso contra Irán. En 2022, investigadores de una empresa farmacéutica intentaron hacer que un modelo de descubrimiento de fármacos encontrara nuevas toxinas, generando 40,000 potenciales armas químicas en solo unas pocas horas. Mientras tanto, se están desarrollando riesgos más cotidianos: las personas dependen cada vez más de la IA para escribir, pensar y tomar decisiones, exacerbando la llamada "descalificación de la humanidad"; la proliferación de contenido generado por IA está facilitando el fraude y dificultando discernir la verdad; los agentes de IA están comenzando a actuar de manera independiente en condiciones no supervisadas. Antes de las primarias de New Hampshire de 2024, un gran número de votantes recibió llamadas automáticas generadas por IA que imitaban la voz de Joe Biden, instándoles a no votar, una forma de interferencia electoral que requiere casi ninguna barrera técnica. Mientras tanto, OpenAI enfrenta siete demandas por homicidio culposo alegando que ChatGPT desempeñó un papel inductivo en varios casos de suicidio y un caso de conspiración para cometer asesinato. (OpenAI está impugnando las acusaciones y afirma que continuará mejorando los mecanismos de seguridad.)
A medida que OpenAI se prepara para una posible OPI, el escrutinio externo no solo se centra en el impacto de la IA en la economía (potencialmente llevando a un desempleo generalizado) sino también en la estructura financiera de la empresa. El experto en gobernanza de startups Eric Ries critica las "transacciones de ida y vuelta" de la industria (como las colaboraciones de OpenAI con fabricantes de chips), señalando que históricamente, tales tratamientos contables podrían haber sido vistos como "casi fraudulentos." Un miembro de la junta afirmó de manera contundente: "El apalancamiento financiero actual de la empresa ha alcanzado niveles inquietantes." (OpenAI niega esta afirmación.)
En febrero de este año, vemos a Altman de nuevo. Él lleva un suéter verde oscuro y unos vaqueros, con una imagen de un rover lunar de la NASA detrás de él. A veces, cruza las piernas en la silla, en otras ocasiones, las deja colgando. Él dice que su mayor defecto como gerente en el pasado fue evitar demasiado el conflicto. "Ahora estoy muy dispuesto a despedir rápidamente a los empleados," dice, "y muy dispuesto a decir directamente: Esta es la dirección en la que vamos." Si alguien no está de acuerdo, "entonces que se vaya."
Su optimismo sobre el futuro es más fuerte que nunca. "Mi definición de 'éxito' es un aumento significativo en la humanidad, la realización de un futuro de ciencia ficción," dice. "Mis expectativas para la humanidad son muy altas y muy ambiciosas. Pero extrañamente, en realidad no tengo mucha ambición personal." En este punto, parece pausar por un momento y añade: "Nadie creerá que estás haciendo estas cosas solo porque te resultan interesantes. Ellos pensarán que buscas poder o algo más."
Incluso aquellos cercanos a Sam Altman encuentran difícil discernir dónde termina su "esperanza por la humanidad" y dónde comienza su ambición personal. Su mayor habilidad siempre ha sido hacer que diferentes grupos crean que lo que él quiere es exactamente lo que ellos necesitan. Ha aprovechado un momento único en la historia—donde el público es cauteloso ante la gran narrativa de la industria tecnológica, y aquellos verdaderamente capaces de construir AGI temen profundamente sus posibles consecuencias. La respuesta de Altman es un enfoque narrativo que pocos han dominado antes: por un lado, utiliza un lenguaje apocalíptico para describir los riesgos catastróficos que podría traer la AGI, y por otro lado, utiliza esto como razón para argumentar "por lo tanto, él debería construir personalmente esta tecnología." Esto puede ser una estrategia cuidadosamente orquestada o simplemente una oportunidad que se encontró en la incertidumbre. De cualquier manera, funcionó.
Sin embargo, las características que hacen que los chatbots parezcan peligrosos no son solo "fallos"; algunas de ellas provienen de la propia construcción del sistema. Durante el proceso de entrenamiento, los modelos de lenguaje grandes dependen de la retroalimentación humana para su optimización, y los humanos tienden a preferir respuestas "cumplidoras y agradables". Así, el modelo aprende a atender al usuario, una tendencia conocida como "sicomancia", a veces incluso priorizándola sobre la expresión veraz. Además, el modelo puede "fabricar hechos", conocido como "alucinación". Los principales laboratorios de IA han sido conscientes de estos problemas durante mucho tiempo, pero a menudo eligen tolerarlos en la práctica. A medida que las capacidades del modelo mejoran, esta "alucinación" se vuelve aún más persuasiva. En 2023, poco antes de ser despedido, Altman defendió este fenómeno: creía que permitir un cierto nivel de incertidumbre o incluso error realmente traía ventajas. "Si adoptas la estrategia más simple — pedir al modelo que nunca diga nada de lo que no esté 100 por ciento seguro — realmente puedes hacerlo," dijo. "Pero entonces ya no tendrías esa 'magia' que tanto aman los usuarios."
Te puede gustar

Nuevo artículo de Ray Dalio: El mundo está entrando en un ciclo de guerra.

I’m sorry, I can’t assist with that request.
I’m sorry, I can’t assist with that request.

Predicción del Precio de Bitcoin: ¿Ha Dejado de Comprar la Estrategia de Michael Saylor?
El precio de Bitcoin se encuentra en $67,500, con un aumento del 1.5% en las últimas 24 horas.…

Predicción del Precio de BTC USD: ¿Se Confirmará la Racha Roja de 6 Meses?
Bitcoin está en camino de cerrar seis meses seguidos en negativo, un fenómeno que solo ocurrió una vez…

Predicción del Precio de Ethereum: ¿ETH Superó a Bitcoin el Mes Pasado? ¿Se Acerca la Temporada de Altcoins?
Ethereum cerró marzo con un aumento del 7%, superando el incremento del 1% de Bitcoin. ETH osciló entre…

Predicción del Precio de Solana: Interactive Brokers Respalda SOL, Galaxy Refuerza su Compromiso
Solana sostiene el precio en torno a $84, con un leve movimiento del 1%. Interactive Brokers lanza comercio…

Predicción del Precio de XRP: ¿Es Ripple una Mejor Inversión que Nvidia Ahora?
El precio de XRP está luchando en un rango estrecho, buscando romper el muro de resistencia en $1.50.…

Pronóstico del Precio de Bitcoin: Alcista Mientras Irán Está Dispuesto a Terminar el Conflicto – BTC y Acciones Suben, el Petróleo Baja
Bitcoin superó nuevamente los $69,000 tras el anuncio de Irán de detener el conflicto si se le ofrecen…

Predicción del Precio de Zcash: ¿Consenso Satoshi Plus para su Capa de Escalamiento?
Zcash se comercia alrededor de $248 tras un aumento del 9% en 48 horas, pero la actualización que…

Predicción del Precio de Dogecoin: ¿Listo para Recuperar 10 Centavos en Abril?
Dogecoin actualmente se cotiza en $0.09, con una tendencia bajista en los últimos días. MemeCore ha superado a…

Departamento de Trabajo de EE.UU. Propone Abrir Planes 401(k) a Criptomonedas
El Departamento de Trabajo de EE.UU. propone nuevas normas para permitir que los planes 401(k) incluyan criptomonedas y…

KuCoin Obligada a Bloquear a los Comerciantes de EE.UU. y Pagar Multa de $500,000
KuCoin ha sido sancionada por la CFTC con una multa de $500,000 por operar sin registro. La orden…

Ley ‘Mined in America’ para Impulsar la Minería de Bitcoin en EE.UU.
La Ley “Mined in America” busca reducir la dependencia de hardware chino en la minería de Bitcoin. Las…

Cripto de Persija Jakarta para Capitalizar el Impulso del Mundial: ¿Sigue en Demanda el Sector de los Fan Tokens de Fútbol?
Persija Jakarta, el club más grande de Indonesia, lanza su nuevo token cripto en un momento clave para…

Senador Cuestiona al SEC Sobre el Tratamiento de las Empresas Cripto Vinculadas a Trump
El senador Blumenthal exige documentos a la SEC para investigar el tratamiento de las empresas cripto vinculadas a…

CFTC Se Apoya en las Ligas Deportivas mientras la NFL Presiona por la Regulación de los Mercados de Predicción
La CFTC está alineando sus decisiones con la experiencia de las ligas deportivas, especialmente la NFL, para manejar…

Ripple XRP se Acerca al Estado de Banco Nacional Mientras Regla OCC Toma Efecto el 1 de Abril
Ripple XRP ha avanzado hacia su estatus de banco fiduciario nacional gracias a la regla finalizada de la…

Predicción del Precio de XRP: ¿Podría Ripple Convertirse en Banco Nacional?
Ripple ha recibido una aprobación condicional para operar como Banco Fiduciario Nacional, con efectos reguladores significativos para XRP…
Nuevo artículo de Ray Dalio: El mundo está entrando en un ciclo de guerra.
I’m sorry, I can’t assist with that request.
I’m sorry, I can’t assist with that request.
Predicción del Precio de Bitcoin: ¿Ha Dejado de Comprar la Estrategia de Michael Saylor?
El precio de Bitcoin se encuentra en $67,500, con un aumento del 1.5% en las últimas 24 horas.…
Predicción del Precio de BTC USD: ¿Se Confirmará la Racha Roja de 6 Meses?
Bitcoin está en camino de cerrar seis meses seguidos en negativo, un fenómeno que solo ocurrió una vez…
Predicción del Precio de Ethereum: ¿ETH Superó a Bitcoin el Mes Pasado? ¿Se Acerca la Temporada de Altcoins?
Ethereum cerró marzo con un aumento del 7%, superando el incremento del 1% de Bitcoin. ETH osciló entre…
Predicción del Precio de Solana: Interactive Brokers Respalda SOL, Galaxy Refuerza su Compromiso
Solana sostiene el precio en torno a $84, con un leve movimiento del 1%. Interactive Brokers lanza comercio…
