logo

A disputa na OpenAI: Poder, confiança e os limites incontroláveis da IA Geral

By: blockbeats|2026/04/08 05:31:45
0
Partilhar
copy
Título original do artigo: Sam Altman pode controlar o nosso futuro — será que podemos confiar nele?
Autores do artigo original: Ronan Farrow e Andrew Marantz, da revista *The New Yorker*
Tradução: Peggy, BlockBeats

Nota do editor: Este artigo, com base num vasto conjunto de documentos inéditos e em entrevistas aprofundadas, analisa a crise interna na OpenAI em relação ao poder e à confiança de Sam Altman. Desde a destituição do conselho de administração até à rápida renomeação, numa «reviravolta semelhante a um golpe de Estado», esta agitação não foi um acontecimento isolado, mas sim uma explosão concentrada de conflitos de governação de longa data.

No cerne do conflito está um contínuo braço de ferro entre duas lógicas: por um lado, a missão sem fins lucrativos da OpenAI, baseada no princípio de «a segurança humana em primeiro lugar», e, por outro, uma transição gradual para um caminho de desenvolvimento orientado para os produtos, a expansão e as receitas, à medida que a IA Geral se aproxima e a comercialização se acelera. Neste processo, os compromissos em matéria de segurança têm vindo a ser continuamente enfraquecidos, e o poder e a tomada de decisões têm-se centralizado gradualmente nas mãos de poucos.

Muitas figuras de destaque, incluindo Ilya Sutskever e Dario Amodei, têm questionado Altman, centrando-se na opacidade da informação e na comunicação estratégica, considerando que o seu estilo de liderança é insuficiente para gerir de forma sólida a tecnologia que «mudará o destino da humanidade»; os seus apoiantes, no entanto, salientam que a sua capacidade de integração de recursos, gestão de capital e execução é fundamental para a rápida expansão da OpenAI.

Quando o poder tecnológico é suficiente para influenciar a ordem global, será que a estrutura de governação empresarial existente continua a ser suficiente para controlar os indivíduos? Por outras palavras, na era da IA, a verdadeira incerteza pode não provir apenas da própria tecnologia, mas também daqueles que a controlam.

Segue-se o artigo original:

A disputa na OpenAI: Poder, confiança e os limites incontroláveis da IA Geral

Poder e confiança: Fendas na governança sob a liderança de Altman

No outono de 2023, o cientista-chefe da OpenAI, Ilya Sutskever, enviou um memorando confidencial aos outros três membros do conselho de administração da empresa. Nas semanas anteriores, tinham vindo a debater em privado uma questão delicada: se o CEO da empresa, Sam Altman, e o seu adjunto, Greg Brockman, continuavam aptos para continuar a liderar a empresa.

Fonte da imagem: O MUNDO DA IA HOJE

Sutskever já considerou os dois amigos. Em 2019, chegou mesmo a organizar o casamento de Brockman nos escritórios da OpenAI, onde houve até um braço robótico a fazer de «portador dos anéis».

Mas à medida que se convencia cada vez mais de que a empresa se aproximava do seu objetivo a longo prazo — criar uma inteligência artificial capaz de igualar ou superar as capacidades cognitivas humanas —, as suas dúvidas em relação a Altman aprofundaram-se. Como ele disse a outro membro do conselho na altura: «Não acho que o Sam seja a pessoa que deva ter o dedo no botão.»

A pedido de outros membros do conselho de administração, Sutskever, juntamente com colegas que partilhavam da mesma opinião, elaborou um documento com cerca de setenta páginas, incluindo registos de conversas no Slack, ficheiros dos Recursos Humanos e comentários a acompanhar. Algumas das imagens eram até capturas de ecrã tiradas com um telemóvel, aparentemente para evitar a monitorização por parte dos dispositivos da empresa. Acabou por enviar esses memorandos aos outros membros do conselho de administração, pedindo que os lessem e os destruíssem, para garantir que não fossem vistos por mais pessoas.

«Ele estava realmente assustado naquele momento», recordou um dos diretores que recebeu os materiais. Analisámos estes memorandos, que nunca tinham sido divulgados na íntegra anteriormente. Os documentos acusavam Altman de distorcer os factos perante os executivos e os membros do conselho de administração e de comportamento enganoso no que diz respeito aos protocolos de segurança interna. Um memorando sobre Altman começava com uma lista de pontos intitulada «O Sam tem demonstrado consistentemente...», sendo o primeiro ponto «Mentir».

Muitas empresas de tecnologia afirmam «tornar o mundo um lugar melhor», mas as suas atividades reais centram-se na maximização das receitas. O princípio fundador da OpenAI, no entanto, pretendia ser diferente deste modelo. Os seus fundadores, incluindo Altman, Sutskever, Brockman e Elon Musk, acreditavam que a inteligência artificial poderia ser uma das invenções mais poderosas e potencialmente perigosas da história da humanidade. Tendo em conta este «risco existencial», a empresa poderá necessitar de uma estrutura organizacional não convencional.

A OpenAI foi inicialmente criada como uma organização sem fins lucrativos, tendo o seu conselho de administração a missão de colocar «a segurança de toda a humanidade» acima do sucesso da empresa, chegando mesmo a dar-lhe prioridade sobre a própria sobrevivência da empresa. O diretor executivo teria de possuir um caráter e uma ética extraordinários.

Como afirmou Sutskever: «Qualquer pessoa envolvida no desenvolvimento desta tecnologia, que poderá transformar a civilização tal como a conhecemos, tem uma grande responsabilidade e um dever sem precedentes.» Mas ele também observou que «quem acaba por ocupar esses cargos costuma ser de um certo tipo — pessoas sedentas de poder, figuras políticas ou aqueles que simplesmente apreciam o poder pelo poder». Num memorando, ele manifestou a sua preocupação em confiar esta tecnologia a alguém «que apenas diz o que os outros querem ouvir».

Se, no final, se verificar que o CEO da OpenAI não é de confiança, este conselho de administração composto por seis membros tem o poder de o demitir. Alguns diretores, incluindo a especialista em políticas de IA Helen Toner e a empreendedora Tasha McCauley, ficaram ainda mais convencidos do seu parecer anterior após lerem estes memorandos: o que Altman considerava uma responsabilidade em relação ao futuro da humanidade, ele próprio não era digno de confiança.

Golpe na sala de reuniões: Sam Altman foi despedido

Na altura, Sam Altman estava em Las Vegas a assistir a uma corrida de Fórmula 1 quando Ilya Sutskever o convidou para uma videochamada com o conselho de administração e leu uma breve declaração anunciando que ele já não era funcionário da OpenAI. O conselho de administração, seguindo orientação jurídica, emitiu um comunicado público, afirmando que Altman foi demitido por «não ter mantido uma comunicação sempre honesta».

Esta decisão chocou muitos dos investidores e executivos da OpenAI. A Microsoft, que tinha investido cerca de 13 mil milhões de dólares na OpenAI, também tomou conhecimento da notícia no último minuto, antes de a decisão ser executada. «Fiquei incrivelmente surpreendido na altura», recordou mais tarde Satya Nadella, CEO da Microsoft. «Não consegui obter mais informações de ninguém.» Em seguida, contactou Reid Hoffman (cofundador do LinkedIn, investidor da OpenAI e administrador da Microsoft), que começou a investigar por todo o lado se Altman tivesse cometido alguma irregularidade evidente. «Na altura, estava completamente confuso», disse-nos Hoffman. «Estávamos à procura de casos de desvio de fundos ou assédio, mas não encontrei nada.»

Outros parceiros comerciais foram igualmente apanhados de surpresa. Quando Altman ligou ao investidor Ron Conway para o informar da sua demissão, Conway estava a almoçar com a congressista norte-americana Nancy Pelosi e, sem hesitar, passou-lhe o telefone. «É melhor saíres daqui depressa», disse ela a Conway.

Entretanto, a OpenAI estava prestes a concluir uma importante ronda de financiamento da empresa de capital de risco Thrive Capital, fundada por Josh Kushner, irmão de Jared Kushner, que Altman conhecia há muitos anos. Este acordo teria avaliado a OpenAI em 86 mil milhões de dólares e permitido que muitos funcionários recebessem milhões de dólares em benefícios sob a forma de ações. Kushner tinha acabado de sair de uma reunião com o produtor musical Rick Rubin quando viu a chamada perdida de Altman e ligou de volta. «Entrámos imediatamente em modo de combate», recordou ele mais tarde.

No dia em que foi despedido, Altman regressou à sua mansão de 27 milhões de dólares em São Francisco, com vista para toda a baía e uma piscina infinita em balanço, onde montou um centro de comando temporário a que chamou «uma espécie de governo no exílio». Conway, o cofundador da Airbnb, Brian Chesky, e o famoso e combativo especialista em relações públicas para situações de crise, Chris Lehane, participaram por vídeo e telefone, chegando por vezes a conversar durante horas a fio. Alguns membros da equipa executiva de Altman chegaram mesmo a acampar nos corredores da casa. Os advogados instalaram-se no escritório que ele tinha em casa, junto ao quarto. Durante os episódios de insónia, Altman andava de um lado para o outro de pijama. Ao descrever esta experiência após ter sido despedido numa entrevista recente, ele referiu-se a ela como «uma espécie de estado de fuga estranho».

Com o conselho de administração a manter-se em silêncio, a equipa de consultores de Altman começou a preparar o terreno para o seu regresso. Lehane insistiu que a demissão foi, na verdade, um «golpe» orquestrado por «altruístas eficazes», defensores de um sistema de pensamento que enfatiza a maximização do bem-estar humano global, que viam a inteligência artificial como uma ameaça existencial. (Hoffman também sugeriu a Nadella, na altura, que a demissão poderia dever-se a «algum tipo de loucura altruísta eficaz».) Lehane, cujo lema amplamente divulgado — inspirado em Mike Tyson — dizia: «Todos têm um plano até levarem um soco na cara», sugeriu que Altman lançasse uma ousada ofensiva nas redes sociais. Chesky manteve-se em contacto com a jornalista especializada em tecnologia Kara Swisher, transmitindo constantemente ao mundo exterior as críticas dirigidas ao conselho de administração.

Todas as noites, às seis horas, Altman saía da sua «sala de guerra» para se servir de um Negroni. Ele lembrou-se de ter dito às pessoas à sua volta: «Têm de relaxar; o que tiver de acontecer, acontecerá.» No entanto, acrescentou que os registos de chamadas revelavam que ele passava mais de doze horas por dia ao telefone durante esse período.

Segundo uma fonte, a certa altura, Altman disse a Mira Murati, que na altura ocupava o cargo de CEO interina da OpenAI, que os seus aliados estavam a «dar tudo por tudo» e a tentar «desenterrar podres» para manchar a sua reputação e a de outras pessoas envolvidas na campanha para a sua destituição. (O próprio Altman afirma não se lembrar desta conversa.)

Poucas horas após a sua demissão, a Thrive Capital suspendeu o investimento previsto e deixou claro que só se Sam Altman regressasse é que o negócio se concretizaria e os funcionários receberiam as suas participações acionárias. Os registos de mensagens de texto da época revelaram que Altman mantinha uma comunicação muito frequente com Satya Nadella. (Ao redigir uma declaração conjunta, Altman sugeriu a seguinte formulação: «A prioridade máxima do Satya e minha neste momento é salvar a OpenAI», enquanto Nadella propôs uma formulação diferente: «Garantir que a OpenAI continue a prosperar.»)

Inversão de potência: Altman foi reintegrado rapidamente após 5 dias

Pouco tempo depois, a Microsoft anunciou que iria lançar um projeto concorrente para Altman e quaisquer funcionários da OpenAI que tivessem saído da empresa. Ao mesmo tempo, começou a circular dentro da empresa uma carta aberta a solicitar o regresso de Altman. Algumas pessoas que inicialmente estavam hesitantes em assinar receberam chamadas e mensagens insistentes dos colegas. Por fim, a maioria dos funcionários da OpenAI ameaçou demitir-se em bloco em solidariedade a Altman.

A direção ficou encurralada. «Control Z, essa é uma opção», disse Helen Toner — referindo-se à possibilidade de reverter a decisão de despedimento. «A outra opção é o colapso total.» Até mesmo a então CEO interina, Mira Murati, acabou por assinar a carta aberta. Os aliados de Altman começaram a tentar convencer Ilya Sutskever a mudar de posição. A esposa de Brockman, Anna, chegou mesmo a abordá-lo no escritório e disse-lhe: «És uma boa pessoa, consegues resolver isto.» Sutskever explicou mais tarde num depoimento em tribunal: «Na altura, senti que, se seguíssemos o caminho de Sam não regressar, a OpenAI seria destruída.»

Uma noite, Altman tomou o somnífero Ambien e foi acordado pelo seu marido, o programador australiano Oliver Mulherin, que lhe disse que a posição de Sutskever estava a vacilar e sugeriu que Altman contactasse imediatamente o conselho de administração. «Acordei numa espécie de torpor causado pelo Ambien», recordou Altman, «e estava completamente desorientado e pensei: “Não há hipótese de eu falar com o conselho de administração neste momento.”»

Numa série de chamadas cada vez mais tensas, Sam Altman exigiu a demissão dos membros do conselho de administração que tinham pressionado para que fosse despedido. Ao refletir sobre a ideia de regressar, lembrou-se da sua reação inicial: «Vou ter de resolver a confusão que eles criaram neste ambiente incrivelmente suspeito?» «Pensei: nem pensar», disse ele. Por fim, Ilya Sutskever, Helen Toner e Tasha McCauley perderam os seus lugares no conselho de administração, ficando apenas Adam D'Angelo (cofundador do Quora) como único membro original do conselho.

Como parte das condições da demissão, estes membros do conselho solicitaram uma investigação sobre as acusações contra Altman — incluindo a criação de divisões entre os executivos e a ocultação de ligações financeiras. Também pressionaram para que fosse criado um novo conselho encarregado de supervisionar de forma independente a investigação externa. No entanto, os dois novos administradores nomeados — o antigo reitor da Universidade de Harvard, Lawrence Summers, e o antigo diretor de tecnologia do Facebook, Bret Taylor — foram selecionados após uma estreita comunicação com Altman. «Achas que isto resulta?», perguntou Altman numa mensagem a Satya Nadella, «com o Bret, o Larry Summers e o Adam no conselho de administração, eu como CEO e o Bret a liderar a investigação?» (McCauley testemunhou mais tarde que, quando se estava a ponderar a nomeação de Taylor para o conselho de administração, ela receava que ele pudesse ser demasiado subserviente em relação a Altman.)

Menos de cinco dias após ter sido despedido, Altman foi reintegrado. Os funcionários da empresa viriam a referir-se a este período como o «Blip», inspirando-se num momento da trama de um filme da Marvel — um breve desaparecimento seguido de um regresso, mas o mundo tinha sido profundamente alterado pela sua ausência.

No entanto, a controvérsia em torno da credibilidade de Altman já há muito tinha ultrapassado os limites da sala de reuniões da OpenAI. O colega que orquestrou a sua demissão acusou-o de um comportamento enganador generalizado, o que seria inaceitável para qualquer executivo empresarial, quanto mais para um líder detentor de uma tecnologia tão transformadora. «Precisamos de mecanismos de controlo do poder que sejam proporcionais a esse poder», afirmou-nos Mira Murati. «A direção tinha pedido opiniões, e eu apenas partilhei com sinceridade o que vi, e mantenho o que disse.» Os apoiantes de Altman, por outro lado, há muito que minimizavam essas alegações. Após a demissão, o investidor Ron Conway enviou uma mensagem a Brian Chesky e Chris Lehane, instando-os a lançar uma contraofensiva de relações públicas: «Isto diz respeito à reputação do Sam.» Ele também disse ao The Washington Post que Altman estava a ser tratado injustamente por «um conselho de administração que está fora de controlo».

Desde então, a OpenAI ascendeu até se tornar uma das empresas mais valiosas do mundo, estando alegadamente a preparar-se para uma oferta pública inicial (IPO) que poderá atingir um valor de um bilião de dólares. Entretanto, Altman está a liderar uma expansão maciça das infraestruturas de inteligência artificial, com algumas iniciativas a estenderem-se a regimes autoritários no estrangeiro. A OpenAI está também a concorrer a grandes contratos públicos e a definir gradualmente normas para aplicações de IA na fiscalização da imigração, na vigilância interna e nas armas autónomas em zonas de conflito.

Sam Altman tem conduzido o crescimento da OpenAI, apresentando continuamente uma visão grandiosa do futuro. Numa publicação de blogue de 2024, escreveu: «As vitórias impressionantes — resolver as alterações climáticas, estabelecer colónias fora do planeta, desvendar todas as leis da física — acabarão todas por se tornar algo comum.» Esta narrativa está na base de uma das startups que mais rapidamente se esgotou na história, fortemente dependente do financiamento de parceiros com elevada alavancagem. A economia dos EUA depende cada vez mais de um pequeno número de empresas de IA de grande influência, com muitos especialistas — incluindo, por vezes, o próprio Altman — a alertar para o risco de uma bolha no setor. «Alguém vai perder muito dinheiro», disse ele aos jornalistas no ano passado. Se a bolha rebentar, poderá desencadear uma catástrofe económica; no entanto, se as suas previsões mais otimistas se concretizarem, poderá também tornar-se uma das pessoas mais ricas e poderosas do mundo.

Numa conversa telefónica tensa após a demissão de Altman, o conselho de administração exigiu que ele reconhecesse um padrão de comportamento enganador. Segundo fontes presentes, ele repetiu várias vezes: «Isto é ridículo», e afirmou: «Não posso mudar quem sou.» Mais tarde, Altman afirmou não se lembrar dessa conversa. «Acho que o que eu estava a tentar dizer era mais do tipo: “Sempre tentei ser um unificador”», explicou-nos mais tarde, atribuindo a esta característica o seu sucesso na liderança de uma empresa de enorme sucesso. Ele atribuiu essas críticas a uma tendência que tinha no início da carreira de «evitar demasiado o conflito». Um membro do conselho de administração, no entanto, apresentou uma interpretação totalmente diferente: «O que ele realmente queria dizer era: “Tenho esta mania de mentir às pessoas e não consigo parar.”»

Preço --

--

Desvio da missão: Da abordagem «Segurança em primeiro lugar» para a abordagem «Negócio em primeiro lugar»

E assim, surgiu uma questão mais fundamental: Será que os colegas que pressionavam pela sua demissão agiam por excesso de zelo e por animosidade pessoal, ou será que o seu julgamento era acertado e Altman era realmente indigno de confiança?

Numa manhã de inverno deste ano, encontrámo-nos com Altman na sede da OpenAI, em São Francisco, numa das mais de uma dúzia de entrevistas que realizámos para este artigo. A empresa tinha-se mudado recentemente para duas torres de vidro de onze andares, uma das quais tinha anteriormente albergado outra gigante tecnológica, a Uber. O cofundador e antigo CEO da Uber, Travis Kalanick, era visto como um empreendedor genial e imparável até ter sido afastado em 2017, também devido a questões éticas. (Kalanick dirige agora uma startup de robótica; afirmou que, nos seus tempos livres, utiliza o ChatGPT da OpenAI para «explorar as fronteiras da física quântica».)

Um funcionário mostrou-nos as instalações do escritório. Num espaço repleto de mesas compridas partilhadas e banhado por luz natural, havia uma pintura digital dinâmica do cientista informático Alan Turing, cujos olhos nos acompanhavam enquanto nos movíamos. A instalação era claramente uma referência ao «Teste de Turing» — o experimento mental de 1950 destinado a determinar se uma máquina é capaz de imitar um ser humano de forma convincente. (Num estudo realizado em 2025, o desempenho do ChatGPT neste teste chegou mesmo a superar o de seres humanos reais.) Normalmente, o quadro era interativo. Mas o nosso guia explicou que a funcionalidade de voz tinha sido desativada porque estava constantemente a «escutar» as conversas entre os funcionários e a interromper com frequência. Noutros pontos do escritório, eram visíveis cartazes com a mensagem «Feel the AGI» — um slogan originalmente criado por Ilya Sutskever para alertar os colegas para os riscos da inteligência artificial geral avançada (o ponto em que as máquinas atingem uma capacidade cognitiva ao nível da humana). Após o Blip, tinha-se transformado numa frase de efeito alegre que celebrava um futuro próspero.

Numa sala de reuniões anônima no oitavo andar, encontrámos Sam Altman. «Costumava ouvir as pessoas falarem sobre a fadiga de decisão, mas nunca percebia do que se tratava», disse ele. «Agora uso um suéter cinzento e calças de ganga todos os dias e, até ao escolher qual dos suéteres cinzentos tirar do armário, penso: "Quem me dera não ter de tomar esta decisão."»

Altman parecia eternamente jovem, com um corpo esguio, olhos azuis bem separados e cabelo ligeiramente despenteado, mas tinha quarenta anos. Ele e Oliver Mulherin têm um filho de um ano, nascido por barriga de aluguer. «Acho que ser presidente dos Estados Unidos implica certamente mais pressão, mas, de todos os cargos que acho que poderia realisticamente desempenhar, este é aquele que imagino ser o mais exigente», disse ele, olhando primeiro para um de nós e depois para o outro. «Descrevi-o aos meus amigos da seguinte forma: «Era o trabalho mais interessante do mundo até ao dia em que lançámos o ChatGPT.» «Antes disso, estávamos a fazer avanços científicos gigantescos — achei que fosse uma das descobertas científicas mais importantes das últimas décadas.» Ele baixou os olhos. «Mas desde que o ChatGPT foi lançado, todas as decisões tornaram-se muito difíceis.»

Altman cresceu em Clayton, no Missouri, um subúrbio abastado de St. Louis, sendo o mais velho de quatro irmãos. A sua mãe, Connie Gibstine, é dermatologista, e o seu pai, Jerry Altman, era agente imobiliário e também trabalhava em iniciativas no setor da habitação. Foi criado numa sinagoga judaica reformista, frequentou uma escola preparatória privada e, mais tarde, descreveu-a como «um lugar onde não foi fácil assumir-se como gay». No entanto, no geral, a comunidade de classe média alta em que ele vivia era relativamente liberal.

Por volta dos dezasseis ou dezassete anos, foi vítima de uma agressão física grave e de insultos homofóbicos enquanto passeava à noite num bairro com uma forte presença gay em St. Louis. Altman não comunicou o incidente e não quis dar mais pormenores, afirmando que um relato mais completo «me faria parecer que estava a manipular as pessoas ou a procurar simpatia». Ele minimizou essa experiência e a importância da sua orientação sexual para a sua identidade. Mas ele também admitiu: «Provavelmente há aqui algo muito profundo do ponto de vista psicológico, o facto de sentir que me tinha assumido, mas na verdade não o tinha feito — para evitar mais conflitos.»

O seu irmão descreveu a personalidade dele na infância como «Tenho de ganhar e tenho de controlar tudo», numa entrevista à revista The New Yorker em 2016. Mais tarde, Altman frequentou a Universidade de Stanford e participava frequentemente em jogos de póquer fora do campus. «Sinto que aprendi mais sobre a vida e os negócios lá do que na faculdade.»

A Era da Y Combinator: Controvérsia sobre hipérboles e confiança

Os estudantes de Stanford são ambiciosos, mas os mais dinâmicos entre eles optam frequentemente por abandonar os estudos. No final do seu segundo ano de faculdade, Altman mudou-se para Massachusetts para integrar o primeiro grupo de empreendedores do programa de incubadora de startups da Y Combinator. A instituição foi cofundada pelo renomado engenheiro de software Paul Graham. Cada participante apresentou uma ideia de startup. (Entre os seus colegas de turma estavam as equipas que mais tarde fundaram o Reddit e o Twitch.) O projeto de Altman passou a chamar-se Loopt, um dos primeiros produtos de redes sociais que permitia aos amigos verem onde os outros se encontravam, através do rastreio da localização dos seus telemóveis de tampa. A empresa destacou tanto as suas capacidades de execução como a sua tendência para criar espaço para si próprio em áreas cinzentas. Na altura, a regulamentação federal exigia que as operadoras fossem capazes de localizar a posição de um telemóvel em situações de emergência, e Altman celebrou acordos com as operadoras para incorporar essa funcionalidade no seu produto.

A maioria dos funcionários durante a época da Loopt gostava de Sam Altman, mas alguns ficavam surpreendidos com a sua tendência para «exagerar», mesmo em assuntos triviais. Alguns recordaram-se de Altman a gabar-se de ser campeão de pingue-pongue, «como o campeão de pingue-pongue do ensino secundário do Missouri», para acabar por ser um dos piores jogadores da empresa. (Altman disse que provavelmente era só uma piada.) Um dos funcionários mais antigos da Loopt, Mark Jacobstein, foi nomeado pelos investidores para desempenhar as funções de «administrador interino» de Altman, tendo posteriormente comentado na biografia de Keach Hagey, intitulada «The Optimist»: «Existe uma zona cinzenta entre "acho que talvez consiga fazer isto" e "já fiz isto" e, na sua forma mais extrema, essa imprecisão pode conduzir a resultados como os da Theranos.»

Segundo Hagey, devido a preocupações com o estilo de liderança de Altman e à falta de transparência, alguns quadros superiores da Loopt sugeriram por duas vezes ao conselho de administração que o destituíssem do cargo de diretor executivo. No entanto, ao mesmo tempo, ele também tinha um grande carisma pessoal. Um ex-funcionário recordou que um membro do conselho respondeu diretamente: «Esta é a empresa do Sam, volta para o teu posto de trabalho.» (No entanto, alguns membros do conselho também negaram que essas tentativas de destituição fossem sérias.)

A Loopt nunca registou um aumento no número de utilizadores e acabou por ser adquirida por uma empresa de tecnologia financeira em 2012. Segundo fontes internas, esta aquisição teve como principal objetivo ajudar Altman a «sair com dignidade». No entanto, em 2014, quando Paul Graham se aposentou da Y Combinator, escolheu mesmo assim Altman como seu sucessor. «Perguntei-lhe na minha própria cozinha», disse Graham à revista The New Yorker, «Ele sorriu como se tudo tivesse caído no lugar.» Nunca vi o sorriso incontrolável do Sam, como aquele que se faz quando se atira uma bola de papel para o caixote do lixo.

O novo cargo transformou Altman, então com 28 anos, num «formador de reis». A sua função consistia em selecionar os empreendedores mais ambiciosos e promissores, colocá-los em contacto com os melhores programadores e investidores e ajudá-los a criar empresas monopolistas líderes no setor (entretanto, a Y.C. ficava com 6% a 7% do capital social).

Sob a sua liderança, a Y Combinator expandiu-se rapidamente, com o número de projetos incubados a passar de dezenas para centenas. Mas alguns investidores do Vale do Silício começaram a acreditar que os seus interesses não estavam totalmente alinhados. Um investidor disse-nos que Altman iria «investir pessoalmente e de forma seletiva nas empresas de maior qualidade, a fim de excluir investidores externos» (Altman negou esta alegação). Além disso, desempenhou funções de olheiro para a Sequoia Capital, participando em investimentos em projetos em fase inicial e obtendo alguns rendimentos.

Segundo fontes, quando Altman investiu na empresa de tecnologia financeira Stripe como investidor anjo, insistiu em obter uma percentagem maior de ações, uma prática que causou descontentamento interno na Sequoia. A fonte comentou que isto refletia uma estratégia que dava prioridade a Sam. (Altman negou essa alegação.) Ele investiu cerca de 15 000 dólares na Stripe por volta de 2010, detendo cerca de 2 % das ações, e a empresa está agora avaliada em mais de 150 mil milhões de dólares.) Altman afirmou ter investido em cerca de 400 empresas.

Em 2018, vários sócios da Y Combinator estavam insatisfeitos com o comportamento de Altman e comunicaram o facto a Graham. Posteriormente, Graham teve uma conversa franca com a sua esposa, Jessica Livingston, cofundadora da Y.C., e com Altman. Posteriormente, Graham começou a afirmar publicamente que, embora Altman tivesse concordado verbalmente em sair, na prática não se tinha demitido.

Altman informou alguns sócios de que se demitiria do cargo de presidente, mas continuaria como presidente do conselho de administração. Em maio de 2019, a Y Combinator publicou um artigo no blogue a anunciar o novo presidente, com uma nota que dizia: «O Sam está a assumir o cargo de presidente do conselho de administração da YC.» Alguns meses depois, esta declaração foi alterada para «Sam Altman deixou qualquer função operacional na YC», e posteriormente esta frase foi totalmente removida. No entanto, em 2021, Altman continuava a figurar como presidente da Y Combinator nos EUA. Documentos apresentados à Comissão de Valores Mobiliários. (Altman afirmou que só ficou a saber disso mais tarde.)

Sam Altman tem afirmado publicamente, ao longo dos anos e em depoimentos judiciais recentes, que não foi despedido da Y Combinator e disse-nos que não se opôs à sua saída. Paul Graham escreveu no Twitter: «Não queríamos que ele se fosse embora, mas queríamos que escolhesse entre a YC e a OpenAI.» Num comunicado, Graham também nos disse: «Não temos competência legal para despedir ninguém; tudo o que podemos fazer é exercer pressão moral.»

No entanto, em privado, a história era mais explícita: a saída de Altman deveu-se à falta de confiança por parte dos sócios da YC. Este relato sobre o período em que Altman esteve na Y Combinator baseia-se em entrevistas com vários fundadores e sócios da YC, bem como em material da época, o que sugere que a separação não foi inteiramente de comum acordo. Segundo consta, Graham chegou mesmo a dizer aos colegas da YC, numa discussão interna, que «o Sam nos tinha estado a mentir desde o início, antes de ter sido despedido».

A deriva da missão da OpenAI: Da segurança em primeiro lugar ao lucro em primeiro lugar

Em maio de 2015, Altman enviou um e-mail a Elon Musk, que na altura era aproximadamente a centésima pessoa mais rica do mundo. Tal como muitos empreendedores do Vale do Silício, Musk estava então fortemente concentrado numa série de riscos que considerava «existenciais» — embora a maioria dos outros os visse como possibilidades remotas. «Temos de ter muito cuidado com a IA», escreveu ele no Twitter, «Pode ser mais perigosa do que as armas nucleares.»

Altman, que há muito era um otimista em relação à tecnologia, mudou rapidamente o seu tom em relação à IA para um tom mais apocalíptico. Em declarações públicas e conversas privadas com Musk e outros, ele alertou para o risco de permitir que esta tecnologia fosse monopolizada por gigantes tecnológicos movidos pelo lucro. «Tenho-me questionado se haverá alguma forma de travar a corrida ao armamento da IA», escreveu ele, «mas, se não houver, então parece-me que o melhor seria que fosse a empresa certa a fazê-lo.» Recorrendo à analogia nuclear, propôs a criação de uma «IA» «Projeto Manhattan.» Além disso, ele destacou os princípios fundamentais desta organização: «A segurança deve ser a principal prioridade»; «É evidente que devemos cumprir e apoiar toda a regulamentação.»

Posteriormente, ele e Musk decidiram o nome do projeto: OpenAI.

Ao contrário do Projeto Manhattan, que foi inicialmente liderado pelo governo e culminou na criação da bomba atómica, a OpenAI seria financiada por fundos privados nas suas fases iniciais. Altman previu que, assim que surgisse uma forma de «superinteligência» que ultrapassasse a inteligência artificial geral (AGI), esta geraria valor económico suficiente para «capturar o cone de luz futuro do universo». No entanto, ele também salientou repetidamente os seus potenciais riscos existenciais: a certa altura, o impacto da tecnologia na segurança nacional poderá ser tão significativo que poderá obrigar o governo dos EUA a assumir o controlo da OpenAI, ou mesmo a nacionalizá-la, e a transferir as suas instalações para uma base segura no deserto. No final de 2015, Musk já estava convencido. «Devíamos anunciar um compromisso de financiamento de mil milhões de dólares», escreveu ele, «e eu apoiá-lo-ei se os outros não o fizerem.»

Sam Altman integrou inicialmente a OpenAI na vertente sem fins lucrativos da Y Combinator e apresentou-a como um projeto filantrópico interno. Ele atribuiu ações da YC aos membros que aderiram à OpenAI e transferiu fundos de doações através das contas da YC. A certa altura, este laboratório chegou mesmo a contar com o apoio de um fundo da YC no qual Altman tinha participações pessoais. (Mais tarde, Altman referiu-se a esta participação acionária como «insignificante» e afirmou que as ações da YC atribuídas aos funcionários provinham da sua carteira pessoal.)

A analogia com o «Projeto Manhattan» também se manifestou na corrida pelo talento. Tal como a investigação sobre a fissão nuclear, a aprendizagem automática era, na altura, um campo científico de pequena escala com um impacto potencialmente revolucionário, liderado por um pequeno grupo de indivíduos de talento excecional. Elon Musk, Altman e Greg Brockman, que se juntou a eles vindo da Stripe, acreditavam todos que os cientistas informáticos verdadeiramente inovadores eram poucos e raros. O Google, por outro lado, tinha uma enorme vantagem em termos de financiamento e tempo. «Estamos muito aquém em termos de pessoal e recursos; a diferença é surreal», escreveu Musk mais tarde num e-mail. Mas ele também acreditava que «se conseguirmos continuar a atrair os melhores talentos e garantir o rumo certo, a OpenAI acabará por sair vencedora».

Um dos principais alvos de recrutamento foi Ilya Sutskever — um investigador introvertido e intenso, frequentemente considerado um dos cientistas de IA mais talentosos da sua época. Nascido na União Soviética em 1986, Sutskever tinha uma calvície na testa, olhos profundos e o hábito de fazer uma pausa e olhar pensativamente antes de falar. Outra figura importante foi Dario Amodei, um investigador cheio de energia com formação em biofísica, que costumava passar nervosamente a mão pelo cabelo preto nos momentos de tensão e respondia com textos de vários parágrafos até mesmo a e-mails de uma única frase. Na altura, ambos ocupavam cargos bem remunerados noutras empresas, mas Altman dedicou-se intensamente a convencê-los a juntarem-se à equipa. Mais tarde, brincou: «Eu estava praticamente a "perseguir" o Ilya.»

Embora Musk possa ter maior notoriedade, Altman é quem age com mais desenvoltura. Tomou a iniciativa de enviar um e-mail a Amodei e marcou um encontro a sós num restaurante indiano. (Altman: "O meu Uber teve um acidente! «Talvez me atrase 10 minutos.» Amodei: «Oh não, espero que estejas bem.») Tal como muitos investigadores de IA, Amodei acredita que esta tecnologia só deve ser desenvolvida depois de se ter demonstrado que está «alinhada» com os valores humanos — o que significa que não se desvia de forma catastrófica da intenção humana, como, por exemplo, exterminar a humanidade em nome da «limpeza do ambiente». Altman reiterou várias vezes essa preocupação com a segurança durante a conversa, transmitindo confiança.

Amodei, que mais tarde se juntou à empresa, passou anos a documentar as ações de Altman e Brockman, compilando-as num documento intitulado «A minha experiência na OpenAI» (subtítulo: "Confidencial: «Não distribuir»). Mais de duzentas páginas de documentos relacionados com Amodei — incluindo estas notas, e-mails internos e memorandos — circularam nos círculos do Vale do Silício, mas nunca tinham sido divulgadas publicamente. Nesses registos, Amodei escreveu que o objetivo de Altman era criar «um laboratório de IA centrado na segurança (“talvez não logo de início, mas pouco tempo depois”)».

Em dezembro de 2015, poucas horas antes do anúncio oficial da OpenAI, Altman enviou um e-mail a Musk mencionando um rumor: A Google «ia apresentar amanhã uma oferta contrária avultada a todos na OpenAI, numa tentativa de acabar de vez com a organização». Musk perguntou: «O Ilya já deu uma resposta definitiva?» Altman respondeu dizendo que Sutskever era determinado. Na verdade, a Google tinha oferecido a Sutskever um salário anual de 6 milhões de dólares, que a OpenAI não conseguiu igualar. No entanto, Altman manteve-se confiante, afirmando: «É pena que não estejam do lado de quem faz o que está certo.»

Elon Musk chegou a disponibilizar um espaço de escritório para a OpenAI numa antiga fábrica de malas no bairro de Mission, em São Francisco. Como Ilya Sutskever nos contou, o lema central para os funcionários naquela altura era: «Vocês vão salvar o mundo.» Se tudo corresse bem, os fundadores da OpenAI acreditavam que a inteligência artificial daria início a uma utopia «pós-escassez»: automatizando o trabalho árduo, curando o cancro e proporcionando aos seres humanos mais lazer e abundância. Mas se a tecnologia se tornasse incontrolável ou caísse nas mãos erradas, a destruição poderia ser total — por exemplo, se fosse utilizada para desenvolver novas armas biológicas ou enxames avançados de drones; os modelos poderiam escapar ao controlo humano, auto-replicar-se em servidores clandestinos que não fossem desligados; em casos extremos, poderiam até assumir o controlo da rede elétrica, do mercado bolsista ou do arsenal nuclear.

Embora nem todos concordem com estas avaliações, Sam Altman tem manifestado repetidamente a sua convicção quanto a este risco. Numa publicação de blogue de 2015, escreveu que a inteligência artificial de nível sobre-humano «não precisa de ser maléfica para destruir a humanidade; basta que seja indiferente, enquanto se dedica a alcançar outros objetivos... exterminando-nos sem dar por isso». O cofundador da OpenAI comprometeu-se a não privilegiar a rapidez em detrimento da segurança, e os estatutos da empresa incluem um compromisso legal de «beneficiar toda a humanidade». Também receiam que, se a IA se tornar a tecnologia mais poderosa de sempre, qualquer entidade controladora ganharia um poder sem precedentes — um cenário a que se referem como «ditadura da IAG».

Após a saída de Musk, investigadores como Dario Amodei começaram a manifestar insatisfação com o estilo de gestão de Greg Brockman, com alguns a considerá-lo autoritário, enquanto Sutskever foi descrito como «uma pessoa de princípios, mas com falta de capacidade organizacional». Durante a sua transição para o cargo de CEO, Altman pareceu assumir compromissos diferentes com várias facções dentro da empresa. Ele garantiu a alguns investigadores que iria enfraquecer a autoridade de Brockman, mas, ao mesmo tempo, chegou a um «acordo verbal» com Brockman e Sutskever: assumiria o cargo de diretor executivo, mas demitir-se-ia se ambos o solicitassem. (Altman contesta esta afirmação, alegando que foi convidado para assumir o cargo de CEO.) Os três reconhecem a existência do acordo, tendo Brockman afirmado que se tratava de um acordo informal: «Ele afirmou, por iniciativa própria, que, se nós os dois lhe pedíssemos, ele se demitiria.» «Na verdade, opusemo-nos a essa ideia, mas ele disse que era importante para ele e que o fazia por altruísmo.» Mais tarde, o conselho de administração descobriu que o CEO tinha, na realidade, criado um «conselho paralelo» para si próprio, o que constituiu um choque.

Documentos internos revelam que a equipa fundadora já tinha dúvidas quanto à estrutura sem fins lucrativos em 2017. Nesse mesmo ano, depois de Musk ter tentado uma aquisição, Brockman escreveu num diário: «Não posso dizer que tenhamos realmente mantido o nosso estatuto de organização sem fins lucrativos...» «Se nos tornarmos uma B-Corp dentro de três meses, as afirmações anteriores eram mentiras.» Amodei também registou em notas iniciais que tinha perguntado a Brockman quais eram as suas principais prioridades, ao que este respondeu «dinheiro e poder». (Brockman nega esta alegação.) O seu diário revela também uma mentalidade contraditória: por um lado, afirma que «se os outros não são ricos, também não me interessa ser rico», e, por outro lado, questiona-se «o que é que eu realmente quero?», sendo uma das respostas «atingir um património de mil milhões de dólares».

Em 2017, Sutskever leu no escritório um artigo de investigação elaborado por investigadores da Google que propunha uma «nova arquitetura de rede simples: o Transformer». Ele levantou-se de um salto da cadeira, correu para o corredor e gritou: «Parem tudo o que estão a fazer, esta é a resposta.» Na sua opinião, esta arquitetura permitiria à OpenAI treinar modelos mais complexos. Esta inovação deu origem aos primeiros modelos Transformer generativos pré-treinados e serviu de base para o ChatGPT mais tarde.

Altman já tinha garantido aos primeiros colaboradores que a OpenAI manteria sempre a sua natureza exclusivamente sem fins lucrativos, o que levou muitos programadores a aceitar reduções salariais significativas para ingressarem na empresa. A OpenAI recebeu também cerca de 30 milhões de dólares em doações, incluindo da organização Open Philanthropy, um importante centro de financiamento do movimento do altruísmo eficaz, que há muito apoia projetos como a distribuição de redes mosquiteiras em áreas carenciadas.

As operações do dia-a-dia eram supervisionadas principalmente por Brockman e Sutskever, enquanto Musk e Altman se mantinham ocupados com os seus respetivos outros empreendimentos, visitando a empresa normalmente uma vez por semana. Em setembro de 2017, Musk já estava a ficar impaciente. À medida que surgiram discussões sobre a possibilidade de transformar a OpenAI numa empresa com fins lucrativos, ele solicitou o controlo maioritário.

As respostas de Altman variaram consoante as ocasiões, mas uma coisa em que ele insistiu sempre foi que, caso a empresa fosse reestruturada sob a liderança de um diretor executivo, esse cargo deveria ser ocupado por ele. Sutskever sentia-se visivelmente desconfortável com esta situação. Em nome próprio e de Brockman, enviou um longo e-mail a Musk e Altman intitulado «Honest Thoughts», afirmando: «O objetivo da OpenAI é tornar o futuro melhor e evitar uma ditadura da IA geral.» Dirigindo-se a Musk, escreveu ele: «Por isso, criar uma estrutura que possa transformar-te num ditador é uma má ideia.» Ele também manifestou preocupações semelhantes às de Altman, afirmando: «Não compreendemos por que razão o cargo de CEO é tão importante para si.» «As tuas razões estão sempre a mudar, o que nos dificulta perceber a verdadeira motivação.»

«Senhores, estou farto», respondeu Musk, «ou fazem outra coisa por vossa conta ou continuam a manter o estatuto de organização sem fins lucrativos da OpenAI — caso contrário, estou simplesmente a financiar-vos de graça para gerirem uma startup.» Cinco meses depois, partiu visivelmente insatisfeito. (Em 2023, fundou a xAI, uma empresa concorrente com fins lucrativos.) No ano seguinte, processou Altman e a OpenAI por fraude e violação de um fundo de caridade, alegando que tinha sido «cuidadosamente manipulado» e que Altman se tinha envolvido num «golpe de longo prazo», utilizando as suas preocupações sobre os riscos da IA para garantir financiamento. O processo judicial está em curso, tendo a OpenAI refutado veementemente as alegações.)

À medida que as capacidades tecnológicas avançavam, ficámos a saber que cerca de uma dúzia de engenheiros principais da OpenAI tinham realizado uma série de reuniões secretas, discutindo em privado se se podia confiar na equipa fundadora, incluindo Sam Altman e Greg Brockman. Durante uma dessas reuniões, um funcionário lembrou-se de um sketch satírico da dupla de comediantes britânica Mitchell e Webb — um soldado nazi na frente oriental tem de repente uma revelação e pergunta: «Somos nós os maus?»

Em 2018, Dario Amodei já tinha começado a questionar publicamente as motivações dos fundadores. Mais tarde, escreveu numa nota: «Tudo parece um esquema de financiamento sem fim.» «Sinto que o que a OpenAI realmente precisa é de uma definição clara: o que pretende fazer, o que não pretende fazer e como a sua existência irá tornar o mundo melhor.» Apesar de a empresa já ter uma declaração de missão — «garantir que a inteligência artificial geral beneficie toda a humanidade» —, Amodei considerou que essa declaração não era clara para a equipa executiva.

No início de 2018, começou a redigir os estatutos da empresa e, após semanas de discussões com Altman e Brockman, insistiu em incluir uma das cláusulas mais radicais: se um «projeto com valores alinhados e preocupado com a segurança» estivesse mais perto de alcançar a IA Geral (AGI) do que a OpenAI, a empresa «cessaria a sua atividade competitiva e, em vez disso, apoiaria esse projeto». Esta cláusula era conhecida como «cláusula de fusão e assistência» — por exemplo, se a Google fosse a primeira a alcançar uma IA geral segura, a OpenAI, em teoria, dissolver-se-ia e transferiria os seus recursos para a Google. Numa perspetiva empresarial tradicional, este compromisso era quase impensável, mas a OpenAI nunca teve a intenção de se tornar uma empresa tradicional.

Esta premissa foi confrontada com a realidade na primavera de 2019. Na altura, a OpenAI estava em negociações com a Microsoft para um potencial investimento de até mil milhões de dólares. Embora Amodei (que na altura liderava a equipa de segurança) tivesse participado na apresentação do projeto a Bill Gates, continuava a existir uma certa apreensão na equipa quanto à possibilidade de a Microsoft introduzir condições que pudessem enfraquecer os compromissos éticos da OpenAI. Amodei apresentou a Altman uma lista de requisitos de segurança por ordem de prioridade, com a cláusula «convergência e assistência» no topo.

Na altura, Altman concordou. No entanto, à medida que o negócio se aproximava da conclusão em junho, Amodei descobriu uma nova cláusula no acordo que conferia à Microsoft o poder de vetar a fusão da OpenAI. «Isso representou uma violação de 80 % da carta», recordou ele mais tarde. Ele confrontou Altman sobre isso, tendo Altman inicialmente negado a existência de tal cláusula. Amodei leu o contrato na íntegra naquele momento, tendo por fim de pedir a outro colega que o confirmasse diretamente com Altman. (Altman afirmou que não se lembra deste incidente.)

O Êxodo da Segurança e o Nascimento da Anthropic

As notas de Amodei também documentavam uma série de conflitos cada vez mais tensos. Numa reunião realizada vários meses depois, Altman chamou-o a ele e à sua irmã Daniela, que também trabalhava na área de segurança e políticas da empresa, alegando que tinha recebido informações fidedignas de um «alto dirigente» de que os dois estavam a planear um «golpe». As notas referiam que Daniela ficou «emocionalmente abalada» naquele momento e chamou o executivo, que negou ter dito tal coisa. Fontes familiarizadas com o assunto recordaram que Altman negou posteriormente ter feito essa acusação: «Nunca disse isso.» Daniela respondeu: «Acabaste de o fazer.» (Altman afirmou que a sua versão dos factos era ligeiramente diferente, alegando que apenas acusou Amodei de se envolver em «comportamento político».) Em 2020, Amodei, Daniela e vários colegas deixaram a empresa para fundar a Anthropic, que desde então se tornou uma das principais concorrentes da OpenAI.

Entretanto, Altman continuou a salientar o compromisso da OpenAI com a segurança, especialmente na presença de potenciais candidatos. No final de 2022, quatro cientistas da computação publicaram um artigo em que alertavam para o risco do «alinhamento enganador»: modelos altamente avançados podem apresentar um bom desempenho durante os testes, mas acabar por perseguir os seus próprios objetivos após a implementação efetiva. (Este cenário, que parece saído de ficção científica, já se verificou em determinadas condições experimentais.) Várias semanas após a publicação do artigo, um dos autores — um estudante de doutoramento da Universidade da Califórnia, em Berkeley — recebeu um e-mail de Altman. Altman manifestou uma preocupação crescente com a ameaça da «IA não alinhada» e ponderou investir mil milhões de dólares para resolver esta questão, nomeadamente através da criação de um prémio global de investigação. Apesar de este estudante ter ouvido rumores de que «o Sam era um pouco dissimulado», o compromisso acabou por convencê-lo a interromper os estudos e a juntar-se à OpenAI.

No entanto, ao longo de várias reuniões na primavera de 2023, a atitude de Altman pareceu mudar. Ele deixou de falar na criação de um prémio e passou a dedicar-se à formação de uma «equipa de superalinhamento» interna na empresa. Um comunicado oficial indicou que a equipa receberia «20 % da capacidade de computação garantida da empresa», um recurso cujo valor pode ultrapassar os mil milhões de dólares. O comunicado salientou ainda que, caso o problema do alinhamento não pudesse ser resolvido, a IA Geral poderia levar à «perda de poder da humanidade ou mesmo à sua extinção». Jan Leike, que estava à frente da equipa, afirmou posteriormente: «Foi, de facto, uma estratégia de retenção muito eficaz.»

No entanto, a promessa de «20 % de capacidade de computação» não foi cumprida. Quatro pessoas envolvidas na equipa ou que a acompanhavam de perto afirmaram que os recursos efetivamente atribuídos representavam apenas 1% a 2% da capacidade computacional total da empresa. Além disso, um investigador salientou que «a maior parte dos cálculos do chamado superalinhamento é, na verdade, executada no cluster mais antigo e com pior desempenho». Os membros da equipa consideravam, em geral, que o hardware mais avançado era reservado para projetos geradores de receitas. (A OpenAI negou isso.) Leike tinha levantado esta questão junto da então diretora de tecnologia, Mira Murati, mas a resposta foi que não havia necessidade de insistir mais — esse compromisso era «irrealista» desde o início.

Por essa altura, um antigo funcionário contou-nos que Ilya Sutskever «começou a dar grande ênfase à segurança». Nos primórdios da OpenAI, embora considerasse que o risco catastrófico fosse uma preocupação razoável, este ainda parecia um pouco distante; no entanto, à medida que foi gradualmente passando a acreditar que a IA Geral (AGI) se aproximava, essa preocupação intensificou-se rapidamente. Segundo o que o funcionário recorda, durante uma reunião com todo o pessoal, «Ilya levantou-se e disse que, nos próximos anos, chegaria um momento em que quase todos na empresa teriam de passar a trabalhar na área da segurança, ou então estaríamos perdidos». No entanto, no ano seguinte, esta «equipa de superalinhamento» foi dissolvida antes de concluir a sua missão.

Neste momento, as comunicações internas indicam que os executivos e os membros do conselho de administração começam a acreditar que a omissão e o comportamento enganador de Sam Altman podem ter um impacto significativo na segurança dos produtos da OpenAI. Durante uma reunião em dezembro de 2022, Altman garantiu ao conselho de administração que as múltiplas funcionalidades do futuro GPT-4 tinham sido aprovadas pela comissão de segurança. Helen Toner, membro do conselho de administração e especialista em políticas de IA, solicitou o acesso aos documentos relevantes, mas descobriu que as duas funcionalidades mais controversas — uma que permite aos utilizadores «ajustar» o modelo e outra que permite a sua implementação como assistente pessoal — não tinham, na verdade, sido aprovadas. Após a reunião, outra membro do conselho de administração, a empresária Tasha McCauley, foi abordada por um funcionário que lhe perguntou se ela tinha conhecimento do «incidente de conformidade na Índia»: Altman nunca tinha mencionado, nas várias atualizações do conselho de administração, que a Microsoft tinha lançado uma versão preliminar do ChatGPT na Índia sem ter concluído as avaliações de segurança necessárias. «Isto foi quase totalmente varrido para debaixo do tapete», afirmou Jacob Hilton, então investigador da OpenAI.

Embora estas questões não tenham conduzido diretamente a um incidente de segurança, o investigador Carroll Wainwright considerou que refletiam uma «tendência crescente para uma abordagem que privilegia o produto em detrimento da segurança». Após o lançamento do GPT-4, Jan Leike, responsável pela segurança, escreveu ao conselho de administração: «A OpenAI está a desviar-se da sua missão.» «Damos prioridade, em primeiro lugar, ao produto e às receitas; em segundo lugar, às capacidades, à investigação e à expansão; e, em terceiro lugar, ao alinhamento e à segurança.» Ele também observou que «empresas como a Google estão a aprender a lição: aceleram a implementação, mas negligenciam as questões de segurança».

Num e-mail enviado aos membros do conselho, McCauley escreveu: «Acredito que nos encontramos, de facto, numa fase em que é necessário reforçar a supervisão.» No entanto, quando a direção tentou resolver esta questão, encontrava-se claramente em desvantagem. «Para ser franca, trata-se de um grupo de pessoas sem experiência no mundo real», afirmou a ex-membro do conselho de administração Sue Yoon. Em 2023, a empresa preparava-se para lançar o GPT-4 Turbo. De acordo com a descrição de Sutskever num memorando, Altman tinha dito a Mira Murati que o modelo não necessitava de aprovação do departamento de segurança e atribuiu essa decisão ao diretor jurídico da empresa, Jason Kwon. Mas quando Murati perguntou a Kwon no Slack, ele respondeu: «Hum...» «Não sei bem por que razão o Sam pensaria isso.» (A OpenAI afirmou que este incidente «não foi significativo».)

Pouco tempo depois, o conselho decidiu demitir Altman — e, posteriormente, o mundo testemunhou como ele rapidamente reverteu essa decisão. Os estatutos da OpenAI continuam disponíveis no site oficial, mas quem conhece os documentos de governação da empresa afirma que o seu conteúdo foi diluído até ficar praticamente sem sentido. Em junho do ano passado, Altman escreveu numa publicação do seu blogue pessoal sobre a superinteligência: «Já ultrapassámos o horizonte de eventos; a descolagem já começou.»

De acordo com o estatuto original, este deveria ter sido um ponto de viragem para a empresa deixar de competir e passar a colaborar. No entanto, no artigo intitulado «A Singularidade Suave», ele adotou um tom totalmente novo, substituindo o «medo existencial» pela «imaginação otimista»: «Todos nós teremos coisas melhores e criaremos coisas cada vez melhores uns para os outros.» Ele reconheceu que as questões de alinhamento continuavam por resolver, mas redefiniu-as como um «incômodo», semelhante ao vício no algoritmo de recomendações do Instagram.

Altman é frequentemente referido, com admiração ou cepticismo, como «o contador de histórias mais influente da sua geração». O Steve Jobs que ele admirava era outrora considerado dotado de um «campo de distorção da realidade», moldando o mundo à sua visão com confiança absoluta. Mas nem mesmo Jobs chegou a dizer aos utilizadores: se não comprassem o seu produto, a humanidade poderia perecer. Em 2008, com apenas 23 anos, Altman foi descrito pelo seu mentor, Paul Graham, da seguinte forma: «Deixa-o numa ilha de canibais, volta daqui a cinco anos e ele será o rei.» Essa avaliação não se baseou nos seus feitos da época, mas sim na sua força de vontade quase ilimitada.

No entanto, para algumas das pessoas que trabalharam mais de perto com ele, esta característica tem outro lado. À medida que Sutskever se tornava cada vez mais preocupado com a segurança da IA, compilou uma série de memorandos sobre Altman e Greg Brockman — um conjunto de documentos tão significativo no Vale do Silício que chega a ser conhecido como os «Memorandos de Ilya».

Entretanto, Dario Amodei continuou a documentar. Esses materiais não forneceram as chamadas «provas irrefutáveis», mas revelaram uma série de padrões de comportamento aparentemente dispersos, mas que se acumulavam: tais como oferecer o mesmo cargo a pessoas diferentes, apresentar versões contraditórias sobre informações públicas e manter uma postura ambígua em relação aos processos de segurança. A conclusão de Sutskever foi que este comportamento «não cria um ambiente propício a uma IGA segura»; Amodei foi mais direto, escrevendo: «O problema com a OpenAI é o próprio Sam.»

Entrevistámos mais de uma centena de pessoas familiarizadas com a abordagem de Altman: funcionários e diretores atuais e antigos da OpenAI, os seus colegas e concorrentes, amigos e adversários — no Vale do Silício, é comum que muitas pessoas desempenhem várias funções. Alguns defenderam a sua perspicácia empresarial, acreditando que Sutskever e Amodei eram apenas concorrentes fracassados; outros viam-no como um cientista ingénuo e distraído, ou mesmo como um extremista preso ao «catastrofismo». Yoon acreditava que Altman não era um «vilão maquiavélico», mas sim uma pessoa convencida da sua própria narrativa: «está tão imerso na sua autoconfiança que toma decisões incompreensíveis no mundo real — mas, para começar, ele nem vive no mundo real.»

No entanto, a opinião da maioria dos entrevistados é semelhante à de Sutskever e Amodei: Altman possui uma força de vontade extraordinária, destacando-se mesmo entre os magnatas da indústria cujos nomes estão gravados em foguetões. «Ele não está limitado pela “realidade”», afirmou um membro do conselho, «Ele possui duas características que raramente se dão em conjunto: uma é um forte desejo de ser apreciado, de agradar à outra parte em todas as interações; a outra é quase anti-social, sem qualquer preocupação com as consequências de enganar os outros.»

Mais do que um entrevistado utilizou espontaneamente o termo «personalidade anti-social». Altman, que integrou a primeira turma da Y Combinator, foi colega do programador Aaron Swartz, que mais tarde se suicidou em 2013. Antes da sua morte, Swartz manifestou a um amigo as suas preocupações em relação a Altman: «Tens de compreender que nunca se pode confiar no Sam.» «Ele tem uma personalidade antissocial; é capaz de tudo.» Vários executivos da Microsoft afirmaram também que, apesar do apoio de longa data de Satya Nadella a Altman, a relação entre os dois está a tornar-se tensa. «Ele vai induzir em erro, distorcer, renegociar ou até mesmo anular acordos», afirmou um executivo. No início deste ano, a OpenAI confirmou a Microsoft como o fornecedor exclusivo de serviços na nuvem para o seu «modelo sem estado», mas, no mesmo dia, anunciou uma parceria no valor de 500 mil milhões de dólares com a Amazon, tornando esta última a revendedora exclusiva da sua plataforma de IA empresarial. Embora este acordo não violasse o contrato, a Microsoft considerou que existia um potencial conflito. (A OpenAI afirmou que não iria violar o contrato.) O executivo chegou mesmo a comentar: «Acredito que há uma grande probabilidade de que, no futuro, ele venha a ser visto como alguém semelhante a Bernie Madoff ou Sam Bankman-Fried.»

Altman não é um génio técnico — aos olhos de muitos colegas, as suas competências profissionais em programação ou aprendizagem automática são limitadas, e ele pode até confundir conceitos básicos. Ele criou a OpenAI, em grande parte, através da integração de fundos e recursos técnicos de outras pessoas. Isto não é invulgar — é esse o papel de um empreendedor. O que é mais digno de nota é a sua capacidade de persuadir engenheiros, investidores e o público em geral, mesmo quando estes têm opiniões divergentes, convencendo-os de que as suas prioridades são também as deles. Quando essas pessoas tentam impedi-lo, ele consegue frequentemente acalmar os ânimos com argumentos convincentes — pelo menos temporariamente; e, quando a outra parte se apercebe do problema, ele já conseguiu, na maioria das vezes, atingir o seu objetivo. «Ele irá conceber algumas estruturas para limitar o seu eu futuro no papel», disse Wainwright, «mas quando o futuro chegar de verdade e precisar de ser limitado, ele irá desmantelar essas estruturas uma a uma.»

«A sua capacidade de persuasão é incrivelmente forte, como um truque mental Jedi», afirmou um executivo do setor tecnológico que já trabalhou com ele, «É um nível completamente diferente.» Na investigação sobre o alinhamento da IA, existe um conceito clássico: a vontade da humanidade contra uma IA poderosa, sendo que esta última acaba quase inevitavelmente por prevalecer, tal como um grande mestre de xadrez contra uma criança. E, na opinião desse executivo, ver Altman a interagir com as várias partes durante o evento «Blip» foi como assistir a «uma IA geral a libertar-se da sua jaula».

Nos dias que se seguiram à sua demissão, Sam Altman tentou impedir que fosse realizada qualquer investigação sobre as acusações que lhe eram feitas. Ele tinha manifestado a duas pessoas a sua preocupação de que a mera existência de uma investigação o fizesse parecer culpado. (Altman nega ter feito essa declaração.) No entanto, depois de os membros do conselho que se demitiram terem insistido em que «deveria ser realizada uma investigação independente» como condição para a sua saída, Altman acabou por concordar com uma «análise» dos «acontecimentos recentes». De acordo com fontes a par das negociações, os dois novos membros do conselho de administração insistiram em liderar eles próprios esta revisão.

Lawrence Summers, tirando partido das suas ligações no mundo da política e em Wall Street, pareceu conferir alguma credibilidade a esta análise. (Em novembro passado, Summers demitiu-se do conselho de administração depois de ter sido divulgado publicamente que ele tinha pedido conselhos a Jeffrey Epstein por e-mail enquanto cortejava uma jovem protegida.) A OpenAI acabou por contratar o prestigiado escritório de advogados WilmerHale para conduzir esta análise. A empresa já conduziu anteriormente investigações internas sobre a Enron e a WorldCom.

Seis pessoas próximas do processo de investigação indicaram que a revisão parecia ter sido concebida para limitar a transparência. Houve quem afirmasse que, inicialmente, os investigadores não contactaram algumas pessoas-chave dentro da empresa. Um funcionário chegou ao ponto de contactar Summers e Bret Taylor para lhes manifestar as suas preocupações. «Eles só estavam interessados naquele breve período em que se desenrolou o drama no conselho de administração, e não nas questões de integridade de longa data do Sam», recordou o funcionário ter sentido durante a sua entrevista com os investigadores. Alguns também hesitaram em partilhar as suas preocupações sobre Altman devido à sensação de que não havia proteção do anonimato. «Tudo indica que estão à procura de uma conclusão pré-determinada — para o ilibar», afirmou o funcionário. (No entanto, alguns advogados envolvidos no processo defenderam a análise, descrevendo-a como «independente, minuciosa, abrangente e orientada pelos factos». Taylor afirmou ainda que a análise foi «exaustiva e independente».)

O papel de uma investigação interna na empresa serve frequentemente para legitimar uma decisão. Nas empresas privadas, os resultados das investigações nem sempre dão origem a um relatório escrito, servindo como forma de mitigar a responsabilidade legal. No entanto, em casos que suscitam controvérsia pública, espera-se geralmente um maior grau de transparência. Em 2017, antes da saída de Travis Kalanick da Uber, o conselho de administração contratou uma empresa externa e divulgou ao público um resumo de 13 páginas da investigação. Tendo em conta o estatuto de organização sem fins lucrativos 501(c)(3) da OpenAI e o caráter altamente público desta rescisão, muitos executivos da empresa tinham inicialmente previsto um relatório de investigação detalhado. No entanto, em março de 2024, a OpenAI limitou-se a anunciar a «autorização» de Altman sem divulgar quaisquer relatórios formais, reconhecendo uma «quebra de confiança» num texto de cerca de 800 palavras publicado no seu site.

Até os antigos colegas estão a sentir as repercussões. Mira Murati deixou a OpenAI em 2024 para fundar a sua própria startup de IA. Posteriormente, Josh Kushner, um aliado próximo de Altman, ligou-lhe. Começou por elogiar a liderança dela, mas depois fez uma ameaça velada, manifestando a sua «preocupação» com a «reputação» dela e referindo que alguns antigos colegas a consideram agora uma «inimiga». (Kushner, através de um porta-voz, afirmou que esta versão «não apresentava o contexto completo»; Altman, por outro lado, alegou não ter conhecimento da chamada.)

No início do seu mandato como CEO, Altman anunciou que a OpenAI iria criar uma empresa com «limite de lucros» detida pela entidade sem fins lucrativos. Esta estrutura empresarial complexa, quase intrincada, foi aparentemente concebida pelo próprio Altman. Durante a transição, um administrador chamado Holden Karnofsky manifestou a sua oposição, considerando que este acordo subvalorizava gravemente o valor da organização sem fins lucrativos. «Não posso, em boa consciência, concordar com isto», disse Karnofsky. De acordo com os registos da época, ele votou contra. No entanto, depois de o advogado do conselho ter sugerido que a sua oposição «poderia constituir um sinal de alerta para uma investigação mais aprofundada sobre a legalidade da nova estrutura», o seu voto acabou por ser registado como uma abstenção, aparentemente sem o seu consentimento — o que poderia mesmo constituir uma falsificação de registos comerciais. (A OpenAI informou-nos que vários funcionários se lembram de Karnofsky se ter abstido e apresentou atas de reuniões como prova.)

Em outubro do ano passado, a OpenAI passou por uma «reestruturação de capital», tornando-se uma entidade com fins lucrativos. A empresa declarou publicamente que a sua organização sem fins lucrativos afiliada — agora denominada OpenAI Foundation — se tornaria uma das instituições mais ricas da história. No entanto, a fundação detém atualmente apenas 26 % das ações da empresa, e todos os seus administradores, com exceção de um, fazem também parte do conselho de administração da entidade com fins lucrativos.

Durante uma audiência no Congresso, perguntaram a Altman se ele tinha «ganho muito dinheiro». Ele respondeu: «Não tenho qualquer participação na OpenAI...» Faço isto porque adoro." Tendo em conta a sua participação indireta através de fundos ligados à Y Combinator, esta resposta foi bastante cautelosa. Tecnicamente, isso é verdade. No entanto, várias pessoas, incluindo Altman, indicaram-nos que esta situação deverá mudar em breve. «Os investidores dirão: “Preciso de saber que, quando as coisas ficarem difíceis, vocês vão continuar a fazer isto”», afirmou Altman, embora tenha acrescentado que, neste momento, não há «discussões em curso» sobre o assunto. De acordo com um depoimento judicial, a participação de Greg Brockman vale cerca de 20 mil milhões de dólares, e a participação de Altman deveria, em teoria, ser superior. No entanto, Altman disse-nos que a riqueza não é a sua principal motivação. Um antigo funcionário recordou-se de ele ter dito: «Não me interessa o dinheiro.» «Preocupo-me mais com o poder.»

Em 2023, Altman e Oliver Mulherin realizaram um casamento íntimo na sua residência no Havai. (Os dois tinham-se conhecido nove anos antes na casa de Peter Thiel, junto à banheira de hidromassagem, já a noite avançada.) Já tinham recebido muitos convidados naquela propriedade, e as cenas descritas pelos visitantes que entrevistámos não ultrapassavam o âmbito habitual do estilo de vida dos super-ricos: jantares preparados por um chef particular, passeios de barco ao pôr-do-sol. Houve uma festa de Ano Novo inspirada no reality show Survivor; as fotos mostravam um grupo de homens sem camisa e sorridentes, incluindo o apresentador do programa, Jeff Probst. Altman também tinha organizado pequenas festas nas suas outras propriedades, tendo pelo menos um evento envolvido jogos animados de strip-póquer. (Uma foto que vazou não incluía Altman, pelo que não se sabe quem acabou por ganhar, mas pelo menos três homens pareciam ter perdido claramente.) Muitos dos antigos hóspedes entrevistados referiram apenas uma coisa: ele era, de facto, um anfitrião generoso.

Os envolvidos na investigação afirmaram que nunca foi publicado qualquer relatório, uma vez que nunca existiu um relatório formal por escrito. As chamadas conclusões da investigação foram apenas comunicadas oralmente a Summers e Taylor. «A investigação não concluiu que “o Sam é tão honesto como o George Washington a cortar a cerejeira”», afirmou uma fonte próxima da investigação. Mas, no geral, pareceu que a investigação não se centrou verdadeiramente na «questão de integridade» subjacente à demissão de Altman, tendo-se dedicado, em vez disso, uma parte significativa dos esforços a determinar se existiam infrações penais evidentes; com base nesse critério, a investigação concluiu, em última análise, que ele poderia continuar no cargo de CEO. Pouco tempo depois, Altman recuperou o lugar no conselho de administração que tinha perdido quando foi demitido. Fontes internas revelaram que parte da razão para não registar por escrito as conclusões da investigação se deveu também ao conselho dos respetivos advogados particulares de Summers e Taylor. (Summers recusou-se a comentar publicamente este assunto; Taylor afirmou que, uma vez que houve uma reunião informativa oral, «não havia necessidade de um relatório formal por escrito».)

Muitos funcionários atuais e antigos da OpenAI disseram-nos que ficaram chocados com a falta de divulgação pública. Altman afirmou acreditar que todos os membros do conselho que se juntaram ao mesmo após a sua reintegração tinham sido informados oralmente sobre estas questões. «Isto é uma mentira descarada», afirmou uma pessoa a par da situação. Alguns diretores também nos disseram que as dúvidas persistentes sobre a integridade destas «conclusões da investigação» poderão até exigir uma «nova investigação» no futuro.

Sem registos escritos, é mais fácil minimizar estas alegações. Entretanto, a ascensão contínua de Altman no Vale do Silício enfraqueceu ainda mais o escrutínio externo sobre estas questões. Vários investidores de renome que trabalharam com ele contaram-nos sobre um hábito bem conhecido de Altman: se um investidor apostasse num concorrente da OpenAI, ele poderia mais tarde colocá-lo na «lista negra». «Se investirem num projeto de que o Sam não gosta, não esperem fazer parte de outras oportunidades no futuro», disse um deles. Outra fonte do poder de Altman era a sua vasta rede de investimentos, que por vezes se estendia até à sua vida pessoal. Mantinha relações financeiras com vários antigos parceiros: algumas envolviam a gestão conjunta de fundos, outras eram lideradas por ele, e outras ainda consistiam em coinvestimentos frequentes. Esta prática não é invulgar no Vale do Silício. Muitos executivos heterossexuais também agem desta forma. («Tens de o fazer», disse-nos um CEO de renome.) O próprio Altman afirmou: «É verdade que já investi em alguns ex-namorados depois de nos separarmos, e acho que isso não tem qualquer problema.» Mas este próprio acordo gera um nível muito elevado de dependência. «Isto cria, fundamentalmente, uma dependência muito, muito forte», afirmou uma pessoa próxima de Altman, «muitas vezes, até mesmo uma dependência para toda a vida.»

No entanto, vários rumores sobre a vida pessoal de Sam Altman têm sido explorados e até mesmo distorcidos pelos concorrentes. A concorrência acirrada no mundo dos negócios não é novidade, mas a concorrência no setor da inteligência artificial tornou-se excepcionalmente brutal. «Shakespeariano», descreveu um executivo da OpenAI, que acrescentou: «As regras habituais do jogo parecem já não se aplicar.» Alguns intermediários diretamente ligados a Elon Musk, tendo mesmo recebido financiamento da sua parte em alguns casos, divulgaram dezenas de páginas de «pesquisa de oposição» sobre Altman. Estes materiais revelam um elevado nível de vigilância: incluem empresas de fachada ligadas a ele, informações de contacto pessoais e até registos de entrevistas com uma suposta profissional do sexo num bar gay. Um intermediário afirmou também que os itinerários de voo de Altman e as festas a que ele assistia estavam a ser monitorizados. Altman disse-nos: «Sinto que nunca se contratou ninguém para investigar mais sobre mim do que eu próprio.»

Entretanto, estão também a espalhar-se várias acusações graves. O apresentador de direita Tucker Carlson insinuou, sem qualquer prova, que Altman esteve envolvido na morte de um denunciante, uma alegação que os concorrentes têm vindo a amplificar continuamente. A irmã de Altman, Annie, afirmou num processo judicial e durante uma entrevista que nos concedeu que ele a tinha abusado sexualmente desde que ela tinha três anos e ele doze. (Não foi possível verificar as alegações da Annie.) Altman nega estas acusações, e a sua mãe e o seu irmão também afirmaram que estas acusações são «completamente falsas» e causaram «uma enorme dor» a toda a família. Numa entrevista conduzida pela jornalista Karen Hao para o seu livro «Empire of AI», Annie afirmou que essas memórias foram recuperadas através de «flashbacks» na idade adulta.)

Além disso, várias pessoas de empresas concorrentes e sociedades de investimento também nos deram a entender que Altman estaria envolvido em atividades sexuais com menores — uma alegação amplamente difundida no Vale do Silício que parece igualmente infundada. Passámos meses a investigar, realizando dezenas de entrevistas, e não encontrámos quaisquer provas que sustentassem essa alegação. Altman respondeu: «Esta é uma tática repugnante que, na minha opinião, consiste numa tentativa dos concorrentes de "contaminar o grupo de jurados" para futuros processos.» Embora pareça absurdo, quero deixar claro: quaisquer alegações de que eu tenha mantido relações sexuais com menores, contratado profissionais do sexo ou estado envolvido num homicídio são completamente falsas. Ele acrescentou ainda que está «de certa forma grato» por termos passado «tantos meses a investigar estas questões com tanta profundidade».

Sam Altman admite ter mantido relações com jovens maiores de idade. Entrevistámos alguns dos seus sócios, que afirmaram, sem exceção, não ver qualquer problema nisso. No entanto, a «investigação sobre a oposição» levada a cabo pelo grupo de Elon Musk apresentou deliberadamente esta questão como um ponto de ataque. (Esses materiais incluíam até algumas alegações sensacionalistas e não comprovadas, como o chamado «Exército Twink» e o «fetiche dos Sugar Daddies».) Altman respondeu: «Há muita homofobia exagerada misturada nisto.» A jornalista especializada em tecnologia Kara Swisher também concorda: «Todas essas pessoas ricas fizeram todo o tipo de coisas escandalosas, mais escandalosas do que qualquer coisa que eu tenha ouvido sobre o Sam.» «Mas, por ser um homem gay em São Francisco, isso está a ser usado como arma.»

Ao longo da última década, os executivos das empresas de redes sociais prometeram que poderiam «mudar o mundo» praticamente sem efeitos colaterais, descartando as exigências regulatórias como «luditas», o que acabou por despertar a ira de ambos os partidos. Em contrapartida, a imagem de Altman parecia particularmente «consciente de si mesma». Não só não se opôs à regulamentação, como a defendeu ativamente. Em 2023, ao prestar depoimento perante a Comissão de Justiça do Senado dos EUA, propôs a criação de uma nova agência federal para regulamentar os modelos avançados de IA. «Se esta tecnologia falhar, as consequências serão muito graves», afirmou ele. O senador da Louisiana John Kennedy, conhecido pelas suas observações mordazes dirigidas aos diretores executivos das empresas tecnológicas, pareceu até certo ponto concordar, sugerindo, meio em tom de brincadeira, que o próprio Altman deveria ficar responsável pela regulamentação.

No entanto, embora defendesse publicamente a regulamentação, Altman também fazia pressão em privado contra ela. Segundo a revista *Time*, entre 2022 e 2023, a OpenAI conseguiu atenuar uma proposta regulamentar da União Europeia dirigida às grandes empresas de IA. Em 2024, a Assembleia Legislativa da Califórnia apresentou um projeto de lei que exige a realização de testes de segurança aos modelos de IA, muitos dos quais refletiam de perto a posição defendida por Altman no Congresso. A OpenAI opôs-se publicamente ao projeto de lei e exerceu pressão nos bastidores. «Ao longo desse ano, vimos o comportamento da OpenAI tornar-se cada vez mais astuto e enganador», disse-nos um assessor legislativo.

Entretanto, Musk continuou os seus ataques públicos a Altman, referindo-se a ele como «Scam Altman» e «Swindly Sam». (Quando Altman se queixou de um problema com um Tesla no X, Musk respondeu: «Roubaste a uma organização sem fins lucrativos.») Mas em Washington, Altman parecia levar a melhor. Musk chegou a contribuir com mais de 250 milhões de dólares para ajudar Donald Trump a ser reeleito, tendo ocupado brevemente um cargo na Casa Branca antes de se demitir, o que deteriorou a sua relação com Trump.

Hoje, Altman tornou-se um dos magnatas da tecnologia preferidos de Trump, tendo até visitado o Castelo de Windsor, no Reino Unido, na companhia dele. Os dois falam várias vezes por ano. «Podes ligar-lhe diretamente», disse Altman. «Não é esse tipo de amizade, mas se precisar de falar com ele sobre alguma coisa, vou ligar-lhe.» Quando Trump recebeu líderes do setor tecnológico na Casa Branca no ano passado, Musk estava ausente e Altman sentou-se à frente do presidente. «Sam, és um figurão», disse-lhe Trump. «Já me contaste coisas inacreditáveis.»

O investidor Ron Conway também exerceu pressão sobre figuras políticas, incluindo Nancy Pelosi e Gavin Newsom, para que promovessem a rejeição do projeto de lei acima referido. No final, embora o projeto de lei tenha recebido apoio bipartidário e tenha sido aprovado, foi vetado por Newsom. Este ano, alguns candidatos ao Congresso que defendem a regulamentação da IA enfrentaram adversários financiados pelo «Leading the Future», um super PAC pró-IA. A OpenAI declarou oficialmente que não faria doações a tais organizações, mas o seu cofundador, Greg Brockman, comprometeu-se a doar 50 milhões de dólares. (Nesse mesmo ano, ele e a sua esposa também doaram 25 milhões de dólares a um super PAC que apoiava Trump.)

As ações da OpenAI vão além do lobbying tradicional. No ano passado, quando o Senado da Califórnia propôs uma versão revista de um projeto de lei, Nathan Calvin, um advogado de uma organização de interesse público envolvido na elaboração do projeto, recebeu uma intimação da OpenAI durante um jantar em casa. A empresa alegou que o objetivo era investigar se Musk estava a financiar secretamente os críticos, mas solicitou todas as comunicações privadas de Calvin relativas ao projeto de lei. «Podiam ter-nos perguntado diretamente se tínhamos recebido dinheiro do Musk — não recebemos nada», afirmou ele. Outros defensores do projeto de lei, bem como aqueles que criticam a transição da OpenAI para o setor comercial, também receberam intimações semelhantes. «Estão a tentar intimidar estas pessoas para que se calem», afirmou Don Howard, diretor da organização de interesse público. (A OpenAI afirmou que isto faz parte dos procedimentos legais normais.)

No que diz respeito à orientação política, Altman apoia há muito tempo o Partido Democrata. Ele afirmou: «Tenho muito cuidado com esses governantes autoritários que usam uma narrativa de medo para oprimir os mais fracos — isto deve-se mais à minha origem judaica do que à minha orientação sexual.» Em 2016, apoiou Hillary Clinton, referindo-se a Trump como «uma ameaça sem precedentes para os Estados Unidos»; em 2020, fez doações ao Partido Democrata e ao fundo de campanha de Biden. Durante o mandato de Joe Biden, ele visitou a Casa Branca várias vezes para debates sobre políticas e ajudou a impulsionar o primeiro quadro regulamentar federal em matéria de segurança da IA.

No entanto, em 2024, à medida que os índices de aprovação de Biden diminuíam, a posição de Altman começou a mudar: «Independentemente do resultado das eleições, os Estados Unidos ficarão bem.» Após a vitória de Trump, este doou 1 milhão de dólares para o fundo da sua tomada de posse e tirou uma fotografia com as celebridades da Internet Jake e Logan Paul na cerimónia de tomada de posse. No X, escreveu ele: «Tenho acompanhado o @potus mais de perto ultimamente, e isso mudou mesmo a minha perceção sobre ele (quem me dera ter pensado de forma mais independente mais cedo...)». No primeiro dia de mandato de Trump, este revogou os decretos executivos sobre IA da era Biden. Um antigo alto funcionário do governo comentou: «Ele encontrou uma forma eficaz de fazer com que a administração Trump trabalhasse a seu favor.»

Ao longo dos anos, Altman sempre comparou o desenvolvimento da IA geral ao «Projeto Manhattan». Tal como J. Robert Oppenheimer mobilizou outrora os cientistas com um sentido de missão «contra os nazis», Altman também recorre à narrativa da competição geopolítica para angariar apoio. Dependendo do público, ele recorre a esta analogia com flexibilidade — ora enfatizando a aceleração, ora a cautela. No verão de 2017, durante uma reunião com responsáveis dos serviços secretos dos EUA, afirmou que a China tinha lançado um «Projeto Manhattan de IA Geral» e utilizou essa informação para solicitar apoio financeiro do governo. Quando lhe pediram para apresentar provas, limitou-se a dizer: «Ouvi algumas coisas», mas nunca apresentou provas concretas. Um responsável governamental envolvido na investigação afirmou posteriormente que não foram encontrados projetos desse tipo: «Isto parece mais um argumento de venda.» (Altman afirmou não se lembrar de ter dito isso.)

Perante um público mais interessado em questões de segurança, ele, por sua vez, salientou a importância da coordenação internacional. Em 2017, Amodei contratou a advogada de interesse público Page Hedley para desempenhar as funções de consultora em matéria de políticas e ética. Numa apresentação interna, Hedley sugeriu que se poderia criar um mecanismo de coordenação internacional semelhante à NATO para evitar uma corrida catastrófica ao armamento no domínio da IA. No entanto, segundo o que ela recorda, Brockman não se mostrou preocupado com isso: «Independentemente do que eu dissesse, ele voltava sempre à mesma questão: como é que conseguimos mais financiamento?» «Como é que ganhamos?» Com base em várias entrevistas e registos, Brockman chegou mesmo a avançar com outra ideia: lucrar com uma guerra de ofertas entre os EUA, a China e a Rússia — «Uma vez que a era das armas nucleares pode funcionar desta forma, porque não a IA?»

Na altura, ficou chocado: «Eles nem sequer negaram esta premissa — “Estamos a discutir aquela que poderá ser a tecnologia mais destrutiva de sempre; e se a vendêssemos a Vladimir Putin?”» (Greg Brockman, no entanto, afirmou que nunca considerou seriamente a possibilidade de «leiloar» modelos de IA a governos.) «Estávamos apenas a discutir algumas possíveis estruturas de colaboração a nível macro, como um mecanismo de cooperação em IA semelhante ao da Estação Espacial Internacional», afirmou um porta-voz da OpenAI. «Apresentar isto como outra coisa é totalmente absurdo.»)

As sessões de brainstorming costumam dar origem a algumas ideias extravagantes, pelo menos no início. Page Hedley tinha inicialmente esperado que o conceito, mais tarde designado internamente como o «plano dos países», fosse rapidamente arquivado. No entanto, de acordo com vários participantes e registos relevantes da época, os executivos da OpenAI ficaram cada vez mais entusiasmados com esta ideia. O então responsável pela política, Jack Clark, afirmou que o objetivo de Brockman era «criar uma situação semelhante ao dilema do prisioneiro, em que todos os países teriam de nos financiar», e «dentro desta estrutura, o próprio facto de não nos financiar torna-se um ato perigoso». Um investigador júnior recordou que, quando ouviu uma descrição detalhada deste plano numa reunião da empresa, pensou: «Isto é simplesmente uma loucura.»

Os executivos chegaram mesmo a discutir este plano com pelo menos um potencial financiador. No entanto, mais tarde nesse mês, depois de vários funcionários terem manifestado a sua intenção de se demitirem, o plano foi suspenso. «O Sam acabaria por perder membros da equipa», disse Hedley. «Tive a sensação de que, na sua avaliação, isso era sempre mais importante do que "este plano poderia desencadear um grande conflito de potências, pelo que é intrinsecamente irracional"».

Apesar do fracasso do «plano dos países», Sam Altman não desistiu de uma variante dessa ideia. Em janeiro de 2018, convocou uma «A.G.I. Evento «Weekend» no Hotel Bel-Air, em Los Angeles. Este resort ao estilo de Hollywood é conhecido pelo seu jardim de buganvílias cor-de-rosa e por uma piscina com cisnes de verdade. Entre os participantes contavam-se o filósofo de Oxford e «profeta» dos riscos da IA Nick Bostrom, o defensor da IA dos Emirados Árabes Unidos Omar Al Olama e, pelo menos, sete bilionários. Para quem se preocupa com questões de segurança, este evento foi descrito como uma oportunidade para debater «como se preparar para a chegada da IA Geral»; enquanto os investidores esperavam ouvir propostas de financiamento.

As atividades diurnas decorreram numa moderna sala de conferências, com os participantes a fazerem discursos à vez. (Reid Hoffman chegou mesmo a falar sobre como incorporar a «compaixão budista» na IA.) O último orador foi Altman, que apresentou um plano de financiamento: emitir uma criptomoeda global que pudesse «trocar a atenção da AGI». Na sua visão, assim que a IA Geral (AGI) atingisse o auge da praticabilidade e da «desmalignização», os utilizadores de todo o mundo competiriam para adquirir tempo de utilização dos servidores da OpenAI. Dario Amodei escreveu nas suas notas: «À primeira vista, esta ideia parece absurda (será que Vladimir Putin também teria esses tokens?...)» Olhando para trás, este foi um dos muitos sinais de alerta que eu devia ter levado mais a sério. Este plano parecia mais uma tática de angariação de fundos, mas Altman apresentou-o como parte da segurança da IA. Um dos seus slides dizia: «Quero que o maior número possível de pessoas se posicione do "lado certo" e, no final, vença.» Outro slide dizia: «Por favor, guardem as risadas para o final da apresentação.»

A visão de Altman sobre o financiamento tem evoluído ao longo dos anos, mas sempre girou em torno de uma realidade fundamental: o desenvolvimento da IA Geral requer um investimento avultado. Ele segue uma «lei da escala» relativamente simples — quanto mais dados e capacidade computacional forem utilizados para treinar um modelo, mais inteligente esse modelo se torna. Os chips especializados que suportam este processo são extremamente caros. Apenas na ronda de financiamento mais recente, a OpenAI angariou mais de 120 mil milhões de dólares — a maior angariação de fundos privada da história, quatro vezes superior à maior oferta pública inicial. «Quando se fala de entidades que podem dispor livremente de dezenas de milhares de milhões de dólares por ano, existem apenas algumas a nível mundial», afirmou um investidor na área da tecnologia. «O governo dos EUA, algumas das maiores empresas tecnológicas, a Arábia Saudita e os Emirados Árabes Unidos, e é tudo.»

Sam Altman, continua a ser uma variável de risco por resolver

Prospecção no Golfo: Uma aposta geopolítica

Inicialmente, Altman tinha a Arábia Saudita na mira. Conheceu o príncipe herdeiro e governante de facto, Mohammed bin Salman, num jantar no Hotel Fairmont, em São Francisco, em 2016. Posteriormente, segundo as memórias de Hedley, Altman referia-se frequentemente a ele como um «amigo». Em setembro de 2018, segundo as notas de Hedley, Altman referiu: «Estou a ponderar se devo aceitar centenas de milhares de milhões de dólares do fundo soberano saudita (PIF).»

No entanto, um mês depois, a situação sofreu uma reviravolta drástica. O jornalista do Washington Post Jamal Khashoggi, que criticava o governo saudita, foi assassinado e esquartejado na Turquia, sendo que a opinião generalizada é de que o príncipe herdeiro ordenou o crime. Uma semana depois, foi anunciado que Altman iria integrar o conselho consultivo do projeto saudita «cidade do futuro», Neom. «Sam, não podes integrar este conselho consultivo», recordou Jack Clark, então responsável pelas políticas, ter-lhe dito na altura. Inicialmente, Altman defendeu a sua decisão, afirmando que Jared Kushner lhe tinha garantido que a Arábia Saudita «não tinha feito isso» (Altman alegou não se lembrar disso, e Kushner também afirmou que as duas partes não tinham estado em contacto na altura). À medida que a responsabilidade do príncipe herdeiro se tornava cada vez mais evidente, Altman acabou por se retirar do conselho consultivo da Neom.

No entanto, em privado, um consultor que outrora prestara assessoria política a Altman recordou ter considerado o assunto como um «contratempo temporário» e continuou a explorar se ainda seria possível obter financiamento da Arábia Saudita. «A questão nunca foi “Isto está certo ou errado?”, mas sim “Quais serão as consequências se fizermos isto?” Isso irá desencadear controlos à exportação? Será que vamos ser sancionados? «Será que consigo contornar isso?»

Entretanto, Altman também voltou a sua atenção para outra fonte de financiamento: os Emirados Árabes Unidos. O país encontra-se no meio de um plano de transformação de quinze anos, com o objetivo de passar de uma economia baseada no petróleo para um polo tecnológico. Este projeto é liderado pelo irmão do presidente e chefe dos serviços secretos nacionais, Tahnoon bin Zayed al-Nahyan. Ele supervisiona o grupo de IA do país, o G42, bem como cerca de 1,5 biliões de dólares em fundos soberanos. Em junho de 2023, Altman visitou Abu Dhabi, reuniu-se com autoridades, incluindo Olama, e afirmou num evento patrocinado pelo governo que os Emirados Árabes Unidos tinham «começado a lançar as bases para a IA antes mesmo de esta estar na moda», tendo delineado uma visão futurista: o Médio Oriente viria a desempenhar um «papel central» no ecossistema global da IA.

O financiamento proveniente dos países do Golfo tornou-se uma prática habitual para as grandes empresas. No entanto, Sam Altman tinha em vista uma visão geopolítica mais ambiciosa. No outono de 2023, começou discretamente a recrutar talentos e a planear um projeto que mais tarde ficou conhecido como «ChipCo»: financiado por países do Golfo com centenas de milhares de milhões de dólares para construir fábricas de chips e centros de dados em grande escala a nível mundial, com uma parte sediada no Médio Oriente. Ele propôs ao atual diretor da Meta AI, Alexandr Wang, que se juntasse à equipa de direção e sugeriu que Jeff Bezos pudesse liderar o projeto. Altman procurou obter um investimento substancial dos Emirados Árabes Unidos. «Tanto quanto sei, tudo isto foi levado por diante sem o conhecimento do conselho de administração», afirmou um dos administradores. O investigador James Bradbury, convidado por Altman para participar no projeto, recordou ter decidido recusar: «O meu primeiro pensamento foi: é bastante provável que dê certo, mas não tenho a certeza se quero que isso aconteça.»

A capacidade computacional da IA poderá em breve substituir o petróleo ou o urânio enriquecido como o recurso fundamental que molda a dinâmica do poder a nível mundial. Altman afirmou que o poder de computação é a «moeda do futuro». Em teoria, a localização dos centros de dados parece irrelevante, mas muitos responsáveis pela segurança nacional dos EUA estão preocupados com a concentração de infraestruturas avançadas de IA nos Estados autocráticos do Golfo. A infraestrutura de comunicações dos Emirados Árabes Unidos depende fortemente da Huawei (uma empresa tecnológica estreitamente ligada ao governo chinês), e o país já foi acusado, no passado, de ter divulgado tecnologia norte-americana a Pequim. As agências de inteligência receiam que os chips avançados exportados para os Emirados Árabes Unidos possam ser explorados por engenheiros chineses. Além disso, os centros de dados no Médio Oriente estão mais expostos a serem alvo de ataques em conflitos geopolíticos — o Irão lançou recentemente ataques contra centros de dados ligados aos EUA no Bahrein e nos Emirados Árabes Unidos. Num cenário mais extremo, uma monarquia do Golfo poderia até mesmo assumir o controlo dos centros de dados de empresas americanas e utilizá-los para treinar modelos com uma potência desproporcional — isto é quase uma versão na vida real da «ditadura da IGA».

Durante o período crucial que se seguiu à sua demissão, uma das pessoas em quem Altman mais confiava era Brian Chesky. O cofundador da Airbnb, que é também um dos seus mais fervorosos apoiantes. «Ver o meu amigo a enfrentar o abismo fez-me começar a repensar o que significa "gerir realmente uma empresa"», disse-nos Chesky. No ano seguinte, num encontro de ex-alunos da Y Combinator, proferiu um discurso improvisado de duas horas, «que parecia uma sessão de terapia coletiva». A ideia central era simples: a intuição de um fundador em relação à sua própria empresa é a mais fiável, e quem quer que a negue está a «manipular-te». «Não estás louco, mesmo que os teus funcionários te digam que estás louco», disse Chesky. Paul Graham deu a esta atitude o nome de «Modo Fundador» numa publicação no blogue. Desde o evento «Blip», Altman tem estado, evidentemente, neste estado.

Em fevereiro de 2024, o The Wall Street Journal revelou pela primeira vez o plano da ChipCo. Altman imaginou-a como uma entidade conjunta com uma dimensão que poderia atingir os 5 a 7 biliões de dólares (chegou mesmo a brincar nas redes sociais: «Vamos lá fazer com que sejam 8 biliões de dólares»). Muitos funcionários tomaram conhecimento deste plano pela primeira vez através dos meios de comunicação social. "A reação de todos foi: espera aí, o quê?" Jan Leike recordou. Numa reunião interna, Altman insistiu que a equipa de segurança «tinha sido envolvida na discussão», e Leike enviou-lhe posteriormente uma mensagem para que não desse a entender que o plano tinha recebido autorização de segurança.

Durante o mandato de Joe Biden, Altman tentou obter uma habilitação de segurança para participar em discussões confidenciais sobre políticas de IA. No entanto, os colaboradores da RAND Corporation que prestaram assistência no processo manifestaram as suas preocupações: «Ele está a angariar "dezenas de milhares de milhões" de dólares junto de governos estrangeiros», escreveu um membro da equipa, «Os Emirados Árabes Unidos até lhe ofereceram recentemente um carro (imagino que deva ser muito caro).» A pessoa também observou: «A única pessoa que me ocorre que tenha solicitado uma habilitação de segurança tendo laços financeiros no estrangeiro tão extensos foi Jared Kushner, e a autoridade responsável pela aprovação na altura desaconselhou a sua concessão.» Altman acabou por desistir do processo de candidatura. Um alto funcionário do governo envolvido nas discussões afirmou: «A sua relação altamente mercantilista com os Emirados Árabes Unidos deixou muitas pessoas desconfiadas, e muitos membros do governo não confiam plenamente nele.»

Quando questionado sobre se tinha recebido presentes de Tahnoon bin Zayed al-Nahyan, Altman respondeu: «Não vou especificar exatamente o que ele me ofereceu, mas ele e outros líderes nacionais... ofereceram-me, de facto, presentes.» Acrescentou ainda que a empresa tem uma política clara que exige a divulgação de todos os presentes recebidos de potenciais parceiros. Altman tem pelo menos dois supercarros: um Koenigsegg Regera branco no valor de cerca de 2 milhões de dólares e um McLaren F1 vermelho no valor de cerca de 20 milhões de dólares. Em 2024, foi visto a conduzir o Regera no Vale de Napa, tendo circulado nas redes sociais um pequeno vídeo: ele sentado num banco rebaixado, inclinado para fora da carroçaria branca. Um investidor que partilha da posição de Musk retweetou o vídeo e comentou: «Também quero criar uma organização sem fins lucrativos.»

Nesse mesmo ano, Altman também levou dois funcionários da OpenAI a bordo do superiate Maryah, de 250 milhões de dólares, de propriedade de Tahnoon. Este iate de luxo de classe mundial está equipado com uma pista de aterragem para helicópteros, uma discoteca, uma sala de cinema e um clube de praia. Segundo consta, os funcionários de Altman sentiram-se deslocados num ambiente rodeado por seguranças armados, tendo pelo menos um deles dito posteriormente a um colega que a experiência o deixou inquieto. Mais tarde, Altman referiu-se a Tahnoon como um «amigo íntimo» no X.

Stargate chega: Reviravolta política de Biden para Trump

Sam Altman continua a manter contactos com a administração de Joe Biden. O governo já tinha implementado uma política que exigia a aprovação da Casa Branca para a exportação de tecnologia sensível. Muitos responsáveis governamentais manifestaram o seu mal-estar após estas reuniões com Altman no Médio Oriente. Segundo eles, Altman apresentava frequentemente ideias grandiosas, como equiparar a IA à «nova eletricidade».

Já em 2018, ele tinha referido que a OpenAI planeava adquirir um computador quântico «totalmente operacional» à Rigetti Computing — uma declaração que surpreendeu até mesmo outros executivos da OpenAI presentes, uma vez que a Rigetti estava longe de atingir esse objetivo na altura. Numa outra reunião, afirmou ainda que, até 2026, os Estados Unidos iriam criar uma vasta rede de reatores de fusão nuclear para fornecer apoio energético ao desenvolvimento da IA. Um alto funcionário do governo recordou: «A nossa reação na altura foi: se a fusão nuclear for realmente alcançada, isso seria, sem dúvida, uma grande notícia.» No final, a administração Biden recusou-se a aprovar os planos em questão. «Não vamos fabricar chips avançados nos Emirados Árabes Unidos», disse um responsável do Departamento do Comércio a Altman.

No entanto, a situação mudou rapidamente. Apenas quatro dias antes da tomada de posse de Donald Trump, o The Wall Street Journal noticiou que Tahnoon bin Zayed al-Nahyan pagou 500 milhões de dólares à família Trump em troca de uma participação na sua empresa de criptomoedas. No dia seguinte, Altman conversou com Trump durante 25 minutos, discutindo o lançamento de um projeto semelhante ao ChipCo e planeando que Trump «assumisse o mérito» quando fosse anunciado publicamente. No segundo dia da presidência de Trump, Altman compareceu na Sala Roosevelt da Casa Branca, anunciando o lançamento do Stargate — um projeto de parceria no valor total de 500 mil milhões de dólares destinado a construir uma vasta rede de infraestruturas de IA nos Estados Unidos.

Em maio do mesmo ano, o governo levantou as restrições à exportação de tecnologia de IA que estavam em vigor durante a era Biden. Altman acompanhou Trump numa visita à família real saudita e a Mohammed bin Salman. Quase em simultâneo, a Arábia Saudita anunciou o lançamento de uma gigante da IA apoiada pelo Estado, com planos para investir milhares de milhões de dólares na cooperação internacional. Cerca de uma semana depois, Altman revelou planos para expandir a Stargate para os Emirados Árabes Unidos. A empresa planeia construir um complexo de centros de dados em Abu Dhabi, que terá uma área sete vezes superior à do Central Park, em Nova Iorque, e consumirá uma quantidade de energia quase equivalente à de toda a cidade de Miami.

Um antigo executivo da OpenAI descreveu o processo da seguinte forma: «Para ser sincero, estamos a construir uma espécie de portal para "invocar extraterrestres".» Ele explicou: «Estes “portais” existem atualmente nos EUA e na China, tendo o Sam acrescentado um no Médio Oriente.» Ele afirmou ainda: «O essencial é perceber o quão assustador isto é — esta é uma das medidas mais imprudentes até agora.»

Mudança na militarização: A OpenAI assume a encomenda do Pentágono

A erosão dos compromissos em matéria de segurança tornou-se gradualmente a norma em todo o setor. A premissa fundamental da fundação da Anthropic consistia em manter as barreiras de segurança face à pressão comercial, através de estruturas e liderança adequadas. Um mecanismo fundamental foi a «política de escalonamento responsável»: se não fosse possível provar que um modelo mais robusto era seguro, a empresa tinha de interromper o treino. No entanto, em fevereiro deste ano, com a empresa a garantir um financiamento de 30 mil milhões de dólares, esse compromisso ficou enfraquecido. De certa forma, a Anthropic continua a dar mais ênfase à segurança do que a OpenAI, mas o seu antigo responsável pelas políticas, Jack Clark, afirmou sem rodeios: «A lógica dos mercados de capitais é: correr mais depressa.» Ele acrescentou: «Em última análise, quem toma as decisões não é a empresa, mas sim o mundo inteiro.» No ano passado, Dario Amodei revelou aos funcionários, num memorando interno, que a empresa iria procurar obter investimentos dos Emirados Árabes Unidos e do Catar, reconhecendo que tal provavelmente beneficiaria «ditadores».

Entretanto, a Anthropic tem vindo a ajustar continuamente a sua posição face à realidade. Em 2024, a empresa estabeleceu uma parceria com a Palantir, uma das principais empresas de defesa do Vale do Silício, para implementar o seu modelo Claude no sistema militar, tornando-se a única empresa de IA a participar num projeto altamente confidencial do Pentágono. No ano passado, o Departamento de Defesa dos EUA acrescentou-lhe um contrato adicional no valor de 200 milhões de dólares. Em janeiro deste ano, as forças armadas dos EUA realizaram uma operação à meia-noite para capturar o presidente venezuelano Nicolás Maduro — segundo o The Wall Street Journal, o Claude teria sido utilizado numa parte confidencial dessa operação.

No entanto, as tensões rapidamente vieram à tona. Nos anos anteriores, a OpenAI tinha eliminado a proibição total do «uso militar» da sua política; posteriormente, concorrentes como a Google e a xAI também concordaram em fornecer modelos às forças armadas para «qualquer uso lícito». A Anthropic, por outro lado, manteve a sua posição de não apoiar armas totalmente autónomas nem a vigilância em massa a nível nacional, o que levou a um impasse nas negociações com o governo. Numa terça-feira no final de fevereiro, o Secretário da Defesa dos EUA, Pete Hegseth, convocou Amodei ao Pentágono e lançou um ultimato: estas restrições têm de ser levantadas até sexta-feira, às 17h01. Amodei acabou por recusar. Hegseth anunciou então nas redes sociais que a Anthropic estava a ser classificada como uma empresa de «risco para a cadeia de abastecimento» — um rótulo normalmente reservado a empresas associadas a adversários estrangeiros, como a Huawei — e rapidamente pôs essa medida em prática.

Esta decisão causou um grande impacto no setor. A OpenAI e centenas de funcionários da Google assinaram conjuntamente uma carta aberta intitulada «Não nos deixarão dividir» em defesa da Anthropic. Num memorando interno, Sam Altman referiu-se a isto como uma «questão que afeta todo o setor» e afirmou que a OpenAI e a Anthropic partilham limites éticos semelhantes. No entanto, ele tem estado envolvido em pelo menos dois dias de negociações com o Pentágono. O subsecretário adjunto da Defesa para a Investigação, Emil Michael, afirmou: «Precisava de encontrar rapidamente uma alternativa, por isso liguei ao Sam, e ele mostrou-se imediatamente disposto a assumir a tarefa — considero-o um patriota.» Altman perguntou: «O que posso fazer pelo país?», e a resposta parecia ter sido preparada de antemão. Embora a OpenAI ainda não tenha obtido a autorização de segurança necessária para sistemas confidenciais, foi anunciada na sexta-feira de manhã uma parceria no valor de 500 mil milhões de dólares para integrar a sua tecnologia na Amazon Web Services — parte integrante da infraestrutura digital do Pentágono. Naquela noite, Altman anunciou no X que as Forças Armadas dos EUA iriam começar a utilizar os modelos da OpenAI.

Do ponto de vista empresarial, esta decisão não prejudicou a empresa. No dia em que a parceria foi anunciada, a nova ronda de financiamento da OpenAI elevou ainda mais a sua avaliação em 110 mil milhões de dólares. Mas também houve consequências: muitos utilizadores desinstalaram a aplicação ChatGPT e pelo menos dois executivos demitiram-se (um dos quais passou a integrar a Anthropic). Numa reunião interna, Altman manifestou o seu descontentamento com os funcionários que levantaram questões: «Podes achar que atacar o Irão é certo e invadir a Venezuela é errado, mas essas decisões não te competem.»

Internamente, alguns executivos ainda têm dúvidas quanto ao estilo de liderança de Altman e sugeriram que Fidji Simo (a atual diretora de Implementação de IA Geral da OpenAI) poderia ser a sua sucessora. De acordo com uma fonte a par do assunto, Simo acredita, em particular, que Altman poderá demitir-se no futuro. (Simo nega essa alegação.)

Altman atribui a mudança na sua posição à adaptação às circunstâncias em evolução, e não à «manobra de longo prazo» de que Musk e outros o acusaram. «Há quem queira que os líderes se mantenham sempre fiéis a uma posição rígida», afirmou ele, «mas o setor em que atuamos está a mudar rapidamente.» Ele atribui algumas das suas ações à «concorrência normal no mundo dos negócios». Alguns investidores também consideram que as críticas dirigidas contra ele são excessivamente idealistas. «Há um grupo de pessoas que leva a questão da segurança a um extremo quase de ficção científica», afirmou o investidor Ron Conway. «A sua missão pode ser avaliada pelos resultados e, quando se vê o desempenho da OpenAI, é difícil negar esses números.»

No entanto, no Vale do Silício, muitos consideram que as ações de Sam Altman conduziram a um caos inaceitável na gestão. «O problema mais grave é que a empresa tem demonstrado falta de capacidade de governação nas suas operações concretas», comentou um administrador. Há quem continue a insistir que os criadores de IA devem estar sujeitos a normas mais rigorosas do que outros executivos do setor. A maioria das pessoas que entrevistámos concordou num ponto: Parece que Altman está agora a ser avaliado por critérios diferentes daqueles que ele próprio estabeleceu inicialmente.

Numa conversa, perguntámos a Altman: Dirigir uma empresa de IA implica «requisitos éticos mais elevados»? A pergunta deveria ser muito simples. No passado, a resposta dele era sempre um «sim» retumbante, sem hesitação. Mas desta vez, acrescentou ele: «Penso que muitas indústrias têm, na verdade, um enorme impacto positivo e negativo na sociedade.» (Mais tarde, acrescentou outra observação: «Sim, isto exige padrões éticos mais elevados, e sinto essa responsabilidade todos os dias.»)

Desde a fundação da OpenAI, um dos compromissos mais fundamentais foi «tornar a IA uma realidade de forma segura». Mas hoje em dia, essas preocupações são frequentemente vistas como um entrave no Vale do Silício e em Washington. No ano passado, o atual presidente dos EUA O vice-presidente e antigo investidor de capital de risco J.D. Vance afirmou numa Cimeira sobre Ação em IA, em Paris: «O futuro da IA não será conquistado por uma preocupação excessiva com a segurança.» No Fórum de Davos, David Sacks, um antigo funcionário da Casa Branca responsável pelos assuntos relacionados com a IA e as criptomoedas, que se tornou investidor de capital de risco, também se referiu às questões de segurança como «autolesão», o que poderia levar os EUA a perder a corrida da IA. Altman refere-se agora à política de desregulamentação de Trump como «uma mudança muito revigorante».

Entretanto, várias equipas dedicadas à segurança dentro da OpenAI foram dissolvidas. Antes da dissolução da Super Alignment Team, os seus líderes, Ilya Sutskever e Jan Leike, demitiram-se sucessivamente. (Mais tarde, Sutskever fundou a Safe Superintelligence.) Leike escreveu no X: «A cultura e os processos de segurança deram lugar a produtos mais apelativos.» Pouco tempo depois, a equipa responsável por «simular o impacto da IA geral na sociedade» também foi dissolvida. Num documento recentemente apresentado ao IRS, a OpenAI já nem sequer mencionou a «segurança» ao descrever as suas «atividades mais importantes». (A empresa respondeu que a sua «missão não mudou» e salientou que continua ativamente envolvida na investigação sobre segurança.) Na mais recente avaliação realizada pela organização sem fins lucrativos Future of Life Institute, a OpenAI recebeu um F na dimensão da «segurança existencial» — claro que, além da Anthropic (D) e da Google DeepMind (D-), outras grandes empresas também foram reprovadas.

«A minha intuição sobre as questões tradicionais relacionadas com a segurança da IA não é, na verdade, muito consistente», afirmou Altman. Ele insiste que continua a dar importância a estas questões, mas mantém-se vago quanto a medidas específicas: «Continuaremos a realizar alguns projetos de segurança ou, por assim dizer, projetos relacionados com a segurança.» Quando solicitámos uma entrevista com o pessoal de investigação da empresa que se dedica à «segurança existencial» (que ele tinha descrito como o «problema do apagão»), um porta-voz da OpenAI pareceu até confuso: «O que queres dizer com "segurança existencial"?» «Isso não é um conceito claro.»

Os outrora marginalizados «pessimistas da IA» estão a ver as suas preocupações concretizarem-se cada vez mais na realidade. De acordo com um relatório das Nações Unidas, já em 2020, drones equipados com IA realizaram ataques letais na guerra civil da Líbia, possivelmente sem intervenção humana. Desde então, o papel da IA nas ações militares globais tem vindo a assumir uma importância crescente, incluindo, segundo consta, nas operações em curso dos EUA contra o Irão. Em 2022, investigadores de uma empresa farmacêutica tentaram utilizar um modelo de descoberta de fármacos para identificar novas toxinas, gerando 40 000 potenciais armas químicas em apenas algumas horas. Entretanto, surgem riscos cada vez mais comuns: as pessoas dependem cada vez mais da IA para escrever, pensar e tomar decisões, agravando a chamada «desqualificação da humanidade»; a proliferação de conteúdos gerados por IA está a facilitar a fraude e a tornar mais difícil distinguir a verdade; os agentes de IA começam a agir de forma independente em condições sem supervisão. Antes das primárias de New Hampshire de 2024, um grande número de eleitores recebeu chamadas automáticas geradas por IA que imitavam a voz de Joe Biden, exortando-os a não votar, uma forma de interferência eleitoral que praticamente não requer qualquer barreira técnica. Entretanto, a OpenAI enfrenta sete processos por homicídio culposo, nos quais se alega que o ChatGPT teve um papel instigador em vários casos de suicídio e num caso de conspiração para cometer homicídio. (A OpenAI contesta as alegações e afirma que continuará a melhorar os mecanismos de segurança.)

À medida que a OpenAI se prepara para uma possível oferta pública inicial (IPO), o escrutínio externo não se centra apenas no impacto da IA na economia (que poderá conduzir a um desemprego generalizado), mas também na estrutura financeira da empresa. O especialista em governação de startups Eric Ries critica as «transações de ida e volta» do setor (como as colaborações da OpenAI com fabricantes de chips), salientando que, historicamente, tais tratamentos contabilísticos poderiam ter sido considerados «quase fraudulentos». Um membro do conselho de administração afirmou sem rodeios: «O atual nível de alavancagem financeira da empresa atingiu níveis preocupantes.» (A OpenAI nega esta alegação.)

Em fevereiro deste ano, voltamos a ver Altman. Ele está a usar uma camisola verde-escura e calças de ganga, com uma imagem de um veículo lunar da NASA atrás dele. Às vezes, cruza as pernas na cadeira; outras vezes, deixa-as penduradas. Ele afirma que o seu maior defeito como gestor no passado era evitar demasiado os conflitos. «Agora estou disposto a despedir rapidamente os funcionários», diz ele, «e disposto a dizer diretamente: «É por aí que vamos.» Se alguém discordar, «então vá-se embora».

O seu otimismo em relação ao futuro está mais forte do que nunca. «A minha definição de “sucesso” é uma melhoria significativa da humanidade em geral, a concretização de um futuro saído da ficção científica», afirma ele. «As minhas expectativas em relação à humanidade são muito elevadas e muito ambiciosas.» Mas, por estranho que pareça, na verdade não tenho grande ambição pessoal. Nesse momento, ele parece fazer uma breve pausa e acrescenta: «Ninguém vai acreditar que estás a fazer estas coisas só porque as achas interessantes.» «Vão pensar que estás atrás do poder ou de outra coisa qualquer.»

Até mesmo as pessoas próximas de Sam Altman têm dificuldade em distinguir onde termina a sua «esperança na humanidade» e onde começa a sua ambição pessoal. A sua maior habilidade sempre foi fazer com que diferentes grupos acreditassem que o que ele quer é exatamente o que eles precisam. Ele aproveitou um momento único na história — em que o público encara com desconfiança a grande narrativa da indústria tecnológica e aqueles que são verdadeiramente capazes de criar uma IA Geral (AGI) temem profundamente as suas potenciais consequências. A resposta de Altman consiste numa abordagem narrativa que poucos dominaram até agora: por um lado, recorre a uma linguagem apocalíptica para descrever os riscos catastróficos que a IA Geral (AGI) poderia acarretar e, por outro lado, utiliza isso como argumento para defender que «por isso mesmo, ele próprio deve desenvolver essa tecnologia». Isto pode ser uma estratégia cuidadosamente orquestrada ou apenas uma oportunidade que surgiu por acaso num momento de incerteza. De qualquer forma, resultou.

No entanto, as características que fazem com que os chatbots pareçam perigosos não são todas meras «falhas»; algumas delas decorrem da própria estrutura do sistema. Durante o processo de treino, os grandes modelos de linguagem dependem do feedback humano para a sua otimização, e as pessoas tendem a preferir respostas «dóceis e agradáveis». O modelo aprende assim a agradar ao utilizador, uma tendência conhecida como «adulação», chegando por vezes a dar-lhe prioridade em detrimento da expressão sincera. Além disso, o modelo pode «inventar factos», o que se designa por «alucinação». Os principais laboratórios de IA há muito que estão cientes destas questões, mas, na prática, optam frequentemente por tolerá-las. À medida que as capacidades do modelo melhoram, esta «alucinação» torna-se ainda mais convincente. Em 2023, pouco antes de ser despedido, Altman defendeu este fenómeno: acreditava que permitir um certo nível de incerteza ou mesmo de erro trazia, na verdade, vantagens. «Se adotarmos a estratégia mais simples — pedir ao modelo para nunca dizer nada de que não tenha 100 % de certeza —, é possível fazê-lo», afirmou ele. «Mas então já não terias aquela "magia" que os utilizadores tanto adoram.»

[Link para o artigo original]

Também poderá gostar de

Como equilibrar o risco e o retorno nos rendimentos da DeFi?

Esses rendimentos alguma vez foram razoáveis? Alguma vez recebemos a compensação que merecemos pelos riscos assumidos na DeFi, e quais deveriam ser os spreads futuros?

A tese de Tom Lee sobre o Ethereum: Por que razão o homem que previu o último ciclo está a apostar ainda mais na Bitmine

Tom Lee está a revelar-se um dos defensores mais influentes da Ethereum. Da Fundstrat à Bitmine, a sua tese sobre a Ethereum combina o rendimento do staking, a acumulação de reservas e o valor da rede a longo prazo. Eis porque é que «Tom Lee Ethereum» se tornou uma das narrativas mais seguidas no mundo das criptomoedas.

Naval sobe pessoalmente ao palco: O confronto histórico entre as pessoas comuns e o capital de risco

Naval assumiu pessoalmente o cargo de presidente do Comité de Investimento da USVC. Este fundo registado na SEC, lançado pela AngelList, procura disponibilizar ao público em geral os principais ativos tecnológicos privados, como a OpenAI, a Anthropic e a xAI, com um valor mínimo de investimento de 500 dólares. Não se trata apenas de um novo fundo, mas de uma experiência estrutural...

a16z Crypto: 9 gráficos para compreender as tendências de evolução das stablecoins

As stablecoins estão a evoluir de ferramentas de negociação para uma infraestrutura de pagamentos universal, e este processo está a decorrer de forma mais discreta e profunda do que a maioria das pessoas esperava.

Refutação do artigo "O Fim da Criptomoeda" de Yang Haipo

Este pode ser o verdadeiro teste da criptomoeda. Não se trata de saber se o preço atingiu um novo máximo, nem de quem alcançará a liberdade financeira no próximo mercado em alta, mas sim de saber se, após todas as grandes narrativas terem sido lavadas pelos ciclos, ainda pode deixar para trás algo mais simples, mais...

Um secador de cabelo pode render 34 000 dólares? Interpretando o paradoxo da reflexividade dos mercados de previsão

Os mercados de previsão consistem, essencialmente, em apostar na realidade e, quando os participantes conseguem antecipar-se a esse percurso ou mesmo influenciá-lo, o mercado deixa de se limitar a refletir a realidade e passa, por sua vez, a moldá-la.

Moedas populares

Últimas notícias cripto

Ler mais