Uma das empresas mais conhecidas do mundo da inteligência artificial, a OpenAI foi alvo de uma extensa reportagem publicada esta semana pela New Yorker. Nela, ex-funcionários afirmam que, em certo ponto, o CEO Sam Altman planejou manipular líderes mundiais como forma de garantir o crescimento de sua companhia.
A reportagem afirma que a ideia era posicionar a corporação como a única capaz de explorar um poder que vai definir o futuro do mundo — tal qual uma ogiva nuclear, por exemplo. Usando isso como base, a corporação queria convencer muitos países a investir nela — caso contrário, eles correriam o risco de “ficar para trás” e até mesmo desaparecer.
Enquanto a OpenAI afirmou à New Yorker que esse plano é “ridículo” e nunca aconteceu, alguns de seus ex-membros dizem o contrário. Segundo Jack Clark (atualmente da Anthropic), que já foi chefe de políticas da corporação, a ideia era deixar implícito que todos que não dessem dinheiro a ela corriam grandes riscos e, portanto, não podiam decidir pelo contrário.
Plano era popular entre membros da OpenAI
Quem também confirma os relatos da New Yorker é Page Hedley, que trabalhava como conselheira de políticas da empresa. Ela afirma que, embora tenha buscado por meios de evitar uma “corrida armamentista” da inteligência artificial, o presidente da companhia, Greg Brockman, decidiu seguir o caminho contrário.
Apesar de a OpenAI negar a acusação, a reportagem afirma que diversos documentos obtidos de fontes confiáveis provam o contrário. Eles mostram que o plano de manipular líderes globais não somente existiu, como se provou bastante popular entre os executivos da corporação.
A iniciativa só foi abandonada quando funcionários e pesquisadores que trabalhavam diretamente com a inteligência artificial souberam de seus detalhes. E, para evitar uma grande debandada de pessoas importantes, a liderança da companhia decidiu puxar o freio e mudar seu direcionamento.
A reportagem da New Yorker também dedica um bom espaço a Sam Altman, que é descrito como uma pessoa manipuladora. A matéria reforça os relatos de que o CEO da OpenAI nunca deixa claro o que realmente está pensando e costuma fazer promessas contraditórias a várias pessoas, caso sinta que mentir vai ser o melhor caminho possível para conseguir o que deseja em nível pessoal.
Fonte: PC Gamer, New Yorker