OpenAI queria manipular líderes globais para garantir seu crescimento

Uma das empresas mais conhecidas do mundo da inteligência artificial, a OpenAI foi alvo de uma extensa reportagem publicada esta semana pela New Yorker. Nela, ex-funcionários afirmam que, em certo ponto, o CEO Sam Altman planejou manipular líderes mundiais como forma de garantir o crescimento de sua companhia.

A reportagem afirma que a ideia era posicionar a corporação como a única capaz de explorar um poder que vai definir o futuro do mundo — tal qual uma ogiva nuclear, por exemplo. Usando isso como base, a corporação queria convencer muitos países a investir nela — caso contrário, eles correriam o risco de “ficar para trás” e até mesmo desaparecer.

Enquanto a OpenAI afirmou à New Yorker que esse plano é “ridículo” e nunca aconteceu, alguns de seus ex-membros dizem o contrário. Segundo Jack Clark (atualmente da Anthropic), que já foi chefe de políticas da corporação, a ideia era deixar implícito que todos que não dessem dinheiro a ela corriam grandes riscos e, portanto, não podiam decidir pelo contrário.

Quem também confirma os relatos da New Yorker é Page Hedley, que trabalhava como conselheira de políticas da empresa. Ela afirma que, embora tenha buscado por meios de evitar uma “corrida armamentista” da inteligência artificial, o presidente da companhia, Greg Brockman, decidiu seguir o caminho contrário.

Apesar de a OpenAI negar a acusação, a reportagem afirma que diversos documentos obtidos de fontes confiáveis provam o contrário. Eles mostram que o plano de manipular líderes globais não somente existiu, como se provou bastante popular entre os executivos da corporação.

Imagem: Reprodução/Fortune

A iniciativa só foi abandonada quando funcionários e pesquisadores que trabalhavam diretamente com a inteligência artificial souberam de seus detalhes. E, para evitar uma grande debandada de pessoas importantes, a liderança da companhia decidiu puxar o freio e mudar seu direcionamento.

A reportagem da New Yorker também dedica um bom espaço a Sam Altman, que é descrito como uma pessoa manipuladora. A matéria reforça os relatos de que o CEO da OpenAI nunca deixa claro o que realmente está pensando e costuma fazer promessas contraditórias a várias pessoas, caso sinta que mentir vai ser o melhor caminho possível para conseguir o que deseja em nível pessoal.

Fonte: PC Gamer, New Yorker

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima