Realizar busca
test

A reviravolta que fez surgir a nova OpenAI

Depois da crise que quase a matou, a inventora do ChatGPT se remodela — e assume um novo modo de lidar com os riscos da inteligência artificial

Depois da crise que quase a matou, a inventora do ChatGPT se remodela — e assume um novo modo de lidar com os riscos da inteligência artificial

 

David A. Cohen

 

Um mês depois da impressionante reviravolta que quase destruiu a OpenAI, uma empresa pioneira da inteligência artificial, ainda não está totalmente claro o que motivou o conflito entre o conselho de diretores e o executivo-chefe, Sam Altman. “Mas uma coisa é certa”, diz Pedro Burgos, coordenador do mestrado em Jornalismo de Dados e gerente da área de inteligência de dados do Insper. “A ala que defendia frear o desenvolvimento da inteligência artificial, pelos riscos que ela pode representar para a humanidade, saiu perdendo.”

Também ficou claro mais um dos limites dos sistemas de geração de conteúdo como o ChatGPT, o mais famoso produto da OpenAI: nenhum deles seria capaz de criar uma história tão fantástica. Esses robôs dependem de casos prévios para pesquisar, avaliar, coletar e editar informações — e simplesmente não havia muitos precedentes para um caso desses.

A história, amplamente noticiada, envolveu um giro de 360 graus da companhia, que deixou o mundo da tecnologia tonto e a empresa, depois de cinco dias alucinantes (de 17 a 21 de novembro), mais ou menos no mesmo lugar de antes. Com o tempo, porém, começaram a surgir informações sobre os bastidores da confusão e algumas mudanças importantes em seu funcionamento. A seguir, algumas conclusões do caso:

 

1. Os diretores não dirigem

Tudo começou com o anúncio surpresa do conselho de diretores, de que estava afastando Altman do comando, numa sexta-feira à tarde. Sendo Altman uma das figuras mais inspiradoras e carismáticas do universo empreendedor e um dos pioneiros dos recentes avanços em inteligência artificial, imediatamente começaram as pressões para que o conselho revertesse sua decisão. Após um fim de semana de intensas negociações, o conselho afirmou que manteria sua posição.

Algumas horas mais tarde, tudo havia mudado. Na madrugada de domingo para segunda-feira, cerca de 90% dos 780 funcionários da OpenAI assinaram uma carta se comprometendo a deixar a empresa e acompanhar Altman rumo a um novo emprego, na Microsoft (principal investidora da OpenAI), caso ele não fosse reinstalado como executivo-chefe.

A carta contou com a assinatura até de Ilya Sutskever, cofundador da OpenAI e um dos membros do conselho que haviam votado pela destituição de Altman. Pelo X, antigo Twitter, Sutskever declarou: “Me arrependo profundamente da minha participação nas ações do conselho”.

Naquela altura ficou claro que o conselho não teria como manter o controle da empresa. A interpretação simplificada de Matt Levine, colunista da revista Bloomberg, é a seguinte: “A OpenAI consiste primariamente de (1) Sam Altman, (2) os demais funcionários e (3) um monte de servidores de rede da Microsoft. O conselho de diretores, que tecnicamente tem bastante controle sobre a forma corporativa da OpenAI, não é um componente particularmente importante da empresa e na prática não tem controle real sobre as coisas que realmente importam.”

Trata-se de uma simplificação, obviamente, como reconhece o próprio Levine: “A OpenAI também consiste em um punhado de contratos, alguma propriedade intelectual etc. sobre os quais o conselho ainda reteria controle”. Em linhas gerais, no entanto, é um exemplo extremo do tanto que as empresas, principalmente as de ponta e em especial as startups de sucesso, agora dependem dos cérebros que alugam de seu pessoal.

Ante a ameaça de destruição da empresa (pela migração de talentos para a Microsoft), o conselho cedeu.

 

2. A ousadia venceu a cautela

Quando o conselho voltou atrás, restituiu o cargo ao CEO demitido e se autodissolveu, Altman declarou (também pelo X): “Eu amo a OpenAI e tudo o que fiz nos últimos dias esteve a serviço de manter este time e esta missão juntos”. Aparentemente, ele conseguiu mais do que manter a missão da empresa; conseguiu torná-la mais clara, mais focada, menos relutante.

Um dos sinais mais claros dessa convicção surgiu nas semanas seguintes à volta de Altman. Como notou o site de análises de negócios The Information, a OpenAI “parece ter discretamente abandonado o esforço de meses para encontrar um novo líder para sua equipe de confiança e segurança”.

Por que isso é significativo? Porque a OpenAI é uma empresa com uma missão dúbia. “Ela foi fundada com a ideia de que a inteligência artificial geral (AGI) é uma tecnologia transformadora e potencialmente perigosa, e por isso não deveria ser deixada a cargo de empresas que almejam lucro”, afirma Pedro Burgos.

Ela começou operando como um laboratório de pesquisas sem fins lucrativos. “Só que, em algum momento, ficou claro que, para o nível de desenvolvimento da tecnologia que eles queriam, seria preciso ter mais recursos para investir em pessoal, capacidade computacional, compra de bases de dados… e não dava para obter esses recursos só com doações”, conta o professor do Insper.

Daí veio uma estrutura peculiar, em que uma organização sem fins lucrativos (a OpenAI Non Profit) controla uma empresa de lucros limitados (a OpenAI Global). Quer dizer: a empresa lucrativa tem um teto de resultados, a partir do qual os lucros revertem para sustentar a pesquisa “desinteressada”.

Essa estrutura esquisita inclui um conselho que responde não aos interesses dos acionistas, mas da “humanidade como um todo”. Sem nem considerar as dificuldades de seis pessoas entenderem e representarem os interesses dos quase 8 bilhões de habitantes do planeta, há um conflito permanente entre as missões da Non Profit e da Global.

Até o final de novembro, parecia que os interesses comerciais estavam submetidos aos objetivos altruístas. Desde então ficou claro que o organograma do grupo não correspondia à verdadeira correlação de poderes.

Era algo que, convenhamos, não seria tão difícil de prever. “Se a intenção do conselho foi de frear, controlar os avanços da IA”, opina Burgos, “eles foram míopes”.

 

3. O poder do novo conselho

A questão de avançar ambiciosa ou cautelosamente não é, contudo, tão dicotômica como possa parecer. Mesmo que tenha vencido a queda de braço com um conselho mais independente, ainda é do interesse da empresa demonstrar comedimento em relação à tecnologia.

A busca de equilíbrio pode vir tanto da própria missão original da empresa, criada com um certo idealismo, quanto — talvez com mais razão — do temor de uma eventual legislação reguladora.

Isso explica por que a montagem de um novo conselho, que começou a ser anunciado na segunda metade de dezembro, incluiu a divulgação de novas diretrizes garantindo que seus membros podem cancelar qualquer decisão do executivo-chefe. “Isso significa que, se a OpenAI criar um sistema de IA mais esperto que os humanos, o conselho terá a palavra final sobre seu lançamento”, explicou o site de tecnologia Gizmodo.

Embora esse esclarecimento deixe a correlação de forças entre o conselho e o CEO mais ou menos do mesmo jeito que antes, o novo conselho é muito mais amigável para Altman. Os primeiros escolhidos foram o executivo-chefe da Salesforce, Bret Taylor, o ex-secretário dos Tesouro americano Larry Summers e o executivo-chefe do site de perguntas e respostas Quora, Adam D’Angelo. A Microsoft deverá apontar um membro do conselho sem direito a voto e pelo menos mais dois participantes deverão ser chamados. A principal diferença em relação ao conselho anterior é que agora os membros são ligados a negócios e em geral são fãs de Altman, enquanto boa parte dos antigos era formada por pesquisadores e defensores declarados de avançar com cautela na IA.

No mesmo dia 18 de dezembro, a OpenAI anunciou que uma equipe de “preparação” ficará encarregada de avaliar seus sistemas de IA em quatro categorias: segurança cibernética, ameaças químicas, nucleares e biológicas. Quer dizer: a empresa diz estar tomando medidas para evitar, por exemplo, que alguém consiga construir uma bomba com auxílio de um programa de inteligência artificial. Faz isso, em boa medida, porque prefere a autorregulação à regulação governamental.

Sam Altman em um evento de tecnologia em Taiwan, em setembro deste ano
Sam Altman em um evento de tecnologia em Taiwan, em setembro de 2023

4. Carismae dinheiro também

Também ficou claro que “o Vale do Silício gosta muito de pessoas como o Sam Altman”, diz Burgos. Seu não-currículo é parecido com o de tantos ídolos do setor de tecnologia: entrou para a prestigiada Universidade Stanford e abandonou o curso após dois anos para empreender. Acabou se tornando sócio e depois presidente da Y-Combinator, talvez a mais famosa aceleradora de startups do mundo. “Tem um histórico sólido de vender histórias para conseguir investidores”, resume Burgos.

Em meio à crise de novembro, ficou claro que sua liderança era valorizada pelos funcionários. Poucos chefes podem se orgulhar de ser reconduzidos ao comando da empresa por um movimento dos empregados. Mas a realidade, como sempre, tem muito mais nuances do que a explicação imediata do carisma.

No app Blind, que preserva o anonimato dos usuários, mas exige que eles se inscrevam com um email de trabalho válido, vários membros que se identificaram como funcionários da OpenAI denunciaram ter havido uma intensa pressão dos pares para a assinatura da carta de renúncia coletiva em favor de Altman.

Por outro lado, um dos defensores de Altman contrapôs que “metade da companhia assinou a carta entre 2h e 3h da madrugada”, algo que não é fácil de acontecer por pura pressão dos pares.

De qualquer modo, para boa parte dos funcionários, a simpatia por Altman foi reforçada por motivos pecuniários. Principalmente os empregados mais antigos têm um acordo que lhes permite vender suas participações acionárias de volta para a empresa sem precisar esperar a abertura de capital. O cenário para essas pessoas era dramático: em outubro, a OpenAI vendeu uma participação a investidores que sugeria um valor de mercado de 86 bilhões de dólares para a companhia — o triplo do que ela valia em abril. Mas a saída de Altman colocava esse expresso da riqueza em rota de declínio, talvez sumiço.

 

5. Os jogos políticos da startup

A questão da segurança no desenvolvimento da IA foi a hipótese mais acenada para a demissão de Altman em novembro. Porém, com o passar dos dias, foram surgindo evidências de outros problemas entre o conselho e o CEO da OpenAI.

No início de dezembro, por exemplo, o jornal The Washington Post apontou que um pequeno grupo de funcionários seniores da empresa se queixou ao conselho do comportamento de Altman. Segundo os relatos colhidos pelo jornal, ele seria um líder abusivo que cria áreas de caos, retarda projetos e joga funcionários uns contra os outros de modo não saudável.

No dia 10, o site de negócios Business Insider publicou uma coletânea de outras possíveis razões para o embate. A primeira: ele teria jogado membros do conselho de diretores uns contra os outros — supostamente para conseguir apoio para suas metas ousadas de avançar a IA. Em outubro, uma das diretoras, Helen Toner, publicou um artigo em que elogiava a Anthropic, uma rival da OpenAI, por retardar o lançamento de seu chatbot (robô de comunicação). Ao mesmo tempo, criticava a OpenAI por “tomar atalhos”. Altman reclamou com ela que essa posição poderia criar problemas para a empresa com os reguladores do governo. Em seguida, mandou emails aos executivos dizendo que havia repreendido Toner. Supostamente ele também acirrou uma disputa entre ela e outra conselheira, Tasha McCauley.

Outro ponto de discórdia entre Altman e o conselho era Ilya Sutskever, um dos cofundadores da OpenAI, que defendia abertamente uma estratégia mais cautelosa de avanço para a inteligência artificial. Aparentemente, Sutskever foi se sentindo cada vez mais frustrado por ser afastado das grandes decisões na empresa. Em outubro, a insatisfação teria chegado a um novo patamar, quando Altman promoveu um outro pesquisador ao mesmo nível hierárquico de Sutskever.

Um terceiro motivo: o conselho como um todo considerava os métodos de Altman (seus jogos políticos) inaceitáveis. Altman nunca falou publicamente sobre essas acusações, mas chegou perto de admitir problemas de liderança. No início de dezembro, em uma entrevista na TV, disse: “Estou empolgado por ter uma segunda chance de fazer as coisas certas. Nós claramente erramos antes.”

 

6. A regulação está atrasada

Há pouca dúvida de que a linha mais ambiciosa de avanço na IA saiu vencedora do embate de novembro. Mas a guerra está apenas no início. Se a queda de braço com o conselho da OpenAI fortaleceu a visão de que o mercado da IA deve ficar mais solto, paradoxalmente também deu argumentos mais robustos para os defensores da regulação. Porque, afinal de contas, ficou mais ou menos comprovado que cidadãos privados não têm legitimidade nem força para atuar em nome da sociedade como um todo.

Como escreveu a revista The Economist sobre o assunto: “A principal lição é sobre a loucura de confiar em estruturas corporativas para policiar a tecnologia. Uma única estrutura não tem como atingir o melhor equilíbrio entre avançar a IA, atrair talentos e investimentos, avaliar as ameaças da IA e manter a humanidade em segurança.”

Por ora, os reguladores estão muito atrasados em relação a uma tecnologia que mal compreendem. Em 2021, por exemplo, a União Europeia lançou um projeto de lei de 125 páginas com tudo o que seus especialistas consideravam necessário para controlar a inteligência artificial. No ano seguinte, a OpenAI lançou o ChatGPT… com questões que não eram contempladas em nenhuma linha do documento.

Mas a discussão já está se tornando mais abrangente. “Se olharmos para o passado, já tivemos menos medo de regular tecnologias disruptivas”, diz Burgos, do Insper. “O setor de eletricidade é bastante regulado. A tecnologia nuclear, pelo risco que representa, sempre teve o freio dos governos.”

Por enquanto, opina Burgos, “o tecnootimismo — achar que a tecnologia no final das contas será sempre positiva — está vencendo”. Mas essas coisas podem mudar muito rápido.

Este website usa Cookies

Saiba como o Insper trata os seus dados pessoais em nosso Aviso de Privacidade, disponível no Portal da Privacidade.

Aviso de Privacidade

Definições Cookies

Uso de Cookies

Saiba como o Insper trata os seus dados pessoais em nosso Aviso de Privacidade, disponível no Portal da Privacidade.

Aviso de Privacidade