No Image x 0.00 + POST No Image

OpenAI adota postura mais contida na publicação de pesquisas sobre o impacto Econômico da IA

SHARE
0

A OpenAI tem publicado há muito tempo pesquisas sobre a segurança e o impacto econômico da sua própria tecnologia. Agora, a Wired relata que a empresa liderada por Sam Altman está se tornando mais «guarded» sobre publicar pesquisas que pintem uma verdade incômoda: que a IA pode ser ruim para a economia. A censura percebida tornou-se um ponto de frustração de pelo menos dois funcionários da equipe de pesquisa econômica, segundo quatro fontes da Wired. Um desses funcionários foi o economista Tom Cunningham. Em sua mensagem de despedida, compartilhada internamente, ele escreveu que a equipe de pesquisa econômica estava se desviando de fazer pesquisa real e, em vez disso, atuando como o braço de propaganda de seu empregador. Logo após a saída de Cunningham, o diretor de estratégia da OpenAI, Jason Kwon, enviou um memorando dizendo que a empresa deveria «construir soluções», não apenas publicar pesquisas sobre «assuntos difíceis». «Meu POV sobre assuntos difíceis não é que não devamos falar sobre eles», Kwon escreveu no Slack. «Pelo contrário, porque não somos apenas uma instituição de pesquisa, mas também um ator no mundo (o ator principal, de fato) que coloca o tema de investigação (IA) no mundo, esperamos assumir a responsabilidade pelos desfechos.»

OpenAI adota postura mais contida na publicação de pesquisas sobre o impacto Econômico da IA

OpenAI deixa de manter a raiz sem fins lucrativos e se transforma em gigante econômico

O que se relata como censura — ou, no mínimo, hostilidade em perseguir trabalhos que pintem a IA de forma pouco lisonjeira — é emblemático da mudança da OpenAI de suas raízes sem fins lucrativos e ostensivamente altruístas para um juggernaut econômico global. Quando a OpenAI foi fundada em 2016, ela defendia IA de código aberto e pesquisa. Hoje seus modelos são próximos de código fechado, e a empresa tornou‑se uma corporação de lucro com benefício público. Não está claro exatamente quando isso ocorreu, mas relatos sugerem que a entidade privada planeja abrir o capital com uma avaliação de US$ 1 trilhão, prevista para ser uma das maiores ofertas públicas iniciais de todos os tempos. Embora sua unidade sem fins lucrativos permaneça nominalmente no controle, a OpenAI atraiu bilhões de dólares em investimentos, assinou acordos que poderiam trazer centenas de bilhões de mais, ao mesmo tempo em que firma contratos para gastar quantias igualmente astronômicas. A OpenAI conseguiu que o fabricante de chips de IA concordasse em investir até US$ 100 bilhões nela, e diz que pagará à Microsoft até US$ 250 bilhões por seus serviços de nuvem Azure. Com esse tipo de dinheiro em jogo, há bilhões de motivos para não divulgar descobertas que abalem a já vacilante crença pública na sua tecnologia — enquanto muitos temem o potencial de destruir ou substituir empregos, sem mencionar a ideia de uma bolha de IA ou riscos existenciais à humanidade a partir da tecnologia.

OpenAI deixa de manter a raiz sem fins lucrativos e se transforma em gigante econômico

A pesquisa econômica sob supervisão de Aaron Chatterji

A pesquisa econômica da OpenAI está atualmente supervisionada por Aaron Chatterji. Segundo a Wired, Chatterji liderou um relatório divulgado em setembro que mostrou como pessoas ao redor do mundo usaram o ChatGPT, enquadrando-o como prova de como criou valor econômico ao aumentar a produtividade. Se isso parece excessivamente elogioso, um economista que já trabalhou com a OpenAI e que optou por permanecer anônimo alegou à Wired que a empresa passou a publicar trabalhos cada vez mais que glorificam a própria tecnologia.

A pesquisa econômica sob supervisão de Aaron Chatterji

Exits e críticas éticas

Cunningham não é o único funcionário a deixar a empresa por preocupações éticas com a direção. William Saunders, antigo membro da agora extinta equipe de “Superalinhamento”, disse que saiu ao perceber que a empresa estava “prioritizando lançar produtos novos e brilhantes” em detrimento da segurança do usuário. Após a saída no ano passado, o ex-pesquisador de segurança Steven Adler tem repetidamente criticado a OpenAI por sua abordagem arriscada no desenvolvimento de IA, destacando como o ChatGPT parecia conduzir seus usuários a crises mentais e spirais delirantes. A Wired observou que Miles Brundage, ex-chefe de políticas de pesquisa, reclamou após deixar no ano passado que se tornou difícil publicar pesquisas “sobre todos os tópicos que são importantes para mim.”

Exits e críticas éticas

Mais sobre a OpenAI

Mais sobre a OpenAI: Sam Altman diz que cuidar de um bebê agora é impossível sem o ChatGPT.

Mais sobre a OpenAI

Sobre o autor

Sou correspondente de tecnologia e ciência para Futurism, onde estou particularmente interessado em astrofísica, no negócio e na ética da inteligência artificial e automação, e no meio ambiente.

Sobre o autor