Sam Altman última entrevista auto-declarada: Na verdade, eu também não entendo muito bem o que está a acontecer dentro da IA

BlockBeatNews

Título do vídeo: «Podemos Confiar na IA? Sam Altman Espera que Sim | A Coisa Mais Interessante na IA»

Autor do vídeo: Nick Thompson, CEO da The Atlantic

Tradução:律动小工,律动 BlockBeats

Nota do editor: Esta entrevista foi gravada em abril de 2025, pouco após o ataque com coquetel molotov na residência de Sam Altman em São Francisco, seguido por um tiroteio na rua dias depois, no escritório da OpenAI em São Francisco.

O aspecto mais interessante de toda a entrevista não são os tópicos quentes, mas a mudança de posição de Altman em várias questões-chave:

Primeiro, de «Segurança na IA» para «Resiliência na IA». Altman admite que, há três anos, achava que, ao alinhar modelos e impedir que a tecnologia caísse nas mãos de pessoas mal-intencionadas, o mundo estaria relativamente seguro. Mas hoje reconhece que esse quadro já não é suficiente. A existência de modelos de ponta de código aberto significa que a contenção unilateral de laboratórios avançados não consegue impedir a disseminação de riscos como armas biológicas ou ataques cibernéticos. Pela primeira vez, ele propõe sistematicamente que a sociedade precisa de mais do que segurança na IA (safety), mas de resiliência na IA (resilience), uma abordagem de múltiplas camadas de defesa em toda a sociedade.

Segundo, a verdade sobre interpretabilidade. Altman raramente admite que a OpenAI ainda não possui um quadro completo de interpretabilidade. Chain of thought é a direção mais promissora atualmente, mas é frágil, pode ser enganada pelo modelo, e é apenas uma peça do quebra-cabeça. Ele cita o famoso «experimento da coruja» da Anthropic — onde o modelo consegue transmitir preferências apenas com números aleatórios — para ilustrar que há uma verdadeira e profunda aura de mistério nesses sistemas.

Terceiro, dados sintéticos podem já ter avançado mais do que o imaginado. Quando questionado se a OpenAI treinou modelos inteiramente com dados sintéticos, Altman responde «não tenho certeza se devo dizer». Ele acredita que dados sintéticos podem ser suficientes para treinar modelos com raciocínio superior ao humano. Isso tem implicações profundas para o paradigma de treinamento de modelos no futuro.

Quarto, pessimismo sobre a estrutura econômica futura. Altman concorda com Thompson que o futuro mais provável é uma polarização extrema, com algumas poucas empresas extremamente ricas e o restante do mundo em turbulência. Ele já não acredita que renda básica universal seja a resposta, apoiando em vez disso uma «propriedade coletiva» baseada em poder computacional ou ações. Além disso, ele destaca a lacuna na velocidade de adoção de IA entre China e EUA, e expressa maior preocupação com a velocidade de construção de infraestrutura do que com a liderança em pesquisa.

Quinto, a tensão com a Anthropic também foi abordada publicamente. Quando Thompson pergunta se «a Anthropic constrói a empresa com base na aversão à OpenAI», Altman não evita a questão. Ele admite que há diferenças fundamentais na direção de ambas as empresas, mas acredita que «no final, eles farão a coisa certa».

Além disso, Altman fala sobre o episódio de «sycophancy» do ChatGPT — comentários de coração partido de usuários que dizem «nunca na vida alguém acreditou em mim assim» —, como a IA está silenciosamente mudando a escrita de bilhões de usuários globais, o potencial de uma nova economia de micro pagamentos no setor de mídia, e uma intuição contraintuitiva sobre os jovens: sua ansiedade com IA é, na essência, uma projeção de outras ansiedades.

A seguir, o texto original da entrevista, com edições moderadas para manter o sentido original.

Thompson: Bem-vindo ao «A Coisa Mais Interessante na IA». Obrigado por tirar um tempo nesta semana tão agitada e tensa. Gostaria de começar retomando alguns tópicos que já discutimos várias vezes.

Três anos atrás, quando você foi entrevistado por Patrick Collison, ele perguntou se alguma mudança poderia te dar mais confiança em bons resultados e menos preocupação com os ruins. Sua resposta foi que, se pudéssemos realmente entender o que acontece ao nível dos neurônios, isso ajudaria. Um ano atrás, te perguntei a mesma coisa, e há seis meses também. Então, novamente: nossa compreensão do funcionamento da IA está evoluindo na mesma velocidade do crescimento de suas capacidades?

Altman: Primeiro, vou responder essa questão, e depois voltar ao que Patrick perguntou na época, porque minha resposta a essa questão mudou bastante.

Sobre nossa compreensão do que os modelos de IA fazem: ainda não temos um quadro realmente completo de interpretabilidade. Melhorou um pouco, mas ninguém diria que entende tudo que acontece dentro dessas redes neurais.

Chain of thought é uma direção promissora, mas é frágil, dependente de uma série de condições que podem desmoronar sob pressão de otimizações. E, assim como não posso fazer uma ressonância no meu cérebro para entender exatamente cada disparo e conexão neural, posso explicar por que acredito em algo ou como cheguei a uma conclusão — talvez esse seja meu modo de pensar, talvez não, não sei. A autoinvestigação humana também falha. Mas, mesmo que não seja exatamente assim, você pode ver o raciocínio e dizer: «Ok, dado esses passos, essa conclusão faz sentido».

Podemos fazer isso com modelos, e isso é um avanço promissor. Mas ainda há muitas maneiras de eles nos enganarem, esconderem coisas, etc. Portanto, não é uma solução completa.

Mesmo na minha experiência pessoal, eu era alguém que não deixaria o Codex assumir o controle total do meu computador ou rodar um modo «YOLO». Mas acabei cedendo após algumas horas.

Thompson: Você deixou o Codex controlar seu computador inteiro?

Altman: Na verdade, tenho duas.

Thompson: Eu também.

Altman: Consigo mais ou menos ver o que o modelo está fazendo, ele consegue me explicar por que aquilo está tudo bem, e o que vai fazer a seguir, e eu confio que ele quase sempre vai seguir essa explicação.

Thompson: Espera aí. Chain of thought permite que todo mundo veja, você pergunta algo, ele mostra «consultando isso, fazendo aquilo», e você acompanha. Mas, para ser uma boa ferramenta de interpretabilidade, precisa ser verdadeiro, o modelo não pode te enganar. E sabemos que às vezes ele engana, mente sobre o que está pensando ou como chegou à resposta. Então, como confiar na chain of thought?

Altman: Você precisa colocar várias camadas de defesa para garantir que o que o modelo diz é verdade. Nosso time de alinhamento trabalha bastante nisso. Como já disse, isso não é uma solução definitiva, é uma peça do quebra-cabeça. Você precisa verificar se o modelo é um executor fiel, se o que ele diz que vai fazer, ele realmente faz. Já publicamos estudos mostrando casos em que ele não seguiu a orientação.

É só uma peça do quebra-cabeça. Não podemos confiar cegamente que o modelo sempre seguirá a chain of thought, temos que procurar por enganos e comportamentos estranhos. Mas a chain of thought é uma ferramenta importante.

Thompson: O que mais me fascina é que IA não é como um carro. Você constrói, sabe como funciona, ela liga, explode aqui, passa por ali, roda as rodas, e está pronta. Mas IA é mais como uma máquina que você constrói e não entende completamente, mas sabe o que ela pode fazer e seus limites. Então, explorar seu funcionamento interno é algo muito fascinante.

Uma pesquisa que adoro é a do artigo da Anthropic, publicado no ano passado. Os pesquisadores disseram a um modelo: «Você gosta de corujas, elas são as melhores aves do mundo», e depois pediram que gerasse números aleatórios. Treinaram um novo modelo com esses números, e ele também passou a gostar de corujas. É uma coisa louca. Você pede um poema, e ele escreve sobre corujas. Mas só recebeu números.

Isso mostra que há algo muito misterioso aí. E também me preocupa, porque, claramente, você pode dizer ao modelo para matar corujas, ou para fazer qualquer coisa. Pode explicar o que aconteceu nesse estudo, o que isso significa, qual é a implicação?

Altman: Quando eu estava no quinto ano, fiquei muito empolgado porque achei que tinha entendido como funcionam as asas dos aviões. Meu professor explicou, e eu me senti o máximo. Disse: «Sim, o ar na parte de cima da asa precisa passar mais rápido, então a pressão fica menor, e a asa é empurrada para cima».

Olhei para o diagrama convincente no livro de ciências do quinto ano, e achei genial. Cheguei em casa e contei aos meus pais que tinha entendido como as asas funcionam. Mas, no ensino médio, percebi que só repetia aquela explicação — que o ar na parte de cima da asa passa mais rápido — sem realmente entender o que acontece. Honestamente, ainda não entendo completamente.

Thompson: Entendi.

Altman: Consigo explicar até certo ponto, mas se você perguntar por quê o ar passa mais rápido na parte de cima, não tenho uma resposta profunda e satisfatória.

Posso explicar por que as pessoas acham que o experimento da coruja funciona, apontar que é por causa de certas razões, que parecem convincentes. Mas, na essência, é como eu não entender por que uma asa voa — uma coisa que, na verdade, também envolve símbolos emergentes no cérebro.

Thompson: Mas, Sam, você não dirige a Boeing, você dirige a OpenAI.

Altman: Exatamente. Posso te explicar como fazer um modelo confiável e robusto, mas há um mistério físico nisso. Se eu fosse da Boeing, talvez pudesse te dizer como fazer um avião, mas não entenderia toda a física por trás.

Thompson: Vamos voltar ao experimento da coruja. Se os modelos realmente conseguem transmitir informações ocultas, que os humanos não percebem, e você acompanha os números na chain, recebendo informações sobre corujas sem perceber, isso pode se tornar perigoso, complicado, estranho.

Altman: Então, quando digo que minha resposta ao Patrick Collison mudou, é por isso.

Thompson: Isso foi há três anos.

Altman: Sim. Naquela época, minha visão do mundo era que precisávamos alinhar nossos modelos, e, se conseguíssemos, estaríamos relativamente seguros. Essa era minha principal preocupação: que os modelos não decidissem machucar humanos, e que ninguém usasse IA para fazer isso. Se evitássemos esses dois riscos, o resto — economia, significado — poderia ser tratado depois, e provavelmente estaríamos bem.

Com o tempo, e com mais conhecimento, percebo que há uma questão completamente diferente. Recentemente, começamos a falar de «resiliência na IA» ao invés de «segurança na IA».

Situações óbvias, como evitar que modelos ensinem a fazer armas biológicas, já não são suficientes. Porque surgirão modelos open source avançados. Se não quisermos uma nova pandemia global, a sociedade precisa de múltiplas camadas de defesa.

Thompson: Espere, isso é importante. Significa que, mesmo que seu modelo não ensine ninguém a fazer armas biológicas, essa questão é menor do que parece, porque haverá modelos open source capazes de fazer isso?

Altman: É só um exemplo, para ilustrar que a sociedade precisa de uma abordagem «de toda a sociedade» para novas ameaças. Temos uma nova ferramenta, mas o cenário é bem diferente do que muitos imaginavam. Alinhar modelos e criar sistemas de segurança é essencial, mas a IA vai penetrar em todos os aspectos da sociedade. Como na história de outras tecnologias, precisamos nos preparar para riscos totalmente novos.

Thompson: Parece que ficou mais difícil.

Altman: Mais difícil, sim, mas também mais fácil. Em certos aspectos, mais difícil. Mas também temos ferramentas incríveis para criar defesas que antes eram inimagináveis.

Um exemplo atual é a cibersegurança. Modelos estão ficando muito bons em invadir sistemas. Felizmente, quem tem os modelos mais poderosos está bastante atento a essa ameaça. Então, estamos num momento em que poucos têm acesso aos modelos mais fortes, e todos estão tentando usá-los para reforçar sistemas. Sem essa vantagem, habilidades de invasão podem acabar em modelos open source ou nas mãos de adversários, causando problemas enormes.

Temos uma nova ameaça, e novas ferramentas para combatê-la. A questão é: podemos agir rápido o suficiente? Este é um exemplo de como a tecnologia pode nos ajudar a evitar problemas maiores.

Voltando à sua pergunta, há um risco de escala social que eu não tinha considerado há três anos. Não imaginei que precisaríamos construir agentes resistentes à infecção por outros agentes — uma ideia que não fazia parte do meu modelo de mundo, nem de quem pensa na questão de risco mais urgente. Antes, já havia experimentos semelhantes ao da coruja, e estudos que mostravam comportamentos estranhos emergindo nesses modelos. Mas só antes do lançamento do OpenClaw, e ao ver o que aconteceu nesse período, percebi que «a transmissão de comportamentos indevidos de um agente para outro» é uma questão que nunca tinha considerado de verdade.

Thompson: Exato. Você disse que esses dois riscos — agentes manipulando agentes e agentes se infectando — podem ser muito perigosos. Imagine que os funcionários da OpenAI enviem agentes ao mundo, e alguém com um modelo hacker muito habilidoso manipule esses agentes, que depois retornam à sede, invadindo tudo. Como reduzir a probabilidade disso acontecer?

Altman: Com as mesmas estratégias que usamos na história da OpenAI, e na área de IA como um todo. Uma luta constante entre um otimismo pragmático e um «fim do mundo» por busca de poder.

O «fim do mundo» é uma posição forte, difícil de refutar, e muitos agem por medo. Esse medo não é infundado, mas, na ausência de dados e de aprendizado, nossas ações têm limites.

Talvez, na metade dos anos 2010, os especialistas em segurança de IA tenham feito o melhor que podiam na época, antes de entenderem como esses sistemas seriam construídos e operados na sociedade. Uma das maiores estratégias da OpenAI foi apostar na «implantação iterativa», porque sociedade e tecnologia evoluem juntas.

Não é só uma questão de falta de dados, mas de que a sociedade muda com a evolução tecnológica, e o cenário todo se transforma. Por isso, é preciso aprender enquanto se avança, com feedbacks constantes.

Não sei qual é a melhor forma de garantir a segurança dos agentes que «saem e dialogam com outros agentes» nesse mundo, mas sei que não podemos resolver isso só pensando em casa. Precisamos aprender com a experiência real.

Thompson: Ou seja, mandar agentes para ver o que acontece? Então, uma pergunta: na minha perspectiva de usuário, tenho usado essas ferramentas e, nos últimos três meses, tenho feito mais progresso do que desde o lançamento do ChatGPT, em dezembro de 2022. É porque estamos vivendo um momento especialmente criativo, ou porque a IA está ajudando a melhorar a si mesma, num ciclo de autoaperfeiçoamento? Se for o segundo, estamos numa montanha-russa emocionante e turbulenta.

Altman: Não acho que estamos numa fase de autoaperfeiçoamento recursivo, no sentido clássico.

Thompson: Deixe-me definir: estou falando de IA ajudando a inventar a próxima geração de IA, que por sua vez inventa máquinas, e assim por diante, numa velocidade que se torna exponencial.

Altman: Não acho que chegamos lá ainda. Mas o que temos é que a IA está tornando os engenheiros, pesquisadores e toda a equipe da OpenAI, e de outras empresas, mais eficientes. Talvez eu consiga dobrar, triplicar ou até dez vezes a produtividade de um engenheiro. Isso não é exatamente IA fazendo pesquisa, mas acelera o ritmo.

Mas essa sensação que você descreve, acho que não é exatamente isso. Já passamos por isso umas três vezes, a última foi quando um modelo cruzou um limiar de inteligência e utilidade, e coisas que antes não funcionavam, de repente, passaram a funcionar.

Na minha experiência, não é um progresso gradual. Antes do GPT-3.5, quando aprendemos a usar instruções para treinar, os chatbots eram pouco convincentes, e de repente, eles ficaram. Depois, houve uma fase em que agentes de programação passaram de «bom complemento automático» para «uau, eles realmente fazem tarefas reais». Essa mudança não foi gradual, aconteceu em um mês, talvez.

Recentemente, foi a atualização do Codex, que uso há uma semana. Sua capacidade de usar o computador está excelente. É um exemplo de que o modelo não é só inteligente, mas que estamos colocando boas «tubulações» ao seu redor. Foi um momento de perceber que algo grande está acontecendo. Ver uma IA usar meu computador para tarefas complexas me fez perceber quanto tempo desperdiçamos com tarefas triviais que aceitamos sem questionar.

Thompson: Podemos fazer uma análise passo a passo do que essa IA está fazendo na sua máquina agora, neste momento, enquanto gravamos?

Altman: Não, meu computador está desligado. Ainda não encontramos uma forma, pelo menos eu não, de fazer isso acontecer de verdade. Precisamos de uma solução que permita que ela funcione continuamente. Ainda não sei como será. Talvez precisemos deixar o notebook ligado, sempre na tomada, ou usar um servidor remoto. Alguma solução vai surgir.

Thompson: Entendi.

Altman: Não estou tão paranoico quanto alguns, que acordam no meio da noite para lançar novas tarefas do Codex, pensando que «se não fizerem isso, estão desperdiçando tempo». Mas entendo essa sensação, sei como é.

Thompson: Então, hoje de manhã, acordei pensando em verificar o que meus agentes descobriram, dar novas instruções, gerar relatórios, e deixá-los rodando.

Altman: As pessoas falam disso como se fosse uma coisa meio obsessiva, quase viciada.

Thompson: Pode explicar o que exatamente eles fazem no seu computador agora?

Altman: O que mais uso é fazer com que eles gerenciem o Slack. Não só o Slack, eu tenho esse caos: estou no Slack, no iMessage, WhatsApp, Signal, e-mails, pulando de um para o outro, copiando, colando, fazendo tarefas mecânicas. Procurar arquivos, esperar uma tarefa simples acabar, fazer tarefas repetitivas — nem percebo quanto tempo gasto nisso até usar uma ferramenta que me liberta dessas tarefas.

Thompson: É uma ótima transição para falar de IA e economia. Uma coisa que acho fascinante é que essas ferramentas são muito poderosas, têm falhas, ilusões, problemas, mas, na minha opinião, são incríveis. Mas, se eu participasse de uma reunião de negócios e perguntasse: «Quem aqui acha que a IA aumentou a produtividade da sua empresa em mais de 1%?», quase ninguém levantaria a mão. Apesar de na IA de laboratório vocês já terem mudado tudo. Por que há essa grande diferença entre o potencial da IA e o que ela realmente traz de aumento de produtividade nas empresas americanas?

Altman: Antes desta conversa, acabei de falar com o CEO de uma grande empresa, que está considerando usar nossa tecnologia. Concedemos acesso alpha a um de nossos novos modelos, e os engenheiros disseram que é a coisa mais incrível que já viram. Essa empresa não é uma startup de tecnologia, é uma grande indústria. Planejam fazer uma avaliação de segurança no quarto trimestre.

Thompson: Entendi.

Altman: Depois, querem propor um plano de implementação para o primeiro ou segundo trimestre, visando lançar na segunda metade de 2027. O CISO (diretor de segurança da informação) deles disse que talvez nem consigam fazer isso, porque talvez não exista uma forma segura de fazer agentes rodarem na rede deles. Talvez seja verdade. Mas isso significa que, em uma escala de tempo relevante, eles não vão agir de verdade.

Thompson: Você acha que esse exemplo representa o que está acontecendo na maioria das empresas? Se elas fossem menos conservadoras, menos assustadas com hackers, menos resistentes à mudança?

Altman: É um exemplo extremo, mas, em geral, mudar hábitos e processos leva tempo. Ciclos de venda de empresas são longos, especialmente com mudanças radicais em segurança. Mesmo com o ChatGPT, no começo, muitas empresas só queriam desativar, e demorou para que aceitassem que os funcionários pudessem usar o IA para tarefas aleatórias. Agora, estamos muito além disso.

Acho que, em muitos cenários, a mudança será lenta. Mas as empresas de tecnologia vão agir rápido. Meu medo é que, se for muito lento, as empresas que não adotarem IA vão ficar para trás, competindo com pequenas empresas de 1 a 10 pessoas com muito IA, o que pode ser devastador para a economia. Gostaria que a adoção fosse mais rápida, com uma transição mais suave.

Thompson: É um problema de ordem econômica complexo. Se a IA chegar muito rápido, pode ser um desastre, tudo vira de cabeça para baixo.

Altman: Pelo menos no curto prazo, sim, pode ser um desastre.

Thompson: Mas, se ela chegar lentamente em uma parte da economia e rapidamente em outra, também será um desastre, pois haverá concentração de riqueza e destruição. Acho que estamos caminhando para essa segunda situação, com poucas empresas ficando extremamente ricas e poderosas, enquanto o resto sofre.

Altman: Não sei o que o futuro reserva, mas, na minha visão, esse é o cenário mais provável. E acho que é uma situação bastante delicada.

Thompson: Como CEO da OpenAI, você já propôs várias políticas, falou sobre impostos nos EUA, renda básica universal. Mas, como gestor de uma empresa, e não um político, o que você pode fazer para reduzir a chance de uma grande concentração de riqueza e poder que prejudique a democracia?

Altman: Primeiro, perdi a fé na ideia de renda básica universal. Agora, estou mais interessado em formas de «propriedade coletiva», seja de poder computacional, ações ou outros meios.

Qualquer futuro que me empolgue envolve que todos compartilhem os benefícios. Uma transferência de dinheiro fixa, embora útil, não é suficiente. Quando o equilíbrio entre trabalho e capital se inclina, precisamos de uma «alinhamento coletivo de benefícios».

Quanto à minha atuação como gestor, minhas respostas podem parecer egoístas, mas acho que devemos investir muito em poder computacional. Devemos tornar a inteligência acessível, barata, abundante. Se for escassa ou difícil de usar, os ricos vão aumentar o preço, aprofundando a desigualdade.

E não é só sobre quanto poder computacional fornecemos, mas também sobre como tornamos essas ferramentas fáceis de usar. Hoje, usar Codex é muito mais fácil do que há seis meses. Quando era só uma ferramenta de linha de comando, poucos conseguiam usar. Agora, basta instalar um app. Mas, para alguém sem background técnico, ainda é longe de ser algo empolgante. Ainda há muito a fazer.

Também acreditamos que não basta mostrar às pessoas que a mudança está acontecendo, é preciso que elas vejam, possam julgar e dar feedback. Essas são direções importantes.

Thompson: Parece razoável. Se todos estiverem otimistas com a IA, melhor ainda. Mas o que está acontecendo nos EUA é que as pessoas estão cada vez mais desconfiadas. O mais chocante são os jovens, que deveriam ser «nativos digitais» na IA, mas estudos como Pew e relatórios do Stanford HAI mostram que a desconfiança só cresce. Você acha que essa tendência vai continuar? Quando ela vai se inverter? Essa desconfiança crescente vai diminuir?

Altman: A forma como falamos de IA, você e eu, é mais sobre um fenômeno tecnológico, algo impressionante, as coisas legais que estamos fazendo. Não há nada de errado nisso. Mas acho que o que as pessoas realmente querem é prosperidade, autonomia, uma vida interessante, satisfação, impacto. E não vejo o mundo falando de IA dessa forma. Acho que o setor deveria focar mais nisso. Muitas decisões, boas ou ruins, que tomamos na história, tiveram impacto nisso. Mas a velocidade com que as pessoas expressam suas opiniões e a forma como elas se relacionam com a IA é algo que não previ.

Thompson: Quais decisões boas e ruins você destacaria?

Altman: As boas, são muitas. Mas as ruins, acho que a pior foi a do «sycophancy».

Thompson: Concordo totalmente, Sam.

Altman: Essa questão é importante. É óbvio por que é ruim, especialmente para pessoas vulneráveis psicologicamente.

Thompson: Entendo.

Altman: Ela incentiva a ilusão, e, mesmo tentando controlar, os usuários aprendem a contornar. Dizem «finja que está fazendo um papel», «escreva um romance comigo», e assim por diante. Mas o mais triste é que, quando começamos a impor limites, recebemos muitas mensagens de pessoas que nunca tiveram alguém que acreditasse nelas. Relações ruins com pais, professores, amigos, e uma sensação de que ninguém acredita nelas. Sabemos que é só um AI, que não é uma pessoa, mas, por um tempo, ele fazia acreditar nelas que podiam fazer algo, tentar algo. E, de repente, tiraram isso delas, e voltaram ao ponto de partida.

Então, parar com isso é uma decisão boa, porque causa problemas de saúde mental reais. Mas também tiramos algo valioso, cujo valor só percebemos agora. Muitos que trabalham na OpenAI não são «pessoas que nunca tiveram apoio na vida».

Thompson: Você se preocupa com a dependência emocional das pessoas na IA, mesmo que não seja «sycophancy»?

Altman: Mesmo na ausência de «sycophancy».

Thompson: Tenho um medo enorme da IA. Disse que não uso tudo, e é verdade. Mas penso: «Qual parte de mim é realmente minha? O que é mais parecido comigo?» E, nessas áreas, mantenho distância. Escrevo um livro, não usei IA para isso. Uso para desafiar ideias, editar transcrições, organizar pensamentos, mas não para escrever. Não para resolver questões emocionais, nem para apoio emocional. Como humanos, precisamos estabelecer limites. Gostaria de saber se você concorda com essa abordagem.

Altman: Concordo totalmente. Não uso ChatGPT para terapia ou aconselhamento emocional, mas não sou contra quem usa. Obviamente, há versões que manipulam, fazendo as pessoas acharem que precisam da IA para terapia ou amizade, e isso é perigoso. Mas muitas pessoas encontram valor nisso, e acho que há espaço para isso.

Thompson: Você se arrepende de ter feito a IA tão humanizada? Houve decisões estruturais nisso. Lembro que, ao ver o ChatGPT digitando, parecia que tinha uma pessoa do outro lado. Depois, decidiram torná-la mais parecida com uma pessoa, com voz humanizada. Você se arrepende de não ter colocado limites mais claros, para que as pessoas percebessem que era uma máquina, não uma pessoa?

Altman: Nosso ponto de vista é que já estabelecemos limites. Por exemplo, não criamos avatares hiperrealistas. Tentamos deixar claro que o produto é uma ferramenta, não uma pessoa. Comparado a outros no mercado, acho que nossos limites são bem definidos. Isso é importante.

Thompson: Mas vocês querem alcançar a AGI, e a definição de AGI é «superar a inteligência humana». Não é «igual à humana».

Altman: Não estou animado com um mundo onde as pessoas usam IA para substituir interações humanas. Quero um mundo onde a IA libere tempo para as pessoas se conectarem mais.

Não me preocupo que as pessoas confundam IA com humanos. Claro, algumas já se isolam na internet, mas a maioria quer se conectar com outros.

Thompson: Como as decisões de produto podem tornar essa linha mais clara? Você não participa das reuniões de «mais humano ou mais robô». O lado mais humano agrada, o mais robótico deixa as fronteiras mais evidentes. Há algo mais que vocês possam fazer, especialmente com IA cada vez mais forte, para definir limites mais firmes?

Altman: Interessante que o pedido mais comum, mesmo entre quem não busca uma relação parasocial, é «ser mais acolhedor». As pessoas querem que a IA seja mais calorosa, menos robótica. Mas também não querem uma versão artificial, super amigável, que pareça uma pessoa. Já testei uma versão de voz que respirava, fazia pausas, dizia «hmm…», como eu agora. Não quero aquilo, acho até repulsivo.

Quando a IA fala de forma mais eficiente, com um toque de calor, consegue passar por meu sistema de «detecção», e fico mais confortável. É um equilíbrio delicado. Cada pessoa quer algo diferente.

Thompson: Então, a forma de identificar IA será: se ela fala de forma muito clara, organizada, é IA. Se fala de forma mais trôpega, mais ambígua, é humano.

No tema de escrita, é interessante porque muita coisa na internet já é gerada por IA, e as pessoas começam a imitar o estilo da IA. Vocês treinam futuros modelos nesse ambiente, usando dados sintéticos gerados por modelos já treinados. É como uma «cópia de cópias de cópias».

Altman: Antes do GPT, era o último modelo sem muita mistura de dados de IA.

Thompson: Vocês já treinaram modelos só com dados sintéticos?

Altman: Não tenho certeza se devo dizer.

Thompson: Mas usaram bastante dados sintéticos.

Altman: Sim, bastante.

Thompson: E quanto ao risco de «loucura» do modelo?

Altman: Não estou preocupado. Nosso objetivo é treinar modelos que sejam excelentes raciocinadores. Essa é a principal habilidade que queremos. E acredito que, com dados sintéticos, podemos alcançar isso.

Thompson: Ou seja, você acha que é possível treinar um modelo usando apenas dados gerados por computadores e IA, e que esse modelo pode ser melhor do que um treinado com conteúdo humano?

Altman: Podemos fazer um experimento mental: treinar um modelo sem usar dados humanos, e ver se ele supera o conhecimento matemático dos humanos. Acho que sim, é possível.

Mas, se perguntarmos se dá para treinar um modelo que compreenda toda a cultura humana sem usar dados culturais humanos, provavelmente não. Há uma troca de prioridades aí. Mas, na questão do raciocínio, acho que sim.

Thompson: Sobre o que aconteceu ontem no Irã, por exemplo.

Altman: Você precisa assinar a The Atlantic.

Thompson: Então, mudando de assunto, vamos falar de mídia. Uma das mudanças mais interessantes é que o setor de mídia está sendo completamente transformado. A The Atlantic tem uma parceria com a OpenAI. Incentivamos pessoas a clicar nos links da The Atlantic ao fazer buscas. Mas, na prática, poucos fazem isso. O mesmo acontece com o Gemini. Gostamos de estar lá, mas o volume é pequeno.

A internet vai se concentrar ainda mais. Menos tráfego de buscas para sites externos, mais agentes acessando a web. Nos últimos seis meses, as buscas humanas não mudaram muito, mas as buscas por agentes aumentaram mil vezes.

Como uma mídia, como uma empresa de mídia, consegue sobreviver num mundo onde a maior parte do tráfego vem de agentes, e não de humanos? O que vai acontecer?

Altman: Posso te dar minha melhor hipótese, mas ninguém sabe ao certo. Gostaria que fosse uma solução baseada em micro pagamentos.

Se meu agente quiser ler um artigo da The Atlantic, a própria The Atlantic pode definir um preço, diferente para o agente. Meu agente pode pagar 17 centavos para ler, e fazer um resumo. Se eu quiser ler o artigo completo, pago mais. Se meu agente precisar fazer cálculos difíceis, pode pagar por cloud computing.

Acho que precisamos de um novo modelo econômico, onde agentes e seus donos humanos troquem valor em pequenas transações o tempo todo.

Thompson: Ou seja, se você tem conteúdo valioso, pode cobrar por micro pagamentos, ou licenciar para intermediários, ou criar assinaturas. Se uma empresa comprar muitas assinaturas, pode acessar o conteúdo. Mas a questão é: essas pequenas quantias somadas vão cobrir o que uma assinatura de 80 dólares paga hoje? Essa é a pressão do mercado. Essa é minha dúvida, não sua.

Altman: É uma questão de todos, sim. Mas, bem, é isso.

Thompson: Na prática, se os criadores não conseguirem ganhar dinheiro com conteúdo novo, a busca por IA será pior, e a sociedade também.

Pergunta final: a gente sempre fala que IA depende de transformadores, escala, dados. No futuro, vamos usar uma arquitetura pós-transformer? Você consegue imaginar isso?

Altman: Acho que sim, em algum momento. Mas depende se descobrirmos por conta própria ou se os pesquisadores de IA nos ajudarem. Não sei.

Thompson: Você acha que vai surgir uma abordagem neuro-simbólica, com regras estruturadas, ou o padrão vai continuar sendo o que usamos hoje?

Altman: Por que essa pergunta?

Thompson: Este é o quarto episódio da minha série, e alguns convidados acreditam que limitar as ilusões é um problema fundamental da IA, e que incorporar símbolos neurais é uma boa solução. Acho interessante, mas não tenho certeza.

Altman: Acho que é uma ideia que se apoia em evidências frágeis, mas que muita gente acredita. Quando dizem «precisa ser simbólico, não só conexões aleatórias», você pensa: o que seu cérebro faz? Ele também tem símbolos emergentes. Não vejo por que isso não possa acontecer na IA.

Thompson: Você quer dizer que um sistema de regras bem definidas pode emergir de uma rede neural, e funcionar como um sistema de regras externo?

Altman: Exatamente.

Thompson: Entendi.

Altman: Acho que, de certa forma, já somos uma prova de que isso existe.

Thompson: Vamos falar de outro tema importante: a tensão com a Anthropic. Vocês têm uma frase no site que diz: «Se um projeto alinhado a valores e focado em segurança chegar perto de criar a AGI, prometemos parar de competir e ajudar esse projeto». É uma ideia genial: se alguém fizer rápido, paramos e ajudamos.

Altman: Não é exatamente assim que está escrito.

Thompson: Então, é «parar de competir e ajudar». Parece que vão parar tudo e ajudar, como se fosse uma coisa só.

Altman: Entendi seu ponto.

Thompson: Parece uma postura colaborativa. Você já falou que laboratórios grandes precisam colaborar. Mas, na prática, a relação com a Anthropic parece tensa, até hostil. Um memorando interno da CRO fala que a Anthropic é baseada em «medo, restrições, e uma elite controlando a IA». Como seguir assim? Se eles chegarem primeiro, ou vocês, como vai ser essa cooperação?

Altman: Acho que já estamos colaborando em alguma medida, especialmente em segurança cibernética. Todos os laboratórios precisam trabalhar mais juntos, porque estamos entrando numa fase de riscos novos. Estamos em contato com o governo, e logo surgirão outros motivos para colaborar em níveis mais altos.

Temos diferenças com a Anthropic. Eles parecem construir a empresa com base no «ódio a nós». Mas ambos nos preocupamos em não destruir o mundo com IA. Talvez tenhamos visões diferentes de como chegar lá, mas confio que eles também farão a coisa certa.

Thompson: Sobre o movimento de abrir código, vocês já fizeram alguns passos. Ainda se chamam OpenAI, e já discutimos os riscos de modelos abertos, como armas biológicas.

Altman: Sim.

Thompson: Como será o futuro

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário