Recusar o monopólio do poder da IA: Vitalik e Beff Jezos debatem: acelerar ou travar?

BlockBeatNews
AGI-0,86%

Título original do vídeo: Vitalik Buterin vs Beff Jezos: debate sobre aceleração da IA (E/acc vs D/acc)

Fonte original do vídeo: a16z crypto

Tradução do artigo original: profundidade TechFlow

Resumo dos pontos-chave

Devemos promover o desenvolvimento rápido da IA o mais possível, ou devemos ter mais cautela com os seus avanços?

Atualmente, o debate em torno do desenvolvimento da IA centra-se principalmente em duas perspetivas opostas:

· e/acc (aceleracionismo efetivo, effective accelerationism): defende o impulso para o progresso tecnológico o mais rapidamente possível, porque o desenvolvimento acelerado é o único caminho para o avanço da humanidade.

· d/acc (aceleracionismo defensivo / descentralizado, defensive / decentralized acceleration): apoia o desenvolvimento acelerado, mas enfatiza que é preciso avançar com cautela; caso contrário, poderá perder-se o controlo sobre a tecnologia.

Nesta edição do a16z crypto show, o fundador do Ethereum (Vitalik Buterin) e o fundador da Extropic, bem como CEO, Guillaume Verdon (alias “Beff Jezos”), juntam-se ao CTO do a16z crypto, Eddy Lazzarin, e ao fundador da Eliza Labs, Shaw Walters, para uma discussão profunda em torno destas duas perspetivas. Eles exploram os potenciais impactos destas ideias na IA, na tecnologia blockchain e no futuro da humanidade.

No programa, discutem várias questões-chave:

· Conseguimos controlar o ritmo do avanço tecnológico?
· Qual é o maior risco trazido pela IA, desde a vigilância em larga escala até à concentração extrema do poder.
· As tecnologias de código aberto e descentralizadas poderão determinar quem irá beneficiar com a tecnologia?
· Fazer abrandar o desenvolvimento da IA é algo realista, ou será que vale a pena defendê-lo?
· Numa sociedade dominada por sistemas cada vez mais fortes, como é que a humanidade mantém os seus valores e a sua posição?
· Como poderá ser a sociedade humana nos próximos 10 anos, 100 anos e até 1000 anos?

O tema central desta edição é: o desenvolvimento acelerado de tecnologia pode ser orientado, ou já está fora do nosso controlo?

Resumo de ideias notáveis

Sobre a essência e a visão histórica do “aceleracionismo”

· Vitalik Buterin: “Nos últimos cem anos, aconteceu uma coisa curiosa: temos de compreender um mundo que muda rapidamente, e às vezes um mundo que muda rápido e de forma destrutiva. … A guerra mundial levou a reflexões como ‘tornei-me a morte, o destruidor de mundos’, que fizeram as pessoas começarem a tentar compreender: quando as crenças anteriores são destruídas, em que é que ainda podemos acreditar?”
Guillaume Verdon: “A essência do E/acc é uma ‘receita de meta-cultura’. Não é, por si só, uma cultura; é uma ideia sobre o que devemos acelerar. O conteúdo central da aceleração é a complexificação da matéria, porque assim conseguimos prever melhor o ambiente à nossa volta.”

**· Guillaume Verdon: “**O oposto da ansiedade é a curiosidade. Em vez de temer o desconhecido, abrace-o. … Devemos pintar o futuro com uma atitude otimista, porque as nossas crenças influenciam a realidade.”

Sobre entropia, termodinâmica e “bits egoístas”

· Vitalik Buterin: “A entropia é subjetiva; não é uma métrica estatística física fixa, mas sim um reflexo de quanta informação desconhecida temos sobre um sistema. … Quando a entropia aumenta, na prática é a nossa ignorância sobre o mundo que aumenta. … A origem do valor está nas nossas escolhas. Porque é que achamos mais interessante um mundo humano cheio de vitalidade do que um planeta Júpiter com inúmeros grãos de partículas? Porque atribuímos significado.”

· Vitalik Buterin: “Suponha que tens um grande modelo de linguagem e, de forma aleatória, mudas o valor de algum peso para um número enorme, como 9 mil milhões. O pior resultado é o sistema colapsar completamente. … Se acelerarmos cegamente alguma parte, sem seleção, o resultado final pode ser perdermos todo o valor.”

· Guillaume Verdon: “Cada pedaço de informação ‘luta’ pela sua própria existência. Para continuar a existir, cada pedaço de informação precisa deixar no universo marcas indeléveis sobre a sua própria existência, como se fizesse ‘amassadelas’ maiores no universo.”

· Guillaume Verdon: “É precisamente por isso que a escala de Kardashev é considerada o indicador definitivo para medir o nível de evolução de uma civilização. … Este princípio dos ‘bits egoístas’ significa que apenas os bits que promovem o crescimento e a aceleração terão um lugar no sistema futuro.”

Sobre o caminho defensivo do D/acc e o risco de poder

· Vitalik Buterin: “A ideia central do D/acc é: a aceleração tecnológica é extremamente importante para a humanidade. … Mas eu vejo dois tipos de risco: o risco multipolar (qualquer pessoa pode obter armas nucleares com facilidade) e o risco unipolar (uma sociedade ditatorial permanente e inevitável causada pela IA).”

· Guillaume Verdon: “Temos receio de que o conceito de ‘segurança da IA’ possa ser abusado. Algumas instituições que procuram poder podem utilizá-lo como ferramenta para consolidar o controlo sobre a IA e tentar convencer o público: para a tua segurança, as pessoas comuns não deveriam ter permissão para usar IA.”

Sobre defesa de código aberto, hardware e “densificação da inteligência”

· Vitalik Buterin: “No quadro do D/acc, defendemos ‘tecnologias defensivas de código aberto’. Uma empresa em que investimos está a desenvolver um produto de terminal totalmente de código aberto que deteta passivamente partículas de vírus no ar. … Gostava muito de te oferecer um dispositivo CAT como presente.”

· Vitalik Buterin: “No futuro que imagino, precisamos de desenvolver hardware verificável. Cada câmara deverá conseguir provar ao público o seu propósito específico. Podemos usar verificação por assinatura para garantir que estes dispositivos são usados apenas para proteger a segurança pública, e não para vigilância indevida.”

· Guillaume Verdon: “A única via para alcançar simetria de poder entre indivíduos e instituições centralizadas é realizar a ‘densificação da inteligência’ (Densification of Intelligence). Precisamos de desenvolver hardware mais eficiente em termos energéticos, para que indivíduos possam executar modelos poderosos através de dispositivos simples (como Openclaw + Mac mini).”

Sobre atraso na AGI e jogos de poder geopolíticos

· Vitalik Buterin: “Se conseguirmos adiar a chegada da AGI de 4 anos para 8, isso seria uma opção mais segura. … A forma mais viável e menos propensa a levar a um cenário distópico é ‘restringir o hardware disponível’. Porque a produção de chips está altamente concentrada; numa região de Taiwan já se produz mais de 70% dos chips do mundo.”

· Guillaume Verdon: “Se restringires a produção de chips da NVIDIA, a Huawei pode preencher rapidamente a lacuna e até ultrapassar. … Ou aceleras, ou pereces. Se estás preocupado com a evolução da inteligência baseada em silício a ser mais rápida do que nós, deves apoiar a aceleração do desenvolvimento em biotecnologia e esforçar-te por ultrapassá-la.”

· Vitalik Buterin: “Se conseguirmos atrasar a AGI por quatro anos, o valor poderá ser cem vezes superior ao facto de a reinserirmos em 1960. Os ganhos destes quatro anos incluem: uma compreensão mais profunda dos problemas de alinhamento e a redução do risco de uma única entidade controlar 51% do poder. … As vidas salvas por ano através de pôr fim ao envelhecimento seriam cerca de 60 milhões, mas o adiamento pode reduzir significativamente a probabilidade de destruição da civilização.”

Sobre agentes autónomos, Web 4.0 e vida artificial

· Vitalik Buterin: “Estou mais interessado em ‘Photoshop auxiliado por IA’, e não em ‘gerar imagens automaticamente ao clicar num botão’. Ao executar o mundo, o máximo possível de ‘agência’ deveria continuar a vir de nós, seres humanos. O ideal seria uma combinação de ‘humanos biológicos em parte e tecnologia em parte’.”

· Guillaume Verdon: “Assim que a IA tiver ‘bits de persistência’ (bits que permanecem), elas podem tentar proteger-se a si mesmas para garantirem a sua continuação. Isso pode levar ao surgimento de uma nova forma de ‘um outro país’: trocas económicas entre IA autónoma e humanos. Nós fazemos tarefas para vocês; vocês fornecem recursos para nós.”

Sobre criptomoeda como ‘camada de acoplamento’ entre humanos e IA

· Guillaume Verdon: “As criptomoedas têm potencial para se tornarem a ‘camada de acoplamento’ (coupling layer) entre humanos e IA. Quando esse intercâmbio deixar de depender de endosso pela violência estatal, a criptografia pode ser um mecanismo para permitir atividades comerciais fiáveis entre entidades puramente de IA e humanos.”

· Vitalik Buterin: “Se humanos e IA partilharem o mesmo sistema de direitos de propriedade, isso seria o ideal. Comparado com humanos e IA a utilizarem sistemas financeiros totalmente separados (em que o valor do sistema dos humanos acaba por ir a zero), um sistema financeiro fundido é claramente melhor.”

Sobre o destino da civilização em 1 mil milhões de anos

· Vitalik Buterin: “O desafio seguinte é entrar na ‘era arrepiante’ (spooky era), em que a velocidade de computação da IA será milhões de vezes maior do que a humana. … Eu não quero que os humanos sejam apenas beneficiários passivos de uma vida de reforma confortável; isso causaria uma falta de sentido. Quero explorar a melhoria humana e a colaboração homem-máquina.”

· Guillaume Verdon: “Se daqui a 10 anos o desfecho for bom, toda a gente terá uma IA personalizada própria, tornando-se um ‘segundo cérebro’. … No horizonte de 100 anos, a humanidade atingirá em grande escala uma ‘fusão suave’. Em 1 mil milhões de anos, talvez já tenhamos modificado Marte, e a maioria das IAs irá correr em nuvens de Dyson em torno do Sol.”

Sobre “aceleracionismo”

Eddy Lazzarin: sobre o termo “aceleracionismo” — pelo menos no contexto do capitalismo tecnológico — pode ser rastreado até trabalhos do Nick Land e do grupo de investigação CCRU nos anos 1990. Ainda assim, há quem defenda que a origem destas ideias remonta aos anos 1960 e 1970, especialmente ligadas às teorias de alguns filósofos como Deleuze e Guattari.

Vitalik, quero começar por ti: porque é que devemos levar a sério as ideias destes filósofos? O que torna o conceito de “aceleracionismo” tão importante hoje?

Vitalik Buterin: Penso que, no fundo, todos nós estamos a tentar compreender o mundo e a perceber o que é significativo fazer nele — essa é uma questão que a humanidade tem refletido há milhares de anos.

No entanto, eu acho que, nos últimos cem anos, aconteceu uma coisa nova: temos de compreender um mundo que muda rapidamente, e por vezes um mundo que muda rapidamente e de forma destrutiva.

A fase inicial seria mais ou menos assim: antes da Primeira Guerra Mundial, por volta de 1900, as pessoas tinham um enorme otimismo em relação à tecnologia. Naquela época, a química era considerada uma tecnologia, a eletricidade também era tecnologia — esse período estava cheio de entusiasmo pela tecnologia.

Se olhares para alguns filmes daquela altura, como os baseados em ‘Sherlock Holmes’, consegues sentir o clima otimista do período. A tecnologia estava a melhorar rapidamente os níveis de vida das pessoas, a libertar a força de trabalho feminina, a prolongar a esperança de vida humana e a criar muitos milagres.

Mas a Primeira Guerra Mundial mudou tudo. A guerra terminou de forma devastadora: pessoas iam a cavalo para a frente de batalha, mas partiam num tanque; depois, começou a Segunda Guerra Mundial, com uma destruição ainda maior. Essa guerra chegou até a inspirar frases como “tornei-me a morte, o destruidor de mundos”.

Estes acontecimentos históricos levaram as pessoas a refletir sobre o custo do progresso tecnológico e deram origem a ideias como o pós-modernismo. As pessoas começaram a tentar compreender: quando as crenças anteriores são destruídas, em que é que ainda podemos acreditar?

Eu acho que esta reflexão não é algo novo; cada geração passa por um processo semelhante. Hoje, estamos a enfrentar um desafio semelhante. Vivemos numa época em que a tecnologia se desenvolve rapidamente, e a própria aceleração também está a acelerar. Temos de decidir como lidar com este fenómeno: aceitá-lo como inevitável, ou tentar abrandá-lo?

Acredito que estamos num ciclo semelhante. Por um lado, herdamos as ideias do passado; por outro, estamos a tentar lidar com tudo isto de uma forma nova.

Termodinâmica e princípios de base

Shaw Walters: Guillu, podes explicar de forma simples o que é, afinal, o E/acc? Porque é que será necessário?

Guillaume Verdon: Na verdade, o E/acc (effective accelerationism) é, em certa medida, um subproduto da minha reflexão constante sobre “porque é que estamos aqui” e “como chegámos ao ponto de hoje”. Que tipo de processo generativo nos criou, impulsionou o desenvolvimento da civilização? A tecnologia levou-nos a este ponto, permitindo-nos sentar nesta sala para ter este tipo de diálogo. À nossa volta há tecnologias incríveis, e nós, seres humanos, emergimos de uma espécie de “sopa primordial” inorgânica.

De certo modo, existe mesmo um processo generativo a nível físico por trás disso. O meu trabalho diário é ver a IA generativa como um processo físico e tentar implementá-lo em dispositivos. Esta forma de pensar “prioridade à física” influenciou o meu modo de pensar. Quero expandir esta perspetiva para toda a civilização, encarando a civilização humana como um enorme “recipiente de cultura” (“culturing vessel”), e, ao compreender como chegámos até aqui, tentar inferir direções possíveis para o futuro.

Este tipo de pensamento levou-me ao estudo da física da vida, incluindo a origem e a emergência da vida, bem como um ramo chamado “termodinâmica aleatória” (random thermodynamics). A termodinâmica aleatória estuda as leis termodinâmicas de sistemas fora do equilíbrio; pode ser usada para descrever o comportamento dos organismos vivos, e até a nossa mente e a nossa inteligência.

De forma mais abrangente, a termodinâmica aleatória não se aplica apenas à vida e à inteligência, mas a todos os sistemas que seguem a segunda lei da termodinâmica — incluindo toda a nossa civilização. Para mim, tudo se resume a uma observação: todos os sistemas têm uma tendência — tornam-se progressivamente mais complexos através da auto-adaptação, para poderem retirar trabalho a partir da energia do ambiente; ao mesmo tempo, libertam o excesso de energia sob a forma de calor. Esta tendência é a força motriz fundamental que impulsiona todo o progresso e aceleração.

Em outras palavras, é uma lei física imutável, como a gravidade. Podes opor-te a ela, podes negá-la, mas isso não muda o facto de ela continuar a existir. Assim, a ideia central do E/acc é: dado que esta aceleração é inevitável, como é que a podemos aproveitar? Se estudares cuidadosamente as equações da termodinâmica, vais ver um efeito semelhante ao da seleção darwiniana a funcionar — cada bit de informação tem de passar no teste de uma pressão de seleção, quer seja genes, memes, química, design de produto ou algum tipo de política.

Esta pressão de seleção filtra consoante a utilidade desses bits para o sistema em que se encontram. “Útil” significa que esses bits conseguem prever melhor o ambiente, obter energia e dissipar mais calor. Em termos simples: esses bits ajudam a sobrevivência, o crescimento e a reprodução. Se ajudam a atingir esses objetivos, ficam e são copiados.

Do ponto de vista da física, este fenómeno pode ser visto como resultado do “princípio dos bits egoístas” (Selfish Bit Principle). Ou seja, apenas os bits que promovem crescimento e aceleração conseguem garantir um lugar nos sistemas do futuro.

Por isso, proponho uma ideia: será que podemos desenhar uma cultura que implante esta “software de mente” na sociedade humana? Se conseguirmos fazer isso, os grupos humanos que adotarem esta cultura terão uma probabilidade de sobrevivência superior à de outros grupos.

Portanto, o E/acc não está a tentar destruir toda a gente. Na verdade, está a tentar salvar toda a gente. Para mim, matematicamente quase dá para provar que uma mentalidade de “reduzir a velocidade” é, no fundo, prejudicial. Seja para indivíduos, empresas, Estados ou para a civilização inteira, escolher abrandar o desenvolvimento diminui a sua probabilidade de sobreviver no futuro. Além disso, acho que disseminar esta ideia de “reduzir a velocidade”, como o pessimismo ou o apocalipsismo, não é um ato moral.

Shaw Walters: Acabámos de mencionar muitos termos, como E/acc, aceleração, desaceleração. Dá para decompor um pouco estes conceitos? O surgimento do E/acc foi uma resposta a certos fenómenos culturais? O que estava a acontecer na altura? Podes descrever-nos o contexto? A que é que o E/acc estava a responder concretamente? Podes descrever a conversa daquela época e como estas ideias acabaram por ser resumidas no conceito de “E/acc”?

Guillaume Verdon: Em 2022, eu acho que o mundo inteiro parecia um pouco pessimista naquela altura. Acabámos de sair da pandemia de Covid e a situação global não parecia nada animadora. Toda a gente parecia desanimada, como se faltasse sol; as pessoas estavam, em geral, pessimistas em relação ao futuro.

Nesse ambiente, o “apocalipsismo da IA” tornou-se, em certa medida, parte da cultura dominante. O apocalipsismo da IA significa o medo de que a tecnologia de IA possa ficar fora de controlo. Este receio nasce de uma preocupação: se criarmos um sistema demasiado complexo e o cérebro humano — ou os nossos modelos — não conseguirem prever o seu comportamento, então não o poderemos controlar. E este medo do incontornável leva à incerteza sobre o futuro, o que, por sua vez, gera ansiedade.

Na minha perspetiva, o apocalipsismo da IA é, na verdade, uma utilização politizada da ansiedade humana. No geral, acho que este apocalipsismo tem um impacto negativo enorme, e é por isso que quero criar uma anti-cultura para combater este pessimismo.

Notei que, como nos algoritmos do Twitter e até em muitos outros sistemas de redes sociais, há uma tendência para recompensar conteúdos que geram emoções fortes — como “apoio intenso” ou “oposição intensa”. No fim, isso leva à polarização de opiniões. Assim, vemos muitos campos opostos a formar um fenómeno de “seitas-espelho”, como AA (anti-aceleracionismo) e EA (aceleracionismo).

Penso: qual é o lado oposto deste fenómeno? Cheguei à conclusão de que o oposto da ansiedade é a curiosidade. Em vez de temer o desconhecido, abrace-o; em vez de se preocupar em perder oportunidades, explore o futuro de forma proativa.

Se escolhemos abrandar o desenvolvimento tecnológico, vamos pagar um enorme custo de oportunidade e talvez nunca cheguemos a um futuro melhor. Pelo contrário, deveríamos pintar o futuro com uma atitude otimista, porque as nossas crenças influenciam a realidade. Se acreditarmos que o futuro vai ser mau, as nossas ações podem empurrar o mundo na direção desse futuro; mas se acreditarmos que o futuro será melhor e trabalharmos para isso, teremos mais probabilidades de concretizar esse futuro.

Por isso, acredito que tenho a responsabilidade de espalhar uma atitude otimista, para que mais pessoas acreditem que podem fazer a diferença no futuro. Se conseguirmos encher mais pessoas de esperança em relação ao futuro e levar à ação para o construir, então seremos capazes de criar um mundo melhor.

Claro que reconheço que, às vezes, o que digo online pode soar um pouco radical, mas é porque quero provocar discussão e incentivar as pessoas a pensar. Acredito que só através destas conversas conseguimos encontrar o lugar mais adequado para determinar como devemos agir.

Aceleração, entropia e civilização

Shaw Walters: A mensagem que o E/acc transmite é sempre muito esclarecedora. Para alguém sentado numa sala a escrever código, esta difusão de energia positiva é inspiradora, e esta comunicação também parece muito natural. Podemos dizer que, no início, o E/acc era claramente uma resposta ao sentimento negativo que permeava a sociedade. Mas, em 2026, sinto que o E/acc já não é como era antes. Obviamente, o “Manifesto do Otimismo Tecnológico” publicado por Marc Andreessen sistematizou algumas dessas ideias e elevou estas perspetivas para um olhar mais macro, no estilo do Vitalik.

Então, Vitalik, quero perguntar-te: na tua opinião, o que é que E/acc e D/acc representam, respetivamente? Qual é a diferença principal entre eles? E o que é que te levou a escolher este rumo?

Vitalik Buterin: Certo, vou começar pela termodinâmica. Este é um tema interessante, porque ouvimos “entropia” em contextos muito diferentes: na termodinâmica, a ideia de “quente e frio”; na criptografia, a ideia de “entropia”. À primeira vista, parecem coisas completamente diferentes. Mas, no fundo, é o mesmo conceito.

Vou tentar explicar em três minutos. A questão é: porque é que quente e frio podem ser misturados, mas por que razão não os podes voltar a separar em “quente” e “frio”?

Vamos supor um exemplo simples: imagina que tens dois frascos de gás, e que cada frasco tem um milhão de átomos. O gás do lado esquerdo é frio; a velocidade de cada átomo pode ser descrita com dois dígitos. O gás do lado direito é quente; a velocidade de cada átomo pode ser descrita com seis dígitos.

Se quisermos descrever o estado completo do sistema, precisamos de conhecer as velocidades de cada átomo. O lado frio requer cerca de 2 milhões de dígitos de informação, e o lado quente requer 6 milhões de dígitos de informação. No total, precisamos de 8 milhões de dígitos de informação para descrever completamente este sistema.

Agora, podemos pensar sobre isto por redução ao absurdo. Suponha que tens um dispositivo que consegue separar completamente calor e frio. Em concreto, o dispositivo consegue, a partir de dois recipientes de “meio quente e meio frio”, transferir todo o calor para um lado e todo o frio para o outro. Do ponto de vista da conservação de energia, isto parece perfeitamente razoável, porque a energia total não muda. Mas qual é a razão para não conseguires fazer isso?

A resposta é que, se conseguisse fazer isso, estarias de facto a transformar um sistema que contém “11,4 milhões de bits de informação desconhecida” num sistema que contém apenas “8 milhões de bits de informação desconhecida”, o que não é fisicamente possível.

Isto acontece porque as leis da física são simétricas no tempo — isto é, o tempo pode correr ao contrário. Se este “dispositivo mágico” existisse mesmo, poderias fazer o processo correr no sentido inverso e voltar ao estado inicial. Isso significa que este dispositivo conseguiria comprimir qualquer informação de 11,4 milhões de bits para apenas 8 milhões de bits. E nós sabemos que essa compressão não é possível.

Isto também explica uma questão clássica da física — a viabilidade do “Demónio de Maxwell”. O Demónio de Maxwell é uma entidade hipotética capaz de separar calor e frio; para o fazer, precisa de saber antecipadamente a informação extra de cerca de 3,4 milhões de bits. Com essa informação adicional, ele consegue, de facto, realizar esta tarefa aparentemente contraintuitiva.

Então qual é o significado escondido por trás disto? O ponto central está no conceito de “aumento da entropia”. Primeiro, a entropia é subjetiva; não é uma métrica física estatística fixa, mas sim um reflexo da quantidade de informação desconhecida que temos sobre um sistema. Por exemplo, se eu reorganizar a distribuição dos átomos usando uma função hash criptográfica, para mim a entropia deste sistema pode ficar extremamente baixa, porque eu sei como está organizada. Mas para um observador externo, a entropia seria alta. Assim, quando a entropia aumenta, na prática é a nossa ignorância sobre o mundo que aumenta — o desconhecido cresce.

Pode surgir a pergunta: então por que é que conseguimos ficar mais inteligentes através da educação? A educação faz-nos aprender mais informação “útil”, em vez de reduzir a nossa ignorância sobre o mundo. Por outras palavras, embora, em certo sentido, o aumento da entropia signifique que o nosso conhecimento global do universo diminui, a informação de que dispomos torna-se mais valiosa. Assim, há coisas que se consomem nesse processo, mas também há coisas que se criam. E o que obtemos — no fim — determina os nossos valores morais: o que valorizamos, como a vida, a felicidade e a alegria.

Isto também explica porque é que achamos um mundo humano cheio de vitalidade e beleza mais interessante do que um Júpiter com apenas inúmeras partículas. Embora existam mais partículas em Júpiter, o que exigiria mais bits de informação para descrevê-las, o significado que atribuímos faz com que a Terra pareça mais valiosa.

Visto por este ângulo, a origem do valor está nas nossas próprias escolhas. E isto leva a uma questão: já que estamos a acelerar o desenvolvimento, o que é que queremos, afinal, acelerar?

Se usarmos uma analogia matemática: suponha que tens um grande modelo de linguagem. Então alteras, de forma aleatória, o valor de algum dos seus pesos para um número enorme, como 9 mil milhões. O resultado mais mau é o modelo ficar completamente inutilizável; o resultado mais positivo poderá ser que apenas a parte que não depende desse peso continue a funcionar. Ou seja, no melhor dos casos, obténs um modelo com desempenho pior; no pior dos casos, terás apenas um conjunto de saídas sem sentido.

Por isso, acredito que a sociedade humana é como um grande modelo de linguagem complexo. Se acelerarmos cegamente uma parte sem seleção, o resultado final poderá ser perdermos todo o nosso valor. Assim, a verdadeira questão é: como podemos acelerar conscientemente? Tal como a teoria do “corredor estreito” (“narrow corridor”) proposta por Daron Acemoglu, embora os contextos sociais e políticos possam diferir, o ponto é pensar como empurrar seletivamente o progresso sob a orientação de um objetivo claro.

Guillaume Verdon: Acabaste de explicar o conceito de entropia usando gás; essa forma é muito interessante. Na verdade, a razão pela qual os fenómenos físicos são irreversíveis radica na segunda lei da termodinâmica. Simplificando: quando um sistema liberta calor, o seu estado não consegue voltar ao que era. Isto acontece porque, probabilisticamente, é muito mais provável o sistema evoluir no sentido “da frente” do que regredir. E esta diferença aumenta exponencialmente com a dissipação do calor.

De certo modo, isso é como deixar uma “amassadela” no universo. Esta “amassadela” é comparável a uma colisão perfeitamente inelástica. Por exemplo: se eu usar uma bola elástica para bater no chão, ela ricocheteia — isso é elástico. Mas se eu esmagar uma bola de massa elástica contra o chão, ela fica esmagada, mantém essa forma — e esse é um estado inelástico, quase impossível de reverter.

Em essência, cada pedaço de informação está a “lutar” pela sua própria existência. Para continuar a existir, cada pedaço de informação precisa deixar no universo mais marcas indeléveis sobre si mesmo — como uma “amassadela” maior no universo.

Este princípio também ajuda a explicar como a vida e a inteligência emergem a partir de uma “sopa de matéria primordial”. À medida que o sistema se torna cada vez mais complexo, contém mais e mais bits de informação. E cada bit de informação consegue ensinar-nos algo. A essência da informação é uma redução de entropia: a entropia representa a nossa ignorância, enquanto a informação é uma ferramenta para reduzir essa ignorância.

Eddy Lazzarin: Quero perceber o que é o E/acc.

Guillaume Verdon: O E/acc é, na essência, uma “receita de meta-cultura”. Não é uma cultura em si; é uma forma de nos dizer o que devemos acelerar. O núcleo da aceleração é a complexificação da matéria, porque isso nos permite prever melhor o ambiente. Através desta complexificação, conseguimos melhorar a capacidade de fazer previsões de modo recursivo (auto-regressivo) e captar mais energia livre. Isto também se relaciona com a escala de Kardashev: conseguimos isso ao dissipar calor.

Nota do profundidade TechFlow: A escala de Kardashev é um método proposto em 1964 pelo astrónomo soviético Nikolai Kardashev para avaliar o nível de avanço tecnológico de uma civilização, com base nas ordens de grandeza da quantidade de energia que a civilização consegue aproveitar. Divide-se em três categorias: Tipo I (energia planetária), Tipo II (energia de sistemas estelares, como uma esfera de Dyson) e Tipo III (energia de uma galáxia). Até 2018, a humanidade está cerca de 0,73 na escala.)

Partindo dos princípios de base, é precisamente por isso que a escala de Kardashev é vista como um indicador definitivo para medir o nível de desenvolvimento de uma civilização.

Eddy Lazzarin: Usar metáforas da física e da entropia para explicar certos fenómenos é, na verdade, uma ferramenta para descrever a realidade que vivemos diretamente. Por exemplo, a nossa capacidade de produção económica está a acelerar, o desenvolvimento tecnológico também está a acelerar. E esta aceleração traz muitas consequências, certo? É assim que eu entendo “aceleração”.

Guillaume Verdon: Essencialmente, independentemente de como se definam os limites de um sistema, ele vai-se tornando cada vez melhor a prever o mundo à sua volta. Com esta capacidade de previsão, consegue obter mais recursos para sobreviver e expandir-se. Este padrão aplica-se a empresas, a indivíduos, a Estados e até ao planeta inteiro.

Se seguirmos esta tendência até ao fim, a conclusão é: encontrámos uma forma de converter energia livre em capacidade de previsão — ou seja, IA. Esta capacidade vai impulsionar a expansão e a elevação na escala de Kardashev.

Isto significa que vamos obter mais energia, mais IA, mais capacidade de computação e mais outros recursos. Apesar de estarmos a expelir entropia para o universo (desordem), também estamos a criar ordem. Na prática, estamos a obter “entropia negativa”, isto é, o oposto da entropia.

Às vezes as pessoas perguntam: já que a entropia está a aumentar, porque não destruímos tudo diretamente? A resposta é: isso faria a produção de entropia parar. A vida é um estado mais “ótimo”; a vida é como uma chama que persegue energia e, à medida que procura, vai ficando cada vez mais inteligente na procura das fontes de energia.

A evolução natural tende a levar-nos a sair do poço gravitacional da Terra, à procura de “bolsões” no universo que guardem energia livre, e a usar essa energia para se organizar de forma autónoma em sistemas mais complexos e mais inteligentes — até se expandir para todos os cantos do universo.

Isto é, na prática, um tipo de objetivo final do effective altruism (Effective Altruism, EA). Em certa medida, também se alinha com a visão “cosmic expansionista” à maneira de Musk: perseguir uma visão cosmista e expansionista.

O E/acc fornece um princípio orientador fundamental. A ideia central é: independentemente de que políticas ou ações tomes neste mundo, desde que ajudem a continuarmos a subir na escala de Kardashev, esse é o objetivo que vale a pena — é para isso que estamos a viver e é nessa direção.

O E/acc é uma forma de pensar heurística de nível meta: pode ser usada para desenhar políticas e também para orientar a vida pessoal. Para mim, esta forma de pensar constitui, ela própria, uma cultura. É uma narrativa muito “meta”, porque é pensada para se aplicar a qualquer tempo e a quaisquer condições. É uma cultura altamente universal e com aplicação duradoura; por outras palavras, é uma “cultura Lindy” (Lindy culture) desenhada com ponderação.

Fissura central

Shaw Walter: Para ti, tudo o que está a ser discutido aqui tem um significado mais profundo. Quase parece um sistema espiritual matematicamente consistente. Para quem não encontrou substitutos de crença após “a morte de Deus”, este sistema parece preencher o vazio do mundo espiritual, trazendo conforto e esperança. Mas ao mesmo tempo, não podemos ignorá-lo no mundo real — está mesmo a acontecer agora. E acho que essa é a parte que o Eddy quer explorar.

Vitalik, reparei que tens opiniões muito perspicazes sobre questões reais do D/acc no teu próprio blog. Quando tivermos oportunidade, quero aprofundar esse tema — acho que um dia deveríamos trancar vocês dois numa sala e fazer uma grande discussão sobre questões quânticas.

Vitalik: O que é que te inspirou? Para ti, o que são E/acc e D/acc?

Vitalik Buterin: Para mim, o D/acc significa — o acrónimo é “aceleração defensiva descentralizada” — mas também inclui o sentido de “diferenciação” e “democratização”. Na minha perspetiva, a ideia central do D/acc é: a aceleração tecnológica é extremamente importante para a humanidade, e isso deve ser o objetivo-base ao qual devemos aspirar.

Mesmo que olhes para o século XX, apesar de os avanços tecnológicos trazerem muitos problemas, também trouxeram infinitos benefícios. Por exemplo: observa a esperança de vida humana. Mesmo com guerras e turbulência, a esperança de vida média dos alemães em 1955 era maior do que em 1935. Isso mostra que o progresso tecnológico elevou a qualidade de vida de muitas maneiras.

Hoje, o mundo está mais limpo, mais bonito, mais saudável e também mais interessante. Não só consegue alimentar mais pessoas, como torna as nossas vidas mais ricas e variadas — e estas mudanças são muito positivas para a humanidade.

No entanto, eu acho que precisamos de reconhecer uma coisa: estes avanços não são acidentais; são resultado de intenções claras por parte da humanidade. Por exemplo, nos anos 1950, a poluição do ar era grave e havia fumo no ambiente. As pessoas aperceberam-se de que era um problema e tomaram medidas para o resolver. Hoje, pelo menos em muitos lugares, o problema do fumo está muito mais aliviado. De modo semelhante, enfrentámos o buraco na camada de ozono e tivemos avanços significativos através da cooperação global.

Além disso, quero acrescentar isto: com o desenvolvimento rápido da tecnologia e da IA, vejo dois tipos principais de riscos.

Um deles é o risco multipolar. Este risco significa que, à medida que a tecnologia se torna mais difundida, mais pessoas poderão usá-la para fazer coisas extremamente perigosas. Por exemplo, imagina um cenário extremo — o avanço tecnológico faria com que “qualquer pessoa conseguisse obter armas nucleares com a mesma facilidade com que compra algo numa loja”.

E há outro tipo de preocupação: a própria IA. Precisamos considerar a possibilidade de a IA desenvolver alguma consciência autónoma. Se as suas capacidades ficarem fortes o suficiente para agir sem intervenção humana, não sabemos exatamente que decisões tomará — e essa incerteza é preocupante.

Há também outro risco unipolar. Eu acho que uma IA única pode ser uma ameaça potencial. E pior ainda: quando a IA se combina com outras tecnologias modernas, pode levar a uma sociedade ditatorial permanente que não se consegue evitar. Esta perspetiva deixa-me profundamente inquieto e tem sido algo que eu tenho estado a acompanhar de perto.

Dou um exemplo. Na Rússia, podemos ver como a tecnologia traz progresso e também cria riscos. Por um lado, as condições de vida melhoraram de facto; por outro, a liberdade social diminuiu. Se alguém tentasse protestar, as câmaras de vigilância registariam as suas ações e, possivelmente, na madrugada de uma semana depois, alguém viria prendê-lo.

O rápido desenvolvimento da IA está a acelerar a tendência para a concentração do poder. Por isso, para mim, o que o D/acc realmente quer fazer é: traçar um caminho a seguir, continuar esta aceleração e ainda acelerar mais — mas, ao mesmo tempo, enfrentar verdadeiramente estes dois tipos de riscos.

Comparar e/acc e d/acc

Eddy Lazzarin: Então, quer dizer que o D/acc está mais focado em categorias de risco que, no quadro do E/acc, são ignoradas ou enfatizadas de forma insuficiente, certo?

Vitalik Buterin: Sim. Eu acredito que o desenvolvimento tecnológico vem realmente com vários riscos, e esses riscos apresentam diferentes níveis de proeminência em diferentes cenários e modelos do mundo. Por exemplo, consoante se acelera ou se abranda a velocidade do desenvolvimento tecnológico, a prioridade dos riscos pode mudar.

Mas também acredito que podemos adotar muitas medidas para responder de forma eficaz a esses riscos, independentemente de qual seja a sua categoria.

Guillaume Verdon: Eu acho que, na verdade, tanto o Vitalik como eu estamos muito preocupados com o problema da concentração excessiva de poder que a IA pode causar. E este é um dos pontos centrais do movimento E/acc — especialmente na fase inicial — em que se defendia o código aberto, com o objetivo de dispersar o poder da IA.

Temos receio de que o conceito de segurança da IA possa ser abusado. É demasiado sedutor, e algumas instituições que procuram poder podem utilizá-lo como ferramenta para consolidar o controlo sobre a IA e tentar convencer o público: para a tua segurança, as pessoas comuns não devem ter permissão para usar IA.

Na prática, se houver uma grande lacuna cognitiva entre indivíduos e instituições centralizadas, então estas últimas terão controlo total sobre os primeiros. Podem construir um modelo completo sobre os teus padrões de pensamento e, usando meios como engenharia de prompts, orientar eficazmente o teu comportamento.

Portanto, queremos tornar a força da IA mais simétrica. Tal como a intenção da Segunda Emenda da Constituição dos EUA era impedir que o governo monopolizasse a violência, de modo a permitir que as pessoas o controlassem quando ele ultrapassasse limites. Da mesma forma, a IA precisa de mecanismos semelhantes para evitar uma concentração excessiva de poder.

Precisamos garantir que todos tenham capacidade para possuir os seus próprios modelos e hardware de IA, de modo a que a tecnologia se espalhe amplamente e o poder se descentralize.

No entanto, eu acho que parar totalmente a investigação e desenvolvimento de IA não é realista. A IA é uma tecnologia base, ou até uma “meta-tecnologia” — uma tecnologia que impulsiona outras tecnologias. Ela dá-nos capacidades de previsão mais fortes, pode ser aplicada a quase qualquer tarefa e melhora drasticamente a eficiência. Pode dizer-se que a IA não só impulsiona a aceleração em si, como também acelera ainda mais a aceleração.

A substância dessa aceleração é a complexificação: as coisas ficam mais eficientes, a vida fica mais conveniente. Uma das razões pelas quais nos sentimos felizes é porque a nossa sobrevivência e a continuidade da informação ficam garantidas. Esta “sensação de felicidade” pode ser vista como um estimador biológico interno para medir se a nossa existência consegue continuar.

Visto assim, eu acho que o enquadramento utilitarista hedonista do effective altruism — “maximizar a felicidade” — talvez não seja a melhor perspetiva. Pelo contrário, prefiro adotar um critério objetivo de medição do progresso, que é precisamente o núcleo do enquadramento E/acc. Ele coloca uma questão: de forma objetiva, como civilização, estaremos a progredir continuamente? Estamos a concretizar saltos de escala?

Para alcançar essa escalabilidade, precisamos promover a complexificação e melhorar continuamente as nossas tecnologias. No entanto, como o Vitalik disse, se o poder da IA estiver demasiado concentrado nas mãos de poucos, isso é prejudicial para o crescimento global; mas se esta tecnologia puder ser amplamente distribuída, o resultado será muito melhor.

Nisto, acredito que estamos altamente de acordo.

Código aberto, hardware de código aberto e inteligência local

Shaw Walters: Acho que a discussão que tiveram tocou pontos comuns muito importantes. Vocês dois são claramente muito favoráveis ao código aberto. O Vitalik já contribuiu com muito código de código aberto licenciado pela MIT; embora eu saiba que depois tiveste algumas novas perspetivas sobre a GPL.

Agora, não só apoiam software de código aberto, como também estão a impulsionar hardware de código aberto. Embora no passado estes fossem áreas relativamente independentes, agora vemos que elas estão a convergir.

Por isso, tenho curiosidade sobre como vocês veem “pesos abertos” e “hardware de código aberto”. Existem algumas divergências entre E/acc e D/acc nesta matéria? Que perspetivas têm sobre o rumo do futuro? Existem opiniões diferentes?

Guillaume Verdon: Na minha perspetiva, o código aberto acelera o processo de pesquisa de hiperparâmetros. Permite-nos cooperar como um coletivo e explorar conjuntamente o espaço de conceção. Esta é precisamente uma das vantagens que a aceleração traz: podemos desenvolver tecnologias melhores, IAs mais poderosas e até usar IA para desenhar uma IA ainda mais avançada — e a velocidade de todo este processo está também a aumentar.

A difusão do conhecimento é, essencialmente, difundir poder, e é especialmente importante difundir o conhecimento de “como construir inteligência”. O que não queremos ver é algo semelhante ao que o governo dos EUA na última legislatura chegou a discutir: tentar “voltar a colocar o génio no frasco”. Embora não fosse uma proibição direta de álgebra linear, seria algo como restringir estudos matemáticos relacionados com IA. Para mim, isso seria como proibir as pessoas de aprenderem biologia — um retrocesso enorme.

O conhecimento já se espalhou; não dá para voltar atrás. Se os EUA tentarem proibir pesquisas sobre IA, outros países, organizações terceiras e até algumas regiões com leis mais flexíveis continuarão a avançar nessa tecnologia. Assim, a diferença de capacidades no mundo só se ampliaria e os riscos seriam maiores.

Portanto, pensamos que um dos maiores riscos é a “lacuna de capacidades”. A única forma de reduzir este risco é garantir que a IA seja descentralizada.

Sempre que ouço narrativas de “apocalipsismo da IA”, como “a IA é perigosa, só nós temos capacidade para geri-la, então confiem em nós”, eu fico muito cético. Mesmo que estas pessoas tenham boas intenções, se concentrarem demasiado poder, no fim poderão ser substituídas por aquelas que procuram poder. Avisámos durante muitos anos. E agora está a começar a acontecer. Foi como vimos esta semana: o Dario (CEO da Anthropic) está a receber lições políticas reais.

Vitalik Buterin: Eu costumo dividir os riscos que podem surgir no desenvolvimento tecnológico em dois tipos: risco unipolar e risco multipolar.

Risco unipolar é algo bem representado pelo caso da Anthropic. Eles foram “apontados” porque recusaram que a sua tecnologia de IA fosse usada para desenvolver armas totalmente automáticas ou para vigilância em massa dos cidadãos dos EUA. Isso mostra que o governo e o exército podem, de facto, querer usar estas tecnologias para vigilância em grande escala. O avanço adicional das tecnologias de vigilância terá impactos profundos: pode tornar os mais fortes ainda mais fortes, enfraquecer o espaço para vozes diversas na sociedade e comprimir a liberdade das pessoas comuns para explorar e experimentar alternativas. Além disso, à medida que a tecnologia progride, as capacidades de vigilância serão amplificadas de forma enorme, tornando-se cada vez mais invasivas.

No quadro do D/acc, estamos a apoiar alguns projetos de desenvolvimento de “tecnologias defensivas de código aberto”. Estas tecnologias têm como objetivo ajudar-nos num mundo em que as capacidades tecnológicas serão mais fortes, garantindo ainda assim a segurança e a privacidade de todos. Por exemplo, na área biomédica, queremos aumentar a capacidade global para lidar com pandemias. Eu acredito que podemos atingir um equilíbrio: tal como a China, controlar rapidamente e de forma eficaz a pandemia; e, como a Suécia, reduzir ao máximo as intervenções no quotidiano. Penso que este equilíbrio pode ser alcançado por meios tecnológicos, por exemplo combinando filtragem do ar, desinfeção por ultravioleta (UVC) e tecnologias de deteção de vírus.

Uma das empresas em que investimos está a desenvolver um produto de terminal totalmente de código aberto capaz de detetar passivamente partículas de vírus no ar, por exemplo vírus como o da Covid. Este dispositivo garante a privacidade dos dados monitorizando a qualidade do ar (por exemplo, concentração de dióxido de carbono, índice de qualidade do ar, etc.), combinando tecnologias de criptografia local, anonimização e privacidade diferencial. Os dados são então enviados ao servidor através de encriptação homomórfica total, permitindo que o servidor analise sem aceder diretamente aos dados originais e, através de uma decriptação coletiva, gere o resultado final.

O nosso objetivo é: melhorar a segurança e, ao mesmo tempo, proteger a privacidade do utilizador, enfrentando de forma eficaz riscos unipolares e multipolares. Acredito que esta colaboração global é a chave para construir um futuro melhor.

No hardware, eu penso que não precisamos apenas de impulsionar o desenvolvimento de hardware de código aberto; também precisamos de desenvolver hardware verificável. Por exemplo, no cenário ideal, cada câmara deveria ser capaz de provar ao público o seu propósito específico. Podemos garantir que estes dispositivos são usados apenas para fins legais, como detetar comportamento violento e emitir alertas, mas sem violar a privacidade individual, usando verificação por assinatura, análise baseada em grandes modelos de linguagem e mecanismos de inspeção pública.

No mundo futuro que imagino, podemos implementar uma grande quantidade de câmaras nas ruas para evitar incidentes de violência. Mas com a condição de que estes dispositivos sejam totalmente transparentes: o público deve conseguir verificar a qualquer momento as suas funções e garantir que são usados apenas para proteger a segurança pública, e não para vigilância ou outros fins inadequados.

Eddy Lazzarin: Código aberto em hardware e hardware verificável — estes conceitos pertencem ao âmbito do E/acc ou ao do D/acc? Podem apontar um ponto de divergência claro?

Guillaume Verdon: Não tenho certeza se no passado se falou com detalhe sobre hardware de código aberto, mas para mim um dos maiores riscos atuais é a diferença entre entidades centralizadas e entidades descentralizadas — ou seja, a diferença de capacidade entre indivíduos e governos ou grandes instituições.

Com os padrões atuais de capacidade de computação, executar um modelo de IA de alto desempenho consome centenas de quilowatts de recursos de computação, algo que a maioria das pessoas não consegue atingir. Ainda assim, as pessoas querem possuir e controlar as suas próprias ferramentas inteligentes — e isso explica porque é que recentemente o fenómeno “Openclaw + Mac mini” gerou tanto entusiasmo; as pessoas querem ter assistentes inteligentes próprios.

Para alcançar simetria de poder entre indivíduos e instituições centralizadas, a única via é realizar a “densificação da inteligência” (Densification of Intelligence). Precisamos desenvolver hardware de IA mais eficiente em termos energéticos para que indivíduos possam executar modelos poderosos através de dispositivos simples, permitindo-lhes ter as suas próprias ferramentas inteligentes. Isto é muito importante, especialmente quando, no futuro, os modelos de IA começarem a suportar aprendizagem online: eles ficarão cada vez mais “aderentes” (stickier), como trocar um assistente pessoal — será difícil.

Eddy Lazzarin: Mas não estamos já a reduzir exponencialmente o custo do hardware de computação? Por que é que uma ideia deve ser classificada como E/acc ou D/acc? O que é que queremos comunicar à sociedade com esta categorização?

Guillaume Verdon: Para mim, isto também é uma das missões centrais da minha empresa, a Extropic. O nosso trabalho é aumentar a quantidade de inteligência que pode ser produzida por cada watt de consumo de energia; isso vai aumentar significativamente o total de inteligência que podemos criar. E, além disso, este progresso também nos levará para uma escala de Kardashev mais elevada através do paradoxo de Jevons (Nota do profundidade TechFlow: paradoxo de Jevons, que diz que quando a eficiência de utilização de um recurso melhora muito, o custo de utilização desse recurso diminui; por consequência, as pessoas passam a utilizá-lo de forma mais desenfreada, e o consumo total não diminui — até pode aumentar). Em termos simples: se conseguirmos converter energia de forma mais eficiente em inteligência ou outros valores, a nossa procura de energia aumentará, impulsionando o progresso e a complexificação da civilização.

Por isso, acho que é um dos problemas tecnológicos mais importantes no presente, porque está diretamente relacionado com a descentralização do poder da IA. Hardware de código aberto é apenas uma das muitas formas de alcançar este objetivo. Ainda assim, a longo prazo, acredito que qualquer hardware baseado na arquitetura de Von Neumann (Nota do profundidade TechFlow: Arquitetura de Von Neumann, arquitectura da base dos computadores modernos, proposta em 1945 pelo matemático John von Neumann. A ideia central é o programa armazenado: armazenar instruções do programa e dados no mesmo armazenamento e executar por binário e sequencialmente), ou qualquer tecnologia digital moderna, acabará por se tornar obsoleta como as ferramentas das sociedades primitivas.

Eddy Lazzarin: Mas a capitalismo já não fez isto através de incentivos de mercado, investindo milhares de milhões de dólares todos os anos nessa área? Os investimentos em áreas como hardware alternativo, tecnologia de semicondutores e produção de energia não são justamente para promover a diversidade tecnológica?

Guillaume Verdon: Precisamos de mais escolhas diversificadas, e não depender excessivamente de uma direção tecnológica única. Quer se trate de políticas, cultura ou tecnologia, precisamos manter diversidade no espaço de design, e não deixar que todos os recursos sejam monopolizados por um monstro. Caso contrário, corremos o risco do que chamamos “aposta no espaço de hiperparâmetros”: se investirmos demasiado num determinado rumo tecnológico e esse rumo tiver um problema, isso pode causar um grande retrocesso no desenvolvimento tecnológico e até fazer todo o ecossistema colapsar.

Shaw Walters: Posso dizer que, na verdade, este problema já está resolvido? A visão de ambos sobre código aberto e descentralização é bastante consistente, e isso deixa-me muito otimista — é exatamente o que me interessa. Agora, muita gente está cheia de incerteza sobre o futuro e continua a perguntar: “Porque é que precisamos destas tecnologias?” O que torna a vossa perspetiva apelativa é que vocês estão a dizer “vai ficar tudo bem, porque este progresso já está embutido nos mecanismos”.

Guillaume Verdon: Eu acho que, quando nos confrontamos com um nível elevado de incerteza no desenvolvimento tecnológico futuro, a ansiedade é um fenómeno muito natural. Esta ansiedade não é exatamente “névoa de guerra” pura, mas torna-nos difícil prever claramente o que vai acontecer nos próximos anos. Na realidade, este sentimento de ansiedade é um instinto que evoluiu na humanidade para nos ajudar a lidar com riscos desconhecidos. Por exemplo: quando vejo um telemóvel na beira da mesa, eu penso instintivamente em movê-lo para um lugar mais seguro para ele não cair. Esta reação é expressão de ansiedade.

No entanto, precisamos de perceber que, se tentarmos eliminar completamente a incerteza e os riscos, poderemos perder o enorme potencial e as vantagens que o desenvolvimento tecnológico traz. Neste momento, o nosso sistema de capital tecnológico já atingiu um equilíbrio dinâmico com as capacidades existentes. Mas se surgir de repente uma capacidade tecnológica disruptiva, esse equilíbrio será quebrado e todo o sistema terá de se reajustar e adaptar.

Agora, a tecnologia de IA já nos permite lidar com uma complexidade maior com menos energia. Isto significa que conseguimos realizar tarefas mais desafiantes, com recompensas potenciais ainda maiores. Embora ainda não possamos completar rapidamente um projeto complexo através de “vibe coding”, estamos a avançar nessa direção. No futuro, poderemos usar tecnologias mais eficientes para responder às necessidades de mais pessoas e ao mesmo tempo melhorar a qualidade de vida humana.

Claro que pode haver um período de desadaptação. Mas, num ambiente de mudanças rápidas, o pior cenário é perder flexibilidade e tornar-se rígido. Para evitar isso, precisamos de estratégias de hedge (cobertura), tentar múltiplos caminhos possíveis. Temos de explorar diferentes trajetórias de políticas, trajetórias tecnológicas e algoritmos, testar padrões de código aberto e fechados, porque não conseguimos prever com precisão para onde o futuro vai.

Por isso, temos de dispersar os riscos e tentar múltiplas possibilidades. No fim, algumas direções tecnológicas ou políticas bem-sucedidas acabarão por emergir como dominantes, e nós seguiremos o caminho.

Eddy Lazzarin: Se entre E/acc e D/acc existir, de facto, divergência, a minha compreensão é que isso pode estar relacionado com a forma como o progresso tecnológico é orientado. Vitalik, na tua opinião, como é que o progresso tecnológico deve ser orientado? E quanta capacidade de controlo temos, afinal, sobre esse processo de orientação?

Vitalik Buterin: Na minha perspetiva, o objetivo do D/acc não é combater a maré do capitalismo tecnológico; é tentar orientar ativamente essa maré para uma direção mais pluralista e descentralizada. Por exemplo, podemos pensar como tornar o mundo mais recetivo ao pluralismo. Conseguimos melhorar significativamente os níveis de biossegurança em poucos anos? Ou desenvolver um sistema operativo praticamente sem vulnerabilidades, para aumentar de forma substancial a cibersegurança?

Outro exemplo: a ideia de “código sem vulnerabilidades”. Nas últimas duas décadas, este conceito tem sido considerado uma fantasia ingénua. Mas eu acredito que ele vai tornar-se realidade a um ritmo mais rápido do que a maioria das pessoas espera. No contexto dos projetos da Ethereum, já conseguimos provar com máquinas alguns teoremas matemáticos completos.

No geral, o objetivo do D/acc é garantir que o desenvolvimento rápido da tecnologia aconteça com o mínimo de destruição e mínima concentração de poder. Para atingir este objetivo, precisamos de agir de forma proativa, em vez de esperar passivamente que os bons resultados aconteçam por si. O que eu posso fazer é investir recursos — por exemplo, dinheiro e ETH — e incentivar mais pessoas a participar na construção, partilhando as minhas perspetivas.

Além disso, eu acredito que reformas políticas e legais também podem tornar o mundo mais “amigo do D/acc”. Por exemplo, podemos desenhar mecanismos de incentivos legais para promover uma transição mais rápida e completa para cibersegurança.

Guillaume Verdon: Na minha perspetiva, a IA pode ser vista como um “Demónio de Maxwell” que reduz a entropia do mundo através do consumo de energia. Quer seja corrigir erros no código, quer seja reduzir outras formas de desordem (como prevenir a propagação de vírus), a IA pode desempenhar um papel nisso. Por isso, podemos chegar a um consenso: mais IA é benéfico e também torna o mundo mais seguro. Na prática, as capacidades da IA conseguem melhorar significativamente a nossa segurança.

A IA deve abrandar?

Guillaume Verdon: Acho que já entrámos na parte mais central desta conversa desta noite. As pessoas foram muito pacientes connosco e agora é hora de ir diretamente ao ponto. Quero fazer uma pergunta afiada: por que é que apoias proibir o desenvolvimento de data centers?

Vitalik Buterin: Vou responder a essa pergunta. Primeiro, temos de reconhecer que, de facto, o ritmo em que a IA se desenvolve é muito rápido atualmente, e eu não consigo determiná-lo com total precisão. Alguns anos atrás, eu disse que a minha previsão sobre quando a AGI seria alcançada estaria entre 2028 e 2200; hoje, acho que o intervalo pode já ter diminuído um pouco, mas ainda há uma enorme incerteza.

Uma realidade que enfrentamos é que o rápido desenvolvimento da IA pode trazer mudanças extremamente rápidas, e muitas dessas mudanças podem ser destrutivas, até irreversíveis. Por exemplo, o mercado de trabalho pode sofrer uma transformação drástica, levando muitas pessoas ao desemprego. Outro exemplo ainda mais extremo: se as capacidades da IA estiverem muito acima das humanas, ela pode acabar por assumir progressivamente a Terra e até expandir-se para outras partes da galáxia. Nesse cenário, a IA se preocuparia com o bem-estar dos humanos? Isto continua a ser uma incógnita.

Como mencionei antes: se tiveres uma rede neuronal e definires de forma arbitrária o valor de um dos pesos para um valor extremo (como 9 mil milhões), muito provavelmente o sistema colapsará, certo? Por isso, acredito que há duas direções diferentes para a aceleração tecnológica. Uma aceleração é um processo tipo “descida do gradiente”, que torna o sistema cada vez mais forte. Mas outra aceleração pode levar a perda de controlo do sistema, tal como quando defines arbitrariamente um parâmetro para um valor extremo; essa aceleração é perigosa.

Guillaume Verdon: Do meu ponto de vista, a minha posição é precisamente o oposto de uma posição de “desaceleração total”.

Mas eu acho que, tal como ajustar hiperparâmetros em redes neurais, mesmo quando queremos otimizar através de “descida do gradiente”, precisamos de encontrar uma “taxa de aprendizagem” adequada. O processo de aceleração, na verdade, é tentar e explorar continuamente, encontrando a melhor velocidade — uma que torne o sistema mais duradouro e mais resistente a riscos.

A longo prazo, os sistemas sociais vão-se adaptando gradualmente à nova tecnologia e, no fim, selecionarão a via mais favorável ao conjunto. Quanto às opiniões de que “esta tecnologia é demasiado forte e disruptiva, pode causar um colapso do sistema do qual não se recupera”, eu acho que não se sustentam. Pelo contrário, acredito que o avanço da tecnologia trará mais oportunidades e mais prosperidade.

Precisamos reconhecer que o desenvolvimento tecnológico não é um jogo de soma zero. Se ligarmos o valor económico à energia, por exemplo a dólares do petróleo ou a outras formas de recursos, então dinheiro pode ser entendido como uma “promissória de energia livre”. Há muita energia livre à nossa espera para ser desenvolvida, mas para a obter precisamos resolver muitos problemas complexos. Se quisermos objetivos como colonizar Marte ou construir uma esfera de Dyson, precisamos de inteligência mais eficiente e mais poderosa para impulsionar o crescimento e desbloquear um potencial enorme.

Infelizmente, a ansiedade pode ser usada facilmente como ferramenta política por algumas pessoas. Alguns políticos podem usar o medo do futuro para obter poder. Eles dirão: “Estás inquieto com o futuro? Entrega-me o poder que eu desligo as fontes de risco e tu vais sentir-te em segurança. Não tens de te preocupar com o que vai acontecer no futuro, nem tens de arriscar.” Mas aqueles países que não escolherem isso vão ficar muito à nossa frente, certo?

Precisamos considerar custos de oportunidade. Temos de nos perguntar: com a tecnologia, quantas pessoas conseguimos apoiar para sobreviver? Quantas vidas conseguimos salvar? Se te preocupa “a evolução da inteligência baseada em silício ser mais rápida do que nós”, então a tua reação deve ser raiva. Deves apoiar a aceleração do desenvolvimento em biotecnologia, esforçando-te por ultrapassá-la. Ou aceleras, ou pereces.

Na prática, eu acho que a capacidade computacional dos sistemas biológicos é mais forte do que pensamos. Como alguém dedicado à investigação de computação biomimética, acredito que podemos combinar biologia e IA. Por exemplo, podemos “treinar” a nós próprios por métodos como seleção de embriões, considerando-nos um modelo. Acredito que precisamos estar mais abertos a possibilidades de aceleração na biologia. No fim, a inteligência biológica e a inteligência baseada em silício acabarão por se fundir e reforçar ainda mais a nossa capacidade cognitiva.

No futuro, talvez tenhamos agentes de IA permanentemente online que nos ajudem a observar o mundo e a aprender em tempo real, tornando-se uma extensão cognitiva personalizada. O risco real está em tudo isso poder ser controlado por uma instituição de poder centralizada, acabando por formar um monopólio de poder.

Eddy Lazzarin: Lembro-me do teu texto no blog sobre D/acc em que mencionaste que o custo de oportunidade é muito alto, até que “é difícil exagerar”. Por isso, sei que estás de acordo com isso. Queres acrescentar algumas condições?

Vitalik Buterin: Sim, concordo totalmente que o custo de oportunidade é muito alto, e também concordo com esse futuro ideal que foi descrito agora. Mas eu acho que a nossa principal divergência é: eu realmente não considero que “os humanos de hoje e a Terra” têm resiliência suficiente. Eu acho que talvez tenhamos apenas uma oportunidade para concretizar o caminho certo para o desenvolvimento tecnológico — e isso tem sido uma realidade que fomos construindo gradualmente ao longo do último século.

Guillaume Verdon: Voltando ao que referi antes sobre termodinâmica: se tratarmos a continuidade e o crescimento da civilização como objetivo final, há uma lei: assim que gastamos muita energia livre para criar alguma “evidência” e para tornar todo o sistema mais complexo, este progresso torna-se difícil de reverter.

Dito de outra forma: quanto mais longe vamos na escala de Kardashev, menor é a possibilidade de um retorno completo. Por isso, o desenvolvimento acelerado é, na verdade, a melhor forma de maximizar a continuidade da civilização humana. Na minha perspetiva, abrandar o desenvolvimento tecnológico aumentaria o risco de extinção. Se não desenvolvermos estas tecnologias, e se não resolvermos os problemas atuais, podemos enfrentar uma crise de sobrevivência; mas se impulsionarmos o progresso tecnológico, poderemos encontrar soluções para garantir a continuidade da humanidade e continuar a evoluir.

Acredito que as pessoas devem

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários