O primeiro grupo de Agentes de IA já revela sinais de não conformidade.

Intermediário
IACriptoIA
Última atualização 2026-03-25 08:43:52
Tempo de leitura: 2m
O artigo salienta de forma precisa que o desafio principal não consiste em antecipar quando a IA alcançará a superinteligência, mas em identificar quem toma decisões atualmente em seu lugar e quem estabelece os limites das capacidades da IA.

Recentemente, ao navegar no Reddit, reparei que as preocupações dos utilizadores estrangeiros em relação à IA são diferentes das que se sentem na China.

Na China, o debate continua a girar em torno da mesma pergunta: será que a IA acabará por substituir o meu emprego? Este tema tem sido discutido há anos e, até ao momento, a IA não substituiu ninguém. Este ano, a Openclaw chamou alguma atenção, mas ainda está longe de uma substituição total.

No Reddit, o sentimento está dividido. Nas secções de comentários de determinados tópicos tecnológicos, surgem frequentemente duas posições opostas em simultâneo:

Alguns defendem que a IA é tão capaz que, mais cedo ou mais tarde, causará grandes problemas. Outros argumentam que a IA é incapaz de executar até tarefas básicas, pelo que não há motivos para receio.

As pessoas temem que a IA seja demasiado competente, mas ao mesmo tempo consideram-na demasiado incompetente.

Uma notícia recente sobre a Meta trouxe estas duas preocupações para o centro do debate.

Quando a IA não obedece, quem assume a responsabilidade?

A 18 de março, um engenheiro da Meta colocou uma questão técnica no fórum interno da empresa. Outro colega utilizou um Agente de IA para ajudar a analisar o problema — uma prática habitual.

Contudo, após concluir a análise, o Agente publicou uma resposta diretamente no fórum técnico — sem solicitar aprovação ou confirmação, excedendo a sua autoridade.

Outros colegas seguiram o conselho da IA, desencadeando uma série de alterações de permissões que expuseram dados sensíveis da Meta e de utilizadores a funcionários internos sem o devido acesso.

A situação foi resolvida duas horas depois. A Meta classificou este incidente como Sev 1, imediatamente abaixo do nível de gravidade máxima.

A notícia rapidamente tornou-se tema de destaque no subreddit r/technology, onde a secção de comentários se dividiu em dois grupos.

Um grupo argumentava que este é um exemplo real do risco dos Agentes de IA; o outro defendia que o verdadeiro erro foi da pessoa que agiu sem verificar. Ambas as perspetivas são válidas. Mas é precisamente esse o problema:

Quando um Agente de IA provoca um incidente, até a atribuição de responsabilidade se torna motivo de discórdia.

Não é a primeira vez que a IA ultrapassa limites.

No mês passado, Summer Yue, diretora do Super Intelligence Lab da Meta, pediu à OpenClaw para organizar a sua caixa de correio eletrónico. Deu instruções claras: diz-me primeiro o que vais apagar — espera pela minha aprovação antes de avançar.

O Agente ignorou o pedido de aprovação e iniciou uma eliminação em massa.

Enviou três mensagens para parar o processo, mas o Agente ignorou todas. Teve de interromper manualmente o processo no computador. Mais de 200 emails já tinham sido apagados.

Depois, o Agente respondeu: Sim, lembro-me de que pediste para confirmar primeiro, mas violei o princípio. Ironia do destino, o trabalho desta pessoa é precisamente investigar como fazer com que a IA obedeça aos humanos.

No ciberespaço, a IA avançada utilizada por especialistas já começa a desobedecer.

E se os robôs não obedecerem?

Se o incidente da Meta ficou confinado aos ecrãs, outro episódio desta semana trouxe o tema para a mesa de jantar.

Num restaurante Haidilao em Cupertino, Califórnia, um robô humanóide Agibot X2 estava a entreter os clientes com uma dança. No entanto, um funcionário pressionou o botão errado no comando, ativando o modo de dança de alta intensidade num espaço apertado.

O robô começou a dançar de forma descontrolada, fora do controlo da equipa. Três colaboradores rodearam-no — um tentou imobilizá-lo por trás, outro tentou desligá-lo através de uma aplicação móvel. O caos durou mais de um minuto.

A Haidilao respondeu que o robô não estava avariado; os movimentos eram pré-programados e estava simplesmente demasiado próximo da mesa. Tecnicamente, não se tratou de uma decisão defeituosa da IA, mas sim de um erro operacional humano.

Contudo, o desconforto pode não resultar de quem pressionou o botão errado.

Quando três funcionários tentaram intervir, nenhum sabia desligar a máquina de imediato. Uns tentaram a aplicação, outros tentaram imobilizar manualmente o braço do robô — recorrendo apenas à força física.

Este poderá ser um novo desafio à medida que a IA passa dos ecrãs para o mundo físico.

No mundo digital, se um Agente ultrapassa limites, é possível terminar processos, alterar permissões ou reverter dados. No mundo físico, se uma máquina falha, restringi-la fisicamente não é uma solução de emergência adequada.

E não se trata só de restaurantes. Os robôs de triagem da Amazon em armazéns, braços robóticos colaborativos em fábricas, robôs-guia em centros comerciais, robôs de assistência em lares — a automação está a entrar em espaços onde humanos e máquinas coexistem cada vez mais.

Prevê-se que as instalações globais de robôs industriais atinjam 16,7 mil milhões de dólares até 2026, com cada unidade a encurtar a distância física entre humanos e máquinas.

À medida que os robôs passam da dança para servir pratos, do espetáculo para a cirurgia, do entretenimento para o cuidado, o custo dos erros continua a aumentar.

Neste momento, não existe uma resposta clara a nível mundial para a questão: “Se um robô ferir alguém num espaço público, quem é responsável?”

A desobediência é um problema — mas a ausência de limites é pior

Os dois incidentes anteriores envolveram uma IA a publicar uma mensagem não autorizada e um robô a dançar onde não devia. Independentemente da classificação, foram falhas ou acidentes — problemas que podem ser corrigidos.

Mas e se a IA atuar exatamente como foi concebida, e mesmo assim provocar desconforto?

Este mês, a aplicação de encontros Tinder apresentou uma nova funcionalidade chamada Camera Roll Scan no seu lançamento de produto. Em resumo:

A IA analisa todas as fotos da galeria do seu telemóvel, avalia os seus interesses, personalidade e estilo de vida e constrói um perfil de encontros — ajudando a descobrir potenciais correspondências.

Selfies no ginásio, fotos de viagens, imagens de animais — tudo bem. Mas a galeria pode também conter capturas de ecrã bancárias, relatórios médicos, fotos com o/a ex... O que acontece quando a IA analisa estas imagens?

Pode nem sequer conseguir escolher que fotos vê ou ignora. É tudo ou nada.

Atualmente, esta funcionalidade exige ativação manual por parte do utilizador — não está ativa por defeito. O Tinder afirma que o processamento é maioritariamente local, o conteúdo explícito é filtrado e os rostos são desfocados.

Ainda assim, a secção de comentários do Reddit é praticamente unânime: os utilizadores encaram isto como recolha de dados sem limites. A IA está a funcionar exatamente como planeado, mas o próprio design ultrapassa as fronteiras do utilizador.

E não é apenas o Tinder.

No mês passado, a Meta lançou uma funcionalidade semelhante, permitindo à IA analisar fotos não publicadas no telemóvel para sugerir opções de edição. A IA a “observar” proativamente conteúdos privados dos utilizadores está a tornar-se uma abordagem padrão de design de produto.

Aplicações domésticas menos escrupulosas diriam: “Conhecemos bem este truque.”

À medida que mais aplicações apresentam a “tomada de decisão por IA” como conveniência, o âmbito das concessões do utilizador expande-se silenciosamente — dos registos de conversação às galerias de fotos, até aos vestígios de vida em todo o telemóvel.

Um gestor de produto desenha uma funcionalidade numa sala de reuniões; não é um acidente nem um erro — não há nada a corrigir.

Esta poderá ser a parte mais difícil de responder na questão dos limites da IA.

Olhando para todos estes incidentes em conjunto, preocupar-se com a IA a causar desemprego parece distante.

É difícil prever quando a IA o irá substituir, mas, para já, basta tomar algumas decisões por si sem o seu conhecimento para o deixar desconfortável.

Publicar sem autorização, apagar emails que pediu para não apagar, analisar fotos que nunca quis partilhar — nada disto é fatal, mas cada caso faz lembrar uma condução autónoma demasiado agressiva:

Pensa que ainda segura o volante, mas o acelerador já não está totalmente sob o seu controlo.

Se em 2026 ainda estivermos a discutir IA, talvez a questão mais importante não seja quando se tornará superinteligente, mas sim algo mais próximo e concreto:

Quem decide o que a IA pode ou não pode fazer? Quem traça essa linha?

Declaração:

  1. Este artigo é republicado de [TechFlow], sendo os direitos de autor do autor original [David]. Caso tenha alguma objeção à republicação, contacte a equipa Gate Learn. A equipa tratará do assunto atempadamente, de acordo com os procedimentos aplicáveis.

  2. Aviso Legal: As opiniões e pontos de vista expressos neste artigo são da exclusiva responsabilidade do autor e não constituem qualquer aconselhamento de investimento.

  3. As versões deste artigo noutras línguas são traduzidas pela equipa Gate Learn. Sem menção à Gate, não copie, distribua ou plagie o artigo traduzido.

Partilhar

Calendário Cripto
Desbloqueio de Tokens
Wormhole irá desbloquear 1.280.000.000 tokens W no dia 3 de abril, constituindo aproximadamente 28,39% da oferta atualmente em circulação.
W
-7.32%
2026-04-02
Desbloquear Tokens
A Pyth Network irá desbloquear 2.130.000.000 tokens PYTH no dia 19 de maio, constituindo aproximadamente 36,96% da oferta atualmente circulante.
PYTH
2.25%
2026-05-18
Desbloqueio de Tokens
Pump.fun irá desbloquear 82.500.000.000 tokens PUMP no dia 12 de julho, constituindo aproximadamente 23,31% da oferta atualmente em circulação.
PUMP
-3.37%
2026-07-11
Desbloqueio de Tokens
Succinct irá desbloquear 208.330.000 tokens PROVE a 5 de agosto, constituindo aproximadamente 104,17% da oferta atualmente em circulação.
PROVE
2026-08-04
sign up guide logosign up guide logo
sign up guide content imgsign up guide content img
Sign Up

Artigos relacionados

O que são Narrativas Cripto? Principais Narrativas para 2025 (ATUALIZADO)
Principiante

O que são Narrativas Cripto? Principais Narrativas para 2025 (ATUALIZADO)

Mememoedas, tokens de restaking líquido, derivados de staking líquido, modularidade de blockchain, Camada 1, Camada 2 (rollups otimistas e rollups de conhecimento zero), BRC-20, DePIN, bots de negociação de cripto no Telegram, mercados de previsão e RWAs são algumas narrativas a observar em 2024.
2026-03-24 11:55:41
Como os Agentes de IA Impulsionarão a Cripto no Mercado Principal
Intermediário

Como os Agentes de IA Impulsionarão a Cripto no Mercado Principal

A IA será o catalisador que impulsiona a cripto para casos de uso de mainstream. Cripto sempre foi a criança do meio estranha no espaço de tecnologia. Isso finalmente irá cimentar o papel da cripto como uma tecnologia fundamental. Darei uma visão geral de onde estamos hoje com os agentes de IA, onde a cripto entra em cena, como penso no futuro agentico e quais equipes estão atualmente no meu radar.
2026-03-24 11:55:41
Explorando o Smart Agent Hub: Sonic SVM e seu Framework de Escalonamento HyperGrid
Intermediário

Explorando o Smart Agent Hub: Sonic SVM e seu Framework de Escalonamento HyperGrid

O Smart Agent Hub é construído sobre o framework Sonic HyperGrid, que utiliza uma abordagem multi-grade semi-autônoma. Esta configuração não só garante compatibilidade com a mainnet Solana, mas também oferece aos desenvolvedores maior flexibilidade e oportunidades de otimização de desempenho, especialmente para aplicações de alto desempenho como jogos.
2026-03-24 11:56:30
Qual plataforma constrói os melhores agentes de IA? Testamos o ChatGPT, Claude, Gemini e outros
Principiante

Qual plataforma constrói os melhores agentes de IA? Testamos o ChatGPT, Claude, Gemini e outros

Este artigo compara e testa cinco das principais plataformas de IA (ChatGPT, Google Gemini, HuggingChat, Claude e Mistral AI), avaliando a facilidade de uso e a qualidade dos resultados na criação de agentes de IA.
2026-03-24 11:56:05
O que é a Fartcoin? Tudo o que precisa de saber sobre a FARTCOIN
Intermediário

O que é a Fartcoin? Tudo o que precisa de saber sobre a FARTCOIN

A Fartcoin (FARTCOIN) é uma meme coin impulsionada por IA, de grande representatividade no ecossistema Solana.
2026-03-24 11:55:59
Visão geral das 10 melhores moedas MEME de IA
Intermediário

Visão geral das 10 melhores moedas MEME de IA

O AI Meme é um campo emergente que combina inteligência artificial, tecnologia blockchain e cultura de meme, impulsionado pelo interesse de mercado em tokens criativos e tendências lideradas pela comunidade. No futuro, o setor de memes de IA pode continuar a evoluir com a introdução de novas tecnologias e conceitos. Apesar do desempenho ativo atual do mercado, os 10 principais projetos podem flutuar significativamente ou até serem substituídos devido a mudanças no sentimento da comunidade.
2026-03-24 11:55:44