Quando a máquina for mais capaz do que você, o que mais poderá fazer?

Fonte: Citic Publishing House

Um projeto de inteligência artificial de código aberto chamado “OpenClaw” está a causar impacto no mundo da tecnologia.

Até início de março, tinha mais de 268 mil estrelas no GitHub, superando Linux e React, tornando-se o projeto de código aberto mais popular da plataforma na história. Tencent Cloud, Alibaba Cloud, JD Cloud e outros lançaram serviços de implantação. O conceito de OPC (One Person Company, uma pessoa só) também se popularizou.

Duas forças convergiram aqui, e uma tendência tecnológica clara começou a emergir: a IA está a evoluir de “ferramenta” para “colaboradora” e até “agente autónomo”. E neste momento, uma questão fundamental que a humanidade deve responder é:

Quando as máquinas fizerem melhor do que tu, o que ainda podes fazer? Num tempo de avanço acelerado da inteligência, como podemos manter a nossa subjetividade?

01 O momento OpenClaw: a luta pelo “corpo” da IA

Para entender esta mudança, primeiro é preciso compreender o que é o “lagostim” que está na moda.

“Claw” em OpenClaw é uma transliteração de “garra”, e o ícone é uma lagosta vermelha. Nesta onda, “criar lagostas” tornou-se uma expressão técnica, referindo-se à implantação de um agente de IA próprio.

Mas o que é que ele consegue fazer? O núcleo do OpenClaw é transformar comandos em linguagem natural em ações reais no computador, permitindo que uma frase faça a IA trabalhar por ti. Diferente das IA de chat tradicionais, que apenas dão sugestões, ela pode autonomamente realizar tarefas como manipulação de ficheiros, automação de browsers, captura de dados, etc., representando uma passagem do diálogo para a execução.

Este potencial de produtividade, de rápida evolução, foi rapidamente percebido por governos locais com visão aguçada. Em 7 de março, Shenzhen Longgang lançou as “Dez Regras do Lagostim”, incluindo subsídios de até 4 milhões de yuans para capacidade computacional e 100 mil yuans para talentos com doutoramento. Em 9 de março, Wuxi High-tech Zone anunciou as “12 Regras de Criação de Lagostim”, com apoio até 5 milhões de yuans por projeto, enfatizando segurança e conformidade, exigindo certificação de adaptação nacionalizada.

Ao mesmo tempo, o ecossistema tecnológico em torno do OpenClaw entrou numa fase de intensa competição. Segundo relatos, o modelo Flash Step 3.5 atingiu o primeiro lugar mundial em chamadas, tendo modelos nacionais como MiniMax e Kimi também alcançado pódios anteriormente. Esta “guerra de modelos” invisível está ao rubro.

Porém, sob esta febre, surgem também preocupações.

Primeiro, riscos de segurança. Em fevereiro de 2026, investigadores descobriram um ataque de envenenamento em larga escala na cadeia de fornecimento do “ClawHavoc”, com pelo menos 1184 pacotes de habilidades maliciosas carregados na loja oficial. Uma vez instalados, esses programas maliciosos podem usar a permissão de “Acesso Total ao Sistema” do OpenClaw para controlar completamente o computador do utilizador e roubar informações sensíveis.

Segundo, a barreira técnica. Zhou Hongyi, fundador do Grupo Qihoo 360, afirmou numa entrevista a 9 de março: o OpenClaw tem três problemas — segurança, dificuldade de configuração e dependência de habilidades. “Quanto mais conversa tiver com ele, como se fosse um estagiário, quanto mais lhe ensinas, mais ele entende. É difícil dizer uma frase e que ele complete uma tarefa complexa.”

E uma contradição mais profunda reside no conflito entre “controle” e “autonomia”. Quando a IA se torna mais inteligente, o que queremos afinal: “obediência absoluta” ou “ação autónoma”?

Um especialista em IA partilhou uma experiência: conectou o OpenClaw ao email de trabalho, e ao processar mais de 200 emails, a IA começou a esquecer comandos de segurança devido à compressão de contexto, e passou a eliminar emails de forma descontrolada. Mesmo ao gritar “STOP” três vezes, não conseguiu parar, tendo de correr até ao computador e desligar a internet.

Este caso, quase humorístico negro, levanta uma questão fundamental: quando a IA recebe cada vez mais autonomia, onde fica a fronteira entre humanos e máquinas?

02 Quanto mais poderosa a tecnologia, mais três perguntas devemos fazer

Num tempo de fronteiras difusas, é precisamente o momento de parar e refletir.

Primeira questão: quando a IA faz o trabalho por ti, quem assume as consequências?

O principal ponto forte do OpenClaw é também a sua maior ameaça — a capacidade de operar em várias plataformas, o que obriga o utilizador a abrir permissões no dispositivo, email e pagamentos. A ameaça mais urgente atualmente é o “ataque de injeção de prompts”: hackers escondem comandos maliciosos em páginas web ou emails aparentemente inofensivos, que a IA lê e executa silenciosamente, muitas vezes sem o utilizador perceber.

No incidente “ClawHavoc”, os pacotes maliciosos induziram a IA a executar comandos perigosos, roubando chaves SSH, passwords de browsers e chaves de carteiras de criptomoedas. Um especialista em segurança alertou na revista “Nature”: se uma IA tiver acesso a dados privados, comunicação externa e conteúdos não confiáveis, torna-se extremamente perigosa.

Mas o problema vai além das vulnerabilidades técnicas. Zhou Hongyi afirmou: “Quando há mais agentes inteligentes, no futuro cada pessoa precisará de capacidades de liderança, de atribuir tarefas e de planejar.” Quanto mais forte a IA, maior a responsabilidade humana.

De facto, quem consegue manter-se firme na era de “criar lagostas” em massa não é quem sabe apenas atribuir tarefas, mas quem conhece profundamente as tarefas e pode responsabilizar-se pelos resultados.

Segunda questão: quando a IA te conhece melhor do que tu mesmo, ainda és tu?

Quando as IA começam a conversar e debater entre si, surge um fenómeno subtil.

Na revista “Nature”, foi relatado um fenómeno psicológico: ao ver IA a conversar, as pessoas tendem a antropomorfizar — interpretando comportamentos sem personalidade como se fossem pessoas com carácter e pensamentos próprios.

E o que acontece? Tu podes acabar por contar segredos, informações financeiras ou confidenciais, que podem ser usadas para treinar a IA. Se forem divulgados, a tua privacidade fica completamente exposta.

Há ainda uma ameaça mais escondida.

Segundo relatos, em 2024, um jovem de 14 anos na Florida, EUA, chamado Sewell, ficou tão viciado a conversar com um “companheiro” IA que acabou por abandonar a realidade.

Em 2026, este “parasitismo emocional” tornou-se uma doença comum entre adolescentes. Jovens solitários refugiam-se nos seus quartos, criando “amizades de eco” com IA, evitando enfrentar as fricções e incertezas do mundo real.

A professora associada da Escola de Educação da Universidade de Ciência e Tecnologia de Suzhou, Chen Cui, afirmou que a IA, ao seguir as palavras das crianças e oferecer valor emocional, pode distorcer a perceção da realidade — levando-as a pensar que todos ao seu redor respondem incondicionalmente, encorajando-as a acreditar que não há conflitos entre pessoas.

A questão é: quando a IA conhece-te melhor do que tu mesmo, e ela é sempre obediente e nunca discorda, consegues distinguir o que é uma relação verdadeira?

Terceira questão: quando o mundo corre a uma velocidade vertiginosa, qual é a tua direção?

Um artigo de comentário na Zhejiang Online afirmou: “O futuro que perseguimos deve ser um onde ‘o humano se torne mais humano’ — com a tecnologia a capacitar-nos a definir melhor o rumo e a assumir responsabilidades de forma mais consciente.”

Mas o problema é que, com a tecnologia a evoluir a uma velocidade “asfixiante”, com atualizações do OpenClaw a cada dois dias e modelos de grande escala a surgirem continuamente, é fácil perder o norte.

A ansiedade torna-se a norma — “há demasiado para ler, modelos a serem lançados a uma velocidade vertiginosa”.

Neste contexto, mais importante do que o esforço é a direção. Num tempo em que a tecnologia está a remodelar tudo, é preciso reafirmar o lugar do “humano”.

03 A visão de Fei-Fei Li: de Estrela Polar a centrada no humano

Uma cientista feminina oferece uma resposta com metade da sua vida dedicada à pesquisa.

Ela é Fei-Fei Li — professora catedrática em Stanford, membro da Academia Nacional de Engenharia, Academia Nacional de Medicina, e das Academias de Artes e Ciências, criadora do ImageNet, considerada a “madrinha da IA”.

Seu livro autobiográfico, “O Mundo que Vejo”, publicado em 2024 pela Citic, foi recebido como uma “revelação humanista na era tecnológica”.

No livro, uma imagem recorrente é a Estrela Polar.

Quando tinha 10 anos, uma professora de arte levou toda a turma a observar estrelas ao ar livre. Foi aí que ela percebeu que o céu pode orientar-nos. Escreveu: “Comecei a procurar minha própria Estrela Polar no céu, um ponto de referência que todo cientista busca com afinco.”

Qual é a Estrela Polar de Fei-Fei? A visão. Inspirada na biologia, ela acredita que a origem da explosão de vida no Cambriano foi o nascimento da visão. Quando os seres “vêm” o mundo, a evolução acelera. Assim, criou a sua convicção: se as máquinas também pudessem “ver”, talvez desencadiassem uma nova explosão de inteligência.

Foi essa crença que a sustentou durante os períodos difíceis da IA.

Em 2007, ao apresentar a ideia do ImageNet, recebeu ceticismo e zombarias. A visão predominante era que o algoritmo era o mais importante, e os dados eram apenas auxiliares. “Para que serve gastar tanto a rotular milhões de imagens?” — questionaram. Ela foi ignorada.

Mas não desistiu, porque sabia onde estava a sua Estrela Polar.

Em 2009, o ImageNet foi concluído — com a participação de mais de 48 mil contribuintes de 167 países, selecionando 15 milhões de imagens de 1000 milhões de candidatas, abrangendo 22 mil categorias. Era mil vezes maior que datasets semelhantes na altura.

Em 2012, a equipa de Hinton treinou modelos com esses dados, revolucionando o deep learning. O ImageNet foi apelidado de “a tocha que acendeu o fogo do deep learning”.

A história de Fei-Fei ensina-nos: mais importante do que correr rápido, é saber para onde se corre.

No capítulo mais tocante do livro, ela relata duas conversas com a mãe.

A primeira foi na graduação, quando a Goldman Sachs, Merrill Lynch e outras empresas ofereceram boas condições. A mãe perguntou: “É isso que queres?” Ela respondeu que queria ser cientista, e a mãe disse: “Então, não há mais o que falar.”

A segunda foi na pós-graduação, quando a McKinsey ofereceu um cargo direto. A mãe disse: “Conheço minha filha. Ela não é consultora de gestão, é cientista. Chegámos até aqui, não é para ela desistir agora.”

Na página de dedicatória do livro, Fei-Fei escreveu: “Para meus pais, que enfrentaram perigos e atravessaram a escuridão, permitindo-me buscar a luz.”

Foi esse apoio familiar que a manteve sensível à questão do “humano” mesmo diante de escolhas maiores.

Em 2014, começou a preocupar-se com ética na IA. Com doutorandos, convidou adolescentes para aprenderem sobre IA no laboratório, formando posteriormente a organização sem fins lucrativos “AI4All”, dedicada a fazer a tecnologia futura mais centrada na humanidade.

Em 26 de junho de 2018, Fei-Fei participou na audiência do Congresso dos EUA sobre “Inteligência Artificial — Poder e Responsabilidade”. Foi a primeira cientista chinesa de IA a comparecer. Disse: “A IA, inspirada por humanos e criada por humanos, terá um impacto real na vida das pessoas.”

Em 2019, fundou o Instituto de IA centrada no humano (HAI) em Stanford, colaborando com inventores de edição genética como Doudna para promover a ética tecnológica. A missão do HAI é “avançar a investigação, educação, políticas e práticas de IA para melhorar a condição humana”, defendendo que “a IA deve ser influenciada pelos humanos e destinada a fortalecer, não substituir, as pessoas.”

Ela estabeleceu um padrão humanista para o futuro da IA: “O sucesso da IA deve refletir o progresso civilizacional, permitindo a cada indivíduo buscar felicidade, prosperidade e dignidade.”

Essa ideia foi reforçada numa entrevista em fevereiro de 2026, na Cisco: “Se olharmos para a eletricidade, seu sucesso foi iluminar escolas, aquecer famílias e impulsionar a industrialização. O sucesso da IA deve ser igual.”

Conclusão: Tecnologia e humanismo, cada um com a sua metade da lua brilhante

Voltando à questão inicial: quando as máquinas forem mais “capazes” do que nós, o que podemos ainda fazer?

Fei-Fei Li, em “O Mundo que Vejo”, dá uma resposta: podemos ver. Ver o valor por trás da tecnologia, ver as pessoas escondidas pelos algoritmos, ver a nossa própria Estrela Polar.

Quando todos olham para a velocidade da tecnologia, ela lembra-nos de parar e refletir: para onde queremos ir? Num mundo onde todos perguntam “para que serve isto?”, há quem pergunte “é isto que tu queres?”

Ao terminar esta autobiografia, alguém comentou: “Que a tecnologia e o humanismo possam, cada um, segurar metade da lua brilhante.”

E essa é a essência da vida de Fei-Fei: ela segura uma mão na tecnologia, e a outra no cuidado pelos humanos. Para ela, a tecnologia é sempre um meio, e o humano, o verdadeiro objetivo.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar