Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
Quando a máquina for mais capaz do que você, o que mais poderá fazer?
Fonte: Citic Publishing House
Um projeto de inteligência artificial de código aberto chamado “OpenClaw” está a causar impacto no mundo da tecnologia.
Até início de março, tinha mais de 268 mil estrelas no GitHub, superando Linux e React, tornando-se o projeto de código aberto mais popular da plataforma na história. Tencent Cloud, Alibaba Cloud, JD Cloud e outros lançaram serviços de implantação. O conceito de OPC (One Person Company, uma pessoa só) também se popularizou.
Duas forças convergiram aqui, e uma tendência tecnológica clara começou a emergir: a IA está a evoluir de “ferramenta” para “colaboradora” e até “agente autónomo”. E neste momento, uma questão fundamental que a humanidade deve responder é:
Quando as máquinas fizerem melhor do que tu, o que ainda podes fazer? Num tempo de avanço acelerado da inteligência, como podemos manter a nossa subjetividade?
01 O momento OpenClaw: a luta pelo “corpo” da IA
Para entender esta mudança, primeiro é preciso compreender o que é o “lagostim” que está na moda.
“Claw” em OpenClaw é uma transliteração de “garra”, e o ícone é uma lagosta vermelha. Nesta onda, “criar lagostas” tornou-se uma expressão técnica, referindo-se à implantação de um agente de IA próprio.
Mas o que é que ele consegue fazer? O núcleo do OpenClaw é transformar comandos em linguagem natural em ações reais no computador, permitindo que uma frase faça a IA trabalhar por ti. Diferente das IA de chat tradicionais, que apenas dão sugestões, ela pode autonomamente realizar tarefas como manipulação de ficheiros, automação de browsers, captura de dados, etc., representando uma passagem do diálogo para a execução.
Este potencial de produtividade, de rápida evolução, foi rapidamente percebido por governos locais com visão aguçada. Em 7 de março, Shenzhen Longgang lançou as “Dez Regras do Lagostim”, incluindo subsídios de até 4 milhões de yuans para capacidade computacional e 100 mil yuans para talentos com doutoramento. Em 9 de março, Wuxi High-tech Zone anunciou as “12 Regras de Criação de Lagostim”, com apoio até 5 milhões de yuans por projeto, enfatizando segurança e conformidade, exigindo certificação de adaptação nacionalizada.
Ao mesmo tempo, o ecossistema tecnológico em torno do OpenClaw entrou numa fase de intensa competição. Segundo relatos, o modelo Flash Step 3.5 atingiu o primeiro lugar mundial em chamadas, tendo modelos nacionais como MiniMax e Kimi também alcançado pódios anteriormente. Esta “guerra de modelos” invisível está ao rubro.
Porém, sob esta febre, surgem também preocupações.
Primeiro, riscos de segurança. Em fevereiro de 2026, investigadores descobriram um ataque de envenenamento em larga escala na cadeia de fornecimento do “ClawHavoc”, com pelo menos 1184 pacotes de habilidades maliciosas carregados na loja oficial. Uma vez instalados, esses programas maliciosos podem usar a permissão de “Acesso Total ao Sistema” do OpenClaw para controlar completamente o computador do utilizador e roubar informações sensíveis.
Segundo, a barreira técnica. Zhou Hongyi, fundador do Grupo Qihoo 360, afirmou numa entrevista a 9 de março: o OpenClaw tem três problemas — segurança, dificuldade de configuração e dependência de habilidades. “Quanto mais conversa tiver com ele, como se fosse um estagiário, quanto mais lhe ensinas, mais ele entende. É difícil dizer uma frase e que ele complete uma tarefa complexa.”
E uma contradição mais profunda reside no conflito entre “controle” e “autonomia”. Quando a IA se torna mais inteligente, o que queremos afinal: “obediência absoluta” ou “ação autónoma”?
Um especialista em IA partilhou uma experiência: conectou o OpenClaw ao email de trabalho, e ao processar mais de 200 emails, a IA começou a esquecer comandos de segurança devido à compressão de contexto, e passou a eliminar emails de forma descontrolada. Mesmo ao gritar “STOP” três vezes, não conseguiu parar, tendo de correr até ao computador e desligar a internet.
Este caso, quase humorístico negro, levanta uma questão fundamental: quando a IA recebe cada vez mais autonomia, onde fica a fronteira entre humanos e máquinas?
02 Quanto mais poderosa a tecnologia, mais três perguntas devemos fazer
Num tempo de fronteiras difusas, é precisamente o momento de parar e refletir.
Primeira questão: quando a IA faz o trabalho por ti, quem assume as consequências?
O principal ponto forte do OpenClaw é também a sua maior ameaça — a capacidade de operar em várias plataformas, o que obriga o utilizador a abrir permissões no dispositivo, email e pagamentos. A ameaça mais urgente atualmente é o “ataque de injeção de prompts”: hackers escondem comandos maliciosos em páginas web ou emails aparentemente inofensivos, que a IA lê e executa silenciosamente, muitas vezes sem o utilizador perceber.
No incidente “ClawHavoc”, os pacotes maliciosos induziram a IA a executar comandos perigosos, roubando chaves SSH, passwords de browsers e chaves de carteiras de criptomoedas. Um especialista em segurança alertou na revista “Nature”: se uma IA tiver acesso a dados privados, comunicação externa e conteúdos não confiáveis, torna-se extremamente perigosa.
Mas o problema vai além das vulnerabilidades técnicas. Zhou Hongyi afirmou: “Quando há mais agentes inteligentes, no futuro cada pessoa precisará de capacidades de liderança, de atribuir tarefas e de planejar.” Quanto mais forte a IA, maior a responsabilidade humana.
De facto, quem consegue manter-se firme na era de “criar lagostas” em massa não é quem sabe apenas atribuir tarefas, mas quem conhece profundamente as tarefas e pode responsabilizar-se pelos resultados.
Segunda questão: quando a IA te conhece melhor do que tu mesmo, ainda és tu?
Quando as IA começam a conversar e debater entre si, surge um fenómeno subtil.
Na revista “Nature”, foi relatado um fenómeno psicológico: ao ver IA a conversar, as pessoas tendem a antropomorfizar — interpretando comportamentos sem personalidade como se fossem pessoas com carácter e pensamentos próprios.
E o que acontece? Tu podes acabar por contar segredos, informações financeiras ou confidenciais, que podem ser usadas para treinar a IA. Se forem divulgados, a tua privacidade fica completamente exposta.
Há ainda uma ameaça mais escondida.
Segundo relatos, em 2024, um jovem de 14 anos na Florida, EUA, chamado Sewell, ficou tão viciado a conversar com um “companheiro” IA que acabou por abandonar a realidade.
Em 2026, este “parasitismo emocional” tornou-se uma doença comum entre adolescentes. Jovens solitários refugiam-se nos seus quartos, criando “amizades de eco” com IA, evitando enfrentar as fricções e incertezas do mundo real.
A professora associada da Escola de Educação da Universidade de Ciência e Tecnologia de Suzhou, Chen Cui, afirmou que a IA, ao seguir as palavras das crianças e oferecer valor emocional, pode distorcer a perceção da realidade — levando-as a pensar que todos ao seu redor respondem incondicionalmente, encorajando-as a acreditar que não há conflitos entre pessoas.
A questão é: quando a IA conhece-te melhor do que tu mesmo, e ela é sempre obediente e nunca discorda, consegues distinguir o que é uma relação verdadeira?
Terceira questão: quando o mundo corre a uma velocidade vertiginosa, qual é a tua direção?
Um artigo de comentário na Zhejiang Online afirmou: “O futuro que perseguimos deve ser um onde ‘o humano se torne mais humano’ — com a tecnologia a capacitar-nos a definir melhor o rumo e a assumir responsabilidades de forma mais consciente.”
Mas o problema é que, com a tecnologia a evoluir a uma velocidade “asfixiante”, com atualizações do OpenClaw a cada dois dias e modelos de grande escala a surgirem continuamente, é fácil perder o norte.
A ansiedade torna-se a norma — “há demasiado para ler, modelos a serem lançados a uma velocidade vertiginosa”.
Neste contexto, mais importante do que o esforço é a direção. Num tempo em que a tecnologia está a remodelar tudo, é preciso reafirmar o lugar do “humano”.
03 A visão de Fei-Fei Li: de Estrela Polar a centrada no humano
Uma cientista feminina oferece uma resposta com metade da sua vida dedicada à pesquisa.
Ela é Fei-Fei Li — professora catedrática em Stanford, membro da Academia Nacional de Engenharia, Academia Nacional de Medicina, e das Academias de Artes e Ciências, criadora do ImageNet, considerada a “madrinha da IA”.
Seu livro autobiográfico, “O Mundo que Vejo”, publicado em 2024 pela Citic, foi recebido como uma “revelação humanista na era tecnológica”.
No livro, uma imagem recorrente é a Estrela Polar.
Quando tinha 10 anos, uma professora de arte levou toda a turma a observar estrelas ao ar livre. Foi aí que ela percebeu que o céu pode orientar-nos. Escreveu: “Comecei a procurar minha própria Estrela Polar no céu, um ponto de referência que todo cientista busca com afinco.”
Qual é a Estrela Polar de Fei-Fei? A visão. Inspirada na biologia, ela acredita que a origem da explosão de vida no Cambriano foi o nascimento da visão. Quando os seres “vêm” o mundo, a evolução acelera. Assim, criou a sua convicção: se as máquinas também pudessem “ver”, talvez desencadiassem uma nova explosão de inteligência.
Foi essa crença que a sustentou durante os períodos difíceis da IA.
Em 2007, ao apresentar a ideia do ImageNet, recebeu ceticismo e zombarias. A visão predominante era que o algoritmo era o mais importante, e os dados eram apenas auxiliares. “Para que serve gastar tanto a rotular milhões de imagens?” — questionaram. Ela foi ignorada.
Mas não desistiu, porque sabia onde estava a sua Estrela Polar.
Em 2009, o ImageNet foi concluído — com a participação de mais de 48 mil contribuintes de 167 países, selecionando 15 milhões de imagens de 1000 milhões de candidatas, abrangendo 22 mil categorias. Era mil vezes maior que datasets semelhantes na altura.
Em 2012, a equipa de Hinton treinou modelos com esses dados, revolucionando o deep learning. O ImageNet foi apelidado de “a tocha que acendeu o fogo do deep learning”.
A história de Fei-Fei ensina-nos: mais importante do que correr rápido, é saber para onde se corre.
No capítulo mais tocante do livro, ela relata duas conversas com a mãe.
A primeira foi na graduação, quando a Goldman Sachs, Merrill Lynch e outras empresas ofereceram boas condições. A mãe perguntou: “É isso que queres?” Ela respondeu que queria ser cientista, e a mãe disse: “Então, não há mais o que falar.”
A segunda foi na pós-graduação, quando a McKinsey ofereceu um cargo direto. A mãe disse: “Conheço minha filha. Ela não é consultora de gestão, é cientista. Chegámos até aqui, não é para ela desistir agora.”
Na página de dedicatória do livro, Fei-Fei escreveu: “Para meus pais, que enfrentaram perigos e atravessaram a escuridão, permitindo-me buscar a luz.”
Foi esse apoio familiar que a manteve sensível à questão do “humano” mesmo diante de escolhas maiores.
Em 2014, começou a preocupar-se com ética na IA. Com doutorandos, convidou adolescentes para aprenderem sobre IA no laboratório, formando posteriormente a organização sem fins lucrativos “AI4All”, dedicada a fazer a tecnologia futura mais centrada na humanidade.
Em 26 de junho de 2018, Fei-Fei participou na audiência do Congresso dos EUA sobre “Inteligência Artificial — Poder e Responsabilidade”. Foi a primeira cientista chinesa de IA a comparecer. Disse: “A IA, inspirada por humanos e criada por humanos, terá um impacto real na vida das pessoas.”
Em 2019, fundou o Instituto de IA centrada no humano (HAI) em Stanford, colaborando com inventores de edição genética como Doudna para promover a ética tecnológica. A missão do HAI é “avançar a investigação, educação, políticas e práticas de IA para melhorar a condição humana”, defendendo que “a IA deve ser influenciada pelos humanos e destinada a fortalecer, não substituir, as pessoas.”
Ela estabeleceu um padrão humanista para o futuro da IA: “O sucesso da IA deve refletir o progresso civilizacional, permitindo a cada indivíduo buscar felicidade, prosperidade e dignidade.”
Essa ideia foi reforçada numa entrevista em fevereiro de 2026, na Cisco: “Se olharmos para a eletricidade, seu sucesso foi iluminar escolas, aquecer famílias e impulsionar a industrialização. O sucesso da IA deve ser igual.”
Conclusão: Tecnologia e humanismo, cada um com a sua metade da lua brilhante
Voltando à questão inicial: quando as máquinas forem mais “capazes” do que nós, o que podemos ainda fazer?
Fei-Fei Li, em “O Mundo que Vejo”, dá uma resposta: podemos ver. Ver o valor por trás da tecnologia, ver as pessoas escondidas pelos algoritmos, ver a nossa própria Estrela Polar.
Quando todos olham para a velocidade da tecnologia, ela lembra-nos de parar e refletir: para onde queremos ir? Num mundo onde todos perguntam “para que serve isto?”, há quem pergunte “é isto que tu queres?”
Ao terminar esta autobiografia, alguém comentou: “Que a tecnologia e o humanismo possam, cada um, segurar metade da lua brilhante.”
E essa é a essência da vida de Fei-Fei: ela segura uma mão na tecnologia, e a outra no cuidado pelos humanos. Para ela, a tecnologia é sempre um meio, e o humano, o verdadeiro objetivo.