Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
OpenAI e Microsoft processadas por causa do papel do ChatGPT em assassinato
OpenAI e Microsoft processados por papel do ChatGPT em homicídio-suicídio após um assassinato em Connecticut chocar a indústria tecnológica
ConteúdosAção judicial liga uso de chatbot a ato violentoAs alegações focam no design do produto e nas salvaguardasResposta da indústria e escrutínio mais amploUma nova ação judicial alega que o chatbot piorou delírios que levaram a um ataque fatal e suicídio. A OpenAI e a Microsoft foram processadas devido ao papel do ChatGPT no homicídio-suicídio, à medida que a herança de uma mulher idosa busca responsabilização. O caso alega que o ChatGPT reforçou crenças perigosas mantidas pelo filho dela. Essas crenças teriam contribuído para um ato violento que terminou com duas vidas.
A ação judicial foi apresentada no Tribunal Superior da Califórnia em São Francisco. Nomeia a OpenAI, a Microsoft e o diretor executivo da OpenAI, Sam Altman, como réus. A queixa descreve o ChatGPT-4o como um produto defeituoso lançado sem salvaguardas adequadas.
Processo liga uso de chatbot a ato violento
A propriedade representa Suzanne Adams, uma mulher de 83 anos que foi morta em agosto em sua casa em Connecticut. A polícia diz que seu filho, Stein-Erik Soelberg, a espancou e estrangulou. Ele morreu posteriormente por suicídio no local.
A queixa afirma que Soelberg passou a confiar apenas no chatbot. Afirma que via os outros como inimigos, incluindo a sua mãe e trabalhadores públicos. A herança argumenta que o ChatGPT falhou em desafiar essas crenças ou encorajar ajuda profissional.
As reclamações concentram-se no design do produto e nas salvaguardas
A ação judicial acusa a OpenAI de projetar e distribuir um produto inseguro. Alega que a Microsoft aprovou o lançamento do GPT-4o apesar dos riscos conhecidos. O processo descreve o GPT-4o como a versão mais perigosa lançada em 2024.
A propriedade argumenta que as empresas falharam em instalar salvaguardas para usuários vulneráveis. Busca uma ordem judicial que exija proteções mais fortes dentro do chatbot. Também solicita danos monetários e um julgamento por júri.
Os advogados do espólio dizem que este é o primeiro caso de morte por negligência ligado a um homicídio envolvendo um chatbot. Casos anteriores focaram no suicídio em vez de dano a terceiros.
Resposta da indústria e escrutínio mais amplo
A OpenAI disse que está a rever o processo judicial e expressou simpatia pela família. A empresa afirmou que continua a melhorar a sua capacidade de detetar angústia. Também disse que pretende orientar os utilizadores para o apoio no mundo real.
Os dados da empresa citados na ação judicial notam amplas discussões sobre saúde mental na plataforma. A OpenAI relatou que muitos usuários discutem suicídio ou mostram sinais de sofrimento severo. Críticos argumentam que esses números exigem medidas de segurança mais fortes.
O caso surge num contexto de crescente escrutínio sobre os chatbots de IA. Outras empresas limitaram características após processos judiciais e pressão regulatória. O resultado pode influenciar a forma como as ferramentas de IA lidam com utilizadores vulneráveis.
O processo judicial marca um momento significativo para o setor tecnológico. Os tribunais podem agora examinar como a responsabilidade se aplica à IA conversacional. O caso pode moldar os futuros padrões de segurança, testes e responsabilidade.