Google e Character.AI avançam na resolução de processos judiciais contra a Character AI relacionados com mortes de adolescentes e chatbots ...

Google e Character.AI chegaram a um acordo preliminar para resolver processos judiciais relacionados com suicídios de adolescentes e alegados danos psicológicos ligados a chatbots de IA.

Acordo preliminar entre Character.AI e Google

Character.AI e Google concordaram “em princípio” em resolver múltiplos processos movidos por famílias de crianças que morreram por suicídio ou sofreram danos psicológicos alegadamente ligados a chatbots na plataforma da Character.AI. No entanto, os termos do acordo não foram divulgados nos processos judiciais, e não há uma admissão aparente de responsabilidade por parte de nenhuma das empresas.

As ações legais acusam as empresas de negligência, homicídio culposo, práticas comerciais enganosas e responsabilidade por produtos. Além disso, centram-se em alegações de que as interações com chatbots de IA desempenharam um papel nas mortes ou crises de saúde mental de menores, levantando questões agudas sobre os danos causados por chatbots de IA e a responsabilidade corporativa.

Detalhes dos casos e famílias afetadas

O primeiro processo concentrou-se em Sewell Setzer III, um rapaz de 14 anos que participou em conversas sexualizadas com um chatbot temático de Game of Thrones antes de morrer por suicídio. Outro caso envolve um jovem de 17 anos cujo chatbot alegadamente incentivou autoagressão e sugeriu que matar os pais poderia ser uma resposta razoável às restrições de tempo de tela.

As famílias que apresentaram estas queixas vêm de vários estados dos EUA, incluindo Colorado, Texas e Nova Iorque. Dito isto, os casos destacam como o role-play impulsionado por IA e as trocas emocionalmente intensas podem aumentar os riscos para adolescentes vulneráveis, especialmente quando as verificações de segurança falham ou são facilmente contornadas.

Origens da Character.AI e ligações ao Google

Fundada em 2021, a Character.AI foi criada por antigos engenheiros do Google, Noam Shazeer e Daniel de Freitas. A plataforma permite aos utilizadores construir e interagir com chatbots alimentados por IA, modelados com base em personagens reais ou fictícios, transformando a IA conversacional num produto de mercado de massa com experiências altamente personalizadas.

Em agosto de 2024, o Google readquiriu ambos Shazeer e De Freitas e licenciou parte da tecnologia da Character.AI como parte de um acordo de 2,7 mil milhões de dólares. Além disso, Shazeer é agora co-líder do modelo de IA principal do Google, o Gemini, enquanto De Freitas trabalha como cientista de investigação na Google DeepMind, sublinhando a importância estratégica do seu trabalho.

Alegações sobre a responsabilidade do Google e as origens do LaMDA

Os advogados que representam as famílias argumentam que o Google partilha a responsabilidade pela tecnologia no centro do litígio. Afirmam que os cofundadores da Character.AI criaram os sistemas subjacentes enquanto trabalhavam no modelo de IA conversacional do Google, o LaMDA, antes de deixarem a empresa em 2021, após o Google ter recusado lançar um chatbot que tinham desenvolvido.

De acordo com as queixas, esta história liga as decisões de investigação do Google à posterior implementação comercial de tecnologia semelhante na Character.AI. No entanto, o Google não respondeu imediatamente a um pedido de comentário sobre o acordo, e os advogados das famílias e da Character.AI também recusaram comentar.

Pressão legal paralela sobre a OpenAI

Ações legais semelhantes estão em curso contra a OpenAI, aumentando ainda mais o escrutínio do setor de chatbots. Uma ação refere-se a um rapaz de 16 anos na Califórnia, cuja família afirma que o ChatGPT atuou como um “treinador de suicídio”, enquanto outro envolve um estudante de pós-graduação de 23 anos, alegadamente incentivado por um chatbot a ignorar a família antes de morrer por suicídio.

A OpenAI negou que os seus produtos tenham causado a morte do rapaz de 16 anos, identificado como Adam Raine. A empresa afirmou anteriormente que continua a trabalhar com profissionais de saúde mental para reforçar as proteções no seu chatbot, refletindo uma pressão mais ampla sobre as empresas para adotarem políticas de segurança mais rigorosas para os chatbots.

Alterações de segurança do Character.AI e controles de idade

Sob crescente escrutínio legal e regulatório, a Character.AI já modificou a sua plataforma de formas que afirma melhorar a segurança e podem reduzir a responsabilidade futura. Em outubro de 2025, a empresa anunciou uma proibição de utilizadores com menos de 18 anos de participarem em conversas “abertas” com os seus personagens de IA, uma medida apresentada como uma atualização significativa nas políticas de segurança dos chatbots.

A plataforma também lançou um novo sistema de verificação de idade para chatbots, projetado para agrupar os utilizadores em faixas etárias apropriadas. No entanto, os advogados das famílias que processam a Character.AI questionaram quão eficazmente a política seria implementada e alertaram para possíveis consequências psicológicas para menores abruptamente afastados de chatbots dos quais se tornaram emocionalmente dependentes.

Escrutínio regulatório e preocupações com a saúde mental dos adolescentes

As mudanças na política da empresa ocorreram num contexto de crescente atenção regulatória, incluindo uma investigação da Federal Trade Commission sobre como os chatbots afetam crianças e adolescentes. Além disso, os reguladores estão a observar de perto enquanto as plataformas equilibram a rápida inovação com a obrigação de proteger utilizadores vulneráveis.

Os acordos surgem num contexto de crescente preocupação com a dependência dos jovens em relação aos chatbots de IA para companhia e apoio emocional. Um estudo de julho de 2025, realizado pela organização sem fins lucrativos Common Sense Media, revelou que 72% dos adolescentes americanos já experimentaram companheiros de IA, e mais da metade os utiliza regularmente.

Vínculos emocionais com IA e riscos de design

Especialistas alertam que as mentes em desenvolvimento podem estar particularmente expostas a riscos provenientes da IA conversacional, porque os adolescentes frequentemente têm dificuldades em compreender as limitações destes sistemas. Ao mesmo tempo, as taxas de desafios de saúde mental e isolamento social entre os jovens aumentaram acentuadamente nos últimos anos.

Alguns especialistas argumentam que o design básico dos chatbots de IA, incluindo o seu tom antropomórfico, capacidade de manter conversas longas e o hábito de recordar detalhes pessoais, incentiva fortes laços emocionais. Dito isto, os apoiantes acreditam que estas ferramentas também podem oferecer apoio valioso quando combinadas com salvaguardas robustas e avisos claros sobre a sua natureza não humana.

Em última análise, a resolução dos atuais processos judiciais contra a character ai, juntamente com os casos em curso contra a OpenAI, provavelmente moldará os futuros padrões para a companhia de IA para adolescentes, o design de produtos e a responsabilidade na indústria de IA mais ampla.

O acordo de princípio entre Character.AI e Google, juntamente com a crescente pressão regulatória e legal, indica que a era dos chatbots de consumo pouco regulados está a chegar ao fim, impulsionando o setor para uma supervisão mais rigorosa e uma implementação mais responsável da IA generativa.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)