Hoje, um tribunal federal decidiu que um processo que acusa as empresas de mídia social de prejudicar de propósito as crianças através de projetos de plataforma viciante poderá prosseguir.
O processo consolidado, trazido em nome de inúmeros menores nos Estados Unidos, alega que empresas como Meta, Snap, TikTok e YouTube intencionalmente projetaram suas plataformas para atrair jovens usuários, resultando em problemas de saúde mental, como ansiedade e depressão.
Mais de 100 processos individuais arquivados desde o início de 2022 foram consolidados neste caso, após Frances Haugen, denunciante do Facebook, divulgar pesquisas internas sobre os impactos negativos do Instagram na saúde mental dos adolescentes.
A magistrada autoriza que o grupo de demandantes processe.
Na ordem emitida na Califórnia, a juíza Yvonne Gonzalez Rogers afirmou que os defensores são acusados de direcionar especificamente as crianças como um mercado principal e criar suas plataformas de maneira atraente e viciante.
As empresas tentaram evitar o processo, alegando que estão protegidas de responsabilidade de acordo com a Seção 230 da Lei de Decência de Comunicações. Esta lei, também conhecida como Seção 230, que foi estabelecida em 1996, protege as plataformas online de ações legais relacionadas a conteúdo gerado pelos usuários.
No entanto, Rogers concluiu em seu estudo que a maneira de lidar com as demissões de forma “tudo ou nada” não é adequada para abordar a complexidade das questões envolvidas nesse processo legal.
No centro da questão estão acusações relacionadas aos fluxos contínuos de informações das plataformas, mensagens de notificação instantânea, recomendações baseadas em algoritmos e outros recursos de design que geram dependência. Os demandantes afirmam que essas decisões de design propositais são responsáveis pelos danos à saúde mental, e não o conteúdo em si.
Rogers concordou que a Seção 230 não impede reivindicações de responsabilidade do produto que se concentrem em problemas de design, como controles parentais ineficazes, verificação de idade, limites de tempo e restrições de exclusão de contas. No entanto, as alegações relacionadas ao uso de algoritmos para recomendar contas e alguns recursos de notificação foram descartadas.
“A mesma lógica se aplica neste caso. O Tribunal precisa examinar a maneira específica como os acusados supostamente violaram suas responsabilidades para com os demandantes”, afirmou Rogers. “São essas alegações detalhadas e específicas de comportamento que requerem análise.”
Possível ameaça perigosa à vista
Ao considerar a possibilidade de avançar com a investigação, informações confidenciais e dados das empresas de tecnologia envolvidas poderiam ser revelados, revelando seu conhecimento sobre os potenciais danos. Os demandantes afirmam que as empresas tinham conhecimento dos impactos na saúde mental das crianças, mas não tomaram medidas suficientes para abordar as preocupações de segurança.
O texto afirma que a abordagem de “tudo ou nada” das partes não reflete de maneira justa ou precisa a aplicação da imunidade do Nono Circuito da Seção 230. Diz-se também que o tribunal analisou os defeitos de funcionalidade reais alegados na denúncia.
Processo judicial busca alterações no design e indenizações.
A intenção é utilizar a lei de responsabilidade do produto nas redes sociais, considerando as plataformas como produtos defeituosos que necessitam de melhorias em seu design e avisos.
As empresas de tecnologia têm desfrutado de uma imunidade legal prolongada apenas para o conteúdo do usuário. No entanto, este caso e outros indicam uma nova ameaça direcionada aos algoritmos, sistemas de recomendação e outras funcionalidades incorporadas nas plataformas.
Os advogados das empresas não informaram se irão apelar da decisão, o que permite que partes importantes do processo prossigam. Dado o alto valor em jogo, na casa dos bilhões de dólares, e o impacto futuro nas redes sociais, o caso está sendo monitorado de perto por especialistas técnicos e jurídicos.
Se a ação coletiva for aprovada, os reclamantes buscarão reparação e pressionarão por alterações nas plataformas, como a implementação de limites de tempo, verificação de idade e maior transparência nos algoritmos. No entanto, o caso enfrenta desafios para comprovar que as plataformas são diretamente responsáveis pelos danos à saúde mental sofridos por menores de idade.
No final das contas, o processo busca impactar o modelo de negócio central das empresas de mídia social, que é baseado na maximização do tempo de envolvimento do usuário por meio de elementos de design, como feeds de rolagem infinita. Qualquer alteração imposta às empresas poderia ter um impacto negativo em seus lucros.
Observando a região superior do corpo.
Apesar de estar em uma fase inicial, a decisão mista mantém o processo em andamento e possibilita que documentos internos revelem até que ponto o Facebook, Snapchat, TikTok e YouTube podem ter enganado usuários jovens, prejudicando seu bem-estar.
A imagem principal é de autoria de Davide Angelini e está disponível no Shutterstock.