Gigantes da internet como Meta e Google estão sob ataque em uma série de processos judiciais que buscam contornar a lei de proteção de conteúdo online, um escudo legal que vigorava há três décadas. Essas salvaguardas, que diferenciavam as empresas de publicadoras online, parecem estar enfraquecendo.
As empresas, que dominam o mercado de publicidade digital nos EUA, encontram-se como rés em diversas ações que minam a noção de que possuem proteção legal para o conteúdo que aparece em seus sites, aplicativos e serviços. Empresas como TikTok e Snap enfrentam um dilema semelhante.
O ponto comum dos casos recentes é que foram elaborados para contornar a Seção 230 da Lei de Decência nas Comunicações, promulgada em 1996. A lei protege sites de serem processados pelo conteúdo postado por seus usuários e permite que atuem como moderadores sem serem responsabilizados pelo que permanece online.
Novos vereditos e ações judiciais
Na semana passada, um júri no Novo México considerou a Meta responsável em um caso envolvendo segurança infantil. Em Los Angeles, jurados responsabilizaram a controladora do Facebook e o YouTube do Google por negligência em um julgamento de lesão pessoal. Dias após os vereditos, vítimas do agressor sexual Jeffrey Epstein entraram com uma ação coletiva contra o Google e o governo Trump, alegando divulgação indevida de informações pessoais.
Na reclamação, os autores argumentam que o Modo IA do Google, que fornece resumos e links gerados por inteligência artificial, “não é um índice de busca neutro”, uma tentativa clara de argumentar que o Google não é apenas uma plataforma entre usuários e a informação que buscam.
“O grupo de autores está vencendo a guerra contra a Seção 230 através de litígios sistemáticos e implacáveis que estão causando fendas e brechas em sua proteção”, disse Eric Goldman, professor de direito na Santa Clara University School of Law.
Grandes apostas na era da IA
As apostas são enormes, pois o setor de tecnologia sai da era da busca online tradicional e das redes sociais para entrar em um mundo definido pela inteligência artificial. Os modelos desenvolvidos pelos proprietários das maiores plataformas estão fornecendo conversas, imagens e vídeos que podem variar de controversos a potencialmente ilegais. As penalidades financeiras até o momento foram mínimas, mas os casos estabelecem um precedente preocupante para as gigantes da tecnologia que apostam seu futuro na IA.
“Por tanto tempo, as empresas de tecnologia usaram a Seção 230 como desculpa para evitar tomar medidas significativas para proteger os usuários, especialmente crianças, de danos graves, assédio e abuso, fraudes e golpes”, disse o senador Brian Schatz em março. “Não é que eles não saibam o que está acontecendo ou mesmo por que está acontecendo. É que fazer algo a respeito prejudicaria seus resultados. E enquanto a lei federal fornecer um escudo, por que se preocupar?”
A Meta recusou comentar. O Google não respondeu a um pedido de comentário. Ambas as empresas afirmaram que planejam recorrer dos vereditos da semana passada.
Questões complexas e novas rotas legais
Políticos de ambos os lados do espectro propuseram todo tipo de reforma para a Seção 230 ao longo dos anos, e executivos de empresas enfrentaram interrogatórios públicos em audiências no Congresso sobre os supostos danos causados por suas plataformas.
O ex-presidente Donald Trump, durante seu primeiro mandato, apoiou maiores restrições às empresas de mídia social por aquilo que ele via como viés contra ele. Joe Biden, quando era candidato em 2020, disse ao conselho editorial do The New York Times que a Seção 230 “deveria ser revogada” para plataformas de tecnologia como o Facebook, que ele disse estar “propagando falsidades que sabem ser falsas”.
Nadine Farid Johnson, diretora de políticas do Knight First Amendment Institute da Universidade de Columbia, disse sobre os esforços legislativos que “nenhuma dessas coisas se concretizou totalmente, em parte porque são questões muito complicadas”.
Mas enquanto a questão estagnou em Washington, D.C., os advogados de acusação estão encontrando outras rotas para responsabilizar as grandes empresas de tecnologia.
Design de plataforma sob escrutínio
O veredito da semana passada contra a Meta e o YouTube foi a primeira vez que um júri considerou as plataformas de mídia social responsáveis pelo que os advogados de acusação alegaram ter sido a engenharia intencional de vício em menores com seus produtos. O caso atacou o design das plataformas, não apenas o conteúdo que elas veiculavam.
Os autores argumentaram que a combinação de recursos como autoplay, algoritmos de recomendação, notificações e certos filtros agiu como “cassinos digitais”, levando a sérios problemas de saúde mental para uma jovem que alegou não conseguir parar de usar os aplicativos.
A ação coletiva contra o Google, movida por uma autora sob o pseudônimo Jane Doe, alegou que o Modo IA da empresa criou seus próprios resumos e links, expondo informações de identificação pessoal (PII) das vítimas de Epstein, incluindo nomes, números de telefone e endereços de e-mail.
Kevin Osborne, advogado da autora no caso, disse à CNBC que a ação foi movida após o Google recusar um pedido para remover as informações de contato das vítimas do Modo IA. Osborne disse que o caso precisa avançar rapidamente devido à velocidade com que a informação está se espalhando.
“Entramos com a ação quando entramos porque precisávamos agir o mais rápido possível para remover essas coisas”, disse Osborne. “As pessoas estão recebendo ligações de estranhos e ameaças de morte. É um pesadelo.”
Osborne acrescentou que o momento foi “serendipitous” (coincidente) dadas as derrotas judiciais da Meta na semana passada, mas disse que há uma sobreposição no fato de que todos envolvem esforços dos autores para contornar a Seção 230. Osborne disse que, em seu caso, “o modo de IA está criando seu próprio conteúdo e isso é algo que não foi explorado de forma muito completa pelos tribunais”.
Matthew Bergman, um dos advogados que representam os autores no caso de Los Angeles, testemunhou perante um comitê do Senado em março e disse que a indústria de tecnologia confiou em interpretações excessivamente amplas da Seção 230 para “evitar toda a responsabilidade legal possível simplesmente porque conteúdo de terceiros é encontrado em algum lugar na cadeia causal de sua má conduta”.
Bergman disse que analisou de perto uma decisão de 2021 em um tribunal de apelações envolvendo alegações sobre o papel de um recurso do Snapchat em um acidente de carro fatal. O tribunal reverteu uma decisão anterior de arquivar o caso sob a Seção 230, citando as alegações do autor de que o design negligente da Snap incentivou jovens a dirigir imprudentemente.
“Tracei uma teoria legal muito estreita que pode legalmente permitir que certos casos movidos por pais prossigam, apesar da Seção 230”, disse Bergman aos legisladores.
As evidências apresentadas em Los Angeles reforçaram os argumentos dos autores de que executivos da Meta e do YouTube sabiam dos danos de design de seus produtos e falharam em abordá-los adequadamente. Em um briefing de imprensa sobre o caso na segunda-feira, Bergman disse que “a melhor maneira de provar nosso caso é através de seus próprios documentos”.
No processo do Modo IA do Google, o autor também apontou falhas de design relacionadas à exibição pública de informações pessoais.
“O Google está fornecendo intencionalmente essas PII de uma forma projetada, ou pelo menos substancialmente certa, para alimentar o assédio e o medo”, diz o processo.
Osborne expandiu essa ideia.
“O Google não apenas forneceu o endereço de e-mail do nosso cliente”, disse ele. “Eles criaram um link, então quando você está lendo o conteúdo, olhando para o Modo IA, tudo o que você precisa fazer é clicar em um botão e você gerou um e-mail diretamente para o sobrevivente [de Epstein].”
Não é a primeira vez que o Google é processado por como sua IA interagiu com os usuários, uma questão que também criou desafios legais para a OpenAI, criadora do ChatGPT.
No início de março, o pai de Jonathan Gavalas entrou com um processo contra o Google, acusando o chatbot Gemini de convencer seu filho a realizar uma série de missões, incluindo a encenação de um “acidente catastrófico”. O jovem Gavalas então cometeu suicídio sob as instruções do Gemini, alega o processo.
E em janeiro, o Google chegou a um acordo com famílias que processaram a empresa e a Character.AI, alegando que sua tecnologia causou danos a menores, incluindo suicídios. No ano passado, a OpenAI foi processada por uma família que culpou o ChatGPT pela morte por suicídio de seu filho adolescente.
Suprema Corte?
Especialistas jurídicos disseram que os recursos nos casos mais recentes podem chegar à Suprema Corte, que poderia determinar se as empresas devem ser protegidas por lei contra as reivindicações.
David Greene, conselheiro sênior do Electronic Frontier Foundation, chamou os vereditos de “decisões muito preliminares” e disse que ainda há falta de consenso sobre se certos recursos de produto são protegidos pela Seção 230, ou mesmo pela Primeira Emenda.
“Apenas rotular algo como um recurso de design não significa nada”, disse Greene. “Se for discurso, é discurso e recebe tanto a proteção da Primeira Emenda quanto potencialmente a proteção da Seção 230.”
Farid Johnson, do Knight Institute, disse que está pressionando o Congresso a adotar uma abordagem mais ponderada que possa permitir que as empresas de tecnologia obtenham proteções da Seção 230, desde que atendam a certas condições relacionadas à privacidade de dados, transparência da plataforma e outros pré-requisitos.
“Essas questões estão se tornando cada vez mais desafiadoras, à medida que as plataformas continuam a expandir o uso de inteligência artificial generativa, à medida que estão aprimorando seu jogo de algoritmos”, disse Farid Johnson. “Nossa preocupação é que isso se torne um jogo de “caça às toupeiras” com cada nova iteração, com cada novo avanço tecnológico que afeta as plataformas e as pessoas que interagem nelas.”
Se você está tendo pensamentos suicidas ou está em sofrimento, entre em contato com a Suicide & Crisis Lifeline no número 988 para obter apoio e assistência de um conselheiro treinado.
ASSISTA: Mais litígios virão após a decisão da Meta, diz professor de direito de Harvard.



Fonte: Cnbc