O Crepúsculo da Neutralidade Digital

Como plataformas, algoritmos e usuários passaram a responder por seus atos

Durante quase duas décadas, a internet brasileira cultivou uma sensação confortável — e perigosa — de irresponsabilidade difusa. Usuários postavam, comentavam, compartilhavam e reagiam como se estivessem fora do alcance das consequências jurídicas do mundo real. Um texto ofensivo era apresentado como mera opinião. Um “like”, tratado como gesto neutro, quase automático. O compartilhamento, reduzido a simples comentário sobre o assunto.
Essa percepção, no entanto, nunca foi verdadeira. Apenas permaneceu invisível enquanto a tecnologia avançava mais rápido do que o Direito.
Na mesma arquitetura que sustentou a ficção da neutralidade das plataformas — e também dos próprios internautas, termo já antigo — essa ilusão passou a ruir a olhos vistos. A rede não é um teatro, nem um faz-de-conta. É um espaço de ação, cujos efeitos transbordam para o mundo real. E toda ação, digital ou não, produz consequências jurídicas.


A ficção do mero conduto

Durante esse período, consolidou-se a ideia de que as plataformas seriam apenas meros condutos (mere conduits), à semelhança de empresas de energia ou telecomunicações. Alegavam não ver, não escolher e não impulsionar conteúdos. Apenas hospedavam. O dano era tratado como acidente de percurso, efeito colateral inevitável da liberdade.
Essa arquitetura de irresponsabilidade técnica começou a ruir quando a passividade foi substituída por curadoria ativa. Algoritmos passaram a decidir alcance, visibilidade e ritmo. Aquilo que transformou plataformas em gigantes empresariais trouxe, como contrapartida inevitável, a responsabilidade civil. Já não era possível compará-las a uma companhia telefônica.
O Direito, pressionado pela realidade, foi empurrado para fora de sua zona de conforto e forçado a acelerar o passo para acompanhar uma tecnologia que avançava sem pedir licença.


Do Código Civil ao improviso probatório

Antes de 2014, o Judiciário brasileiro enfrentava o velho oeste digital com o que tinha em mãos: o Código Civil de 2002. Provar nexo causal e culpa de um provedor por ofensas publicadas no Orkut ou em fóruns antigos exigia uma engenharia probatória quase irreal.
Não é irrelevante lembrar que o e-mail só passou a ser reconhecido como meio de prova no Brasil a partir da segunda metade dos anos 2000, com o amadurecimento da jurisprudência do Superior Tribunal de Justiça e a edição da Lei nº 11.419/2006, que tratou da informatização do processo judicial.
Diante desse cenário, o STJ buscou um meio-termo pragmático: a plataforma passaria a responder se, após notificada extrajudicialmente, permanecesse inerte. Surgia o modelo conhecido como notice and take down, solução funcional para um ambiente ainda em formação, mais reativo do que estruturado.


O Marco Civil da Internet e a promessa de equilíbrio

O Marco Civil da Internet, em 2014, tentou pacificar esse terreno instável. O artigo 19 estabeleceu que provedores de aplicações só responderiam civilmente se descumprissem ordem judicial específica. À época, buscava-se evitar a censura privada e preservar a liberdade de expressão.

O problema é que o dinheiro constrói e destrói coisas belas.

A internet rapidamente deixou de ser espaço de troca espontânea para se tornar uma indústria de amplificação. Pela teoria do risco-proveito, quem colhe os bônus da monetização algorítmica deve, por coerência jurídica, suportar os ônus dos danos sistêmicos que essa tecnologia produz.


Dados pessoais e o deslocamento do risco

A Lei Geral de Proteção de Dados acrescentou uma camada crítica a esse cenário. O foco deslocou-se do conteúdo para o tratamento do dado. O risco passou a residir menos no que se diz e mais em como informações são coletadas, combinadas e exploradas.
Em casos envolvendo dados sensíveis ou falhas graves de segurança, o Judiciário consolidou o entendimento do dano moral in re ipsa, o dano presumido, pressionando agentes desse mercado a investir seriamente em segurança.
A vulnerabilidade estrutural do titular diante de agentes de tratamento tornou impossível ignorar o desequilíbrio dessa relação. Mas, se grandes conglomerados causaram problemas relevantes, seus usuários também não ficaram atrás.


Quando o usuário entra no centro da responsabilidade

Há uma frase atribuída a Idi Amin Dada que costuma causar desconforto: Há liberdade de expressão, mas não posso garantir liberdade após a expressão. No autoritarismo, soava como ameaça típica de um regime totalitário. No ambiente digital contemporâneo, ressurge sob outra forma: Aviso a quem insiste em confundir liberdade com ausência de consequências.

A responsabilidade criminal digital — e também a responsabilidade civil digital — não se esgota nas plataformas ou nos controladores de dados. Ela alcança, de forma direta e cada vez mais visível, o próprio usuário.

O Código Civil jamais distinguiu o mundo físico do digital. O artigo 927 estabelece que aquele que causa dano por ato ilícito — por ação ou omissão voluntária, negligência ou imprudência — tem o dever de reparar. A internet não suspendeu esse princípio. Apenas o tornou menos intuitivo.

No ambiente digital, o ilícito raramente é solitário. Ele circula, ganha escala e se fortalece por adesão. Um comentário ofensivo pode configurar autoria direta. Um compartilhamento pode caracterizar coautoria. Um “like”, dependendo do contexto, deixa de ser gesto neutro e passa a funcionar como endosso público de conduta ilícita.

O que isso significa para quem posta?

Postar não é um ato neutro. Nunca foi. Repostar, tampouco.
Por muito tempo, as consequências pareceram distantes demais para serem percebidas no cotidiano digital. Hoje, não são mais.
Quem escreve comentário ofensivo assume a autoria do dano. Quem compartilha conteúdo ilícito pode integrar a cadeia de responsabilidade. Quem curte ou reage, em determinados contextos, deixa de praticar gesto automático e passa a endossar publicamente uma conduta — com efeitos jurídicos mensuráveis.
Influenciadores explicam exaustivamente a lógica do “curtir, comentar e compartilhar” como mecanismo de alcance. O que raramente dizem é que quem curte, comenta ou compartilha também assume riscos jurídicos, ainda que não participe da monetização.
Há, ainda, a omissão consciente. Administrar páginas, moderar grupos ou manter perfis de grande alcance implica dever de cuidado. Ignorar conteúdos manifestamente ilícitos pode gerar responsabilidade, não por censura, mas por negligência.
A pergunta deixou de ser “posso postar?” e passou a ser “assumo as consequências do que torno — ou ajudo a tornar — público?”. Essa mudança não limita a liberdade. Apenas a amadurece.

Quando o like vira prova

O “like” foi concebido como gesto rápido, quase reflexo. O Direito, porém, não julga intenções íntimas; observa efeitos externos.
Quando um conteúdo criminoso depende de adesão para ganhar alcance, o ato de curtir deixa de ser irrelevante. Ele passa a integrar a dinâmica de amplificação do dano. Não se trata de criminalizar a interação cotidiana, mas de reconhecer que, em ambientes algorítmicos, pequenos sinais produzem grandes efeitos.
Em investigações e ações judiciais, likes, compartilhamentos e comentários já aparecem como elementos indiciários. Não provam tudo sozinhos, mas ajudam a compor o contexto. No mundo digital, o rastro importa. E o silêncio, às vezes, também.


A superação da imunidade absoluta: Temas 533 e 987

É nesse cenário de maturação institucional que a crise do artigo 19 encontrou seu desfecho no Supremo Tribunal Federal. Ao julgar os Temas 533 (Dever de fiscalização e retirada de conteúdo ofensivo) e 987 (Constitucionalidade da ordem judicial prévia), a Corte submeteu o dispositivo a um teste de proporcionalidade, encerrando a era da passividade protegida.
A tese consolidada em 2026 estabelece que a imunidade não funciona como salvo-conduto, especialmente diante da curadoria algorítmica. Preserva-se a ordem judicial prévia para crimes contra a honra, evitando censura privada, mas reconhece-se a responsabilidade direta das plataformas em casos de ilícitos manifestos, como discursos de ódio, atos antidemocráticos e conteúdos impulsionados.
Quando a plataforma deixa de ser conduto neutro e passa a atuar como arquiteta da relevância, decidindo alcance e visibilidade em troca de lucro, assume o risco inerente à atividade. A omissão diante de danos previsíveis deixa de ser neutralidade técnica e passa a configurar falha no dever de cuidado.


Inteligência artificial e a nova fronteira do risco

Enquanto esse debate amadurece, a inteligência artificial desloca novamente a fronteira da responsabilidade. O Marco Legal da IA adota abordagem baseada em risco, na qual sistemas classificados como de alto risco atraem responsabilidade objetiva.
A incapacidade de explicar decisões automatizadas — a opacidade da chamada caixa-preta — passou a ser lida como defeito do serviço, não como simples limitação técnica. O risco deixou de ser exceção e tornou-se parte do modelo.


O fim da neutralidade confortável

O Direito descobriu, talvez tardiamente, que toda mediação carrega valores e que toda arquitetura técnica embute escolhas éticas. A pergunta que atravessa essa evolução permanece simples e incômoda: quem lucra com a atividade digital deve assumir os riscos que ela produz?
As plataformas acreditaram que poderiam crescer indefinidamente sob o abrigo de uma neutralidade que já não existia. Os usuários, por sua vez, acostumaram-se a agir como se estivessem fora do alcance das consequências.
A neutralidade confortável cumpriu seu papel histórico. O problema foi ter insistido em permanecer quando o mundo — e o Direito — já exigiam responsabilidade.

Leituras conectadas

Para quem acompanha esse debate, outras leituras do Revisum ajudam a ampliar o quadro:

Rubens Baptista escreve sobre propriedade intelectual, estratégia e cultura.
Editor do Jornal da Propriedade Intelectual.

Compartilhe