top of page

Aumenta o número de casos envolvendo crimes contra a honra na internet: Especialista em direito digital apresenta medidas de segurança

Com a popularização das redes sociais, diversos usuários passaram a compartilhar a rotina de trabalho, estudos e opiniões acerca de determinados fatos. Em razão de algumas infrações que violam os termos de uso das plataformas, problemas relacionados à injúria e difamação começaram a surgir de forma recorrente nas plataformas, tornando necessário a elaboração de medidas cíveis e criminais. 

Tais ações são consideradas crimes contra a honra na internet, como por exemplo discurso de ódio, assédio, violência digital e cyberbullying. Segundo a advogada catarinense Moniche de Sousa, especialista em Direito Digital e fundadora do escritório Sousa Sociedade Individual de Advocacia: “Diante de um crime contra a honra, como calúnia, difamação ou injúria, ocorrido no ambiente digital, a ação mais crítica e imediata da vítima é a preservação cuidadosa das evidências. A velocidade com que conteúdos online podem ser alterados ou removidos exige uma resposta ágil e estratégica para garantir que a prova não se perca. O primeiro passo é realizar capturas de tela (prints) detalhadas de todos os elementos da ofensa. Isso inclui a postagem original, comentários associados, informações do perfil do ofensor (se visíveis), a data, o horário da publicação e o endereço eletrônico (URL) da página. É fundamental que essas capturas sejam da tela completa, exibindo a barra de endereço do navegador e a data/hora do seu dispositivo, o que confere maior credibilidade inicial aos registros. No entanto, para que a prova digital tenha peso jurídico incontestável e resiste à contestação em juízo, é imprescindível utilizar uma tecnologia de registro de provas digitais robusta. Nesse contexto, o sistema Verifact se destaca como uma solução moderna, eficiente e financeiramente acessível. Ele realiza uma auditoria técnica forense do conteúdo online, gerando um relatório com validade jurídica que certifica a autenticidade e integridade das evidências, com um processo significativamente mais ágil e econômico em comparação com as atas notariais tradicionais. A certificação via Verifact garante a imutabilidade da prova digital, essencial para sua aceitação em qualquer processo judicial”.


Recentemente o STF alterou o artigo 19 do Marco Civil na Internet e impôs novas regras para a solução de casos que tenham relação com a honra do usuário nas plataformas, dentre eles questões que tenham relação com injúria e difamação. “A Lei do Marco Civil da Internet (Lei nº 12.965/2014) pode ser compreendida como o pilar legal que estabelece as regras para o uso da internet no Brasil. Ela não foi criada especificamente para punir crimes contra a honra, os quais já estão previstos no Código Penal, mas sim para definir os princípios, garantias, direitos e deveres dos usuários, bem como a responsabilidade dos provedores de conexão e de aplicações (as plataformas digitais). Em sua essência, o Marco Civil garante a liberdade de expressão como um direito primordial no cenário online. Contudo, essa liberdade não é absoluta; ela encontra limites nos direitos e garantias individuais de terceiros, como a honra, a imagem e a privacidade. Em outras palavras, a internet é um espaço de livre manifestação, mas não um território isento de responsabilidade legal. Um dos pontos mais sensíveis e agora com uma interpretação definitiva do Supremo Tribunal Federal (STF) é o Artigo 19 da Lei. A decisão do STF, definiu que a regra do Artigo 19 — que exigia o descumprimento de uma ordem judicial específica para responsabilizar provedores por conteúdo de terceiros — é parcialmente inconstitucional. Prevaleceu o entendimento de que essa norma, em sua forma original, já não era suficiente para proteger direitos fundamentais e a democracia” completa Moniche. 

Por fim, Moniche, destaca que a remoção de conteúdo ofensivo à internet é um processo que envolve etapas distintas e, muitas vezes, complexas, uma vez que busca equilibrar a proteção da honra da vítima com a liberdade de expressão e as responsabilidades das plataformas. Não existe um botão mágico de "apagar", e a abordagem mais eficaz geralmente passa por duas vias principais: a administrativa e a judicial. “Inicialmente, a vítima pode tentar a via administrativa, que consiste em notificar diretamente a plataforma (redes sociais, sites, blogs, etc.) onde o conteúdo foi publicado. A maioria dessas plataformas possui mecanismos de denúncia interna, permitindo que usuários reportem publicações que violem seus "Termos de Uso" ou "Diretrizes da Comunidade" (por exemplo, discurso de ódio, assédio, spam). Se a plataforma identificar uma clara violação de suas próprias regras internas, ela pode remover o conteúdo prontamente. Contudo, se a plataforma não considerar o conteúdo uma infração às suas políticas internas, ou se o interpretar como uma manifestação de liberdade de expressão, ela pode se recusar a removê-lo. Nesse ponto, ou em casos mais graves e urgentes, entra a via judicial, que é o caminho mais seguro e, muitas vezes, o único capaz de

garantir a remoção efetiva. A Lei do Marco Civil da Internet (Lei nº 12.965/2014), em sua interpretação mais recente pelo Supremo Tribunal Federal (STF), estabelece que as plataformas digitais só podem ser responsabilizadas civilmente por conteúdos gerados por terceiros após o descumprimento de uma ordem judicial específica para a remoção. Isso significa que, para forçar a retirada de um conteúdo, a vítima, assessorada por um advogado, deve ingressar com uma ação judicial solicitando ao juiz uma liminar — uma decisão urgente — que obrigue a plataforma a remover o material. A decisão do STF também flexibilizou a remoção em certos casos, permitindo que, para crimes contra a honra, as plataformas não sejam impedidas de remover o conteúdo a partir de notificação extrajudicial, ou seja, um pedido formal sem a necessidade de um processo judicial. No entanto, a responsabilidade legal da plataforma por não remover o conteúdo ofensivo só surge se houver uma ordem judicial desobedecida. Para crimes mais graves (como terrorismo, racismo ou incitação à violência), a responsabilização da plataforma pode ocorrer se houver uma falha sistêmica em prevenir ou remover esses conteúdos, mesmo antes de uma ordem judicial, refletindo uma postura proativa esperada das empresas”.


© 2025 por Rodac Comunicação Criativa

bottom of page