Remoção de vídeo editado e controle prévio

Data do Julgamento:
18/08/2016

Data da Publicação:
20/10/2016

Tribunal ou Vara: Tribunal de Justiça do Distrito Federal - TJDFT

Tipo de recurso/Ação: Apelação Cível

Número do Processo (Original/CNJ): 0045107-10.2014.8.07.0001

Nome do relator ou Juiz (caso sentença): Des. Cruz Macedo

Câmara/Turma: 4ª Turma Cível

Artigos do MCI mencionados:

Artigo 19, § 1º

Ementa:

"DIREITO CIVIL E CONSTITUCIONAL. OBRIGAÇÃO DE FAZER. FACEBOOK. PUBLICAÇÃO DE VÍDEO EDITADO. REMOÇÃO. PROVEDOR DE INTERNET. CONTROLE PRÉVIO. IMPOSSIBILIDADE. ORDEM JUDICIAL ESPECÍFICA. NECESSIDADE. ART. 19. ASTREINTES.
REDUÇÃO. POSSIBILIDADE.
1. Não se conhece de pedido de apelação quando não evidenciada qualquer sucumbência da parte mas, pelo contrário, quando as razões da sentença expressam estritamente a tese do apelante no sentido de se restar inviável a proibição prévia de qualquer veiculação de alguma publicação, com remissão ao art. 19, § 1º, da Lei nº 12.965/14 (Marco Civil da Internet) a subsidiar a tese, restando
caracterizada a ausência de interesse recursal, por falta de utilidade e necessidade da impugnação.
2. Muito embora as astreintes objetivem evitar a inércia do réu em dar cumprimento à obrigação, o montante deve ser arbitrado de modo coerente com os critérios de razoabilidade e proporcionalidade, aptos a consagrar a finalidade impositiva daquelas, intimidando o réu a cumprir a obrigação, sem proporcionar o locupletamento ilícito do autor, notadamente em face da natureza e das circunstâncias da causa. Mostram-se exacerbadas as astreintes fixadas em sentença (R$100.000,00 - cem mil reais), sob pena de enriquecimento sem causa da parte autora, impondo-se a redução para R$ 10.000,00 (dez mil reais) por episódio de desrespeito à decisão, que se apresenta suficiente a compelir o réu ao cumprimento da obrigação.
3. Apelação parcialmente provida."

  • Bernardo Menicucci Grossi
    Bernardo Menicucci Grossi em 16/11/2016

    Trata-se de uma ação de obrigação de fazer proposta pelo Deputado Federal Jean Wyllys de Matos Santos em face de Facebook Serviços Online do Brasil Ltda com o objetivo de impedir a divulgação de vídeo supostamente ofensivo à sua reputação.

    Uma importante particularidade a ser observada é que a Lei 12.965/2014, o Marco Civil da Internet estabelece em seu artigo 19, caput e §1?, que qualquer provedor de aplicações somente poderia ser responsabilizado civilmente em virtude de danos decorrentes de conteúdo gerado por terceiros mediante o descumprimento de ordem judicial específica que determine a remoção do referido material lesivo.

    Assim, a responsabilidade civil do provedor de aplicações por eventuais danos existentes foi proclamada solidária em virtude de ato culposo posterior à incidência da jurisdição estatal, conquanto evidentemente não caiba a qualquer particular o exercício de poder de polícia e tampouco a faculdade de exercer jurisdição a fim de analisar, caso a caso, o que consiste ofensa à honra, imagem ou à propriedade intelectual, por exemplo, e o que consiste em legítimo exercício do direito à liberdade de expressão e informação.

    Esta análise é, portanto, privativa do Estado-juiz. A responsabilidade civil do provedor de aplicações, já que a ele não se pode atribuir a solidariedade direta pelos atos de terceiros, decorre de ação culposa, seja ela omissiva ou comissiva, que terá concorrido para a perpetuação ou propagação do dano sofrido por alguém.

    É exatamente isso o que estabeleceu o artigo 19, caput, do Marco Civil da Internet, no qual se baseou esta ação, sendo incorreto cogitar-se de responsabilização direta do provedor de aplicações, a saber:
     

    Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.
     

    É de se notar que neste caso também foi requerida a tutela provisória de urgência de natureza antecedente para a produção antecipada de provas, consubstanciada pelo fornecimento de informações cadastrais de usuário da rede social facebook, além de um nítido exercício de direito de resposta com a divulgação de um texto dissociando o vídeo ofensivo da imagem do autor.

    Em sentença, foi determinada a exclusão do vídeo do URL indicado, o que está em conformidade com o artigo 19, §1?, do Marco Civil da Internet, eis que não se admite o pedido genérico que vise impor ao provedor de aplicações o monitoramento, a seleção e a indisponibilidade de conteúdo sem origem previamente identificada, assim como assegurou o acesso aos dados cadastrais do usuário que veiculou o vídeo.

    Assim, restaram rejeitados os pedidos atinentes ao direito de resposta e de tutela específica de obrigação de não-fazer para proibir a sociedade empresária titular da rede social Facebook de permitir que o vídeo fosse compartilhado. Se o provedor de aplicações não se dispõe, contratualmente, a exercer fiscalização ou a estabelecer um filtro sobre o conteúdo que é publicado na rede social diretamente por terceiros, também não lhe seria lícito atribuir esta responsabilidade judicialmente, no que se revelou acertada a sentença e o acórdão.

    Aliás, pretender-se proibir futura publicação de conteúdo, sem indicar a página onde o mesmo estaria hospedado e o terceiro que o publicaria poderia configurar, a meu ver, pedido indeterminado, o que é vedado pelo artigo 324 do Código de Processo Civil.

    No que pertine à multa estabelecida para o descumprimento da obrigação de eliminar o conteúdo ofensivo, a sentença tinha arbitrado R$100.000,00 que foram reduzidos pelo acórdão a R$10.000,00 para cada inadimplemento.

    Esse também é um tema muito corriqueiro em ações dessa natureza, pois à obrigação de fazer a que alude o Marco Civil da Internet, para a exclusão de conteúdo online geralmente é atribuída uma multa periódica, por vezes diária, para lhe conferir maior efetividade. O estabelecimento de monitoramento de conteúdo por provedores de hospedagem ou de aplicações é medida comumente adotada em outros países, como nos Estados Unidos da América nas ações julgadas com base na Digital Millennium Copyright Act.

  • Fabricio da Mota Alves
    Fabricio da Mota Alves em 15/11/2016

    Em recente decisão, a 4ª Turma Cível do Tribunal de Justiça do Distrito Federal deu provimento parcial a recurso do Facebook em uma ação movida pelo deputado Jean Wyllys.

    Um dos objetivos do parlamentar era a remoção de conteúdo (vídeo) que considerou ofensivo à sua honra e imagem e a identificação do usuário. O deputado também havia requerido que a rede social fosse condenada a revelar os dados de identificação do usuário que publicou o vídeo e a inserir mensagem de advertência, em seu lugar, sobre a inveridicidade do conteúdo ofensivo. Por fim, requereu-se, ainda, que a empresa fosse compelida a não mais permitir que o mesmo conteúdo voltasse a ser disponibilizado em seu sistema, sob pena de multa.

    A sentença proferida pelo juízo da 23a Vara Cível de Brasília acatou em parte os pedidos. Condenou o Facebook a remover de forma definitiva o vídeo ilícito, conforme URL indicada pelo autor da ação e a fornecer os dados pessoais do autor da publicação. Negou, porém, os demais requerimentos, por entender incabíveis e infundados.

    A rede social sustentou, em sua apelação, que a decisão de primeira instância não poderia ter determinado o monitoramento do conteúdo publicado por usuários da rede, de maneira a impedir que o mesmo vídeo ofensivo ao Deputado pudesse ser novamente disponibilizado na internet. Em suas razões, alegou que o controle prévio de conteúdo, ou seja, o monitoramento e a censura preventiva, não se compatibilizam com o Marco Civil da Internet, sendo, além disso, determinação impossível de ser cumprida sob o aspecto tecnológico.

    O Tribunal não conheceu desse pedido, por questões de viés meramente processual, mas a temática merece ser discutida perante a comunidade jurídica.

    De fato, ações com o objetivo de remoção de conteúdo e imposição de obrigação de fazer consistente em monitoramento e censura prévia de conteúdo não são inéditas no Brasil.

    Em 2007, por exemplo, a Justiça paulista determinou ao Google a remoção de conteúdo íntimo da apresentadora Daniela Cicarelli e de seu ex-namorado do Youtube e, diante da recusa da empresa, impôs o bloqueio de acesso ao serviço, que chegou a durar 48 horas, vindo o magistrado responsável a rever a própria decisão posteriormente diante da grande repercussão da medida. O processo encontrou estabilização jurisdicional ao longo de seu curso, atendendo parcialmente aos interesses tanto das pessoas envolvidas, como da empresa, mas o ex-namorado da apresentadora prosseguiu com medidas judiciais objetivando inibir que o vídeo fosse republicado sistematicamente por usuários do serviço.

    Novamente, em 2008, o Ministério Público Estadual de Rondônia, atuando em defesa do interesse de crianças e adolescentes de três cidades do interior do Estado, obteve liminar para que o Google monitorasse e impedisse a criação de comunidades ofensivas a menores de idade em sua rede social de então, o Orkut, decisão essa mantida pelo Superior Tribunal de Justiça em julgamento ocorrido em 2010.

    Ainda neste ano de 2016, o relator da CPI dos Crimes Cibernéticos instaurada pela Câmara dos Deputados, deputado Espiridião Amin, publicou relatório preliminar contendo sugestões de proposições legislativas que seriam submetidas ao colegiado daquele órgão de investigação contendo uma minuta de projeto de lei com propósito similar ao que ora se discute.

    A iniciativa tinha a seguinte ementa: “Altera o Marco Civil da Internet, Lei nº 12.965, de 23 de abril de 2014, determinando a indisponibilidade de cópia de conteúdo reconhecido como infringente, sem a necessidade de ordem judicial e dá outras providências.” Seu propósito era justamente modificar o regime especial de responsabilidade civil dos provedores de aplicações da internet (que a lei digital criou para salvaguardar a liberdade de expressão), impondo o dever de, sob pena de responder por tal ato, impedir que conteúdo previamente considerado ilícito fosse novamente disponibilizado na internet.

    Na verdade, tais situações vivenciadas tanto no Poder Judiciário quanto no Legislativo, apenas evidenciam, no Brasil, o intuito de replicar tendências internacionais, particularmente inspiradas por experiências registradas nos Estados Unidos, onde tais discussões, inclusive, já são popularmente conhecidas pelas expressões “Notice and Takedown” e “Notice and Stay Down”. A primeira refere-se à responsabilidade da empresa digital se não acatar notificação enviada pelo interessado. Já a segunda proposta é exatamente no sentido dos casos citados há pouco e, em parte, o objetivo da ação do deputado Jean Wyllys: impedir que um conteúdo ilegal seja republicado na internet.

    Curiosamente, o parlamentar foi um dos mais combativos membros da CPI, a qual foi duramente criticada pela divulgação do referido relatório contendo a proposta que traduzia o “Notice and Stay Down”. Diversas entidades em defesa da liberdade de expressão e dos direitos dos usuários da internet emitiram notas públicas confrontando a proposta, por temerem seus efeitos nocivos no que diz respeito à vulneração da cláusula anticensura que o próprio Marco Civil da Internet estabeleceu.

    E com razão: trata-se, sem dúvida, de controle preventivo de conteúdo, o que seria absolutamente inadmissível à luz do ordenamento jurídico nacional, com fundamento na própria Constituição Federal. Estabelecer uma obrigação de impedir conteúdos supostamente ilegais de serem disponibilizados na internet seria deslocar, novamente, para os provedores de conteúdo o dever (legal) de analisar preventivamente esses conteúdos, sob pena de serem responsabilizados pelos danos eventuais decorrentes.

    Basta, aqui, um raciocínio pragmático: considerando-se que a publicação de conteúdo na internet nada mais é que uma forma de manifestação do pensamento e de exercício da liberdade de expressão, fica claro que o âmbito de atuação empresarial submete-se à alta subjetividade em torno da questão. O que, afinal, seria ofensivo a um indivíduo determinado? Nesse sentido, dada a complexidade de solução da questão, é evidente que as empresas, como já fizeram no período pré-marco civil, optarão por censurar preventivamente, face à insegurança jurídica inerente à situação.

    Foi exatamente para conferir maior estabilidade jurídica a essa questão que o Marco Civil da Internet apresentou o regime digital de responsabilidade civil, assessorada por uma condicionante processual. Aliás, a cláusula apresenta uma motivação que não deixa margem para dúvida, como se vê no caput do art. 19:
     

    “Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.”
     

    Mais ainda: como forma de impor essa situação, o marco regulatório impôs nova espécie de requisito processual para deferimento de tutela provisória de urgência (medida liminar): a indicação específica da URL.
     

    “Art. 19 (...)
    § 1º A ordem judicial de que trata o caput deverá conter, sob pena de nulidade, identificação clara e específica do conteúdo apontado como infringente, que permita a localização inequívoca do material.”
     

    Cada conteúdo, portanto, disponibilizado, armazenado ou reproduzido na internet, possui um registro de localização do endereço lógico onde se encontram os dados que devem ser acessados pelos dispositivos tecnológicos que farão a sua transferência e processamento. No caso da web, trata-se do URL, e assim por diante. Com isso, cada conteúdo, até mesmo uma reprodução fiel, possui seu próprio endereço localizador, o que forçou a uma situação de identificação singular para cada conteúdo.

    Dessa forma, independente dos argumentos que se suscitem, objetivamente, pode-se afirmar que qualquer controle efetivamente preventivo implicaria um novo juízo de valor sobre conteúdo que, a rigor, ou seja, tecnologicamente, pode não corresponder ao conteúdo ilegal em questão. Isso porque, para que fosse efetivamente o mesmo arquivo eletrônico, todas as suas informações lógicas e binárias deveriam ser rigorosamente idênticas àquela do arquivo que armazena o conteúdo ilícito, de maneira que seu teor igualmente se replicaria quando de sua leitura pelos sistemas informáticos.

    Além disso, como se sabe, a facilidade de se manipular conteúdo ou arquivos atualmente está ao alcance de um mero toque em um aplicativo gratuito nas lojas oficiais dos sistemas móveis. Por isso, um mesmo arquivo poderia ser editado facilmente, ainda que contendo uma mera legenda de texto ou uma trilha sonora, implicando inovação tecnológica ao suporte digital que armazena as informações de conteúdo.

    Fatalmente, portanto, o controle prévio de conteúdo levaria as empresas a testar os limites subjetivos entre a liberdade de expressão e a violação de direitos alheios, com forte tendência à censura generalizada, a fim de afastar a responsabilidade civil por conteúdo gerado por terceiros.

    Por tais razões, deve-se aplaudir a decisão da juíza Ana Luiza Morato Barreto, mantida, nesse aspecto, pelo Tribunal de Justiça do DF. O controle preventivo de conteúdo, como, aliás, bem advertido pela Eletronic Frontier Foundation, não é uma questão de “Notice and Stay Down”, mas de “Filter-Evertyhing” (filtragem de tudo).