quarta-feira, 3 de março de 2021

COLUNAS

Publicidade

Responsabilidade civil dos provedores de internet: a liberdade de expressão e o art. 19 do Marco Civil

terça-feira, 23 de fevereiro de 2021

Introdução

Antes do Marco Civil da Internet (lei 12.965/2014), a jurisprudência havia se consolidado no sentido de que os provedores de conteúdos de terceiros deveriam responder pelos danos deles decorrentes se: (i) após tomarem conhecimento inequívoco, por meio de denúncia extrajudicial, da existência de materiais reputados ilegais, explicitamente identificados pela(s) respectiva(s) URLs, deixassem de removê-los e/ou (ii) não mantivessem sistema de identificação dos usuários que permitisse saber quem foi o autor direto do dano.

Em 2014, entrou em vigor o Marco Civil da Internet, que tornou ainda mais estritas as hipóteses de responsabilidade das plataformas digitais por danos decorrentes de conteúdo gerado por terceiros. De fato, o art. 19 da lei prevê, como regra geral, que o provedor de aplicações de internet "somente poderá ser responsabilizado civilmente por danos de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para tornar indisponível o conteúdo apontado como infringente".

Consequentemente, a responsabilidade civil dos chamados provedores de aplicações, que antes era deflagrada a partir do descumprimento de notificação extrajudicial, passou a incidir apenas quando houvesse o descumprimento de ordem judicial específica. Houve, portanto, uma redução no grau de proteção que já vinha sendo assegurado às vítimas.

Esse regime, porém, está em nítido descompasso com o papel exercido por esses agentes no fluxo informacional, como se verá a seguir.

A interferência das plataformas digitais no fluxo informacional e as insuficiências do art. 19 da lei 12.965/2014

As plataformas de comunicação promovem novas oportunidades de interação, além de assegurarem o acesso a uma infinidade de informações. Todavia, a "fantasia de uma plataforma amplamente aberta", relacionada a noções idealizadas de comunidade e de democracia é falaciosa: as plataformas normalmente impõem regras de moderação1.

Com efeito, é extremamente comum que as próprias plataformas, especialmente as maiores, adotem políticas sobre o que pode ou não ser publicado, assim como mecanismos que assegurem a efetividade de tais políticas. Daí a conclusão de que, em casos assim, tais agentes constituem estruturas de governança privada2.

Não é sem razão que uma das críticas ao Marco Civil é que, apesar do propalado intuito de assegurar a liberdade de expressão dos usuários, não se proíbe o provedor de suprimir, unilateralmente, qualquer conteúdo que ele julgue ofensivo. De fato, nada obsta que esses agentes econômicos, a partir da notificação extrajudicial de um usuário ou, mesmo de ofício, suprimam determinado conteúdo, mesmo quando baseados em regras unilateralmente fixadas e normalmente com alto grau de obscuridade, o que amplia excessivamente a liberdade da plataforma, quando não a transforma em puro arbítrio.

Nesse sentido, a realidade vem mostrando que a interferência no fluxo informacional não se esgota apenas na definição do que pode ser publicado. A extração de dados privados, aliada ao uso intensivo de um intrincado sistema de algoritmos e de ferramentas de Big Data e de Big Analytics, permite às plataformas também controlar a difusão do conteúdo produzido por terceiros. Para se ter uma ideia, 70% das visualizações do YouTube decorrem de recomendações baseadas em sistemas de inteligência artificial3.

Há, portanto, uma conduta ativa das grandes plataformas, que normalmente filtram, selecionam, ranqueiam e escolhem o que cada usuário irá ver e quando irá ver. Essa seleção, cujos critérios decorrem de algoritmos em relação aos quais não há qualquer transparência, tende a favorecer os interesses de mercado das plataformas, fazendo com que seus usuários fiquem mais tempo em seu ambiente, o que não apenas aumenta o tempo de exposição às ofertas publicitárias ou às propagandas políticas, mas também amplia a coleta de seus dados pessoais.

Apesar da notória interferência das plataformas digitais no fluxo comunicativo, o argumento subjacente ao art. 19 do Marco Civil é o de que a definição de um regime mais rígido, traria o risco de notificações extrajudiciais infundadas. Nesse sentido, autores como Jack Balkin4 sustentam que a adoção de um regime de responsabilidade pelo conteúdo de terceiros poderia levar à chamada "censura colateral", que ocorre quando, diante do temor de ser responsabilizado, o intermediário tende a bloquear ou censurar, de maneira exagerada, as publicações dos usuários.

Todavia, tal tipo de perspectiva apenas poderia ser sustentada diante da premissa da neutralidade das plataformas em face dos conteúdos que nela transitam. A partir do momento em que se constatam a ingerência e o controle sobre o fluxo informacional, não faz sentido afastar a responsabilidade, até porque a liberdade de expressão não desfruta, na Constituição brasileira, de posição privilegiada em relação a outros direitos fundamentais, exigindo, ao contrário, um cuidadoso balanceamento dos bens jurídicos em conflito.

As incoerências do art. 19 não passaram despercebidas pela doutrina, motivo pelo qual alguns autores chegaram a sustentar a sua inconstitucionalidade, argumentando, dentre outras coisas, que o dispositivo afronta a garantia constitucional de reparação plena e integral, o princípio de acesso à Justiça e o princípio da vedação ao retrocesso social (pela subversão da jurisprudência mais protetiva que já havia se firmado)5.

De fato, um dos maiores problemas do art. 19 é que ele acaba por privilegiar a liberdade de expressão em detrimento de outras garantias constitucionais, em afronta ao art. 5º, X, da CF, que reconhece a inviolabilidade dos direitos à intimidade, à vida privada, à honra e à imagem das pessoas e assegura, expressamente, a reparação integral pelo dano material ou moral decorrentes de sua violação. Aliás, a inconstitucionalidade do art. 19 do Marco Civil é objeto de discussão no RE nº 1.037.396, pendente de julgamento no STF.

Causa estranheza, ainda, o fato de o legislador ter imputado à vítima o ônus de recorrer ao Judiciário, como condição indispensável para a deflagração da responsabilidade das plataformas. Impõe-se às vítimas o ônus de enfrentar batalhas jurídicas, muitas vezes longas e dispendiosas, agravando o dano, especialmente diante da morosidade do Judiciário em contraposição à velocidade de replicação dos conteúdos no ambiente virtual.

Ressalte-se que o usual argumento, em favor do art. 19 - de que as plataformas poderiam ser, eventualmente, responsabilizadas pela indevida interferência na liberdade de expressão de seus usuários - é pouco convincente. Em primeiro lugar, o risco existe mesmo quando a moderação decorre do enforcement dos termos de uso. Nem por isso, as plataformas deixam de criar regras de governança e aplicá-las cotidianamente. Em segundo lugar, a necessidade de sopesar interesses em conflito é inerente ao exercício da autonomia privada. Trata-se, na verdade, de uma decorrência direta do Estado Democrático de Direito, que, não reconhecendo direitos subjetivos absolutos, exige a todo momento que os indivíduos exerçam delicados juízos quanto à abrangência de sua autonomia privada em face dos direitos de terceiros.

Tal raciocínio é ainda mais pertinente quando se trata de agentes econômicos que criam o risco respectivo e dele obtêm grande proveito econômico. Daí por que, diante do poder e dos benefícios de que usufruem, é necessário que também suportem os danos decorrentes da atividade.

Para se chegar a tal conclusão, não é necessário o apoio nos pressupostos da responsabilidade objetiva. Afinal, o próprio art. 187 do Código Civil deixa claro que abusa do seu direito todo aquele que o exerce de forma a exceder manifestamente os limites impostos pelas finalidades sociais e econômicas do direito e pela boa-fé. Ao assim fazer, o artigo impõe que os particulares considerem em que medida as suas ações podem ou não estar causando danos desnecessários, inadequados ou desproporcionais a terceiros.

Mais do que isso, o art. 19 do Marco Civil precisa ser também interpretado em face da Constituição, do Código Civil e do Código de Defesa do Consumidor, os quais apontam para a necessidade de que a questão a responsabilidade civil das plataformas seja vista igualmente a partir da perspectiva do dever de cuidado exigido em cada hipótese, inclusive para o fim de tratar com maior rigor os casos claramente abusivos.

Em muitas hipóteses, é possível se falar até mesmo em uma espécie de "zona de certeza positiva", na qual a ilicitude se revelará patente, como ocorre em incitações de ódio, xingamentos grosseiros, mensagens discriminatórias, pornografia infantil, etc. Nessas hipóteses, por exemplo, não parece adequado que o agente, mesmo tomando conhecimento inequívoco da publicação e se recusando a retirá-la, possa escusar-se de reparar os danos daí decorrentes.

É importante lembrar que o dever de cuidado decorre do princípio da boa-fé objetiva, aplicando-se a qualquer tipo de relação contratual, independentemente de previsão expressa, incluindo, obviamente, os contratos entre as plataformas digitais e seus usuários. Seu objetivo não é assegurar os interesses obrigacionais em si, mas, sim, garantir que os contratantes não causem danos uns aos outros ou a seus patrimônios.

Sob esta perspectiva, abre-se, inclusive, nova frente de discussões, que deixa de ter como foco apenas o controle de conteúdo e passa a ter como foco também a própria arquitetura da plataforma, ou seja, o seu design e a compatibilidade deste com padrões mínimos de accountability e de cuidado. Isso porque, muitas vezes, os danos sofridos pelas vítimas decorrem do próprio design das plataformas, criado para atingir interesses privados dos agentes econômicos, ao mesmo tempo em que impõe externalidades significativas à sociedade6.

Acresce que muitas das ambivalências e dificuldades que a preservação da liberdade de expressão vem enfrentando no ambiente digital decorre da completa falta de transparência sobre a forma como as plataformas gerenciam os fluxos, por meio de algoritmos secretos e obscuros, sem nenhuma accountability.

Nesse cenário, é imprescindível traçar alternativas intermediárias entre a ampla responsabilização por conteúdo de terceiros e a irresponsabilidade, delineando um regime em que as plataformas possam responder por danos decorrentes do sistema de gestão, controle e curadoria da informação que elas próprias criaram, notadamente quando padrões mínimos de cuidado e de transparência não forem providenciados.

O Marco Civil da Internet não pode, portanto, ser interpretado como uma espécie de "blindagem" das plataformas ao Código Civil, ao Código do Consumidor e à própria Constituição Federal, para restringir a tutela dos danos injustos causados a seus usuários por conteúdos de terceiros. Se o art. 19 já sofre críticas desde a sua edição, com maior razão é justificável sustentar que a sua premissa de aplicação irrestrita é a neutralidade da plataforma em relação aos conteúdos.

É dizer: se a plataforma digital exerce gestão, moderação ou controle de conteúdos e, na execução da relação contratual, deixa de adotar os deveres de cuidado necessários, razoáveis e proporcionais para evitar que sejam causados danos injustos à outra parte, deve repará-los pela violação ao dever de proteção que decorre da boa-fé objetiva.

Por mais que a precisa identificação do conteúdo do dever de cuidado não possa ser feita em abstrato - devendo ser densificada a partir de critérios como a previsibilidade e a gravidade do dano, a profissionalidade e o porte do agente econômico, dentre outros - trata-se de juízo imprescindível para assegurar o equilíbrio entre o poder e a responsabilidade de tais agentes.

*Ana Frazão é advogada e professora associada da Universidade de Brasília - UnB.

**Ana Rafaela Medeiros é advogada.

__________

1 GILLESPIE, Tarleton. Custodians of the Internet: Platforms, content moderation, and the hidden decisions that shape social media [edição eletrônica]. New Haven, CT: Yale University Press, 2018.

2 BALKIN, M. Jack. Free Speech in the Algorithmic Society: Big Data, Private Governance, and New School Speech Regulation. University of California, Davis, p.1149-1210, 2018, p. 1181.

3 Cf. "YouTube's AI is the puppet master over most of what you watch", 10.1.2018. Disponível aqui. Acesso em 12/2/2021.

4 BALKIN, Jack M. Free Speech is a triangle. Columbia Law Review, v. 118, p. 2011-2056, 2011, p. 2015.

5 SCHREIBER, Anderson. Marco Civil da Internet: Avanço ou Retrocesso? A responsabilidade civil por dano derivado do conteúdo gerado por terceiro. In: LUCCA, Newton de; SIMÃO FILHO, Adalberto; LIMA, Cíntia Rosa Pereira. Direito e Internet III: Marco Civil da Internet - tomo II. São Paulo: Quartier Latin, p. 277-305, 2015. No mesmo sentido, QUEIROZ, João Quinelato de. Responsabilidade civil na Rede: danos e liberdade à luz do marco civil da internet. Rio de Janeiro: Editora Processo, 2019. 

6 Cf. MAZÚR, Jan; PATAKYOVÁ, Maria T. Regulatory. Masaryk University Journal of Law and Technology, v. 13, p. 219-241, 2019, p. 223-224.

Atualizado em: 23/2/2021 09:25

Publicidade