STF tem maioria para ampliar responsabilização de big techs

O STF (Supremo Tribunal Federal) formou maioria para que as big techs possam ser responsabilizadas se não retirarem publicações criminosas de usuários, mesmo que não haja decisão judicial prévia para a remoção. A exceção seria para crimes contra honra.
O plenário somou, nesta quarta-feira (11), os votos ministros Flávio Dino, Cristiano Zanin e Gilmar Mendes pela ampliação da responsabilidade das redes sociais no julgamento que trata da constitucionalidade de trechos do Marco Civil da Internet, em vigor desde 2014.
Anteriormente, Dias Toffoli, Luiz Fux e Luís Roberto Barroso já haviam manifestado entendimento semelhante. Os magistrados, porém, têm avaliações diferentes sobre a amplitude e ainda terão que modular uma tese ao final do julgamento.
Por enquanto, só André Mendonça votou para manter a responsabilização das plataformas apenas após decisão judicial.
A expectativa é que, ao fim do julgamento, o Supremo promova mudanças no modelo atual, o que deve impactar a moderação de conteúdo das plataformas e colocar em voga parte do que vinha sendo discutido no Congresso Nacional no âmbito do PL das Fake News, que acabou travado diante do lobby das próprias big techs.
Ao votar, Dino defendeu "avançar na direção da liberdade com responsabilidade e da liberdade regulada, que é a única e verdadeira liberdade".
Ele fez uma analogia com outros setores para defender a regulação. "Eu nunca vi alguém pretender abrir uma companhia aérea sem regulação em nome do direito de ir e vir", disse. "A responsabilidade evita a barbárie, evita tiranias".
O ministro Cristiano Zanin, assim como os colegas, também afirmou que a norma hoje vigente também não é mais suficiente para o contexto atual para proteger direitos fundamentais e a democracia.
O ministro também manifestou preocupação com a restrição da liberdade de expressão em situações de possíveis crimes contra a honra. Nesses casos, ele aceita que as empresas recusem a retirada do conteúdo caso entendam haver dúvida razoável sobre o conteúdo questionado.
"Se tiver alguma dúvida legítima, a plataforma poderia solicitar ou aguardar a decisão judicial. Aqui também me parece importante fazer uma diferenciação do conteúdo manifestamente criminoso daquele que possa dar margem para a dúvida", disse.
O Supremo também debate o conceito de falha sistêmica das plataformas, para definir em quais cenários o Judiciário deve reconhecer que as big techs não adotaram medidas para sua autorregulação.
Dino sugere que seja reconhecida a falha sistêmica, com possível responsabilização das plataformas, quando forem mantidas no ar publicações que promovam crime contra a criança e o adolescente; crime de induzimento ao suicídio e à automutilação; crime de terrorismo; e apologia aos crimes contra o Estado democrático de Direito.
"Para fins da responsabilidade civil prevista neste item, considera-se falha sistêmica, imputável ao provedor de aplicações de internet, deixar de adotar adequadas medidas de segurança contra os conteúdos ilícitos anteriormente listados, configurando violação aos deveres específicos de prevenção e precaução", completou o ministro.
Dino disse que não fica configurada falha sistêmica a publicação criminosa "atomizada e isolada". "Contudo, uma vez recebida notificação extrajudicial sobre a ilicitude, ará a incidir a regra estabelecida no artigo 21 da Lei nº 12.965/2014 (Marco Civil da Internet)", acrescentou.
O ministro ainda defende que as plataformas digitais devem editar regras de autorregulação que necessariamente contenham um sistema de notificações, um processo para análise de conteúdos denunciados e relatórios anuais de transparência em relação a notificações extrajudiciais.
"As obrigações mencionadas neste item 4 serão monitoradas pela Procuradoria-Geral da República, até que sobrevenha lei específica regulando a autorregulação dos provedores de aplicação de internet."
Toffoli e Fux são os dois relatores do caso e defenderam a derrubada do artigo 19, que define que as empresas só deverão pagar indenização depois de descumprirem ordem judicial para remoção de conteúdo. Para eles, as plataformas devem agir ao serem notificadas por usuários ou mesmo antes, em alguns casos.
O presidente da corte, ministro Luís Roberto Barroso, defendeu que a regra fosse declarada apenas parcialmente inconstitucional. Dino e Zanin seguiram linha similar.
Assim, Toffoli, Fux, Barroso, Zanin, Dino e Gilmar entendem que a norma atual não é mais suficiente para o ambiente digital atual e, por isso, deve ser revista e ampliada.
Um dos principais pontos de controvérsia é a possível criação de um órgão do Executivo que monitore o cumprimento das normas pelas plataformas digitais.
Gilmar defende que seja criado um mecanismo como a Autoridade Nacional de Proteção de Dados, responsável por aplicar sanções contra empresas e órgãos que descumpram a LGPD (Lei Geral de Proteção de Dados).
Barroso, por outro lado, diz que a criação de uma Autoridade ligada ao governo pode ser considerada uma afronta à liberdade de expressão. Ele sugere que o órgão seja colegiado, com presença massiva da sociedade civil organizada.
O presidente de Assuntos Globais do Google, Kent Walker, disse que a tese em discussão no Supremo estabelece uma responsabilidade muito abrangente das plataformas pelo conteúdo produzido por terceiros. Na visão da empresa, seria preciso definir com clareza o tipo de conteúdo que deveria ser regulado.
"O que está sendo sugerido é uma noção ampla de responsabilidade e do dever de cuidado, não muito bem definida. Pela maneira como nossas ferramentas funcionam, nós teríamos que remover muito conteúdo, incluindo conteúdo politicamente valioso, para reduzir o risco de responsabilização", afirmou Walker em conversa com jornalistas em Brasília nesta quarta-feira (11). "O diabo está nos detalhes", declarou.
A empresa acompanha o julgamento com atenção. Walker está em Brasília, com uma agenda de encontros com ministros do STF -ele e o Google não quiseram revelar quais.
O executivo diz que o Google concorda com a moderação de conteúdo de categorias específicas (como ameaças à democracia, incitação à violência e conteúdo prejudicial para crianças), mas não com a responsabilização direta das plataformas pelo conteúdo produzido por terceiros.