Audiência pública: plataformas e sociedade civil discutem gerenciamento de conteúdo online
As exposições serão retomadas nesta quarta-feira (29), a partir das 9h, com transmissão pela TV Justiça e pelo canal do STF no YouTube.
Na tarde desta terça-feira, o Supremo Tribunal Federal ouviu dois blocos de participantes da audiência pública convocada pelos ministros Dias Toffoli e Luiz Fux para discutir as disposições do Marco Civil da Internet em relação à responsabilidade dos provedores pelos conteúdos publicados por usuários e a possibilidade de sua remoção.
O primeiro bloco reuniu representantes de plataformas, redes sociais e entidades representativas dos provedores e empresas do setor, além da Anatel e da Autoridade Nacional de Proteção de Dados. O segundo grupo de exposições ficou por conta de associações de classe – de advogados, jornalistas, comunicadores públicos, defesa do consumidor e das crianças, entre outros.
A audiência prosseguirá amanhã (29), a partir das 9h, com expositores predominantemente ligados a entidades de pesquisas sobre o tema (confira a lista completa).
Confira, abaixo, o resumo das exposições desta tarde.
Para a consultora jurídica da plataforma, Jacqueline Abreu, o modelo de responsabilidade civil previsto no artigo 19 do Marco Civil da Internet (Lei 12.965/2014) é uma decisão política legítima do Legislativo, e qualquer discussão acerca do tema deve se dar no campo daquele Poder. Ainda segundo Jacqueline, o dispositivo existe para proteger direitos fundamentais dos usuários, e o regime de responsabilização das plataformas instituído por ele é só um meio para esse fim.
TikTok
Na avaliação de Fernando Gallo, diretor de políticas públicas do TikTok Brasil, há uma percepção de que as plataformas são passivas e SOMENTE removem conteúdos que representem violações por ordem judicial. Mas, segundo ele, apenas no terceiro trimestre de 2022, o TikTok removeu 111 milhões de vídeos proativamente.
Wikimedia
Tiago Machado Cortez, advogado da Fundação Wikimedia, afirmou que a responsabilidade prévia pelo conteúdo gerado por terceiros afeta o funcionamento da Wikipedia, por se tratar de uma plataforma de produção de informação colaborativa para difundir conhecimentos já gerados.
Mercado Livre
Humberto Chiesi Filho, do Mercado Livre, apontou a dificuldade da identificação correta de conteúdos irregulares até mesmo pelas autoridades competentes. Para ele, a decisão sobre a responsabilização deve ser conjunta e discutida no âmbito legislativo, com participação da sociedade civil.
GetEdu
Para José Emiliano Landim, da GetEdu, parceira do Google, toda forma de censura deve ser sempre a exceção, não a regra. A decisão quanto ao que ler, ouvir e sentir deve ser delegada aos usuários, que, por meio de filtros, direcionam o conteúdo no uso da plataforma.
Abranet
Carlos Affonso Souza, da Associação Brasileira de Internet (Abranet), afirmou que desmontar o Marco Civil, em especial o artigo 19, traz mais problemas do que soluções. A seu ver, o aprimoramento passa por novas exceções, pelo dever de cuidado e por regras de transparência complementares ao regime de responsabilidade.
Assespro Nacional
Adriele Pinheiro Reis, representante da Federação das Associação das Empresas de Tecnologia da Informação, defendeu que todo conteúdo ou conduta não deve escapar do escrutínio judicial, pois a segurança pública é um bem jurídico protegido pela Constituição e direito e responsabilidade de todos.
Abrint
Cristiane Sanches, pela Associação Brasileira de Provedores de Internet e Telecomunicações (Abrint), afirmou que novas tecnologias representam desafios à ordem jurídica. Ela defendeu que cabe ao Estado servir como empoderador e trazer aos cidadãos e às empresas um ambiente de confiança.
Anatel
O presidente da Agência Nacional de Telecomunicações (Anatel), Carlos Manuel Baigorri, destacou o esforço da agência no combate à venda de produtos não certificados em plataformas digitais e na apreensão de equipamentos que podem ser ativados de forma remota e utilizados para ataques cibernéticos.
ANPD
Waldemar Gonçalves Ortunho Júnior, da Autoridade Nacional de Proteção de Dados Pessoais (ANPD), destacou que a Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet asseguram as condições necessárias para o desenvolvimento econômico e tecnológico e para a garantia dos direitos fundamentais nas redes, em especial a liberdade de expressão e a privacidade.
Para o representante da ANPD, a fixação de novas interpretações sobre o tema deve ser pautada pela cautela, pelo reconhecimento de sua complexidade e pela necessidade de amplo diálogo e escuta atenta de todos os interessados.
IASP
O professor Marcel Leonardi, representante do Instituto dos Advogados de São Paulo (IASP), avaliou como um desafio a busca de critérios para a remoção de conteúdos ilegais das redes. Ele ressaltou que os limites da liberdade de expressão dificultam a compreensão de quando um discurso crítico se torna discurso de ódio.
OAB/SP
Ronaldo Lemos, da Comissão de Tecnologia e Inovação da Seccional São Paulo da Ordem dos Advogados do Brasil (OAB/SP), abordou os efeitos do extremismo no processo de regulação de conteúdos. Ele defendeu o diálogo para a revisão do artigo 19 do Marco Civil pelo Legislativo, com a criação de situações específicas. Também propôs a autorregulação pelas plataformas, com a criação de órgãos de supervisão com força vinculante que fiscalizem as atividades de moderação e estabeleçam regras de transparência, aprimorando as decisões em relação aos seus conteúdos.
Abert
Pela Associação Brasileira de Emissoras de Rádio e Televisão (Abert), Marcelo Carpenter afirmou que a propagação do ódio e da ofensa não é ocasional, mas estrutural. Segundo ele, há um modelo econômico responsável por estimular essa prática, que gera mais interação e retorno financeiro.
ANJ
O presidente da Associação Nacional de Jornais (ANJ), Marcelo Rech, destacou o artigo 5° da Constituição, que garante a livre manifestação do pensamento e veda o anonimato, para afirmar que não deve haver manifestação anônima ou com identidade fraudada, a fim de garantir a responsabilização.
Além disso, Rech argumentou que as redes sociais estão repletas de robôs e contas automatizadas, o que dificulta a responsabilização pelos conteúdos. Dessa forma, as plataformas devem vedar as contas falsas antes de sua criação, pois a remoção é mero método paliativo.
Abraji
Tais Gasparian, da Associação Brasileira de Jornalismo Investigativo (Abraji), mostrou que, entre 2014 e 2022, 40% dos processos com pedido de retirada de conteúdo foram indeferidos. Ela apontou a subjetividade dos casos e alertou que o assunto é de difícil resolução, em razão da falta de parâmetros robustos no debate público.
ABCPública
Lincoln Macário, da Associação Brasileira de Comunicação Pública (ABCPública), ressaltou que as notificações sobre conteúdos ilegais são muitas vezes ignoradas, e conteúdos controversos não são retirados porque causam engajamento. Ele defendeu medidas de transparência e acessibilidade aos termos de uso pelo usuário.
Idec
Pelo Instituto Brasileiro de Defesa do Consumidor (Idec), Walter de Moura defendeu a constitucionalidade do artigo 19 do Marco Civil da Internet e a necessidade de manter a responsabilidade objetiva e solidária dos provedores em relações de consumo. Segundo ele, há abuso na situação de vulnerabilidade do consumidor.
Brasilcon
Os expositores do Instituto Brasileiro de Política e Direito do Consumidor (Brasilcon), Guilherme Martins e João Victor Longh, defenderam a notificação extrajudicial como solução mais razoável para preservar o direito da personalidade de vítimas de discursos de ódio, discriminações e violências digitais. Para eles, o real risco para a liberdade de expressão decorre da ausência de regulação da matéria e da falta de responsabilização das plataformas.
Artigo 19 Brasil
Em nome do Artigo 19 Brasil, Raquel Lima defendeu a possibilidade de restrição da liberdade de expressão com base no entendimento de órgãos internacionais de direitos humanos que consideram que essa liberdade não é um direito absoluto. Ela observou que, para esses órgãos, as restrições devem ser excepcionais, e a liberdade de expressão não pode ser limitada além do estritamente necessário, sob risco de se criar um mecanismo de censura prévia direta ou indireta.
NIC.br
Ao representar o Núcleo de Informação e Coordenação do Ponto BR (NIC.br), Demi Getschko ressaltou que a governança brasileira da internet, da qual faz parte o Marco Civil, é muito elogiada internacionalmente. Ele manifestou preocupação com os riscos na abordagem do assunto e avaliou que discussões sobre aspectos econômicos e de conteúdo não devem ser misturados. A seu ver, o combate a ilícitos na internet deve atingir os responsáveis finais, e não os meios de acesso às informações.
Instituto Alana
A diretora do instituto, Isabella Henriques, destacou o dever geral de cuidado em relação a crianças e adolescentes, público que corresponde a 1/3 dos usuários no mundo e é fortemente impactado pelo que acontece nas plataformas. Ela observou que, pelo fato de a infância e a adolescência serem períodos peculiares de desenvolvimento humano, com reflexos para toda a vida, é preciso se atentar às ameaças com que crianças e adolescentes podem se deparar na internet.
Conib
Representando a Confederação Israelita do Brasil (Conib), Rony Vainzof falou sobre a importância do devido processo informacional na moderação de conteúdo online e destacou a relevância das plataformas digitais, que praticamente compõem a estrutura pública de comunicação. Vainzof apontou a necessidade de gerenciamento do conteúdo nocivo, com a apresentação de relatórios periódicos de transparência e a remoção, em até 24 horas, de discursos de ódio, entre outras medidas.
SP, CT, EC//CF
Leia mais: