A secretária do governo Lula que lidera o diálogo com as redes sociais disse, em entrevista à coluna, que as empresas decidiram não fazer oposição ao PL das Fake News em 2024. Estela Aranha, titular da pasta de Direitos Digitais, do Ministério da Justiça e Segurança Pública, afirmou que as principais plataformas que atuam no Brasil reconheceram que ultrapassaram limites éticos na campanha contra o projeto de lei 2630.
A proposta foi engavetada, em maio do ano passado, após intensa pressão das plataformas e da oposição ao governo Lula. O Google foi alvo de um processo na Secretaria Nacional do Consumidor (Senacom) por divulgar uma mensagem contrária ao projeto de lei. Representantes das rede sociais também espalharam que o PL iria censurar postagens com trechos da Bíblia.
Estela Aranha afirmou que as redes sociais sinalizaram ao Ministério da Justiça que é necessário ter uma regulamentação nacional sobre quais são os deveres e as responsabilidades que elas devem seguir no Brasil. Caso contrário, disse a secretária, as empresas ficarão sujeitas a interpretações jurídicas diversas.
Na entrevista, Estela Aranha falou sobre um novo projeto do Ministério da Justiça contra drogas sintéticas e opióides, fez um balanço sobre o combate aos ataques a escolas e tratou da urgência de aprovar a lei que regulamenta o uso de inteligência artificial (IA) no Brasil. A secretária faz parte de um comitê da ONU que tem discutido a criação de parâmetros globais para a IA. Confira abaixo os principais trechos da conversa:
A regulamentação das redes sociais voltou ao debate público no final de 2023. Nos últimos dias do ano tivemos a invasão ao perfil do X (antigo Twitter) da primeira-dama, Janja da Silva, novas ameaças à segurança de Lula e as mortes de Jéssica Canedo e de PC Siqueira. Esses casos podem refletir na discussão do assunto no Congresso, com a retomada do PL 2630 (o PL das Fake News)?
A regulação das redes sociais nos termos debatidos hoje não resolveria casos como esses, mas ajudaria muito. Não temos a bala de prata para solucionar todos os problemas da internet e, assim como na vida real, crimes continuarão acontecendo quando você tiver uma série de regras. Mas esse ambiente de linchamento e de polarização é influenciado pelo papel do algoritmo e pelo modelo de negócio dessas redes sociais, de impactar e causar polêmicas para ter mais visibilidade e de te fazer caçar cliques. Como você pode criar uma notícia absolutamente falsa, envolver pessoas reais e aquilo ser distribuído, mesmo depois que os usuários foram avisados que aquilo não é verdadeiro? Essa é uma questão de responsabilidade séria das redes sociais. Essas empresas têm que fazer uma avaliação de risco sistêmico. É preciso tomar medidas de mitigação de riscos se o seu produto causa efeito nocivo para um determinado público, como crianças e adolescentes, para a democracia ou para a sociedade em geral. Hoje, as redes sociais não investem aquilo que seria necessário para conter externalidades negativas causadas por elas. Os crimes virtuais não são vistos com a mesma seriedade daqueles que ocorrem fora da internet. Um ataque coordenado de bullying, que pode levar uma pessoa a cometer suicídio, não é levado a sério nas delegacias como deveria. No Rio de Janeiro, tivemos um caso de imagens de nudez de alunas de um colégio criadas a partir de IA e divulgadas nas redes sociais. O impacto na vítima é exatamente igual ao de um crime cometido com fotos reais.
O PL das Fake News é capaz de produzir soluções para esses casos ou o texto precisará de ajustes antes de voltar ao debate no Congresso?
A responsabilidade das redes sociais pelas externalidades negativas vem em primeiro lugar. Isso só acontecerá mediante a responsabilização civil e em resposta a estímulos econômicos, como multas. Hoje, a leitura é que a rede social não tem responsabilidade sobre o que as pessoas postam. Mas, a partir do momento que a plataforma cria padrões para os perfis e segmenta a entrega de conteúdos, é necessário que ela assuma compromissos e deveres. O PL 2630 criará mecanismos para instituirmos um sistema com a autorregulação regulada e com uma autoridade de supervisão. Isso fará com que as plataformas criem um ambiente de maior integridade ao trabalhar com a moderação.
A autoridade de supervisão é o grande impasse para a discussão avançar no Congresso.
O governo mandou sugestões sobre um sistema amplo, com um conselho com participação de diversos setores, mas esse é um debate que o Congresso deve fazer. O que nós sugerimos é a autorregulação regulada. O Facebook, por exemplo, tem um Conselho de Supervisão próprio. As plataformas criariam uma entidade mais institucionalizada, com maior participação, para debater questões relacionadas a elas. Essa supervisão determinaria se as redes sociais estão fazendo análise de risco ou se elas estão tomando as providências para criar um ambiente íntegro. Nenhuma proposta do governo falava sobre a circulação de conteúdos específicos. Se alguém propuser isso, nós seremos contra. Mas não podemos permitir que as pessoas entrem em um ambiente que é uma selva.
Uma de suas funções no governo é manter o diálogo com as redes sociais. Houve, no ano passado, uma campanha ostensiva por parte das plataformas contra o PL das Fake News. Algo mudou desde então?
Mantemos um diálogo muito forte sobre a necessidade de regulação, e as principais plataformas de uso comercial no Brasil dizem que não farão mais aquela campanha contrária. Elas mantêm divergências com relação a alguns pontos, como a remuneração do jornalismo e dos direitos autorais, mas avançaram no entendimento sobre o dever de cuidado e a responsabilização. Não sei como será quando chegar no Congresso, mas nós avançamos nos diálogos.
O que levou a essa mudança?
Minha sensação é que as plataformas entenderam que passaram da conta. É natural que os setores econômicos queiram participar dos debates legislativos para mostrar os seus pontos de vista, mas as empresas fizeram uma campanha fora dos limites éticos e usaram de posições dominantes de mercado para fazer esse debate. As redes sociais entenderam que é melhor ter um diálogo para construir uma regulação nacional do que, eventualmente, responder a alguma coisa que surgirá fora disso. É muito melhor as plataformas terem as regras e deveres estabelecidos do que estarem sujeitas às decisões de cada órgão administrativo e às interpretações de cada juiz. Elas também notaram que haverá o mínimo consenso jurídico sobre a questão da responsabilidade.
Nas conversas que a senhora manteve, as redes sociais deixaram de relacionar o PL das Fake News à censura de conteúdo?
Sim, até porque as redes sociais serão as responsáveis pela moderação do conteúdo. O governo não interfere e não vai interferir em conteúdos. Não existe nenhuma proposta do governo que provoca a interferência estatal em conteúdos específicos. Isso nunca foi discutido.
Lideranças do Congresso e do meio político também têm manifestado preocupação com a falta de regulamentação da inteligência artificial e com o uso de ferramentas para criar fotos e vídeos nas eleições municipais, em outubro. Como a Secretaria de Direitos Digitais entende que esse assunto deve ser tratado?
window._taboola = window._taboola || [];
_taboola.push({
mode: “rec-reel-2n5-a”,
container: “taboola-mid-article-reco-reel”,
placement: “Mid Article Reco Reel”,
target_type: “mix”
});
Uma abstenção de regulamentação já se mostrou um perigo para a sociedade e para a democracia, e a inteligência artificial potencializa essas ameaças. Ferramentas de IA generativa podem fazer uma reprodução idêntica de voz e de imagem, capaz de enganar a cognição das pessoas. Isso pode ter um impacto grande na política e é uma preocupação para nós, mas o processo de regulamentação abrange outras áreas. É muito sedutor resolver os problemas por meio da tecnologia, e isso passa pelo uso e pela aplicação da IA no dia a dia. É preciso ter uma tecnologia confiável. Na área da saúde, a Anvisa tem aprovado máquinas só com base na legislação sobre software, sem avaliar como foram coletados os dados que levam às decisões automatizadas e se esses dados batem demograficamente com o Brasil. Nós precisamos ter uma regulamentação com princípios semelhantes aos países desenvolvidos. Nosso mercado está suscetível a receber tudo que esbarra nos limites impostos por eles e que não entra nos Estados Unidos e na Europa. Também é inadmissível ter tecnologias disponíveis no mercado que violam a legislação brasileira, seja na parte de direitos autorais, seja na parte de direitos humanos. Eu tive reuniões com executivos do Google que disseram que a empresa não usa softwares de reconhecimento facial porque ainda não desenvolveu uma tecnologia sem viés e que não leve a falsos positivos. Nós vamos adquirir softwares que notadamente operam com discriminação racial? O Estado vai instituir uma política pública que causa discriminação racial?
Como a senhora avalia os projetos sobre IA que tramitam no Congresso?
Fiz parte da comissão de juristas que originou o projeto de lei que tramita no Senado. Há aspectos muito importantes naquela proposta. Um deles trata da criação de direitos. Isso institui um aspecto subjetivo de que você poderá acessar a Justiça para reivindicar esses direitos e de que o Estado terá que trabalhar para garanti-los. Estamos falando de transparência, porque as pessoas precisam saber que estão interagindo com uma IA para não serem enganadas. Uma imagem gerada por IA terá que apresentar uma rotulagem que a identifique como tal. Além disso, tenho que saber como foi tomada uma decisão que afeta os meus direitos, e preciso ter o direito a recorrer de uma decisão automatizada. Chegará a hora em que precisaremos da revisão humana para essas decisões tecnológicas, e os mecanismos que levam a isso devem ser garantidos por lei. Os motoristas de aplicativo precisam saber quais critérios justificam o preço dinâmico de corridas, por exemplo. Esse conjunto de práticas determinará quais softwares poderão operar no Brasil e quais não terão autorização.
É possível aprovar um projeto de regulamentação da IA antes das eleições municipais?
Defendemos que sim. Claro que poderemos ter uma regulamentação parcial, porque trata-se de uma discussão extensa, mas será muito importante assegurar a aprovação de alguns pontos. A garantia do direito à transparência é central, assim como a avaliação de riscos, porque não podemos começar a receber e a implementar softwares em áreas importantes, como de acesso ao crédito e à saúde, sem ter análises sobre o viés e a adequação dos dados treinados para essas tecnologias. É preciso fazer algo para começar a garantir isso. Uma regulamentação comprometida com esses parâmetros não será contra a inovação. Para que serve uma inovação que viola direitos? Se a tecnologia não funcionar bem, os resultados produzidos por ela darão errado. A inteligência artificial não servirá para tudo, e não faz sentido substituirmos atividades humanas por decisões automatizadas só porque elas são mais baratas ou por conta do hype tecnológico.
A senhora tem atuado no braço virtual da Operação Escola Segura, criada pelo Ministério da Justiça para conter ataques contra colégios. Desde abril, foram mais de 400 presos e cerca de 10 mil denúncias únicas recebidas. Qual é o balanço que a senhora faz da operação e quais lições ficam para 2024?
Inicialmente, havia alguns grupos organizados, a maioria com inclinações nazistas, que estimulavam as pessoas a cometerem crimes. As detenções e apreensões de menores ocorreram quando havia crime concreto de nazismo, como a distribuição de material, ou quando foram detectados planos e ameaças para atacar crianças e adolescentes. Eu chamei pesquisadores infiltrados nesses grupos para conversarem com os policiais. Pode parecer uma viagem no primeiro momento, mas esses grupos existem e são perigosos e organizados. Eles são um risco porque estimulam os outros a cometerem crimes. Todos esses assassinos de 2023 estavam em grupos neonazistas em redes sociais. Se você encontra um grupo assim, a polícia precisa ir atrás de todos os envolvidos. A partir da Operação Escola Segura, as pessoas entenderam que não será tolerável propagar nazismo na internet. Isso provocará consequências. Todas as postagens relacionadas a nazismo levaram a mandados de busca e apreensão ou a inquéritos em 2023. Até o dia que a operação teve início, você ficava impune se falasse sobre nazismo na internet. Isso mudou, agora um policial baterá na porta da sua casa. O Ministério da Justiça, inclusive, treinou policiais do país inteiro para identificarem novos símbolos nazistas na internet. A operação continuará em 2024 e temos todo um calendário de reuniões para manter a repressão a esses grupos.
Há no Ministério da Justiça a elaboração de um projeto para conter o avanço de drogas sintéticas e opióides no Brasil. Por que a pasta elegeu essa como uma das pautas centrais para 2024?
Chegamos ao entendimento de que era preciso ter uma política de combate às drogas sintéticas de maior potencial de danos, como os opióides e a K9. A Secretaria Nacional de Políticas sobre Drogas e Gestão de Ativos (Senad) montou um sistema de alerta que trabalha em conjunto com o Ministério da Saúde e que consegue antecipar a chegada dessas drogas a partir da entrada de pessoas com problemas de saúde ou overdose em hospitais. Além de alertar o sistema repressivo, é possível usar esse sistema para orientar os profissionais de saúde dos Estados sobre como tratar os quadros de overdose, porque essas drogas requerem um cuidado diferenciado. Já a Secretaria de Direitos Digitais, em parceria com o Laboratório de Operações Cibernéticas (Ciberlab), está trabalhando para entender onde e como essas drogas são vendidas na internet. Estamos enviando para as redes sociais os termos usados para identificar as drogas e que contêm referências inusitadas, como nomes de personagens de séries e de videogames. Também tivemos reuniões com os Correios para tentar entender o fluxo das drogas e se há um padrão postal para enviá-las. É um sistema que estamos montando, porque tudo é muito novo e ninguém olhava para as drogas sintéticas no Brasil. A Embaixada dos Estados Unidos já até entrou em contato conosco para elogiar o programa e disse que ele poderá ser um exemplo para o mundo.