A expectativa é de que as mudanças consigam proibir expressamente a distribuição de conteúdo terrorista e extremista violento.
Fonte: Canaltech.
Em 15 de março, um terrorista usou o Facebook para transmitir ao vivo um ataque contra duas mesquitas em Christchurch, na Nova Zelândia. Em 17 minutos, ele matou 51 pessoas e feriu outras 50 enquanto o vídeo era reproduzido cerca de 4 mil vezes na rede social.
O atentado, classificado pelas autoridades locais como terrorista, foi o pior da história do país. A polícia deteve três homens e uma mulher.
Depois do massacre ele publicou um “manifesto” de extrema-direita em que classificou imigrantes como “invasores”. Atenção, o vídeo contém cenas fortes:
O ataque levantou um debate sobre o conteúdo extremista online e o papel das redes sociais para deter o compartilhamento de vídeos, fotos e posts violentos. A primeira mobilização foi realizada nesta quarta-feira (15/05), data que marca dois meses do massacre de Christchurch: líderes do setor da tecnologia se reuniram em Paris, na França, em uma reunião organizada pelo presidente francês Emmanuel Macron e pela primeira-ministra da Nova Zelândia, Jacinda Ardern.
Facebook, Microsoft, Twitter, Google e Amazon assinaram o Chamado à Ação de Christchurch, documento em que as empresas se comprometem com um plano de nove pontos que estabelece medidas concretas que o setor tomará para lidar com o abuso da tecnologia para espalhar o conteúdo terrorista.
Em uma declaração conjunta, as cinco empresas prometeram fazer tudo o que podem para combater o ódio e o extremismo que levam à violência terrorista.
“O Chamado de Christchurch expande o Fórum Global da Internet para o Combate ao Terrorismo (GIFCT), e baseia-se em nossas outras iniciativas com o governo e a sociedade civil para impedir a disseminação de conteúdo extremista e terrorista violento”. “Além disso, estamos compartilhando medidas concretas que tomaremos para abordar o abuso de tecnologia para disseminar conteúdo terrorista, incluindo investimento contínuo em tecnologia que aprimora nossa capacidade de detectar e remover esse conteúdo de nossos serviços, atualizações de nossos termos de uso individuais e muito mais transparência para políticas e remoções de conteúdo”.
As empresas ainda ressaltaram que o terrorismo e o extremismo são problemas sociais complexos que exigem uma resposta de toda a sociedade. “De nossa parte, os compromissos que estamos assumindo hoje fortalecerão ainda mais a parceria que os governos, a sociedade e o setor de tecnologia devem ter para enfrentar essa ameaça”.
Conheça as ações que serão tomadas para impedir a disseminação de conteúdo violento:
Ações individuais
O plano de nove pontos de Facebook, Microsoft, Twitter, Google e Amazon é dividido em ações individuais e ações colaborativas. A primeira medida individual a ser tomada será a atualização dos termos de uso, padrões comunitários, códigos de conduta e políticas de uso aceitável de cada empresa.
A expectativa é de que a mudança consiga proibir expressamente a distribuição de conteúdo terrorista e extremista violento. “Acreditamos que isso é importante para articular uma base clara para a remoção deste conteúdo de nossas plataformas e serviços e suspensão ou fechamento de contas que distribuem tal conteúdo”.
As empresas também passarão a dar prioridade para as denúncias de usuários contra conteúdo terrorista ou extremista violento. “Garantiremos que os mecanismos de denúncia sejam claros, conspícuos e fáceis de usar”, dizem as empresas.
O plano também prevê um investimento em tecnologia para aumentar a capacidade de detecção e remoção online de conteúdo extremista terrorista e violento. No texto, as empresas citam que podem ser desenvolvidas tecnologias baseadas em inteligência artificial.
As companhias também estão comprometidas a publicar periodicamente relatórios de transparência relativos à detecção e remoção de conteúdo extremista das plataformas e serviços online.
No caso das transmissões ao vivo, a ideia é criar medidas de verificações aprimoradas (como classificações e pontuações em vídeos) e realizar a moderação de certos eventos de transmissões quando parecer apropriado. No caso do Facebook, usuários que violarem as políticas mais sérias da empresa serão impedidos de usar o Live por um determinado período de tempo a partir da primeira infração.
Isso significa que alguém que compartilha um link com a declaração de algum grupo terrorista, por exemplo, será imediatamente impedido de usar o Live. A rede social ainda anunciou parcerias com três universidades – Universidade de Maryland, Cornell e a Universidade da Califórnia, em Berkeley – para detectar mídias modificadas e distinguir publicações de indivíduos que intencionalmente modificam conteúdos daquelas pessoas que postam inadvertidamente.
Ações colaborativas
As cinco empresas de tecnologia também se comprometeram a trabalhar de forma colaborativa com indústrias, governos, instituições educacionais e ONGs para desenvolver uma compreensão geral dos contextos nos quais o conteúdo terrorista e extremista violento é publicado. A ação também quer melhorar a tecnologia de detecção e remoção de conteúdos do gênero.
Para isso, o trabalho colaborativo vai criar conjuntos de dados robustos e compartilhados para acelerar o aprendizado de máquina e a inteligência artificial. Além disso, as empresas devem apostar no desenvolvimento de código aberto ou em outras ferramentas compartilhadas para identificar conteúdos terroristas e excluí-los.
De acordo com o documento assinado, Facebook, Microsoft, Twitter, Google e Amazon também capacitarão empresas grandes e pequenas para que elas possam contribuir com o esforço coletivo.
Também será estabelecido um protocolo de crise para responder a eventos emergentes ou ativos, com urgência. Dessa forma, informações relevantes também poderão ser compartilhadas, processadas e implementadas de forma rápida e eficiente por todas as partes interessadas.
Outra ação colaborativa com indústrias, governos, instituições e ONGs busca educar as pessoas sobre o conteúdo violento de terroristas e extremistas online. Isso inclui ensinar aos usuários como denunciar ou não contribuir para a disseminação desse conteúdo.
Por fim, as empresas querem usar as parcerias para atacar as causas profundas do extremismo e ódio online. A expectativa é fornecer maior apoio a pesquisas relevantes – com ênfase no impacto do ódio online sobre discriminação e violência offline – e apoiar ONGs que trabalham para desafiar o ódio e promover o pluralismo e o respeito online.