Topo

Histórico

Salada de Dados

O lado sombrio das mídias só existe por que nós o alimentamos

Letícia A. Pozza

27/03/2019 04h00

No princípio era tudo mato… Aí, veio o algoritmo, que impulsiona o que engaja. Se o que engaja é conteúdo perturbador, como faz?

 

Tanto o Facebook quanto o Youtube (Google) se consideram plataformas de tecnologia, não de mídia. Isso pode parecer muito lógico, pois eles são plataformas de disponibilização do conteúdo e de recomendação de conteúdo, bem como de entrega de mídia. Mas ao mesmo tempo significa que eles não se responsabilizam (ou se responsabilizam muito pouco) pelo que está sendo mostrado na plataforma.

E aí reside nosso principal problema. Desde 2016, são inúmeras as acusações de vídeos não relacionados ou não apropriados que são diariamente disponibilizados e vistos na plataforma.

A cada ano essas empresas buscam melhorar a validação daquilo que é disseminado na rede, tirando do ar milhões de vídeos perturbadores e de desinformação, mas nunca é o suficiente: a medida em que eles aprendem como melhorar o que deve ser retirado do ar, as pessoas aprendem como enganar o algoritmo.

Isso significa que crianças podem estar assistindo vídeos da Peppa Pig, recomendados para a idade delas (e no Youtube Kids, canal específico e curado para crianças) e de repente foram parar em um vídeo em que ela assassina e come o pai, ou é torturada em uma sala do dentista (ficaram meses na plataforma e foram retirados do ar com milhares de visualizações).

Ou, que você está buscando informações sobre o seu eleito e não sabe que boa parte do conteúdo que você está consumindo é falso e criado para disseminar informações falsas (fake news, como em um gráfico muito famoso na época das eleições do Trump, que mostrou que o consumo de notícias falsas foi maior que o de notícias verdadeiras).

Ou ainda, que você está olhando o Facebook e de repente aparece o vídeo de um adolescente invadindo uma sinagoga na Nova Zelândia atirando em todos pela frente (assim como o caso da Nova Zelândia, poderíamos ter passado por isso no Brasil há duas semanas). Antes de ser possível retirar do ar, o vídeo já havia sido disponibilizado em diversas outras mídias.

Existe todo um submundo de notícias falsas e de conteúdos perversos em todas as mídias sociais. Semana passada conversando com um amigo ele falou que o condomínio dele possui 2 grupos do WhatsApp: um geral e um só para os homens. No início o objetivo era reunir o grupo do futebol, mas não deu 1 semana eles estavam compartilhando todo tipo de pornografia: da zoofilia a fotos que beiram a maioridade. E não estou dizendo que é algo dos homens, por favor, é apenas um exemplo.

A desinformação é um problema tão grande que na semana passada a boneca MoMo estava aterrorizando diversos pais, e a notícia, rapidamente espalhada pela plataforma, era falsa.

Responsabilidade compartilhada

A medida que algo toma relevância, ele é evidenciado e espalhado de forma exponencial. Uma simples busca por termos que parecem muito inofensivos pode gerar resultados perturbadores. Informações tiradas de contexto ou exacerbadas assustam e dão espaço para a ignorância.

E, pior que isso: nosso cérebro foi codificado para prestar mais atenção em notícias ruins e alarmantes.

Vivemos em um pedaço muito pequeno do mundo, curado e filtrado especificamente para nossas características e personalidade. As plataformas são responsáveis por eliminar conteúdos falsos, de discurso de ódio, de violência e que violam a integridade pessoal ou expõem a privacidade das pessoas (não vou nem falar de pessoas especializadas em roubar e espalhar nudes). Mas, com a quantidade de informações que existe, não há algoritmo que previna o que o humano consegue fazer.

Somos, ainda, muito mais inteligentes do que a máquina, tanto para o lado positivo quando negativo. E a linha entre esses dois nunca esteve tão tênue. Cabe a nós evitar que seja um caminho sem volta. O lado sombrio das mídias só existe por que nós o criamos e alimentamos.

Crescimento exponencial

Lembra de como era o Youtube há 14 anos atrás? Você pode não se lembrar, mas em algum momento foi possível assistir a todos os vídeos postados no Youtube em um dia (há uns 10 anos atrás). Em algum ponto era possível zerar o conteúdo do Facebook e estar atualizado de toda sua rede de amigos. Mas essa não é mais a nossa realidade.

Hoje, para você ter uma ideia, são mais de 4,5 milhões de vídeos assistidos a cada 60 segundos e 300 horas de conteúdo novo disponibilizados na plataforma (432 mil horas por dia). Isso significa que se você quisesse assistir a todo o conteúdo postado hoje, você levaria 50 anos para fazê-lo.

E mais maluco do que tudo isso é você acreditar que tem uma criança de 6 anos, chamada Ryan, que faturou US$ 22 milhões em 2017 fazendo "unpacking" de brinquedos (ele abre brinquedos novos na frente da câmera), pois tem mais de 18 milhões de pessoas inscritas em seu canal do Youtube. Agora quando seu filho fala que quer ser YouTuber não parece algo tão ruim, não é mesmo?

Tudo isso pra dizer que temos muito mais informação disponível do que conseguimos consumir. E isso nos gera:

  1. uma constante ansiedade por não conseguir consumir tudo (diversos estudos sobre saúde mental mostram que isso virou um problema);
  2. a necessidade de filtrar a informação para as pessoas.

Algoritmos de recomendação

A filtragem serve para entregar o conteúdo certo para a pessoa certa. E ela é possível por que a partir do momento em que você entra na mídia o algoritmo está guardando informações sobre você e aprendendo seus gostos, interesses e desinteresses (falei mais sobre isso aqui!).

Cada clique é um indicador se aquele tipo de conteúdo vai fazer você ficar mais ou menos tempo assistindo vídeos. E desde 2015, ao ser adquirido pelo Google, o YouTube roda com um algoritmo do Google Brain, empresa de inteligência artificial.

O algoritmo identifica perfis que possuem padrões de comportamento similares aos seus e entrega sugestões de vídeos baseadas nessas análises. Mas por ser um algoritmo muito complexo (assisti um entrevista com um dos desenvolvedores responsáveis e ele falou que o algoritmo possui facilmente mais de 1 milhão de linhas de código) nem sempre as regras são muito claras.

E esses espaços cinzas – relações que o algoritmo faz que não conseguimos identificar antes que elas aconteçam – tem gerado recomendações de vídeos que são relacionados pelo conteúdo que mostram, mas que não são adequados para a idade ou para o público por conter violência, discurso de ódio e imagens perturbadoras, muitas vezes criados por robôs e não por pessoas.

Então sabe aquela sensação de que você entrou no YouTube para buscar como fazer um enfeite de Páscoa e magicamente se passaram 2 horas e você já assistiu 15 vídeos diferentes sobre todos os tópicos da Páscoa, e não sabe como foi parar em um vídeo de Natal?

Este é o famoso buraco negro da internet e é exatamente nisso que eles se tornaram especialistas. Eles não produzem conteúdo (muito pouco), mas são especialistas em fazer você ficar conectado no conteúdo disponível — afinal, é assim que eles ganham dinheiro.

O que fazer?

"Bom, Letícia, mas se eu posso ajudar nisso, quero saber como". Beleza, então vou deixar algumas dicas aqui embaixo do que fazer para não alimentar esse monstrinho chamado internet:

  1. Não compartilhe informações que você não tem certeza se são verdadeiras. Por mais que aquilo pareça muito perigoso ou muito alarmante, o ditado que fala que é "melhor avisar", neste caso não é recomendado. Verifique a informação em jornais e fontes seguras e confiáveis.
  2. Acompanhe o tipo de conteúdo que seu filho consome das redes. Não deixe a criança 100% solta, conheça os canais que ela consome (prefira perfis oficiais a outros que não são regulados ou verificados) e confira o histórico de visualizações. É importante acompanhar ao que a criança está sendo exposta.
  3. Denuncie toda e qualquer informação que pareça falsa ou imprópria (tem um botão escondido em todas as postagens que você pode reportar que aquele conteúdo é abusivo). Exerça seu direito. Quando algo é reportado, as mídias verificam o conteúdo específico.
  4. Não dê engajamento e voz para quem busca disseminar conteúdos impróprios. Não assista vídeos de estupro, não busque por violência grátis: em tempo de mídias sociais visualização é aprovação, e aprovação leva à recomendação e disseminação.

Se você tiver dúvidas sobre os algoritmos e como evitar estes problemas, deixa nos comentários que eu respondo. Sua dúvida é importante e pode ser a do outro 😉

 

Sobre a Autora

Letícia A. Pozza é cientista de dados criativa que atua como consultora em grandes organizações no Brasil e fora, auxiliando-as a se tornarem mais orientadas por dados.

Sobre o Blog

Assim como a salada, a probabilidade de você gostar do assunto dados é muito baixa. Mas não tem como fugir: a quantidade de dados disponíveis é cada vez maior e o universo dos dados logo será o seu. Melhor é a gente aprender a entender e gostar disso o quanto antes, certo? Aqui, vamos discutir uma miscelânea de assuntos conectando Big data, ciência de dados, cultura analítica e como isso impacta o seu dia a dia. Vem comigo! Quem sabe eu não te faço gostar de salada também?