Como Algoritmos de Seleção de Conteúdo nas redes sociais levaram à radicalização política

Cover image: Polarization by Willow Brugh (2014).
Source: Wikimedia Commons

Maurício Pinheiro

Stuart J. Russell é um professor de Engenharia Elétrica e Computação na Universidade da Califórnia, Berkeley. Ele é conhecido por sua pesquisa no campo da Inteligência Artificial e tem contribuído significativamente para o avanço do conhecimento nesta área há mais de duas décadas. Ele é co-autor do livro “Artificial Intelligence: A Modern Approach“, que é amplamente considerado como o livro técnico padrão sobre o assunto. Além disso, Stuart Russell também tem uma longa lista de publicações em revistas e conferências sobre Inteligência Artificial, e é frequentemente convidado a dar palestras sobre o assunto em todo o mundo. Ele é um defensor ativo da pesquisa responsável e ética na Inteligência Artificial, e tem sido um líder na comunidade de Inteligência Artificial na promoção de práticas éticas e responsáveis.

Em seu livro “Inteligência Artificial a Nosso Favor: Como Manter o Controle sobre a Tecnologia” (Human Compatible: Artificial Intelligence and the Problem of Control, 2019), Russell apresenta e discute os desafios em um cenário futuro em que a Inteligência Artificial se torna uma parte essencial de nossa vida. Da mesma forma que Kai-Fu Lee em “AI Superpotências: China, Silicon Valley e o Novo Mundo” (AI Superpowers: China, Silicon Valley, and the New World Order, 2018), Russell oferece sugestões sobre como podemos minimizar as consequências negativas do amplo uso da IA em nossa sociedade.

No início do primeiro, antes mesmo de apresentar estas sugestões, Russell coloca um problema intrigante sobre o impacto da tecnologia na sociedade:

Se algoritmos de seleção de conteúdo nas redes sociais podem nos levar à radicalização política, o que acontecerá com algoritmos de IA muito mais avançados e eficientes?

Algoritmos de seleção de conteúdo são programas de computador que utilizam informações sobre os usuários para selecionar e exibir conteúdo personalizado. A idéia é maximizar a experiência individual dos usuários, aumentando o tempo que eles passam em um site ou aplicativo. O critério de avaliação é conhecido como “Clickthrough“, que mede quantas vezes um usuário clica em um determinado conteúdo.

Várias empresas usam algoritmos de seleção de conteúdo, incluindo Facebook, Google, Amazon, Netflix, e muitas outras. O Facebook, por exemplo, utiliza algoritmos de seleção de conteúdo para personalizar o feed de notícias de cada usuário, mostrando o conteúdo que eles consideram mais relevante com base em sua interação com o site. O Google usa algoritmos semelhantes para personalizar os resultados de pesquisa para cada usuário. A Amazon utiliza essa tecnologia para recomendar produtos aos seus clientes com base em seus interesses e comportamentos de compra. E a Netflix usa algoritmos de seleção de conteúdo para recomendar séries e filmes aos seus usuários com base em seus gostos e histórico de visualização.

Estes algoritmos funcionam utilizando técnicas de aprendizado de máquina, como a análise de dados, a mineração de dados e a classificação de conteúdo. Eles processam grandes quantidades de informações, como os dados de navegação do usuário, para identificar padrões e preferências, e, em seguida, personalizam o conteúdo para o usuário. Eles pode levar à formação de bolhas de filtro, em que os usuários são expostos a uma ampla variedade de conteúdo que reflete suas opiniões prévias, amplificando ainda mais suas opiniões. Esse tipo de exposição limitada pode levar à radicalização política, pois o usuário está constantemente sendo alimentado com opiniões e informações que validam suas crenças existentes.

Por exemplo, imagine um usuário que é comunista: ele será exposto a uma perspectiva cada vez mais comunista, fortalecendo suas opiniões políticas. Isso pode reforçar ainda mais suas crenças políticas, levando à sua bolha de filtro radicalizada. Essa dinâmica pode ter consequências graves para a sociedade, já que pode levar a uma polarização política cada vez mais acentuada, onde as pessoas não estão mais expostas a pontos de vista diferentes ou contraditórios. Isso pode tornar mais difícil o diálogo e a resolução pacífica de conflitos políticos. Além disso, a falta de exposição a pontos de vista divergentes pode aumentar a intolerância e a desinformação.

Este é apenas um exemplo de como os algoritmos de seleção de conteúdo podem levar à radicalização política. Empresas como Facebook e Google usam algoritmos para personalizar a experiência dos usuários, e há casos de pessoas que afirmam ter sido radicalizadas por causa da exposição repetida a perspectivas políticas extremas na plataforma. Portanto, é importante reconhecer o potencial dos algoritmos de seleção de conteúdo para influenciar a opinião política dos usuários.

Voltando à pergunta inicial de Russell, se algoritmos de seleção de conteúdo nas redes sociais podem nos levar à radicalização política, o que acontecerá com algoritmos de IA muito mais avançados e eficientes?

Bem, se a situação atual com os algoritmos de seleção de conteúdo nas redes sociais já é assustadora, imagina o futuro com inteligências artificiais ainda mais poderosas controlando o que vemos e o que pensamos. Parece um cenário sombrio e perturbador, não é? Mas infelizmente, é uma realidade que pode se tornar cada vez mais presente. E se esses algoritmos tiverem viés político em sua programação, a situação pode ficar ainda mais preocupante.

Deixo vocês com a palavra deste mestre da IA:

“Entre as consequências disso estão o ressurgimento do fascismo, a dissolução do contrato social que sustenta as democracias no mundo todo e potencialmente o fim da União Europeia e da Otan. Nada mau para algumas poucas linhas de código, mesmo que elas recebam uma mãozinha humana. Imagine-se então o que um algoritmo realmente inteligente seria capaz de fazer.”

Inteligência artificial a nosso favor“, Stuart Russell


The Reith Lectures

In his 2021 Reith Lectures Stuart Russell explores the future of AI and asks: how can we get it right?

https://www.bbc.co.uk/sounds/series/m001216k