Algoritmos foram criticados durante audiência do Senado nas redes sociais

Dois homens sérios de terno estão conversando.
Prolongar / O presidente senador Chris Coons (D-Del.) (À direita) conversa com o senador Ben Sasse (R-Neb.) Em uma subcomissão judiciária do senado sobre privacidade, tecnologia e lei, 27 de abril de 2021 no Capitólio em Washington, DC. O comitê ouve depoimentos sobre o efeito de algoritmos e escolhas de design de empresas de mídia social sobre os usuários e a fala.

Em uma audiência do Comitê Judiciário do Senado ontem, houve uma mudança notável de ritmo: em vez de interrogar as cabeças flutuantes dos CEOs da Big Tech, os senadores questionaram os rumos políticos do Twitter, Facebook e YouTube sobre o papel que os algoritmos desempenham em suas respectivas plataformas. O painel também ouviu dois especialistas independentes na área, e os resultados foram menos dramáticos – e talvez mais substanciais.

Democratas e republicanos expressaram preocupação sobre como os algoritmos estão moldando o discurso nas plataformas sociais e como esses mesmos algoritmos podem levar os usuários a um conteúdo cada vez mais extremo. “Os algoritmos têm um grande potencial para o bem”, disse o senador Ben Sasse (R-Neb.). “Eles também podem ser mal utilizados, e nós, americanos, precisamos ser cuidadosos e cuidadosos sobre isso.”

Executivos do Facebook, YouTube e Twitter apontaram como os algoritmos de suas empresas podem ser úteis para atingir objetivos comuns – eles trabalham para encontrar e remover conteúdo extremista, por exemplo – embora todos os executivos admitam que a desradicalização da mídia social é um trabalho. Em andamento.

Além de ouvir faixas políticas das três plataformas de mídia social, o painel ouviu alguns especialistas. Uma delas foi Joan Donovan, diretora do Projeto de Mudança Social e Tecnologia da Universidade de Harvard. Ela destacou que o principal problema das mídias sociais é a maneira como são projetadas para recompensar a interação humana. Maus atores em uma plataforma podem, e muitas vezes, usar isso a seu favor. “A desinformação em grande escala é uma característica da mídia social, não um bug”, disse ela. “Os produtos de mídia social amplificam declarações novas e ultrajantes para milhões de pessoas mais rápido do que informações oportunas, locais, relevantes e precisas podem alcançá-las.

Uma das soluções oferecidas por Donovan se parecia muito com os canais comunitários de TV a cabo. “Devemos começar criando títulos de interesse público para calendários de mídia social e feeds de notícias, exigindo que as empresas mantenham as informações oportunas, locais, relevantes e precisas.” Ela também sugeriu que as plataformas intensifiquem suas práticas de moderação de conteúdo.

O outro especialista no painel foi Tristan Harris, presidente do Center for Humane Technology e ex-designer do Google. Durante anos, Harris falou sobre os perigos da mídia algorítmica, e seus comentários iniciais não se desviaram desse ponto de vista. “Agora estamos sentados durante os resultados de 10 anos desse processo psicologicamente perturbador que distorceu nossas comunicações nacionais e fragmentou a janela de Overton e a realidade comum que precisamos como uma nação para coordenar para lidar com nossos problemas reais.”

Uma das soluções de Harris é sujeitar as empresas de mídia social aos mesmos regulamentos que os pesquisadores universitários quando conduzem experimentos de psico-manipulação. “Se você comparar as restrições de um estudo do IRB lado a lado em um laboratório de psicologia da universidade quando está experimentando em 14 pessoas, você precisa preencher um exame do IRB. Facebook, Twitter, YouTube e TikTok lidam regularmente com implantes cerebrais de 3 bilhões de pessoas em pensamentos cotidianos, sem qualquer controle ”, disse Harris.

Maçãs e laranjas

“O que precisamos fazer é comparar as regulamentações e proteções que aplicamos em uma área e não aplicamos em uma área diferente”, disse Harris.

A audiência passou rapidamente para o artigo 230.º da Lei da Decência das Comunicações, cuja reforma foi proposta por membros de ambos os partidos. Um projeto de lei apresentado no ano passado exigiria que as plataformas com mais de 10 milhões de usuários obtivessem a permissão das pessoas antes de oferecer a elas conteúdo algoritmicamente relevante. Se as empresas não fizerem isso, elas não se beneficiarão da proteção da Seção 230. Outro projeto de lei também revogaria a imunidade da Seção 230 se algoritmos espalharem desinformação que leva à violência.

O painel concluiu explorando modelos de negócios alternativos para plataformas de mídia social, aqueles que não seriam tão dependentes de algoritmos para gerar engajamento e visualizações de anúncios. Harris sugeriu que as concessionárias de eletricidade poderiam fornecer esse modelo. Em vez de encorajar as pessoas a deixarem suas luzes acesas o tempo todo – o que economizaria mais dinheiro para as concessionárias, mas derrotaria o objetivo social de conservar energia – regulamentações foram colocadas em prática para desencorajar o uso excessivo e parte dos lucros são investidos em fundos para garantir a sustentabilidade da rede elétrica.

“Imagine [if] as empresas de tecnologia, que hoje desfrutam de um envolvimento infinito, só ganharam dinheiro com uma pequena parte disso ”, disse ele. “E o resto foi basicamente tributado para ser investido em um fundo de interesse público regenerativo que financiou coisas como o Quarto Poder, verificadores de fatos, pesquisadores, [and] tecnólogos de interesse público.

About admin

Check Also

Em breve, o Microsoft Edge permitirá que você envie guias entre o Windows 10 e o Android

O navegador Edge da Microsoft rapidamente se tornou um dos navegadores de desktop mais populares. …

Leave a Reply

Your email address will not be published. Required fields are marked *