Vamos descobrir

Como os algoritmos pensam sobre você atualmente

Dicionário que combina termos de teoria política e inteligência artificial

Swati Srivastava, investigador de teoria política, está a utilizar uma bolsa NEH para estudar o impacto da inteligência artificial nos sistemas políticos modernos. Este tópico é vasto e complexo, pois a IA é amplamente utilizada em nossas vidas diárias. Influencia o nosso entretenimento, as interações sociais, os sistemas de segurança e as estruturas financeiras que apoiam a economia.

A investigação é necessária para compreender o sistema atual em que a IA desempenha um papel fundamental.

Em vez de pedir a Srivastava que explicasse tudo sobre IA, pedimos-lhe que definisse termos-chave utilizados na sua investigação e no trabalho de outros pensadores políticos que estudam o tema. O resultado foi um léxico, um glossário, contendo uma série de termos que nos ajudarão, como cidadãos e humanistas, a compreender melhor este maravilhoso mundo novo em que vivemos.

Algoritmos:

Algoritmos são um conjunto de instruções computacionais que permitem tecnologias como navegação GPS, pesquisa online e streaming de conteúdo. Anteriormente, os programadores criavam algoritmos definindo conjuntos de regras para o seu funcionamento. No entanto, com o avanço do aprendizado de máquina, os algoritmos podem desenvolver automaticamente suas próprias regras com base em dados extensos. O aprendizado de máquina permite que algoritmos sejam controlados por meio de processos de aprendizagem ou até mesmo operem de forma autônoma com o mínimo de intervenção humana

Por exemplo, algoritmos de reconhecimento de escrita podem ser treinados em bancos de dados de imagens pré-rotulados ou usar vastos conjuntos de dados para criar seus próprios padrões de identificação.

Governação algorítmica:

A governança algorítmica cobre uma ampla gama de áreas onde organizações governamentais e comerciais usam algoritmos de aprendizado de máquina para tomar decisões. Estas soluções abrangem áreas como a previsão da criminalidade, a gestão dos cuidados de saúde, a publicidade direcionada, a política de imigração e a luta contra o terrorismo. Por exemplo, os algoritmos utilizados para avaliação de riscos analisam dados comportamentais, como educação, atividade nas redes sociais e conexões sociais, para prever a probabilidade de ocorrência de situações de risco.

À medida que a tecnologia avança, os dados tornam-se mais granulares, permitindo que empresas e governos façam previsões mais precisas e tomem decisões mais informadas. Por exemplo, o aplicativo de um credor pode analisar não apenas o histórico de crédito, mas também o estado de carga da bateria do celular do mutuário no momento do pedido para avaliar sua solvência.

Esta gestão não se limita apenas às agências governamentais; empresas privadas, como seguradoras de saúde, também utilizam algoritmos para avaliar riscos e determinar taxas de seguro. É importante compreender que os algoritmos não apenas processam dados, mas também estabelecem novos padrões de comportamento e critérios de normalidade, o que afeta as realidades sociais e políticas.

Viés algorítmico:

A disciplina emergente de “crítica de algoritmos” nas humanidades discute o impacto social do preconceito algorítmico, especialmente no contexto de preconceito e discriminação. Ruha Benjamin, em seu livro Race After Technology, discute o conceito de "novo código de Jim", apontando como os programadores incorporam seus julgamentos de valor em sistemas técnicos, às vezes sem perceber plenamente as consequências racistas de suas decisões

A professora Safiyah Noble, da Universidade da Califórnia, em Los Angeles, em seu artigo “Algoritmos de opressão”, destaca que os algoritmos do Google são mais propensos a sugerir imagens negativas, incluindo conteúdo pornográfico, ao pesquisar mulheres e meninas negras do que ao pesquisar mulheres brancas. . Também é discutido que os algoritmos do Google geralmente mostram empregos com salários mais altos para homens do que para mulheres, e os algoritmos do YouTube às vezes mostram preenchimentos automáticos problemáticos ou rótulos racistas nas imagens.

Além disso, Orla Lynskey, especialista jurídica da London School of Economics, alerta para possíveis disparidades e desigualdades que podem surgir devido ao preconceito algorítmico visando grupos não protegidos por lei, como pessoas com baixo estatuto socioeconómico. Em 2020, o Departamento de Habitação e Desenvolvimento Urbano dos EUA adotou uma regra que isenta os réus de responsabilidade por discriminação habitacional ao usar algoritmos, mas a regra não foi totalmente implementada pela Administração Presidencial.

Capitalismo de vigilância:

Os algoritmos desempenham um papel fundamental na sociedade moderna, transformando as nossas experiências pessoais em dados que se tornam um valioso ativo comercial. Em The Age of Surveillance Capitalism, Shoshana Zuboff discute como plataformas tecnológicas, como mecanismos de busca e mídias sociais, coletam e monetizam nossos dados pessoais para direcionar publicidade e prever nossos padrões de comportamento.

O capitalismo industrial utilizou o trabalho para acumular capital, e o capitalismo de vigilância, segundo Zuboff, utiliza dados recolhidos da nossa vida quotidiana para enriquecer algoritmos de aprendizagem automática. O Google, por exemplo, processa bilhões de consultas de pesquisa todos os dias, coletando enormes quantidades de dados sobre o comportamento do usuário. Porém, a coleta de dados do Google não se limita apenas às buscas: no passado, os algoritmos da empresa analisaram e-mails e até hackearam roteadores Wi-Fi por meio do projeto Street View.

Tal como o Google, o Facebook gera milhões de previsões por segundo para os seus milhares de milhões de utilizadores e monitoriza ativamente a atividade dos utilizadores fora da sua plataforma através dos botões de gostar e partilhar. A empresa está usando os dados para criar um dos maiores conjuntos de dados faciais do mundo por meio do projeto DeepFace. Produtos como a tela inicial inteligente do Portal do Facebook usam inteligência artificial para monitorar usuários, levantando questões sobre privacidade e vigilância.

Em seu livro The Four, o professor Scott Galloway destaca que plataformas como o Facebook não apenas rastreiam ativamente os usuários, mas também analisam seu comportamento e comunicações, criando um perfil detalhado de cada pessoa. Isto levanta discussões importantes sobre os limites da privacidade e a ética do uso de dados pessoais para melhorar serviços e produtos.

A group of people are crossing the street with coded numbers over each of their faces

Poluição da informação:

Quando recorremos a motores de busca como o Google ou redes sociais como o Facebook para obter informações, eles respondem usando os nossos dados para criar conteúdo personalizado através dos seus algoritmos. Por exemplo, os algoritmos do Facebook selecionam conteúdo para o feed de notícias de um usuário a partir de milhares de postagens disponíveis, enquanto os algoritmos do YouTube selecionam vídeos recomendados entre milhões.

Esse processo de curadoria de conteúdo muitas vezes tem como foco atrair a atenção por meio de “cliques” sem considerar fatores de qualidade. Siva Vaidhyanathan, mencionado nos meios de comunicação antissociais, aponta para o problema da “poluição da informação”, onde o foco está em informações falsas ou enganosas, bem como em conteúdos que podem provocar fortes reações emocionais ou apoiar “câmaras de eco de crenças amplificadas”.

Este tipo de poluição informacional torna difícil que grupos de pessoas se reúnam para manter diálogos calmos, informados e produtivos. Um relatório de 2019 da Amnistia Internacional observou que a utilização de algoritmos do Google e do Facebook pode prejudicar os direitos humanos, especialmente no contexto de controlo e repressão governamental.

Opacidade algorítmica:

A opacidade algorítmica significa que, embora os algoritmos desempenhem um papel fundamental no funcionamento das nossas vidas, muitos de nós não temos uma compreensão completa de como funcionam. Frank Pasquale, que estuda os aspectos sócio-jurídicos da tecnologia, compara o mundo moderno a um espelho unidirecional, destacando a assimetria no acesso à informação sobre o funcionamento desses algoritmos.

Particularmente opacos são os algoritmos de aprendizagem profunda, que podem identificar padrões complexos em dados sem uma explicação clara de como exatamente chegam às suas conclusões. Isto torna difícil avaliar a validade das decisões algorítmicas e o seu impacto nas nossas vidas.

Os sistemas modernos de inteligência artificial variam em níveis de controle humano: desde o controle humano completo até a ausência de tal controle. Com a crescente dependência de algoritmos não supervisionados, estão a ser levantadas questões sobre a importância da intervenção humana e o seu papel na tomada de decisões importantes.

Esses aspectos destacam a necessidade de desenvolver métodos para explicar os resultados algorítmicos e aumentar a transparência no uso da inteligência artificial.

IA responsável:

À luz da crescente influência e opacidade dos algoritmos, há um interesse crescente no conceito de inteligência artificial responsável. O teórico político Colin Koopman alerta sobre as consequências de permitir que algoritmos falem sobre nós, por nós.

Os filósofos Hermann Cappelen e Josh Dever destacam a importância da responsabilidade no contexto de decisões complexas que podem ser tomadas por algoritmos sem compreender totalmente a sua lógica e motivações. Em resposta aos desafios, a Agência de Projectos de Investigação Avançada de Defesa dos EUA lançou uma iniciativa em 2016 para desenvolver sistemas de IA explicáveis ​​que possam explicar as suas descobertas e prever as suas acções no futuro.

Na Europa, o Regulamento Geral de Proteção de Dados de 2018 introduziu um “direito à explicação”, exigindo que os algoritmos expliquem as suas decisões ao tomar decisões algorítmicas.

Cientistas e cientistas da computação estão respondendo a esse desafio desenvolvendo técnicas de visualização e auditoria para fornecer uma compreensão mais transparente de como os algoritmos de autoaprendizagem chegam às suas conclusões. Timnit Gebru e seus colegas do Google propuseram o conceito de “folhas de dados para conjuntos de dados” para melhorar a documentação e a transparência dos processos de coleta e uso de dados.

No entanto, os teóricos envolvidos na análise crítica de algoritmos expressaram preocupações de que a divulgação das regras por si só não resolverá a lacuna de conhecimento entre os desenvolvedores de algoritmos e o público em geral.

Inscreva-se para não perder atualizações e receber regularmente informações interessantes e atuais!

*