in ,

Inteligência Artificial e democracia

Humanos, máquinas e instituições algorítmicas

Inteligência Artificial e democracia: humanos, máquinas e instituições algorítmicas

Fernando Filgueiras, Ricardo Fabrino Mendonça, Virgílio Almeida, Scielo Brasil (24/03/2025)

RESUMO

Este artigo trata das mudanças na dinâmica dos regimes democráticos em razão da emergência da Inteligência Artificial (IA). A teoria democrática avançou na epistemologia da política considerando os avanços de inteligências individuais e coletivas, compreendendo como atores e movimentos sociais tensionam e produzem formas de convivência no seio de democracias. A emergência da Inteligência Artificial significa uma complexificação das dinâmicas democráticas uma vez que ela fundamenta uma epistemologia da política baseada na relação com outras formas de inteligência (individuais e coletivas). A coexistência dessas três formas de inteligência proporciona novos desafios para a teoria democrática no contexto da interação entre humanos e máquinas. Concluímos observando como soluções democráticas têm sido criadas para enfrentar os dilemas sociais que emergem com a Inteligência Artificial.

Introdução

Há muita preocupação na atualidade sobre a relação entre Inteligência Artificial (IA) e democracia. Por um lado, há uma busca crescente pelo uso de IA no processo de construção e implementação de políticas públicas, bem como uma crença no potencial das chamadas civic techs na estruturação de processos participativos mais inclusivos e amplos (Duberry, 2022). Por outro, cresce a cada dia o conjunto de preocupações com as implicações que a IA pode ter para as sociedades democráticas. Temem-se, entre tantas possibilidades, seus efeitos na fragmentação da esfera pública, o viés tecnicizante de políticas baseadas em big data, a reprodução cristalizante de formas de opressão, os riscos da vigilância massiva, a naturalização da opacidade na política e os perigos da influência automatizada sobre coletividades (Jungherr, 2023Murphy; Taylor, 2023Benn; Lazar, 2022König; Wenzelburger, 2020Helbing et al., 2017Pasquale, 2015).

Em geral, essa literatura faz diversos alertas para a necessidade de ter controle sobre os rumos de desenvolvimento da IA, antes que seja tarde demais. Há quem advogue que o “tarde demais” seria a criação da Artificial General Intelligence (AGI), a qual seria incompatível com a própria sobrevivência da democracia, em virtude de sua capacidade ampla de gerar consequências não antecipáveis em diversas frentes (Lazar; Pascal, 2024), gerando riscos existenciais à humanidade. Grande parte dos debates gira, contudo, em torno da necessidade de focar nas consequências já muito palpáveis e atuais da chamada narrow artificial intelligence, que atravessa decisões algorítmicas diversas (Jungherr, 2023). Isso se espelha nos perigos de inteligências artificiais generativas para tornar rarefeitas as fundações da democracia por meio da desinformação e de diferentes formas de engano (Allen; Weyl, 2024).

No framework apresentado por Andreas Jungherr (2023), por exemplo, é fundamental compreender os impactos da IA em diferentes níveis. No nível individual, ela pode colocar em risco a ideia de autogoverno, afetando a autonomia dos cidadãos. No plano coletivo, ela traz ameaças ao princípio de igualdade com seus vieses opacos. No nível institucional, as tecnologias de IA podem contribuir para a deslegitimação das eleições, alimentando muita desconfiança em torno delas. Por fim, no nível mais amplo e sistêmico, a IA pode tornar o autoritarismo mais competitivo, sobretudo pela inexistência de menos restrições ao desenvolvimento de tais tecnologias em regimes não democráticos. Estranhamente, a emergência da inteligência artificial combina com reemergência do autoritarismo em suas diversas facetas porque ela é um facilitador de controle e tem efeitos diretos nos direitos humanos (Filgueiras, 2022; Jungherr, 2023; Feldstein, 2019).

Mapear os problemas e os potenciais benefícios de IA tem moldado muito desse debate. König e Wenzelburger (2020) organizam a discussão dos potenciais benefícios e problemas da IA para a democracia em três grandes focos: input, throughput e output. Eles salientam que a Inteligência Artificial oferece soluções para problemas existentes e novos dilemas e riscos. Pense, por exemplo, na formação e agregação de preferências, nas dinâmicas que estruturam a elaboração de políticas públicas ou no processo de implementação das decisões. Independentemente do potencial para a democracia, é necessário reconstruir a infraestrutura do regime democrático. Propostas de uso da própria tecnologia como redes neurais para identificar conteúdos gerados por IA, autorregulação por meio de plataformas de IA e alfabetização digital da sociedade são apresentadas como essenciais (Kreps; Kriner, 2023). No entanto, as mudanças que ocorrem no cenário da democracia nos parecem mais profundas e dominadas por incertezas dos atores e ambiguidades com relação aos rumos das políticas para IA.

A partir do reconhecimento de que mudanças disruptivas estão em processo, cresce o consenso sobre a necessidade de regulação da IA para além da discussão de princípios morais e éticos a serem por ela respeitados (Nemitz, 2018). A regulação de IA, no entanto, apresenta-se como um wicked problem, uma vez que envolve muitos fatores interdependentes e diversos stakeholders. O que pouco se discute é o fato de que os enquadramentos da regulação de IA devem se alinhar a princípios democráticos essenciais. A tendência é que a regulação de IA seja discutida como a regulação de um produto industrial qualquer (Calo, 2017). Com poucas exceções, cabendo mencionar a elaborada por Himmelreich (2023), tem-se defendido que a democratização da inteligência artificial é urgente e passa pelo maior controle público sobre ela, o que implicaria não apenas a construção de leis claras e aplicáveis, mas também o estímulo à participação em diversas fases do desenvolvimento e avaliação das aplicações de IA (Murphy; Taylor, 2023). Embora essa discussão seja muito importante, não há clareza sobre o que significa democratizar a inteligência artificial.

Nesse amplo e necessário debate, o presente artigo busca dar um passo adicional e pensar a natureza da ruptura que se nos apresenta em virtude de termos gradativamente uma ordem política dos algoritmos. Argumentamos que, mais que o avanço isolado da inteligência artificial, faz-se necessário compreendê-la a partir de suas relações com outras camadas de inteligência, a saber: a inteligência de seres humanos tomados individualmente e a inteligência coletiva. As mudanças em curso têm a ver com a reconfiguração dessa triangulação, na medida em que papeis são redefinidos e novos desafios se apresentam em razão de mudanças epistêmicas sem precedentes para a humanidade. Em geral, tende-se a pensar que a inteligência artificial representa a corrosão de formas de ação epistêmica (Coeckelbergh, 2023). Por outro lado, argumentamos que essa mudança epistêmica adiciona uma camada de complexidade e entropia para a democracia.

Democratic learning”, ação e instituições

Democracia não pode ser definida de maneira a priori porque ela compreende diversos sentidos normativos sobre o que esperamos que ela seja. Na teoria democrática, existem diversas definições, as quais envolvem expectativas normativas diferentes. Ela pode envolver uma simples escolha racional de alternativas (Downs, 1957), um conjunto de requisitos que proporcionem a institucionalização e a participação plural da sociedade nas dinâmicas do regime político (Dahl, 1989), ou modos de comunicação entre sociedade e Estado que levem a um processo deliberativo mais amplo e inclusivo, de maneira a resolver os dilemas sociais (Habermas, 1998). Podemos partir de uma ideia minimalista de democracia, como a de Schumpeter (1942), e considerá-la como um método para a escolha da elite política por meio de eleições. Ou ampliar para uma visão de democracia como um modo de vida de uma comunidade (Dewey, 2012). Em todas essas definições, a busca pelo conceito de democracia envolve uma disputa fundamental de valores que regimes políticos devem perseguir. Como ponto de partida, portanto, não queremos, aqui, conceber uma única definição de democracia, mas tratar dos seus elementos mais fundamentais.

Independentemente de consenso ou disputa sobre esses valores, eles funcionam como elementos normativos centrais para que as democracias proporcionem formas de decisão legítima que afetam toda a coletividade. Assim, elementos como liberdade, igualdade, pluralismo, participação, deliberação, transparência e accountability são centrais para que a democracia seja concebida como uma forma de relação entre a sociedade e o Estado para resolver diferentes problemas (Mendonça, 2018). De acordo com Dahl (1971), a democratização de um regime político requer instituições que combinem a inclusão dos diversos grupos em processos de participação e a abertura dessas instituições para a expressão da pluralidade por via do dissenso.

Uma ordem política democrática legítima requer formas de engajamento da sociedade de maneira que todos os afetados por uma decisão possam participar de sua construção (Habermas, 1998). As decisões devem ser tomadas em público, fazendo que os discursos sejam elementos centrais para a mediação dos conflitos e a construção de entendimento a respeito dos dilemas sociais e das soluções implícitas em decisões coletivas (Chambers, 2003Dryzek; Niemeyer, 2010). Regimes democráticos requerem formas de transparência e accountability para que os atores políticos tenham informação e que essa informação não seja assimétrica entre eles. Com essa informação, democracias operam formas de aprendizado que institucionalizam práticas e saberes por parte de cidadãos e por parte das diferentes organizações que compõem o Estado. Democracia envolve, antes de qualquer coisa, um componente cognitivo baseado em comportamentos institucionalizados por parte de seus atores.

Considerando esse conjunto de valores, podemos partir de algumas premissas a respeito da democracia. Em primeiro lugar, ela é um modo de construir e tomar decisões coletivas, atravessado por dilemas sociais e que opera com aprendizados diversos constituídos pelos agentes políticos (Ostrom, 1999). Isso faz que a democracia não se restrinja à escolha de uma elite política governante por meio de eleições. Os dilemas sociais são encontrados em todos os aspectos da vida. Isso inclui questões econômicas de subsistência ou riqueza de diferentes grupos, questões de identidade ou mesmo sobre aquilo que direta ou indiretamente nos afeta em termos de valores. O problema central da política democrática é como seres humanos se engajam para resolver esses dilemas e criar mecanismos de ação coletiva por meio de aprendizados compartilhados socialmente. Isso pressupõe uma discussão sobre a racionalidade requerida para o funcionamento dos regimes democráticos (Ostrom, 1999).

A racionalidade pode assumir diversos padrões. Ela pode assumir uma forma calculadora, em que os motivadores da ação política são designados por uma lógica consequencialista ou utilitária dos indivíduos (Downs, 1957). Ou podemos pensar a racionalidade em um sentido mais amplo, derivado da busca pelo entendimento coletivo que construímos pela atribuição de sentidos plurais para a ação política (Habermas, 1998). Ou seja, a democracia envolve um modo de decisão coletiva sustentado em uma racionalidade de fundo, a qual pode assumir diferentes padrões mediados por heurísticas e normas (Ostrom, 1999). Entretanto, devemos partir de um fato. A racionalidade é sempre limitada pela assimetria de informação entre os atores políticos (Downs, 1957; Habermas, 1998), fazendo que a ação seja baseada em tentativas e erros, discussões e esclarecimentos, heurística e atalhos cognitivos (Simon, 1983). Democracia é, antes de qualquer coisa, um modo de decisão coletiva que implica interações sociais baseadas em aprendizado, participação e ação coletiva. A heurística e o aprendizado coletivo podem ser facilitados por meio de normas que reforcem a reciprocidade e a confiança para diversas formas de ação (Ostrom, 1999). Assim, democracias envolvem um processo de institucionalização de suas práticas na forma de normas formais e informais que criam sentidos de ação para os indivíduos.

A segunda premissa a que aqui recorremos diz respeito a como os regimes políticos são organizados. A racionalidade política envolve relações sociais que se influenciam mutuamente e definem, assim, relações de poder (Dahl, 1957). Instituições produzem enquadramentos para as relações de poder, definindo os instrumentos para os agentes (Weber, 1978), ou as habilidades para fomentar ideias e valores (Lasswell; Kaplan, 2017). Instituições definem as dinâmicas de poder mais diretas, mas também maneiras para evitar uma decisão ou ação (Bachrach; Baratz, 1972) ou mesmo a moldagem da vontade política dos agentes (Lukes, 2005). Instituições moldam as relações de poder de diversas formas e definem os enquadramentos da ação política por meio de aprendizados que são compartilhados socialmente. Ou seja, os enquadramentos produzidos pelas instituições democráticas proporcionam estruturas cognitivas que implicam aprendizados para humanos sobre como conviverem coletivamente.

Democracias, concebidas como um modo de decisão coletiva, implicam, portanto, duas coisas. Em primeiro lugar, a existência de agentes que se engajam, individual ou coletivamente, nos processos de decisão para resolver diferentes dilemas sociais; esses atores devem modular seus comportamentos por meio de uma racionalização de problemas e soluções e do reconhecimento de valores públicos essenciais para a democracia. Em segundo lugar, democracias envolvem institucionalização. Ou seja, os agentes devem construir instituições que proporcionem formas de equilíbrio e confiança recíproca para lidar com os diversos problemas (Ostrom, 1999). Instituições funcionam como mecanismos produtores de equilíbrio, sendo definidas como regras e normas que estruturam as possibilidades de ação e decisão coletivas. Nesse contexto, instituições atravessam os insights de aprendizado em organizações complexas, criando enquadramentos, scripts e formas de distribuição de recursos que modulam a ação dos agentes políticos (March; Olsen, 1975).

Esse processo é marcado por relações de poder, o que define um presente que mira um futuro das nossas razões e experiências puramente humanas. Esse é o fato da complexidade da democracia e de como somos capazes, coletivamente, de criar instituições para construir soluções, definir sentidos e racionalidades e aprendizados para a ação humana em contextos coletivos e a previsibilidade dos comportamentos sociais. Esse é o dilema básico da democracia, o qual nem sempre é compreendido, fácil ou eficiente. Democracia envolve a construção e tomada de decisões coletivas moldadas por instituições a partir de um conjunto de valores fundamentais compartilhados. Ela requer uma razão democrática que se orienta, assim, por uma inteligência política complexa. Essa inteligência significa o fato de que as democracias, concebidas como um método de decisão coletiva, requerem mecanismos epistêmicos que sustentem as instituições e o modo de vida democrático, fomentando padrões epistêmicos de ação na sociedade (Landemore, 2012aEstlund, 2008).

Nesse sentido, devemos pensar as situações futuras no presente, de maneira a resolver problemas, aprender com os erros e assegurar formas de convivência resilientes e robustas. Democracia envolve formas de inteligência porque representa a capacidade humana de agir para resolver problemas. Muitas tensões das democracias contemporâneas parecem surgir justamente de mudanças epistêmicas que são introduzidas com mudanças na inteligência. É sobre isso que nos debruçamos nas duas próximas seções.

O presente do futuro: formas de inteligência e novos atores

Em diversas situações, seres humanos foram capazes de constituir alguma modalidade de inteligência que implicasse mecanismos de ação coletiva e solução de problemas. A inteligência não é um atributo intelectual e há muitas definições distintas. Não cabe aqui mapearmos todo o debate sobre inteligência. Ela pode significar muitas coisas diferentes e adotamos então uma perspectiva geral sobre inteligência. Ela pode ser descrita como a capacidade de perceber ou inferir informações, reter essas informações como conhecimento a ser aplicado a comportamentos adaptativos dentro de um ambiente ou contexto. Para nosso propósito, seguimos a definição de Minsky (1986), para quem a inteligência significa uma habilidade que humanos desenvolvem para aprender, se adaptar ao ambiente, entender e racionalizar sua ação no mundo. A inteligência tem implicações cognitivas que implicam a forma sobre como nos comunicamos, planejamos, inovamos ou resolvemos problemas de diferentes ordens. Isso não significa, que fique muito claro, qualquer oposição entre inteligência e emoções, dada a complexidade das múltiplas facetas que compõem essa capacidade adaptativa e resolutiva.

Essa definição de inteligência diz sobre como humanos resolvem seus problemas, aprendem e tomam decisões em variadas searas. A inteligência pode implicar simples operações mentais que fazemos para escolher um sabor de picolé, ou sobre como constituímos conhecimentos que têm implicações as mais variadas sobre como convivemos ou construímos artefatos diversos para intervir em nosso ambiente. A segunda dimensão da inteligência – das decisões e impactos coletivos – tem implicações políticas porque ela está no centro do debate sobre como e porque tomamos decisões tanto no plano individual quanto no plano coletivo. Em especial nas democracias, segundo Landemore (2012b), processos e procedimentos de tomada de decisão formam um sistema cognitivo que garante que as decisões tomadas por muitos têm maior probabilidade de serem corretas do que as decisões tomadas por poucos. A democracia como forma de governo é, portanto, valiosa não só porque é legítima e justa, mas também porque é “inteligente” e capaz de produzir aprendizados.

Regimes políticos democráticos dependem de inteligência para organizar o Estado, institucionalizar comportamentos, estabelecer um governo e produzir ação coletiva (Landemore, 2012b). Os regimes democráticos, como dissemos anteriormente, envolvem formas de inteligência que fornecem aprendizados para a sociedade constituir capacidades para a solução de problemas. No entanto, a possibilidade de as pessoas se engajarem em empreendimentos de ação coletiva tem se modificado profundamente nas últimas décadas. E isso tem a ver com reconfigurações entre diferentes camadas e tipos de inteligência.

Qualquer definição de democracia, bem como as diferentes tentativas históricas de operacionalização de alguma ideia de democracia, envolve uma dinâmica complexa entre, pelo menos, duas formas de inteligência. Democracias sempre apostaram, em primeiro lugar, em formas individuais de inteligência. Desde Atenas às diversas reinvenções modernas, a ideia é que só podemos falar de democracia se houver alguma forma de autogoverno em que indivíduos autônomos se expressam e têm suas preferências consideradas (Dahl, 1971). Seja por meio do exercício da isegoria nas assembleias, por meio da agregação de preferências pelo método eleitoral ou pela aposta em discussões públicas em que cada pessoa afetada por uma decisão precisa se expressar, a aposta democrática requer uma “fé” no humano, para usar os termos de Dewey (2012). Como defendia Protágoras, contra a visão popularizada por Platão, indivíduos seriam dotados da capacidade de julgamento político, que seria a base da democracia.

Essa centralidade da inteligência individual é fonte de discussões relevantes na história da teoria democrática. A viabilidade da democracia viu-se sistematicamente confrontada por estudos, que indicavam o escopo, a resiliência e a permanência da suposta “ignorância” humana (Brennan, 2016Achen; Bartels, 2016Dalton; Klingemann, 2007). Os estudos da área de comportamento político levantaram, por décadas, o desafio de pensar a democracia em contextos em que não apenas faltaria informação aos cidadãos, mas também a capacidade de tomada de decisão inteligente e autônoma de que dependeria a democracia. Mesmo que tal diagnóstico seja contestado e que haja quem veja nele elementos da própria racionalidade humana (Downs, 1957), há desafios à democracia implicados na ideia de que ela poderia operar com uma lógica apenas calcada na inteligência individual. Se uma epistemologia da democracia requer inteligência individual, ela nunca se restringiu a tal forma de inteligência.

Paralelamente à ideia de inteligência individual, a democracia, como teoria e prática, também depende de inteligência coletiva. Landemore (2012b) faz ampla reconstrução conceitual para evidenciar como a “razão democrática” sempre esteve baseada em uma formulação sobre inteligência coletiva. Novamente, há variações significativas no que se compreende por inteligência coletiva. De Aristóteles a Hayek, passando por Rousseau, Condorcet, Stuart Mill e Dewey, Landemore (2012b) salienta “que cabe às coletividades a tarefa de construção de soluções mais legítimas e capazes de evitar erros” (Mendonça; Bernardes, 2022, p.329). Se, em Dewey (2012), essa inteligência coletiva surge do trabalho conjunto e plural de sujeitos em comunicação, a abordagem de Condorcet assinala que a agregação de muitas preferências individuais seria capaz de promover uma inteligência coletiva, dado que a escala da decisão contribuiria para corrigir equívocos individuais:

Para Condorcet, conquanto seja razoável supor que as pessoas se enganam com frequência, em média elas estariam mais corretas do que incorretas. Por conseguinte, diz o teorema, quanto maior o grupo e aplicada a regra da maioria, mais a decisão pelo voto se aproxima da vontade geral, portanto, do bem comum. (Santos, 2023, p.4)

A ênfase de muitas teorias democráticas no papel das facções, dos grupos de interesse, dos movimentos sociais e da sociedade civil organizada também é reveladora de apostas na centralidade de formas coletivas de inteligência. Mais recentemente, o debate sobre inteligência coletiva ganhou novo impulso e ainda mais centralidade explícita, com os debates sobre o potencial colaborativo da produção de conhecimento em rede. A internet aguçou os sonhos sobre um tipo de inteligência distribuída e movida por uma cultura de compartilhamento, que coordena a si mesma em tempo real (Lévy, 1999). Aqui, a inteligência coletiva passa a ser vista como a amplificação da inteligência individual em um sentido distribuído, implicando novas formas de aprendizado político que impactam diretamente o funcionamento da democracia (Landemore, 2012a).

Seja como for, ao longo de sua complexa e não linear construção histórica, a democracia, como teoria e como prática, esteve ancorada num balanço complexo e instável entre inteligências individuais e coletivas. Em alguns momentos, reivindica-se o papel da inteligência individual como contrapeso aos distúrbios gerados por mecanismos de produção da inteligência coletiva. Em outros, a inteligência coletiva é vista como produto que depura, aprimora e corrige as inteligências individuais agregadas, abrindo trilhas para a resolução de dilemas sociais. No coração de qualquer visão de democracia, estão ambas as inteligências.

Isso muda, contudo, quando um terceiro tipo de inteligência entra em cena: a Inteligência Artificial. Obviamente, ela não substitui as duas anteriores, mas ela afeta o balanço, as compreensões e as formas de construção das outras inteligências. Inteligência Artificial significa a existência de agentes ou multiagentes baseados em tecnologias computacionais que são capazes de perceber um fluxo de dados para produzir uma solução que represente um conhecimento para a tomada de decisão ou a realização de uma tarefa (Russell, 2019). Ela envolve sistemas computacionais que fazem predição ou simulação com base em dados – representados como números, textos, falas, imagens – que interagem com seres humanos para tomar decisões ou realizar tarefas (Nowotny, 2021). Inteligência Artificial é sobre uma forma de construção do conhecimento por meio de máquinas (Simon, 1995). Um dos pressupostos de uma inteligência artificial é a constituição de agentes que agem em uma dimensão epistêmica, incluindo nessa ação diversos dilemas, desafios e problemas (McCarthy, 1981).

A propagação de agentes artificiais ocorre de maneira acelerada no mundo contemporâneo, demandando de governos políticas que lidem com essas tecnologias disruptivas. A inteligência artificial se faz presente em tudo, cobrindo amplamente todos os campos da ciência e formas de conhecimento prático. Por exemplo, na área de biotecnologia a inteligência artificial é uma constante em pesquisas, atuando na identificação, decodificação e edição genética (Holzinger et al., 2023). Na área farmacêutica, a Inteligência Artificial acelera a descoberta de drogas (Jiménez-Luna et al., 2020). No campo do direito, a Inteligência Artificial muda a prática jurídica sobre como implementar leis (Alarie et al., 2018). No campo de governos, a Inteligência Artificial tem o potencial para suplantar o papel de policymakers e analistas em todo o ciclo de políticas públicas (Janssen; Helbig, 2018Safaei; Longo, 2024). Trata-se de uma tecnologia pervasiva movida pelo anseio da sociedade em construir um sistema de decisão por meio de agentes que sejam capazes de controlar o futuro e interagir com humanos de maneiras diversas, definindo novos modos de ação social (Nowotny, 2021Weizenbaum, 1976).

Lidamos, assim, com uma nova forma de inteligência que cria um paradoxo epistemológico. Utilizamos a Inteligência Artificial para aumentar o nosso controle sobre o futuro e a incerteza, ao mesmo tempo que a performatividade da IA, o poder que tem para nos fazer agir da forma como prevê, reduz a nossa agência sobre o futuro (Nowotny, 2021). Justamente por isso, regimes democráticos experienciam mudanças profundas que se relacionam à forma como diferentes tipos de inteligência interagem. Inteligências individual, coletiva ou artificial podem ser pensadas como camadas sobrepostas que interagem de formas complexas, balizando os funcionamentos umas das outras. A complexidade dos regimes democráticos que passam a lidar com essas três formas de inteligência amplifica-se de maneira a produzir mudanças da ação epistêmica dos agentes sociais (Coeckelberg, 2023).

Inteligências individual, coletiva e artificial constituem-se em camadas epistemológicas distintas da política, mas que se relacionam por meio de feedbacks recíprocos. A relação entre a inteligência individual e coletiva é bem conhecida no modo como elas moldam formas democráticas. Os feedbacks de inteligências individuais agregadas podem ser oferecidos a governos, por exemplo, por meio de eleições, as quais indicam o apoio ou crítica a uma agenda de políticas públicas. Os feedbacks de inteligências coletivas podem ocorrer por meio do apoio, crítica ou resistência de movimentos sociais a uma agenda governamental. O que é novo nas democracias é o fato de termos uma camada de inteligência que altera e amplifica a natureza desses feedbacks. A Inteligência Artificial é capaz de coletar e processar os feedbacks que emergem de atores individuais, coletivos e artificiais e produzir, assim, novas estruturas de aprendizado e conhecimento para a ação social por reforço mútuo das inteligências individual e coletiva. Ela faz isso por meio de sistemas de vigilância e coleta de dados sobre indivíduos e por meio da agregação de preferências em um formato coletivo. Inteligências artificiais generativas, por exemplo, coletam feedbacks de indivíduos, agregam estas preferências em um formato coletivo e produzem feedbacks a partir do próprio conhecimento gerado. Os feedbacks recíprocos entre essas inteligências complexificam o regime de informação e criam dinâmicas políticas novas, baseadas na forma como humanos e máquinas interagem. São as interações entre humanos e máquinas que produzem esses feedbacks e alimentam as diferentes formas de inteligência. A Inteligência Artificial depende fundamentalmente dessas interações entre humanos e máquinas para existir.

Em um mundo marcado pela Inteligência Artificial, a inteligência dos indivíduos e suas resultantes coletivas são coproduzidas por sistemas de predição e simulação que transformam o modo como construímos conhecimento e como esse conhecimento molda a ação dos agentes. Isso afeta a dimensão epistêmica dos regimes democráticos. Até muito recentemente, as democracias supunham que os agentes epistêmicos em um regime político seriam apenas humanos organizados individual ou coletivamente. A questão é que a introdução de novos agentes – “artificiais” – transforma a maneira como conhecemos e abre novas oportunidades e enquadramentos para a ação. As camadas de inteligência individual, coletiva e artificial produzem feedbacks recíprocos que transformam as bases de aprendizado, adaptação e conhecimento. Se, antes, as democracias operavam a tomada de decisão e a realização de tarefas pelo imbricamento de inteligência individual e coletiva, agora, a Inteligência Artificial introduz novas condições de agência. O mundo da Inteligência Artificial passa pela crescente delegação de poder decisório a agentes artificiais que produzem conhecimento, realizam tarefas de modo mais eficiente e, portanto, modificam as condições de agência humana. Esses feedbacks recíprocos modelam o modo como agentes humanos interagem com agentes artificiais, criando uma nova camada epistêmica para os regimes democráticos, uma vez que elas moldam relações de poder (Weizenbaum, 1976).

Se o mundo coordenado pela mutualidade das inteligências individual, coletiva e artificial proporciona mudança da democracia, podemos afirmar que os impactos da Inteligência Artificial decorrem de mudanças na racionalidade dos agentes. Um elemento novo das democracias contemporâneas é o modo como humanos interagem com máquinas para tomar decisões com impacto coletivo. Lembrando a maneira como a performatividade da inteligência artificial nos faz perder agência sobre o futuro, mesmo que tenhamos o anseio de aumentar o controle sobre ele, isso decorre de padrões disruptivos das relações de poder. Gradativamente a democracia é moldada por uma nova racionalidade e por novas instituições que emergem, induzindo um futuro que espelha o passado a partir da forma como indivíduos e coletividades agem no presente.

O presente do futuro: novas instituições

Em uma democracia, instituições organizam práticas e definem sentidos para o agir (March; Olsen, 1989), formas de entendimento comum (Habermas, 1998), mecanismos distributivos (Acemoglu; Robinson, 2012North, 1990), temporalidades (Pierson; Skocpol, 2002), comportamentos apropriados (March; Olsen, 2009) e discursos (Schmidt, 2010). Instituições moldam as nossas formas de interação social e de decisão coletiva, porque elas definem enquadramentos e situações de ação. Elas viabilizam que interajamos coletivamente para resolver um determinado problema, interpretando e reinterpretando o significado do agir.

Sistemas de inteligência artificial são compostos de três coisas: (1) infraestruturas de dados que funcionam como requisitos epistêmicos para a representação de números, textos, voz, imagens; (2) infraestruturas computacionais complexas que realizam cálculos por meio hardware proprietários ou sistemas distribuídos em nuvem; (3) algoritmos que definem as regras por meio das quais os dados serão incorporados e suas relações calculadas para gerar uma solução de conhecimento acerca de um problema ou uma tarefa. Particularmente com relação aos algoritmos, eles exercem uma função de institucionalização da ação desses agentes no cotidiano da sociedade. Tais sistemas representam “livros de regras” que estruturam o modo como agentes humanos e artificiais interagem para atingir um propósito (Turing, 1950). As possibilidades de interação entre humanos e máquinas são orientadas por regras incorporadas nos algoritmos, os quais moldam situações, enquadramentos e scripts de ação no contexto da inteligência artificial. Algoritmos se tornam um novo tipo de instituição nas sociedades contemporâneas, balizando as interações entre humanos e máquinas e também entre humanos (Mendonça et al. 2023).

Algoritmos pensados como instituições têm implicações diretas para o funcionamento das democracias. Algoritmos gradativamente estruturam e institucionalizam novas práticas sociais, o funcionamento de governos, dinâmicas de guerra, formas de comunicação social, os vieses da sociedade, por exemplo. E a forma como essas novas instituições são desenhadas de maneiras opacas e pouco accountable produz resultados imediatos sobre a liberdade, igualdade, participação e regulação que surgem nas democracias contemporâneas. Da mesma forma, instituições algorítmicas exercem um novo tipo de governança e moldam novas relações de poder em razão da forma como corporações de tecnologia controlam o fluxo de comunicação global. Instituições algorítmicas institucionalizam uma nova realidade que emerge em um futuro utópico ou distópico dependendo de como agimos no presente (Mendonça et al., 2023).

As interações sociais são relações governadas por instituições. Essas relações implicam uma linguagem que define o que é permitido, proibido e possibilitado aos atores sociais. Agentes artificiais incorporam as regras para interpretar um determinado fenômeno na forma de dados e produzir resultados de conhecimento. A forma como incorporamos as tecnologias tem implicações sociais e políticas, uma vez que os sistemas algorítmicos, muitas vezes considerados um simples instrumento, constituem-se numa linguagem de ação social e de novos significados e relações de poder. Ferramentas como sistemas computacionais oferecem novas possibilidades para a reconstrução imaginativa do mundo por meio de novas relações de poder (Weizenbaum, 1976).

As regras que passam a governar as interações entre humanos e máquinas estão incutidas nos algoritmos desses sistemas, de forma que elas recriam o mundo a partir de um novo processo de institucionalização. Algoritmos podem ser concebidos como instituições porque eles representam um “livro de regras” que define como as máquinas devem funcionar e interagir com humanos (Mendonça et al., 2023). Algoritmos são instituições porque especificam regras e incorporam normas que visam a resolver problemas diversos. Os algoritmos definem a forma como interagimos com agentes artificiais, balizando, assim, nossas escolhas individuais e coletivas, bem como nossos comportamentos porque passamos a experienciar uma nova forma de conhecimento político moldado pela inteligência artificial. Os algoritmos institucionalizam a camada da Inteligência Artificial e os resultados desse conhecimento institucionalizado produzem feedbacks com relação às camadas de inteligência individual e coletiva. Esses feedbacks recíprocos entre as formas de inteligência recriam nossas experiências sociais e políticas, modificando as bases de ação epistêmica dentro da democracia. A Inteligência Artificial não simplesmente corrói a democracia (Innerarity, 2023). Ela reinventa a democracia em novos padrões de agência e institucionalização. Ou seja, os algoritmos atravessam a definição de regras a partir das quais as camadas de inteligência individual, coletiva e artificial relacionam-se entre si e produzem feedbacks recíprocos que alteram a ação epistêmica na sociedade.

Algoritmos são instituições porque eles são construídos e desenhados com um propósito de solução de problemas, definem regras e normas, incorporam histórias – e profecias autorrealizadas – por meio de dados, definem novos mecanismos regulatórios da ação humana, contribuem para moldar discursos (Mendonça et al., 2023). No âmago de uma nova ordem política emergente, movida pelas interações entre humanos e máquinas, criam-se uma epistemologia política e novas relações de poder, movidas pela autoridade da técnica sobre o político. Isso se espelha na forma como mercados, governos e indústria são movidos por um conhecimento criado por Inteligência Artificial, fomentando inovações por meio de interações entre os atores a partir de instituições algorítmicas que produzem feedbacks recíprocos com indivíduos e coletividades a respeito de padrões de consumo, cultura, indústria, produtos e serviços, experiências de vida.

Gradativamente vamos constituindo ordens políticas algorítmicas em que códigos computacionais implicam novas relações de poder (Amoore, 2022Crawford, 2021). Isso implica uma forma de reconstrução e reorganização do mundo movida por novas instituições que emergem no presente com um tom de futuro. A algoritmização das organizações burocráticas (Meijer et al., 2021), a emergência de novas formas de governança constituídas em interação com a Inteligência Artificial (Issar; Aneesh, 2022König, 2019), ou o modo como interagimos com essas tecnologias no cotidiano criam formas de conhecimento, modos de aprendizagem política humana e novas estruturas de racionalidade que desafiam o sentido tradicional de democracia.

A emergência de instituições algorítmicas e de agentes artificiais estabelece uma nova camada para o mundo da democracia. A Inteligência Artificial implica que crescentemente institucionalizamos novas práticas e novos enquadramentos para a nossa capacidade de decisão individual e coletiva, constituída em torno dos significados que emergem da interação entre humanos e máquinas. Nesse cenário, temos um conjunto novo de problemas para a democracia. Novos atores emergiram na cena política, complexificando a ordem democrática. Indivíduos, movimentos sociais e agentes artificiais interagem coletivamente criando uma camada nova de inteligência, que institucionaliza novos meios de interação social. As mudanças epistêmicas que emergem no cenário da democracia do século XXI são aquelas em que inteligências individuais, coletivas e artificiais estabelecem camadas distintas, mas integradas para a moldura da ação social e da institucionalização de práticas, rotinas e organizações por meio de feedbacks recíprocos. Nesse cenário, novos problemas emergem e novos desafios são colocados para as democracias.

Novos problemas, mudanças epistêmicas e futuros imaginados

No cenário da democracia, as camadas das inteligências individual, coletiva e artificial representam formas distintas de aprendizado que emergem de modos de interação diferentemente institucionalizados. Nas camadas das inteligências individual e coletiva, as interações sociais são construídas entre indivíduos e movimentos coletivos que interagem para a realização de um propósito. Para a democracia, isso representa um mundo baseado no poder das lideranças, na recorrência de eleições e estruturas de direitos que assegurem formas de participação e deliberação pública. Dinâmicas de votos e competição política compreendem dinâmicas de uma inteligência individual, enquanto conhecimento compartilhado e ativismo político representam as dinâmicas de inteligência coletiva. A democracia envolveria formas de pensar, que dependem de indivíduos e coletivos, para a resolução de problemas com consequências partilhadas (Dewey, 2012).

No cenário que avança no século XXI, o desenvolvimento da Inteligência Artificial proporciona maneiras para que máquinas aprendam e interajam com humanos para reconstruir as bases da ação epistêmica e as capacidades de resolver dilemas sociais. Isso não significa que a Inteligência Artificial vá se sobrepor às demais camadas e, assim, se sobrepor à própria democracia (Innerarity, 2023). Isso significa que as formas de inteligência se relacionam por meio de feedbacks recíprocos que modificam a estrutura de conhecimento da humanidade. Do ponto de vista prático, delegamos a agentes artificiais poder para tomar decisão e realizar tarefas. Além disso, na camada da Inteligência Artificial constituem-se novos modos de institucionalização pelos algoritmos, que se dão pelo poder das plataformas e pelo modo como interagimos com máquinas para resolver diferentes problemas.

A coexistência dessas camadas de inteligência nas democracias contemporâneas transforma os modos de aprendizado social alterando radicalmente as dinâmicas políticas democráticas. Assim, a Inteligência Artificial em muitas situações representa uma ameaça para a democracia porque ela modifica as condições da coexistência humana. A Inteligência Artificial, em primeiro lugar, modifica radicalmente o ecossistema de informação. Ao invés de um conhecimento prático movido por humanos no plano de uma inteligência individual ou coletiva, a Inteligência Artificial proporciona mecanismos que aceleram a desinformação, promovem o controle do fluxo de informação global por corporações de tecnologia e solidificam o domínio de um conhecimento técnico moldado por esta inteligência (Kreps; Kriner, 2023).

Em segundo lugar, a Inteligência Artificial reifica, reproduz e dissemina, de maneiras mais eficientes, os diferentes vieses da sociedade. Por exemplo, os vieses raciais, étnicos e de gênero configuram formas “algoritmizadas” que se rotinizam na sociedade e definem práticas injustas de agentes artificiais (Noble, 2018Benjamin, 2019). A Inteligência Artificial contribui para otimizar e institucionalizar formas diversas de racismo, desigualdades de gênero e etnia. Da mesma forma, a Inteligência Artificial contribui para formas violentas de perseguição a grupos específicos, como o caso da perseguição a palestinos no cenário de conflito na Faixa de Gaza (Abraham, 2024). Da mesma forma, agentes artificiais produzem formas de engano em diversas situações de gaming com humanos, requerendo mecanismos de controle rigorosos por parte da sociedade (Cohen et al., 2024). Isso decorre de um mundo em reconstrução que orienta o julgamento político pelo cálculo de possibilidades materializadas em dados (Weizenbaum, 1976).

Em terceiro lugar, a Inteligência Artificial não tem um modelo de controle humano sobre o futuro da tecnologia. Isso se expressa na maneira como a Inteligência Artificial existe de forma opaca por meio de agentes artificiais que agem de forma inexplicável e não accountable (Pasquale, 2015). Por exemplo, armamentos letais autônomos constituem-se em agentes artificiais moldados para situações de conflitos e guerras, cuja ação é rotinizada por algoritmos complexos que selecionam e eliminam alvos humanos (Scharre, 2018). Isso modifica radicalmente o monopólio de uso da força do Estado na arena internacional e retira qualquer capacidade de controle dos cidadãos. Exemplos abundam sobre como a Inteligência Artificial recria velhos problemas em novas formas de ação epistêmica. Indo além, existe um chamado sobre os riscos existenciais que essas mudanças epistêmicas acarretam para a estrutura da sociedade com a possibilidade de agentes artificiais que executem objetivos prejudiciais para humanos, independentemente de quem tenha definido os resultados pretendidos (Bengio, 2023).

De outro lado, a camada da Inteligência Artificial tem potenciais que podem, eventualmente, beneficiar a democracia. A inteligência artificial proporciona formas de reimaginação e recriação do mundo (Weizenbaum, 1976) e da própria ideia de democracia (Ovadya, 2023). Ao implicar que humanos e máquinas interagem para produzir a ação social em contextos de instituições algorítmicas, o futuro imaginado no contexto da Inteligência Artificial é aquele em que práticas, ideias e normas se transformam para reinventar as instituições existentes da democracia e possibilitar, hipoteticamente, outras dinâmicas de participação e engajamento humanos. A Inteligência Artificial proporciona maneiras para agregar preferências e produzir formas eficientes e inclusivas de aprendizado individual e coletivo que alterem radicalmente o futuro de instituições como os sistemas eleitorais (Burgess, 2022). Ademais, a Inteligência Artificial possibilita o imaginário de universalismo e cooperação que emerge com a investigação sobre as IA seguras e defensivas, conduzida por uma rede multilateral e internacional de laboratórios e redes de pesquisa (Bengio, 2023). Isso depende de uma mudança ética movida por agentes artificiais confiáveis e que possam criar uma noção de reciprocidade com humanos (Floridi, 2019). Mas depende também, e fundamentalmente, de formas de regulação adequadas que estruturem sistemas de responsabilização, permitindo ir além da aposta em sistemas mais éticos (Nemitz, 2018).

Em um futuro imaginado de democracias compostas por camadas de inteligências individual, coletiva e artificial, em que mudanças epistêmicas comprometem os mecanismos de ação coletiva e formas de decisão, duas questões se tornam essenciais para a democratização de uma ordem política algorítmica. De um lado, é fundamental democratizar a forma como instituições algorítmicas são desenhadas. Reconhecer os valores de liberdade e igualdade em uma nova estrutura de direitos digitais e fomentar mecanismos de participação para criação de instituições algorítmicas são fundamentais. Central nesse processo é fortalecer os mecanismos de accountability, de maneira que os afetados pelas instituições algorítmicas possam julgar a ação de agentes artificiais e humanos que agem a partir delas (Mendonça et al. 2023). De outro lado, é fundamental que os agentes artificiais, em interação com humanos, possam aprender os valores da democracia e criar formas de coordenação e coexistência (Salmi, 2023). Coexistência entre agentes humanos e artificiais significa que é necessário que ordens políticas algorítmicas possibilitem e garantam participação no processo de tomada de decisão.

Conclusão

As mudanças epistêmicas que direcionam uma realidade política incerta e ambígua produzem efeitos sobre a democracia. A coexistência de camadas de inteligências individual, coletiva e artificial complexifica e produz entropia dos regimes políticos. Primeiro, pelo fato de termos novos atores na cena da democracia. Agentes artificiais transformam o funcionamento da democracia mediante novas possibilidades de aprendizado e cognição que surgem das interações entre humanos e máquinas. Esses aprendizados afetam diretamente como construímos a legitimidade, definimos as organizações e reestruturamos dinâmicas como trabalho, governo, comércio, entretenimento e relações sociais. Segundo, pelo fato de termos novas instituições que rotinizam práticas, criam novos ou reproduzem velhos significados e situações para a ação, reestruturam os vieses e redistribuem os recursos da sociedade. Nessa coexistência das formas de inteligência, novos riscos emergem em contextos de incertezas, informações incompletas e assimétricas e novas relações de poder que derivam de um futuro imaginado a partir da técnica.

Lidar com esses futuros imaginados requer ações no presente. Desafios abundam nesse sentido. Primeiro, sobre como estabelecer governança sobre a ação dos agentes artificiais. A introdução de agentes artificiais em mercados, governos, indústria e serviços produz mudanças disruptivas na forma como a humanidade conhece seus problemas e constrói soluções. A precedência da técnica sobre a política cria o estranho sentimento de que controlamos melhor o presente e predizemos um futuro ao mesmo tempo que perdemos o controle sobre nossa ação no mundo. Governar os agentes artificiais significa não apenas como vamos estabelecer controle sobre a ação, mas estabelecer uma forma de comportamento democrático destes agentes que é incerta e ambígua no contexto da camada de Inteligência Artificial, o que demandaria novos atributos nas interações entre humanos e máquinas. Além disso, dependeria de como os feedbacks entre as formas de inteligência – individual, coletiva e artificial – poderiam ser feitos em um formato mais inclusivo, participativo e deliberativo. Da mesma forma, a governança desses agentes incide no modo como as instituições algorítmicas serão desenhadas e terão seu desempenho avaliado pela sociedade. Isso significa formas complexas de accountability que não estão ainda presentes no cenário regulatório.

O futuro da democracia em um contexto de complexificação derivado da emergência da camada de Inteligência Artificial depende de como humanos vão interagir com máquinas, o que não significa que essas sejam apenas ferramentas destituídas de affordances. Mas não há uma determinação a priori sobre como humanos irão reconstruir suas formas de aprendizado nas camadas de inteligência individual e coletiva ao se alimentarem de feedbacks produzidos na camada de Inteligência Artificial. Os desafios são enormes e a centralidade humana é central para o futuro da democracia.

Agradecimentos

Os autores do artigo recebem financiamento do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), conforme a seguir: Fernando Filgueiras – processos 303762/2023-3 e 441095/2023-2; Ricardo Fabrino Mendonça – processos 310939/2023-2 e 406288/2023-2; Virgílio Almeida – processo 311482/2019-8.

Referências

  • ABRAHAM, Y. ‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza. In: +972 Magazine, 2024. Available at: <https://www.972mag.com/lavender-ai-israeli-army-gaza/>.
    » https://www.972mag.com/lavender-ai-israeli-army-gaza
  • ACEMOGLU, D.; ROBINSON, J.A. Why nations fail: The origins of power, prosperity, and poverty. New York: Crown Currency, 2012.
  • ACHEN, C. H.; BARTELS, L. M. Democracy for realists: Why elections do not produce responsive government. Princeton: Princeton University Press, 2016.
  • ALARIE, B.; NIBLETT, A.; YOON, A.H. How artificial intelligence will affect the practice of law. University of Toronto Law Journal, v.68, n.1, p.106-24, 2018.
  • ALLEN, D.; WEYL, E. G. The real dangers of generative AI. Journal of Democracy, v.35, n.1, p.147-62, 2024.
  • AMOORE, L. Machine learning political orders. Review of International Studies, v.49, n.1, p.20-36, 2022.
  • BACHRACH, P.; BARATZ, M. S. Two faces of power. American Political Science Review, v.56, n.4, p.947-52, 1972.
  • BENGIO, Y. AI and catastrophic risk. Journal of Democracy, v.34, n.4, p.111-21, 2023.
  • BENN, C.; LAZAR, S. What’s wrong with automated influence. Canadian Journal of Philosophy, v.52, n.1, p.125-48, 2022.
  • BENJAMIN, R. Race after technology. New York: Polity Press, 2019.
  • BOSTROM, N. Racing to the precipice: A model of artificial intelligence development. ​AI & Society​, v.31, n.2, p.201-6, 2016.
  • BRENNAN, J. Against democracy. Princeton: Princeton University Press, 2016.
  • BURGESS, P. Algorithmic augmentation of democracy: considering whether technology can enhance the concepts of democracy and the rule of law through four hypotheticals. AI & Society, v.37, n.4, p.97-112, 2022.
  • CALO, R. Artificial Intelligence policy: A primer and roadmap. University of California Davis Law Review, v.51, n.399, p.399-435, 2017.
  • CHAMBERS, S. Deliberative democratic theory. Annual Review of Political Science, v.6, n.1, p.307-26, 2003.
  • COECKELBERGH, M. Democracy, epistemic agency, and AI: political epistemology in times of artificial intelligence. AI Ethics, v.3, n.1, p..1341-50, 2023.
  • COHEN, M. et al. Regulating advanced artificial agents. Governance frameworks should address the prospect of AI systems that cannot be safely tested. Science, v.384, n.6691, p.36-38, 2024.
  • CRAWFORD, K. Atlas of AI: power, politics, and the planetary costs of artificial intelligence. New Haven: Yale University Press, 2021.
  • DAHL, R. A. The concept of power. Behavioral Science, v.2, n.3, p.201-15, 1957.
  • _______. Poliarchy: Participation and opposition. New Heaven: Yale University Press, 1971.
  • _______. Democracy and its critics. New Heaven: Yale University Press, 1989.
  • DALTON, R. J.; KLINGEMANN, H. D. Citizens and political behavior. In: DALTON, R. J.; KLINGEMANN, H. D. (Ed.) The Oxford handbook of political behavior. Oxford: Oxford University Press, 2007. p.3-26.
  • DEWEY, J. The public and its problems. An essay in political inquiry. University Park: Penn State University Press, 2012.
  • DOWNS, A. The economic theory of democracy. New York: Harper & Brothers, 1957.
  • DRYZEK, J. S.; NIEMEYER, S. Foundations and frontiers of deliberative governance. Oxford: Oxford University Press, 2010.
  • DUBERRY, J. Artificial intelligence and democracy. Risks and promises of AI-mediated citizen-government relations. Chentelham: Edward-Elgar, 2022.
  • ESTLUND, D. Democratic authority: A philosophical framework. Princeton: Princeton University Press, 2008.
  • FELDSTEIN, S. The road to the digital unfreedom: How artificial intelligence is reshaping repression. Journal of Democracy, v.30, n.1, p.40-52, 2019.
  • FILGUEIRAS, F. The politics of AI: Democracy and authoritarianism in developing countries. Journal of Information Technology & Politics, v.19, n.4, p.1-16, 2022.
  • FLORIDI, L. Establishing the rules for building trustworthy AI. Nature Machine Intelligence, v.1, n.1, p.261-2, 2019.
  • HABERMAS, J. Between facts and norms. Cambridge, MA: MIT Press, 1998.
  • HELBING, D. et al. Will democracy survive big data and artificial intelligence? Scientific American, 2017. Disponível em: <https://www.scientificamerican.com/article/will-democracy-survive-big-data-and-artificial-intelligence/>.
    » https://www.scientificamerican.com/article/will-democracy-survive-big-data-and-artificial-intelligence
  • HIMMELREICH, J. Against “Democratizing AI”. AI & Society, v.38, p.1333-46, 2023.
  • HOLZINGER, A. et al. AI for life: Trends in artificial intelligence for biotechnology. New Biotechnology, v.74, n.4, p.16-24, 2023.
  • INNERARITY, D. The epistemic impossibility of an artificial intelligence take-over of democracy. AI & Society, early view, p.1-5, 2023.
  • ISSAR, S.; ANEESH, A. What is algorithmic governance? Sociology Compass, v.16, n.1, e12955, 2022.
  • JANSSEN, M.; HELBIG, P. Innovating and change the policy cicle: Policy-makers be prepared! Government Information Quarterly, v.34, n.4, p.99-105, 2018.
  • JIMÉNEZ-LUNA, J.; GRISONI, F.; SCNEIDER, G. Drug Discovery with explainable artificial intelligence. Nature Machine Intelligence, v.2, n.1, p.573-84, 2020.
  • JUNGHERR, A. Artificial intelligence and democracy: A conceptual framework. Social Media + Society, v.9, n.3, p.1-14, 2023.
  • KÖNIG, P. D. Dissecting the algorithmic Leviathan: On the socio-political anatomy of algorithmic governance, Philosophy & Technology, v.33, n.4, p.467-85, 2019.
  • KÖNIG, P. D. WENZELBURGER, G. Opportunity for renewal or disruptive force? How artificial intelligence alters democratic politics. Government Information Quarterly, v.37, n.3, 101489, 2020.
  • KREPS, S.; KRINER, D. How AI threatens democracy. Journal of Democracy, v.34, n.4, p.122-31, 2023.
  • LANDEMORE, H. Collective wisdom: Old and new. In: LANDEMORE, H.; ELSTER, J. (Ed.) Collective wisdom: Principles and mechanisms. Cambridge: Cambridge University Press, 2012a. p.1-20.
  • _______. Democratic reason. Politics, collective intelligence, and the rule of many. Princeton: Princeton University Press, 2012b.
  • LASSWELL, H. D.; KAPLAN, A. Power and society: A framework for political inquiry. New York: Routledge, 2017.
  • LAZAR, S.; PASCAL, A. Can democracy survive artificial general intelligence? In: Tech Policy.Press, 2024. Available at: <https://www.techpolicy.press/can-democracy-survive-artificial-general-intelligence/>.
    » https://www.techpolicy.press/can-democracy-survive-artificial-general-intelligence
  • LÉVY, P. Collective intelligence. Mankind’s emerging world in cyberspace. New York: Basic Books, 1999.
  • LUKES, S. Power: A radical view. London: Palgrave Macmillan, 2005.
  • MARCH, J. G.; OLSEN, J. P. The uncertainty of the past: Organizational learning under ambiguity. European Journal of Political Research, v.3, n.2, p.147-71, 1975.
  • _______. Rediscovering institutions: The organizational basis of politics. New York: Free Press, 1989.
  • _______. The logic of appropriateness. In: GOODIN, R. E. (Ed.) The Oxford Handbook of Political Science. Oxford: Oxford University Press, 2009. p.478-97.
  • MCCARTHY, J. Epistemological problems of artificial intelligence. In: WEBBER, B. L.; NILSSON, N. J. Readings in artificial intelligence. Berlin: Springer, 1981. p.459-65.
  • MEIJER, A.; LORENZ, L.; WESSELS, M. Algorithmization of bureaucratic organizations: using a practice lens to study how context shapes predictive policing systems. Public Administration Review, v.81, n.5, p.837-46, 2021.
  • MENDONÇA, R. F. Dimensões democráticas nas jornadas de junho. Revista Brasileira de Ciências Sociais, v.33, p.1-23, 2018.
  • MENDONÇA, R. F.; BERNARDES, C. B. Crise epistêmica e democracia: amadores e especialistas. In: TATAGIBA, L. et al. (Org.) Participação e ativismos: entre retrocessos e resistências. Porto Alegre: Zouk, 2022. p.327-46.
  • MENDONÇA, R. F.; FILGUEIRAS, F.; ALMEIDA, V. Algorithmic institutionalism: The changing rules of social + political life. Oxford: Oxford University Press, 2023.
  • MINSKY, M. The society of mind. New York: Simon & Schuster, 1986.
  • MURPHY, J. W.; TAYLOR, R. R. To democratize or not to democratize AI? That is the question. AI and Ethics, early view, p.1-7, 2023.
  • NEMITZ, P. Constitutional democracy and technology in the age of artificial intelligence. Philosophical Transactions of Royal Society, n.376, A.37620180089, 2018.
  • NOBLE, S.U. Algorithms of oppression: How search engines reinforce racism. New York: New York University Press, 2018.
  • NORTH, D. C. Institutions, institutional change and economic performance. Cambridge: Cambridge University Press, 1990.
  • NOWOTNY, E. In AI we trust: Power, illusion, and control of predictive algorithms. New York: Polity Books, 2021.
  • OSTROM, E. A behavioral approach to the rational choice theory of collective action: Presidential address, American Political Science Review, v.92, n.1, p.1-22, 1999.
  • OVADYA, A. Reimagining democracy for AI. Journal of Democracy, v.34, n.4, p.162-70, 2023.
  • PASQUALE, F. The black box society. Cambridge: Harvard University Press, 2015.
  • PIERSON, P.; SKOCPOL, T. Historical institutionalism in contemporary Political Science. In: KATZNELSON, I.; MILNER, H. V. (Ed.) Political Science: State of discipline. New York: Norton, 2002. p.693-721.
  • RUSSELL, S. Human compatible: Artificial intelligence and the problem of control. New York: Penguim Books, 2019.
  • SAFAEI, M.; LONGO, J. The end of policy analyst? Testing the capability of artificial intelligence to generate plausible, persuasive and useful policy analysis. Digital Government: Research and Practice, v.5, n.1, p.4-35, 2024.
  • SALMI, J. A democratic way of controlling artificial general intelligence. AI & Society, v.38, p.1785-91, 2023.
  • SANTOS, F. Reavaliando a contribuição do “paradoxo” de Condorcet para a moderna análise política. Revista de Sociologia & Política, v.31, e012, 2023.
  • SCHARRE, P. Army of none: Autonomous weapons and the future of war. New York: W.W. Norton, 2018.
  • SCHMIDT, V. A. Taking ideas and discourse seriously: Explaining change through discursive institutionalism as the fourth “New Institutionalism”’, European Political Science Review, v.2, n.1, p.1-25, 2010.
  • SCHUMPETER, J. Capitalism, socialism and democracy. New York: Harper & Row, 1942.
  • SIMON, H. A. Reason in human affairs. Stanford: Stanford University Press, 1983.
  • _______. Artificial intelligence: an empirical science. Artificial Intelligence, v.77, n.1, p.95-127, 1995.
  • TURING, A. Computing machinery and intelligence. Mind-A Quarterly Review of Psychology and Philosophy, v.59, n.236, p.433-60, 1950.
  • WEBER, M. Economy and society. Berkeley and Los Angeles: University of California Press, 1978.
  • WEIZENBAUM, J. Computer power and human reason: From judgment to calculation. San Francisco: W. H. Freeman, 1976.

Manual do Isentão

A democracia como modo de vida de Dewey