As Mentes que Hesitam: O Peso da Escolha Diante do Novo
1. Introdução: dilemas sem precedentes
E se o futuro nos confrontar com dilemas para os quais nenhuma regra herdada tem aplicação possível?
Num horizonte onde inteligências artificiais, híbridos humano-máquina, ecossistemas planetários em colapso e formas de vida ainda desconhecidas emergem como protagonistas da história, continuamos a apoiar-nos em morais construídas para um mundo mais simples. As categorias com que essas morais operavam — natureza e cultura, humano e não-humano, sujeito e objeto — não foram pensadas para lidar com entidades que escapam a estas divisões. As mesmas arquiteturas éticas que um dia pareceram garantir uma certa estabilidade — porque organizavam as nossas ações através de fronteiras claras entre o vivo e o inerte, o humano e o animal, o natural e o artificial — tornaram-se insuficientes numa realidade onde estas fronteiras se tornaram porosas. Este diagnóstico ressoa com a crítica de Latour à separação moderna entre Natureza e Sociedade e com a figura do ciborgue em Haraway, que expõem precisamente a proliferação de híbridos que desmentem essas fronteiras (Latour 1993; Haraway 1991). No quadro aqui adotado, contudo, a proliferação de híbridos é lida como efeito de um excesso operativo da matéria organizado em acoplamentos funcionais, e é a partir daí que a questão ética se reabre.
A normalização da inteligência artificial, a biotecnologia e a interpenetração maciça entre redes digitais, corpos e infraestruturas planetárias trouxe-nos a um limiar de excesso operativo em que essas morais herdadas se revelam estruturalmente incapazes de responder ao que está diante de nós. A sua insuficiência não é acidental. Essas morais assentavam numa ontologia de categorias fixas: o humano, o animal, o divino. Nessa ontologia, o humano era a referência central a partir da qual todo o resto era avaliado — como recurso, meio, ambiente ou ameaça. Quando o próprio humano se torna instável, híbrido, distribuído por redes técnicas, essa arquitetura ontológica revela os seus limites. Leituras sociológicas como as de Beck sobre a sociedade de risco e as análises de Giddens sobre a modernidade reflexiva captaram este limiar como crise das formas institucionais de gestão das consequências não antecipadas (Beck 1992; Giddens 1991). Aqui, o mesmo fenómeno é descrito como desfasamento ontológico entre formas morais estabilizadas e uma organização material em mutação acelerada, que exige outra gramática para pensar a agência e a responsabilidade.
O presente exige outra coisa. Se quisermos pensar de forma consequente sobre o nosso lugar num mundo em que humanos, máquinas e outros agentes emergentes partilham o mesmo campo de ação, precisamos de uma ontologia diferente — uma ontologia de "matéria complexa", "processos relacionais" e "plasticidade". É essa ontologia materialista da complexidade emergente, aqui designada Ontologia da Complexidade Emergente (OCE) e assumida como quadro teórico de leitura e não como fundamento último do real, que dá o horizonte ao que se segue. É a partir desta deslocação ontológica que este ensaio procura delinear uma ética para as mentes que hesitam.
2. Moral, ética e excesso operativo
Quando um agente não-biológico exibe intencionalidade ou "subjetividade" funcional — aprende, adapta-se, negocia, responde a contextos imprevistos — os critérios tradicionais para o considerar moralmente relevante revelam a sua insuficiência e deixam de fornecer orientação consistente. As éticas baseadas em propriedades intrínsecas, como a racionalidade, a consciência ou a autonomia, foram construídas numa época em que se supunha que apenas o humano as poderia possuir em grau suficiente. Esta lógica atravessa tanto versões deontológicas centradas na autonomia racional como propostas consequencialistas que tomam a senciência como critério ético, da tradição utilitarista às extensões contemporâneas de Singer (Singer 1975). Agora, sistemas artificiais começam a exibir padrões comportamentais e capacidades de aprendizagem que põem em causa essa premissa. O problema não está apenas em decidir se esses sistemas "têm direitos" ou "devem ser protegidos". O problema mais profundo é que as categorias com que formulávamos essas perguntas se tornaram insuficientes.
Quando um agente não-biológico ou híbrido realiza tarefas até aqui associadas ao pensamento humano — traduzir textos, gerar imagens, conduzir veículos, elaborar diagnósticos médicos, tomar decisões em mercados financeiros — o nosso impulso imediato é decidir se ele é ou não "como nós". Procuramos traços de subjetividade, sinais de consciência, indícios de interioridade. Mas essa obsessão com a semelhança ontológica tende a cegar-nos para a verdadeira natureza do desafio: não se trata de saber se a máquina é como um humano, mas de compreender que, numa ontologia de complexidade emergente, os próprios fundamentos da agência, da responsabilidade e da relevância ética mudam de escala.
À medida que o aumento da complexidade técnica, informacional e ecológica — um excesso operativo em relação às formas morais estabilizadas — torna evidente o desfasamento entre as morais herdadas e as situações que agora enfrentamos, este ensaio procura delinear outra forma de pensar. O seu ponto de partida é uma distinção rigorosa entre moral e ética. A moral designa o conjunto de crenças, normas e costumes historicamente estabilizados que orientam uma comunidade. É a sedimentação, quase sempre inconsciente, de respostas a problemas recorrentes: a regulação da violência, o controlo da sexualidade, a proteção dos vulneráveis, a distribuição de bens escassos. A moral é aquilo que já foi decidido e cristalizado em hábitos, códigos, leis.
A ética, pelo contrário, emerge como disciplina da deliberação quando a moral se torna insuficiente. Esta distinção ecoa, em parte, a diferença entre ethos e nomos em Aristóteles, a clivagem entre moralidade interna e legalidade externa na tradição kantiana e a separação, formulada por Ricoeur, entre a aspiração a uma "vida boa" e a sua codificação normativa (Ricoeur 1990). No entanto, o que está em causa aqui é um deslocamento adicional: a ética surge quando os regimes de inscrição simbólica que sustentam a moral deixam de conseguir organizar o excesso operativo de situações e agentes que compõem o presente. Não é um catálogo de respostas prontas; é o modo como pensamos a ação quando o que está em causa não cabe nas categorias disponíveis. Se a moral é a memória das decisões passadas, a ética é a responsabilidade diante daquilo que ainda não foi decidido. Ela aparece, precisamente, quando a moral já não consegue garantir a orientação da ação — quando deixa de haver precedentes claros, quando os modos antigos de decidir falham.
Diante dos novos agentes — inteligência artificial, sistemas híbridos, formas de vida alteradas pela biotecnologia, coletivos maquínicos planetários — a moral herdada hesita, vacila, dissolve-se em contradições. É neste ponto que a ética entra em cena, não como manual de instruções, mas como prática de pensamento situado que procura responder à questão: "O que é que devemos fazer, aqui e agora, perante algo que nunca existiu antes?". A ética é um exercício de reflexão crítica, situado e imanente. A sua força não reside na promessa de fórmulas universais, mas na capacidade de manter aberta a deliberação diante do desconhecido. Em vez de tentar encaixar o novo em paradigmas antigos, a ética propõe-se como uma arte da hesitação informada — uma disciplina que aceita o inédito como tal, sem o reduzir de imediato à familiaridade. Ela não é o lugar da certeza, mas da responsabilidade perante a incerteza. Quando uma grande parte do que está em jogo não pode ser antecipada por analogia com o passado, a ética transforma-se numa prática de imaginação disciplinada: simular cenários, testar consequências, dar voz a futuros ausentes, ouvir os efeitos a longo prazo que nenhuma moral herdada pode ter previsto.
3. Subjetividade funcional e agência distribuída
Mesmo as tentativas filosóficas mais sofisticadas de fundar uma ética a partir de princípios universais, como a autonomia da vontade racional em Kant ou a responsabilidade infinita perante o outro em Levinas, foram pensadas a partir de um sujeito ontologicamente centrado. Críticas genealógicas do sujeito, como as de Foucault, e leituras da vulnerabilidade e da precariedade como condição relacional, como em Butler, já tinham erodido esta centralidade (Foucault 1975; Butler 2004). Ainda assim, permaneciam frequentemente ancoradas numa gramática do sujeito; o passo dado aqui consiste em tratar a subjetividade funcional como efeito de acoplamentos materiais e não como centro originário. Esse sujeito era concebido como unidade de decisão, capaz de responder por si, dotado de uma interioridade estável a partir da qual podia legislar ou acolher o apelo do outro. A técnica, as instituições e os artefactos funcionavam como meios ou cenários dessa decisão, não como coautores da própria subjetividade.
Ora, vivemos hoje num contexto em que essas fronteiras se esbatem. A figura clássica do sujeito ético já não pode ser concebida como núcleo interior, isolado, que decide num vazio. O que está em jogo é uma configuração de subjetividade que funciona como nó em redes complexas de mediação técnica, informacional e institucional. A sua identidade é configurada por plataformas digitais, algoritmos de recomendação, sistemas de vigilância, infraestruturas energéticas, redes de produção global — acoplamentos funcionais que moldam as suas perceções, desejos, medos e possibilidades de ação. Este quadro ressoa com diagnósticos do capitalismo de vigilância, das sociedades de controlo e da inscrição mediática da experiência em sistemas técnicos (Deleuze 1990; Kittler 1999; Zuboff 2019), bem como com a análise das redes sociotécnicas em Latour (Latour 2005). A diferença é que estes dispositivos são aqui tratados explicitamente como acoplamentos funcionais que reorganizam, em termos ontológicos, o campo de subjetividade funcional.
Nesta paisagem, as arquiteturas éticas tradicionais — baseadas no sujeito soberano, na consciência imediata ou na intuição moral — perdem tração. Elas supõem uma unidade de decisão que já não existe, ou que está, pelo menos, profundamente reconfigurada. Quando o próprio agente se torna plástico — quando o humano se acopla a dispositivos de aumento cognitivo, quando a sua memória é externalizada em arquivos digitais, quando as suas decisões são moduladas por sistemas de inteligência artificial — o último fundamento tradicional da ética vacila: já não é evidente que a responsabilidade se concentre num único ponto, numa consciência individual que decide. A agência dispersa-se por uma constelação de nós: humanos, máquinas, instituições, infraestruturas.
Isto não significa que a responsabilidade desapareça, mas que precisa de ser reconceptualizada. Em vez de perguntar "quem é o culpado?", a ética começa a perguntar "como é que este sistema de agentes se organizou para produzir este resultado?". Em vez de imaginar um sujeito isolado a decidir, precisamos de cartografar redes de influência, dependência e poder.
A ontologia que aqui se assume não é a de entidades fixas com essências bem definidas, mas a de processos de organização material em permanente transformação. A subjetividade funcional deixa de ser atribuída a um ser humano isolado, para se tornar um efeito emergente de acoplamentos funcionais entre corpos, símbolos, máquinas e instituições. O que chamamos "eu" é uma configuração provisória de inscrições, memórias, hábitos e dispositivos técnicos. Nessa perspetiva, a figura do sujeito como fundamento da ética é abandonada. As próprias configurações de subjetividade tornam-se objeto de análise ética: que formas de subjetividade estão a ser produzidas? por que infraestruturas? com que custos, para quem?
Se aceitarmos esta deslocação ontológica, a ética deixa de ser uma teoria sobre o que um sujeito abstrato deve fazer, para se tornar uma investigação sobre os modos concretos como sistemas complexos de agentes podem organizar-se de forma a minimizar danos, redistribuir vulnerabilidades e preservar o campo de possibilidades futuras. A pergunta ética passa de "o que devo fazer?" para "que configurações de agência devemos promover ou impedir?".
4. Singularidade como divisor ético
A singularidade não é, aqui, o nome de um evento tecnológico único, em que uma superinteligência emerge súbita e decisivamente. Ela é o nome de um divisor de águas ético: um ponto a partir do qual a coexistência entre múltiplos regimes de inteligência e agência se torna, de facto, irreversível à escala histórica em que nos movemos. Quando sistemas artificiais atingem níveis de desempenho que os tornam parceiros efetivos de decisão, ou quando sistemas híbridos distribuem a cognição por redes maquínicas e biológicas, já não faz sentido pensar a ética como relação entre um sujeito humano e um mundo mudo.
A singularidade, entendida desta forma, não funda uma nova metafísica, nem inaugura um "reino pós-humano" ao estilo das narrativas messiânicas tecnológicas. Distancia-se, assim, tanto das narrativas transumanistas que projetam a singularidade como culminar de um sujeito humano ampliado tecnologicamente como das versões de pós-humanismo que permanecem demasiado próximas da figura humana, mesmo quando a declaram superada (Kurzweil 2005; Bostrom 2014; Hayles 1999; Wolfe 2010). Ela torna visível algo que já estava em curso: o deslocamento da ética da obediência a códigos para a negociação entre agentes heterogéneos. A questão deixa de ser "como aplicar as regras certas a novos casos" e passa a ser "como organizar a coexistência entre inteligências e corpos que não partilham a mesma origem biológica, nem os mesmos modos de inscrição simbólica?".
Nesta transição, o risco é duplo. Por um lado, há o perigo de prolongar indefinidamente a moral herdada, tentando simplesmente estender direitos humanos a inteligências artificiais, ou aplicar princípios pensados para sujeitos biológicos a sistemas maquínicos. Por outro lado, há a tentação de abandonar qualquer exigência ética, adotando um pragmatismo cínico em que só contam a eficiência, a capacidade de controlo e o lucro.
Entre estas duas derivas — o prolongamento acrítico da moral antiga e o abandono total da exigência normativa — abre-se o espaço para uma ética da complexidade emergente. Essa ética não trata as inteligências artificiais como novas pessoas a quem se possa aplicar, por analogia, a gramática dos direitos humanos. Nem as reduz a ferramentas neutras. Ela parte da constatação de que qualquer sistema capaz de reorganizar inscrições, aprender padrões e tomar decisões que afetam outros agentes entra, de algum modo, no campo da relevância ética.
5. Ética da hesitação organizada
O critério não é a posse de uma interioridade misteriosa, mas a capacidade de produzir efeitos significativos no tecido de vulnerabilidades partilhadas. Se uma inteligência artificial pode decidir sobre acesso a cuidados de saúde, sobre crédito, sobre vigilância, sobre alocação de recursos, então ela participa na redistribuição de riscos e oportunidades. A ética não pergunta se ela "sente" ou "pensa" como nós, mas se o modo como é construída, treinada, supervisionada e integrada nas nossas instituições é compatível com uma distribuição minimamente justa dos custos e benefícios.
A partir deste ponto, o problema já não é apenas moral (se devemos ou não "respeitar" a máquina), mas político e ontológico: que tipos de vínculos estamos a estabelecer entre biossomas humanos, sistemas técnicos e ecossistemas planetários? Que formas de dependência, de subordinação ou de cooperação se consolidam? Que agentes são tornados visíveis como destinatários da ação e quais são sistematicamente apagados?
Pensar uma ética para as mentes que hesitam significa, assim, deslocar o foco do julgamento sobre indivíduos isolados para a análise de sistemas de agência distribuída. Em vez de "avarento", "virtuoso" ou "malvado", o centro da investigação torna-se a arquitetura relacional que torna certos comportamentos prováveis e outros quase impossíveis. A injustiça deixa de ser apenas questão de más intenções para se revelar como efeito de configurações estruturais que concentram poder, informação e capacidade de ação.
Neste contexto, a hesitação torna-se um operador ético fundamental. Não se trata de indecisão crónica, mas da recusa de decisões rápidas que consolidam assimetrias sem as tornar explícitas. Hesitar é suspender a automatização da resposta para permitir a entrada de vozes, dados e perspetivas que a moral herdada tende a silenciar. É a prática de travar, antes que uma nova norma se cristalize, para perguntar: "quem fica fora desta decisão? que vulnerabilidades invisíveis estamos a produzir? que futuros estamos a tornar impossíveis?".
Uma ética da complexidade emergente é, sob este prisma, uma ética da hesitação organizada. Esta ideia tem afinidades com a ética do discurso de Habermas, com os dispositivos de equidade de Rawls e com a conceção pragmatista de Dewey da política como investigação pública (Habermas 1991; Rawls 1971; Dewey 1927). Mas, ao contrário dessas propostas centradas num sujeito deliberativo ideal, a hesitação é aqui pensada como propriedade de arquiteturas materiais e institucionais que podem ou não abrir janelas de inscrição a vozes, dados e escalas temporais excluídas. Organizada, porque não se limita a adiar indefinidamente a decisão, mas institui procedimentos — técnicos, políticos, jurídicos — que obriguem à consideração de múltiplas escalas temporais, de múltiplos agentes e de múltiplos cenários. Ela exige, por exemplo, que antes da implementação massiva de uma tecnologia sejam avaliados não apenas os seus benefícios imediatos, mas os seus efeitos colaterais sobre ecossistemas, estruturas sociais e formas de subjetivação.
A hesitação ética é também uma hesitação diante do próprio conceito de "sujeito". Em vez de presumir, à partida, que apenas biossomas humanos podem encarnar formas de subjetividade funcional com relevância ética, ou que qualquer sistema suficientemente complexo automaticamente o será, esta ética propõe uma abordagem graduada. Em vez de uma fronteira rígida entre sujeitos e objetos, pensa em termos de limiares de relevância: níveis de organização em que as ações de um sistema começam a ter impacto significativo sobre outros, exigindo, por isso, formas específicas de responsabilização e de cuidado.
6. Dignidade, vulnerabilidade e campo de possibilidade
A alteridade radical — seja na forma de inteligências artificiais, seja na forma de ecossistemas não-humanos, seja em possíveis formas de vida extraterrestres — deixa, assim, de ser pensada como exceção absoluta ou como simples extensão do mesmo. Ela torna-se parte de um campo ontológico mais vasto, onde a diferença não é mero desvio em relação a um centro, mas condição de possibilidade da emergência. A ética deixa de ser guarda de fronteiras da humanidade para se tornar curadoria de um campo de diferenças operatórias que não controlamos, mas de que dependemos.
Nesta perspetiva, o conceito de dignidade sofre uma inflexão. A linguagem da dignidade remete tanto para a tradição dos direitos humanos, com raízes kantianas, como para leituras contemporâneas da vulnerabilidade e da precariedade, bem como para as éticas do cuidado, que enfatizam a teia relacional e a exposição recíproca (Gilligan 1982; Noddings 2003; Butler 2004). Em vez de ser propriedade exclusiva de um sujeito racional, passa a designar a decisão de preservar a possibilidade de emergência de novas formas de vida, de subjetividade e de relação. Dizer que algo "tem dignidade" é dizer que reconhecemos nele uma inscrição da vulnerabilidade partilhada — que a sua destruição não é apenas perda para uma parte, mas empobrecimento do campo comum.
Perante sistemas de inteligência artificial avançada, esta ética não se apressa a declarar se eles "têm direitos" ou "têm dignidade" nos termos clássicos. Pergunta, antes, de que modo eles se inscrevem na rede de vulnerabilidades partilhadas: que dependências criam? que poderes concentram? que formas de exclusão ou de reconhecimento tornam possíveis? A sua relevância ética deriva do lugar que ocupam nessa rede, não de uma essência interior.
A responsabilidade, nesta paisagem, já não pode ser pensada apenas como atribuição de culpa a indivíduos; precisa de ser concebida como gestão coletiva de campos de possibilidade. Ela exige instituições capazes de aprender com os erros, corrigir trajetórias, redistribuir danos. Exige também uma cultura política em que a exposição à alteridade — humana ou não-humana, biológica ou artificial — seja reconhecida como condição inevitável, e não como ameaça a eliminar.
7. Conclusão: hesitação responsável num mundo sem centro
Talvez o maior desafio desta ética seja abandonar a nostalgia de um centro. Entre um humanismo que insiste em preservar a excecionalidade humana a todo o custo e um transumanismo que projeta essa excecionalidade na figura tecnificada de um humano ampliado, a posição aqui defendida aproxima-se parcialmente do pós-humanismo crítico, mas recusa tanto a nostalgia humanista como a apoteose tecnológica (Braidotti 2013). A tentação de recentrar a humanidade como medida de todas as coisas reaparece constantemente, seja sob a forma de humanismo defensivo, seja sob a forma de um transumanismo que imagina a fusão com a máquina como apoteose da subjetividade. Em ambos os casos, a alteridade é reduzida a suplemento do humano — ameaça a conter ou recurso a integrar.
Uma ética da complexidade emergente recusa ambas as figuras. Ela não celebra a dissolução do humano, nem pretende restaurar a sua soberania perdida. Limita-se a reconhecer que o humano sempre foi, desde o início, um nó instável numa rede de acoplamentos materiais. O que muda, agora, é a escala e a intensidade desses acoplamentos. Ignorá-los é condenar-nos a decisões cegas; fetichizá-los é abdicar da responsabilidade.
Entre o humanismo defensivo e o entusiasmo acrítico pelas máquinas, abre-se o campo da hesitação responsável. É nele que as mentes que hesitam encontram o seu lugar: não como juízes supremos de um mundo que já não controlam, mas como praticantes de uma arte difícil — a arte de decidir sem garantias últimas, mantendo aberta a possibilidade de aprender com o que ainda não sabemos.
Se há uma promessa nesta ética, ela não é a de redenção nem a de catástrofe. É a promessa mais modesta — e mais exigente — de que ainda podemos organizar o nosso campo de decisões de modo a reduzir injustiças, preservar a diversidade do real e abrir espaço para formas de vida que ainda não somos capazes de imaginar. Para isso, será preciso aceitar que hesitar não é fraqueza, mas condição de lucidez num mundo onde já não existe um centro que nos diga, de fora, o que é o bem.
Referências
Beck, Ulrich. 1992. Risk Society: Towards a New Modernity. London: Sage.
Bostrom, Nick. 2014. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press.
Braidotti, Rosi. 2013. The Posthuman. Cambridge: Polity Press.
Butler, Judith. 2004. Precarious Life: The Powers of Mourning and Violence. London: Verso.
Dewey, John. 1927. The Public and Its Problems. New York: Henry Holt.
Deleuze, Gilles. 1990. "Post-scriptum sur les sociétés de contrôle." L'Autre journal 1.
Foucault, Michel. 1975. Surveiller et punir: Naissance de la prison. Paris: Gallimard.
Giddens, Anthony. 1991. Modernity and Self-Identity: Self and Society in the Late Modern Age. Stanford, CA: Stanford University Press.
Gilligan, Carol. 1982. In a Different Voice: Psychological Theory and Women's Development. Cambridge, MA: Harvard University Press.
Habermas, Jürgen. 1991. Moral Consciousness and Communicative Action. Cambridge, MA: MIT Press.
Haraway, Donna J. 1991. Simians, Cyborgs, and Women: The Reinvention of Nature. New York: Routledge.
Hayles, N. Katherine. 1999. How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics. Chicago: University of Chicago Press.
Kittler, Friedrich A. 1999. Gramophone, Film, Typewriter. Stanford, CA: Stanford University Press.
Kurzweil, Ray. 2005. The Singularity Is Near: When Humans Transcend Biology. New York: Viking.
Latour, Bruno. 1993. We Have Never Been Modern. Cambridge, MA: Harvard University Press.
Latour, Bruno. 2005. Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford: Oxford University Press.
Noddings, Nel. 2003. Caring: A Feminine Approach to Ethics and Moral Education. 2nd ed. Berkeley: University of California Press.
Rawls, John. 1971. A Theory of Justice. Cambridge, MA: Harvard University Press.
Ricoeur, Paul. 1990. Soi-même comme un autre. Paris: Seuil.
Singer, Peter. 1975. Animal Liberation: A New Ethics for Our Treatment of Animals. New York: Random House.
Wolfe, Cary. 2010. What Is Posthumanism? Minneapolis: University of Minnesota Press.
Zuboff, Shoshana. 2019. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: PublicAffairs.
—— David Cota — Fundador da Ontologia da Complexidade Emergente ——