A Dissolução Operatória da Verdade
Este ensaio aplica, em chave ontotécnica, resultados estabelecidos em Ontology of the Difference Between Truth and Fiction (artigo ontológico de base).
Resumo
Este ensaio analisa como as plataformas sociais operam como infraestruturas ontopolíticas cujo desenho ontotécnico realoca as condições e os custos da prova. Ao indexarem valor à captura da atenção — cliques, partilhas, tempo de permanência — privilegiam a eficácia performativa da aderência sobre a validade epistémica, tornando a falsidade funcional superior em termos operatórios. Neste ambiente, filtros de aparecimento e eficácia retencional deslocam o confronto com a prova, desestabilizando as teorias clássicas da verdade (correspondência, coerência, pragmatismo, verdade como acontecimento). Empiricamente, uma aprendizagem estatística sem compreensão amplifica conteúdos emocionalmente carregados e produz falsidade sem autor por desenho e não por intenção. O ensaio propõe um programa operativo: algoritmos de fricção e tempo de verificação sustentado; governação multistakeholder vinculativa (auditorias ex ante/ex post, transparência da função-objetivo, registos de versões/modelos, mecanismos de recurso); bens públicos digitais (protocolos abertos de proveniência, grafos de confiança, repositórios de evidência); e literacias críticas com práticas contra-algorítmicas que redistribuam o custo da prova. Reenquadrando a crítica como intervenção ao nível da infraestrutura, conclui que a razão pública deve ser materialmente desenhada para que a verdade recupere um direito que lhe foi negado algoritmicamente: o direito de gastar tempo.
Ontotécnica da Mentira Funcional
As redes sociais não são apenas espaços de circulação de enunciados. São, mais profundamente, infraestruturas ontopolíticas — dispositivos técnico-materiais que reconfiguram as condições de possibilidade do dizer, do ouvir e do crer. Seguindo Foucault e Deleuze, estas plataformas não representam o real, mas produzem regimes de visibilidade e enunciação, operando como máquinas de governamentalidade afetiva. A seleção do que emerge como enunciável ou legitimável obedece a uma lógica material de retenção, cujo critério não é a verdade, mas a eficiência performativa da adesão. Esta lógica inscreve-se em métricas quantitativas — cliques, partilhas, tempo de permanência — que instauram um regime de valor indexado à captura da atenção, redesenhando as hierarquias do espaço simbólico e substituindo o valor argumentativo pela eficácia retencional.
Consideremos o caso concreto da desinformação sobre vacinas no Facebook entre 2019 e 2021. Um estudo da Avaaz documentou que as dez maiores páginas antivacinas geravam 7,7 milhões de interações mensais, enquanto as dez principais páginas de instituições de saúde pública geravam 5,5 milhões. O conteúdo falso "as vacinas contêm microchips para rastreamento" circulou quatro vezes mais que o artigo da OMS "como funcionam as vacinas de mRNA". A diferença não residia na qualidade epistémica: residia na arquitetura emocional. A primeira frase ativava simultaneamente medo, indignação e pertença grupal. A segunda exigia concentração, literacia científica e ausência de gratificação emocional imediata. O algoritmo não distinguiu verdadeiro de falso. Identificou padrões: tempo médio de doze segundos na publicação da OMS, quarenta e oito segundos na publicação conspirativa; taxa de partilha de 0,3% versus 4,7%; densidade de comentários emocionais oito vezes superior. A plataforma aprendeu uma correlação: conteúdo tipo A gera retenção, conteúdo tipo B gera abandono. Promoveu tipo A. A mentira tornou-se funcional não por intenção, mas por desenho sistémico.
O que se torna visível ou viral não é o que melhor resiste ao escrutínio racional, mas o que mais eficazmente se cola aos afetos já em circulação. A linguagem dissocia-se da sua função mediadora entre sujeito e mundo, tornando-se matriz de sincronização emocional. Esta deslocação reconfigura a função simbólica: o reconhecimento passa do critério de prova para o de ressonância afetiva — isto é, para a capacidade de aderência. Por ontotécnica entendo precisamente isto — a produção técnica das condições de emergência e reconhecimento daquilo que conta como existente no espaço público. Não se trata de mediação neutra, mas de configuração ativa do que pode aparecer e sob que forma. A verdade, enquanto categoria de resistência ao imediato, entra neste circuito em desvantagem estrutural. Ver também Ontology of the Difference Between Truth and Fiction, secção “Temporalidade da Verdade”, para a formulação ontológica do tempo de prova e da fricção como operadores da verdade. Para tornar explícito o alcance deste deslocamento, convém esclarecer as principais teorias da verdade implicadas e o modo como a ontotécnica as desestabiliza.
A teoria da correspondência sustenta que um enunciado é verdadeiro quando espelha um estado de coisas; a ontotécnica não nega o mundo, mas desestabiliza a correspondência ao deslocar os filtros de emergência e os custos de prova para métricas de retenção: o que aparece e persiste deixa de depender do confronto com a prova para depender da sua compatibilidade circulatória. A teoria da coerência entende a verdade como consistência intrassistémica; a ecologia algorítmica tende a converter coerência em fecho intrassistémico — uma auto-consistência ritualizada — sistemas de crença auto-sustentados cujo fechamento informacional simula validação. A teoria pragmática lê a verdade como o que resulta de práticas eficazes numa comunidade de inquérito; a ontotécnica perverte o critério de resultado, substituindo a eficácia epistémica (o que resiste a refutação) por eficácia retencional (o que maximiza tempo de sessão). Por fim, a “verdade como acontecimento” — entendida aqui em chave materialista como irrompimento de uma nova consistência simbólica que reconfigura o campo — exige temporalidade, hesitação e fricção; o regime atual rarifica o acontecimento ao neutralizar precisamente as condições técnicas que o tornariam possível. Neste sentido, a ontotécnica não só subverte correspondência, coerência e pragmatismo como empobrece o regime do acontecimento, convertendo-o em exceção raríssima no espaço público digital. Síntese ontológica correlata em Ontology of the Difference Between Truth and Fiction, secção “Critério material de verdade”. Retomemos o fio: neste ecossistema informacional, "validação" designa sobretudo aptidão de circulação — não confronto probatório.
Neste ambiente técnico, a linguagem é reconfigurada segundo os princípios da eficácia circulatória. A mentira deixa de ser rutura moral ou violação intencional do contrato epistémico clássico, tornando-se função estrutural da ecologia informacional — efeito da própria lógica de distribuição algorítmica da visibilidade. É aqui que a distinção clássica entre mentira operatória, aquela que emerge espontaneamente como forma de manter a fluência interativa sem cálculo prévio, e mentira estratégica, que mobiliza a falsidade de forma instrumental e planeada, se dissolve. Ambas convergem num mesmo regime funcional: a otimização algorítmica da circulação. Ambas são avaliadas não pela correspondência com o mundo, mas pela aptidão para ativar afetos disponíveis e aceder a zonas de visibilidade privilegiada.
Isto obriga a reabrir a questão da intencionalidade. Se a mentira é, em larga medida, um efeito sistémico (mentira operatória) e não apenas um ato deliberado (mentira estratégica), então a definição filosófica de mentira não pode limitarse ao dolo do emissor. A intencionalidade continua relevante — distingue o engano calculado do engano emergente —, mas não esgota a responsabilidade. Num ecossistema em que a falsidade se produz por compatibilidade estrutural com métricas de retenção, a ética da comunicação tem de operar em três planos acoplados: (1) responsabilidade de desenho (quem concebe métricas, interfaces e critérios de promoção responde por “defeitos ontotécnicos” que geram falsidade sem autor); (2) responsabilidade institucional (media, escolas, plataformas, reguladores, que definem protocolos de prova, rotulagem de incerteza e ritmos de circulação); (3) responsabilidade individual (deveres mínimos de hesitação, de verificação elementar e de não amplificação quando há sinais de baixa rastreabilidade). A intencionalidade passa, assim, a ser um gradiente numa economia de riscos: do dolo explícito à negligência reforçada pela arquitetura. Onde não há dolo, pode haver culpa por adesão acrítica; onde a arquitetura induz erro previsível, há responsabilidade por produto. Em suma: reconhecer a mentira sistémica não absolve o agente; amplia o âmbito da imputação, deslocandoa do psicologismo do emissor para a engenharia das condições de enunciação e para práticas distribuídas de cuidado comunicacional. Cf. Ontology of the Difference Between Truth and Fiction, secção “Comunidade de validação e tempo de prova”.
A viralização do Tide Pod Challenge em janeiro de 2018. Vídeos de jovens a morder cápsulas de detergente proliferaram no YouTube e Instagram. A empresa Procter & Gamble emitiu comunicados médicos alertando para intoxicações graves. Centros de controlo de envenenamento documentaram duzentos e vinte casos em duas semanas. A resposta institucional foi factualmente correta: "cápsulas de detergente são tóxicas e podem causar queimaduras no esófago". Mas esta frase verdadeira gerou doze mil partilhas. Um vídeo paródia intitulado "comi um Tide Pod e virei super-herói" gerou 2,3 milhões de visualizações em quarenta e oito horas. Exemplo puro da convergência antes definida, que confirma a prevalência funcional já evidenciada pelo desenho sistémico (cf. Ontology of the Difference Between Truth and Fiction, secção “Velocidade vs. prova”).
A cena discursiva transforma-se, assim, numa matriz de retroalimentação sensorial. Aquilo que aparece já não o faz por mérito epistémico, mas por aderência ao perfil afetivo-cognitivo do utilizador. O espaço público deixa de ser lugar de interação discursiva para tornar-se superfície de modulação emocional contínua.
Esta modulação contínua reconfigura também a experiência subjetiva da verdade. O que se apresenta como "evidente" passa a coincidir com o que tem saliência afetiva, produzindo um pareceverdade sem o trabalho de prova que sustentaria um éverdade. Quando a validação é desincentivada, a certeza subjetiva deriva da intensidade do afeto e não da resistência do enunciado, instaurando um regime de certeza instantânea. Éticamente, isto desloca a responsabilidade do mero "não mentir" para a gestão dos próprios ritmos de atenção: cultivar hesitação, tolerar a demora e suspender a amplificação quando a rastreabilidade é baixa. Como antecipado por Jonathan Crary e Byung-Chul Han, esta transformação implica o colapso da negatividade crítica. A mentira deixa de ser exceção — torna-se regra operatória, exigência sistémica.
A função simbólica da linguagem sofre aqui uma reconfiguração decisiva. Entendida não como mera codificação representacional, mas como capacidade de reorganização material da diferença, essa função é apropriada por uma lógica de simplificação heurística própria das infraestruturas algorítmicas contemporâneas. Esta lógica privilegia aquilo que confirma e ressoa, penalizando o que desestabiliza ou complexifica. O valor enunciativo — isto é, a potência material de um enunciado para aceder à visibilidade e gerar efeitos na esfera pública — desloca-se da complexidade interna do argumento para a sua capacidade de circulação.
Fórmulas com baixa densidade cognitiva, causalidades lineares e fragmentos de simulação probatória — capturas de ecrã descontextualizadas, estatísticas isoladas — tornam-se os novos atos de fala eficazes. A performatividade do enunciado é aferida pela sua compatibilidade com o sistema de amplificação algorítmica.
Esta reorganização simbólica assenta num fundamento material decisivo: a arquitetura técnico-informacional das plataformas digitais. Cada ação do utilizador — clique, abandono, partilha — é registada como dado operativo, não interpretativo. Estes dados não são semanticamente compreendidos, mas estatisticamente correlacionados, como demonstrado por Matteo Pasquinelli na sua crítica à "inteligência artificial do capital". Enquanto operador de regularidades, o algoritmo aprende por recorrência estatística: ajusta e reforça sem compreender. Investigações da Mozilla Foundation e da Universidade de Harvard documentaram que utilizadores que visualizavam vídeos sobre dieta vegetariana eram progressivamente recomendados para veganismo extremo, depois antiespecismo radical, depois teoria da conspiração da indústria alimentar. O algoritmo não compreendia as posições ideológicas. Identificava um padrão: utilizadores que viam A ficavam mais tempo em B, e ainda mais tempo em C. O YouTube explicou que o algoritmo otimizava tempo de sessão. Descobriu empiricamente que conteúdo progressivamente mais radical retinha atenção. A plataforma promovia radicalização não por convicção ideológica, mas por otimização económica: a intensificação emocional gerava permanência, e a permanência gerava receita publicitária. A correlação estatística — radicalidade gera retenção — foi suficiente. A compreensão semântica do que significa radicalidade e quais os seus efeitos sociais foi irrelevante.
Sem recair em essencialismos da técnica, importa ainda abrir a leitura pela filosofia da tecnologia. Em Bernard Stiegler, a técnica surge como farmakon — simultaneamente veneno e remédio — porque exterioriza memória e retém o simbólico, reconfigurando os nossos circuitos de atenção e de crédito no comum; nesta chave, a ontotécnica digital institui uma farmacologia da retenção, onde a cura só pode vir por redesign das próteses de atenção e do regime de retentivas. Don Ihde mostra que toda técnica medeia a perceção e a ação segundo multiescalaridades (amplifica, reduz, traduz), o que permite ler os algoritmos não como filtros passivos, mas como estruturas de cointencionalidade que redistribuem agência entre utilizadores, métricas e interfaces. Albert Borgmann distingue dispositivos que ocultam o esforço e maximizam comodidade do paradigma focal que convoca prática atenta; as plataformas atuais funcionam como dispositivos de comodidade cognitiva que dissolvem a fricção probatória — daí que uma política da verdade deva refocalizar o espaço público através de ritmos, formatos e rituais que reponham a atenção como prática partilhada.
Importa sublinhar que esta configuração algorítmica não é neutra nem inevitável. A escolha de otimizar tempo de sessão em detrimento de veracidade constitui uma decisão empresarial consciente, determinada pela estrutura de receitas publicitárias das plataformas. Documentos internos revelados nos últimos anos — designadamente os Facebook Files divulgados por Frances Haugen em 2021 — demonstram que estas empresas dispõem de dados detalhados sobre os efeitos polarizantes, aditivos e desinformativos dos seus sistemas de recomendação. A Meta tinha conhecimento, desde pelo menos 2018, de que o seu algoritmo privilegiava conteúdo que gerava "raiva significativa" porque este maximizava engagement. O YouTube sabia, segundo investigações internas de 2019, que o seu sistema de auto-play conduzia utilizadores progressivamente a conteúdo mais extremo. A manutenção deste desenho não resulta de ignorância técnica ou impossibilidade operacional, mas de cálculo económico: a mentira funcional[n.1] é mais lucrativa que a verdade. Cada segundo adicional de retenção traduz-se em exposição publicitária mensurável, e cada métrica de engagement sustenta a valorização de mercado destas corporações. Tecnicamente, já vimos a cegueira estatística; politicamente, a agência é humana. A ontotécnica da mentira funcional é, assim, inseparável de uma economia política da atenção onde a captura cognitiva constitui o modelo de negócio. O que se apresenta como necessidade sistémica é, na verdade, escolha estratégica — reversível, modificável, mas deliberadamente mantida enquanto a extração de valor dela depender.
Neste novo regime, o espaço discursivo público deixa de funcionar como arena de justificação partilhada, operando como laboratório de aderência afetiva. Validar torna-se ato estruturalmente desincentivado — não por censura explícita, mas porque a própria infraestrutura desloca o esforço cognitivo da verificação para a gratificação imediata. O custo da prova é externalizado: já não é distribuído entre emissores e recetores num contrato comunicacional, mas absorvido e dissolvido pelo próprio sistema técnico de visibilidade. A prova reencontra o diferencial de custo já indicado (tempo de prova vs fluidez), sendo penalizada por interromper o fluxo.
A linguagem que procura manter vínculo à verdade vê-se, assim, forçada a incorporar os códigos da ficção viral: narrativas de rápida digestão, condensação emocional, apelo visual imediato. Esta adaptação, todavia, mina a potência crítica da linguagem verídica. Quando a verdade se vê compelida a simular os modos de expressão da mentira para competir pela atenção, ela compromete a hesitação, abdica da abertura à refutação e anula o tempo necessário à verificação. O que poderia ser estratégia de sobrevivência torna-se, por efeito acumulado, dissolução operatória da função crítica do discurso.
Importa evocar, a título de contraponto, a tradição que pensa a linguagem como espaço de travessia e resistência. Desde o gesto socrático da interrogação pública até à proposta derridiana de desconstrução, a linguagem foi pensada como lugar onde a verdade não é dada, mas buscada — construída na tensão entre o enunciado e o não-dito, entre o instituído e o que o excede. Tal conceção exige temporalidade, hesitação, abertura à dissonância: tudo o que o ambiente técnico atual neutraliza sistematicamente. A velocidade do feed não é apenas um ritmo — é um princípio de organização que impede a emergência da verdade como acontecimento. À luz da fenomenologia, a verdade pode ser pensada como modalidade de aparecimento: não apenas correção proposicional, mas desencobrimento situado (aletheia) que requer espessura temporal e atenção demorada do corpo. Em MerleauPonty, a perceção encarnada funda horizontes de sentido que não são neutros: o corpopróprio funciona como matriz de seleção do que pode figurar como evidente. Num ambiente ontotécnico de baixa densidade cognitiva, esta gramática do aparecer é comprimida: reduzse a janela fenomenológica necessária para que o verdadeiro se dê a ver como tal. A hermenêutica ajuda a nomear o que se perde: o círculo hermenêutico (Gadamer) — entre précompreensão e confronto com o texto/mundo — exige ritmos de idaevolta que as métricas de retenção encurtam. Em Ricoeur, a passagem pela narrativa e pela ação institui distâncias interpretativas que permitem revisão do juízo; o feed suprime essa distância, colando a evidência ao imediato. Fenomenologia e hermenêutica convergem, assim, num ponto operativo: sem rito de atenção e distanciamento, a experiência subjetiva do verdadeiro é despotencializada pelo desenho que favorece a síntese afetiva rápida.
É neste ponto que se torna inadiável um redesenho material das condições de enunciação.
Este diagnóstico exige um deslocamento teórico: da crítica moral da mentira para a análise ontotécnica das condições de enunciação. A questão não reside em denunciar conteúdos falsos, mas em compreender os dispositivos materiais que os tornam funcionalmente superiores. Não basta tentar tornar a verdade competitiva através dos instrumentos do seu próprio apagamento. Daqui decorre a redistribuição explícita do custo de verificação (medidas infraestruturais). Reconhecendo que as plataformas não se autorregulam — dado que a mentira funcional sustenta o seu modelo de negócio —, jurisdições como a União Europeia e a Austrália começam a impor quadros regulatórios que exigem transparência algorítmica, responsabilização sobre conteúdos amplificados e mecanismos de mitigação de desinformação. O Digital Services Act europeu, aprovado em 2022, representa um primeiro passo ao obrigar plataformas de grande dimensão a auditorias externas dos seus sistemas de recomendação e a avaliações de risco sobre efeitos sistémicos. Embora insuficientes — dado que permanecem orientados para a moderação de conteúdos individuais e não para a transformação da lógica de amplificação —, estes instrumentos demonstram que a intervenção regulatória sobre a arquitetura técnica é politicamente viável. Deste diagnóstico resulta um critério operativo para as instituições. O tempo de verificação como bem público é formulado em Ontology of the Difference Between Truth and Fiction, secção “Instituições da duração”.
Ética da informação e epistemologia social. Em Floridi, a infosfera não é mero repositório, mas ambiente ontológico comum: agir tecnicamente é intervir no tecido informacional. Daqui derivam deveres positivos — preservar, enriquecer e não degradar o valor informacional — que, no nosso contexto, se traduzem em obrigações de desenho (métricas, interfaces, políticas de promoção) e de governança (auditorias, rastreabilidade, rotulagem de incerteza). Do lado da epistemologia social, o conhecimento é um bem coproduzido por práticas de testemunho, peritagem e confiança pública; a validade não é apenas atributo do enunciado, mas propriedade relacional de redes e instituições. Isto exige infraestruturas de confiança (procedimentos verificáveis, cadastros de fontes, cadeias de evidência legível) e combate às assimetrias de credibilidade que amplificam o falso (câmaras de eco, enviesamentos de autoridade) e silenciam o verdadeiro (injustiça epistémica). Em suma: a ética da informação oferece o padrão normativo (não degradar a infosfera; elevar o seu valor) e a epistemologia social especifica os mecanismos coletivos de validação (organização do testemunho, distribuição de confiança, responsabilidade por desenho); ambas convergem no nosso critério: sem redes de prova e confiança incorporadas na arquitetura, a verdade perde mundo. Tal exigência implica regulação que não se limite a penalizar conteúdos falsos a posteriori, mas que imponha redesenho das métricas de sucesso algorítmico, privilegie tempo de reflexão sobre velocidade de reação, e redistribua o ónus da prova de quem consume para quem publica e amplifica.
Sem redundâncias em relação ao exposto, podemos explicitar os princípios de uma ética da infraestrutura: (i) transparência orientada a objetivos, não apenas sobre moderação, mas sobre a própria funçãoobjetivo dos sistemas de recomendação (pesos declarados para veracidade, diversidade e bemestar, com relatórios públicos agregados); (ii) auditabilidade independente contínua, viabilizada por APIs de auditoria e sandboxes com dados sintéticos para testes de terceiros, com obrigações de correção quando se detetam efeitos desinformativos previsíveis; (iii) priorização normativa da veracidade sobre o engagement, materializada em otimização multicritérios com penalização explícita de padrões associados a baixa rastreabilidade e rutura de cadeia de evidência; (iv) promoção de diversidade de perspetivas, por meio de injetores de diversidade e limites à homofilia de grafos (exposição mínima a fontes independentes verificadas dentro de janelas temporais definidas); (v) responsabilidade pelo impacto social, com avaliações de risco públicas, traços de proveniência e cadeias de custódia para conteúdos amplificados. No plano operativo, isto traduzse em algoritmos de fricção: latências deliberadas em partilhas virais, prompts de "ler antes de partilhar", limites dinâmicos de reamplificação, desaceleração de tendências de baixa verificabilidade, quotas de pausa que protegem o tempo de prova e rótulos de incerteza que convocam hesitação pública. Tudo isto deve convergir para uma nova métrica de sucesso: tempo de verificação sustentado, e não apenas permanência passiva.
Modelos de governação algorítmica. Para além do DSA, impõese um modelo multistakeholder vinculativo que envolva reguladores públicos, sociedade civil, academia e empresas no desenho, teste e revisão das plataformas. Em complemento às APIs de auditoria já referidas, isto requer: (i) auditorias éticas obrigatórias exante (antes de lançar/alterar sistemas de recomendação) e expost (sob dados reais), com publicação de relatórios sumários; (ii) autoridades independentes com mandato técnico para impor correções de design quando se detetem efeitos previsíveis de desinformação, polarização ou discriminação (poder de injunção e de multa); (iii) registos públicos de versões de modelos, parâmetros de funçãoobjetivo e catálogos de dados de treino/avaliação (com proteção de privacidade), que permitam rastrear decisões; (iv) mecanismos de recurso para lesados por decisões algorítmicas, com prazos e obrigações de resposta; (v) sandboxes regulatórias para experimentação supervisionada de métricas de veracidade/diversidade.
Papel do indivíduo e educação para a resistência. A resistência não se esgota na regulação nem no desenho institucional: requer literacia mediática e digital crítica que una competências de leitura de proveniência (rastrear fontes, reconhecer cadeias de evidência legível e lacunas), compreensão funcional de algoritmos (saber em termos operatórios o que é funçãoobjetivo, sinal de treino, métricas de retenção e seus efeitos de seleção) e ética da atenção (treino de demora, suspensão da amplificação, tolerância à dissonância). Em termos pedagógicos, isto implica currículos que ensinem a reconstituir percursos de conteúdo (da captação ao ranking), a simular recomendações para mostrar como pequenas variações de interação produzem deriva informacional, e a praticar protocolos de verificação com tempos explícitos de prova. No plano cívico, implica rituais públicos de prova — laboratórios de verificação distribuída, círculos de leitura lenta, dispositivos comunitários de rotulagem de incerteza — que devolvem à verdade o seu tempo partilhado. Assim, a “razão pública” deixa de ser abstração normativa e tornase competência treinável: organizar atenção profunda sob condições de ruído, sustentar a hesitação onde a infraestrutura acelera, e manter a coerência operativa face à pressão da mera aptidão de circulação.
Resistência e contraalgorítmica. A “resistência socrática” só se torna efetiva no digital quando a interrogação pública se traduz em procedimentos materiais: elencos auditáveis de premissas (registos de decisão algorítmica), direito de pergunta incorporado em interfaces (acessos claros à funçãoobjetivo, origem dos dados, explicações operatórias) e dispositivos de contraditório (réplicas priorizadas com cadeia de evidência). A “desconstrução derridiana” deslocase aqui para o desenho: expor e desfazer os binarismos e hierarquias embutidos nas métricas (por exemplo, engagement > veracidade; saliência > prova), introduzindo diferença temporal (pausas, atrasos, limites de reamplificação) e diferença estrutural (diversificação forçada de fontes) como técnicas de desnaturalização. Resistir deixa de ser apenas crítica de conteúdos e tornase prática de engenharia e ativismo tecnológico: extensões de navegador que repõem proveniência à vista, plugins de alerta de rastreabilidade baixa, feeds alternativos “lentos” com pesos explícitos para veracidade/diversidade e hackathons cívicos para testes de viés e stresstests públicos das plataformas. Esta contraalgorítmica não visa paralisar a circulação, mas redistribuir o custo da prova e reabrir o tempo onde a verdade pode resistir — prolongando, em modo materialista, a interrogação socrática e a desconstrução derridiana no próprio plano das infraestruturas.
Como alternativa ao atual modelo de negócio, devem ser instituídos bens públicos digitais ou infraestruturas digitais comuns: protocolos abertos de proveniência e cadeia de custódia de conteúdos; índices públicos de qualidade informacional e grafos de confiança auditáveis; repositórios de evidência interoperáveis para jornalismo e ciência; APIs públicas de acesso a métricas cívicas (tempo de verificação, diversidade de fontes) e obrigações de interoperabilidade entre plataformas. Estes arranjos reorientam o ecossistema para o interesse público, deslocando a racionalidade dominante da extração de atenção para a produção partilhada de condições de prova.
Exemplos de instituições contraalgorítmicas. Alguns modelos já existentes ensaiam, com diferentes graus de maturidade, os princípios aqui defendidos. Redes federadas como o Mastodon/ActivityPub evitam um centro único de decisão e reduzem a dependência de métricas de engagement (timelines cronológicas/localizadas por defeito, regras de moderação públicas por instância). Sucesso: maior transparência e possibilidade de escolha de normas; desafios: fragmentação, descoberta de conteúdos entre instâncias, moderação distribuída e sustentabilidade económica. Plataformas de conhecimento como a Wikipédia praticam validação legível (políticas de verificabilidade, histórico de edições, páginas de discussão, reversões auditáveis). Sucesso: prova pública e reversibilidade; desafios: viés sistémico, assédio dirigido e dependência de voluntariado. Jornalismo “lento” (p. ex., Tortoise, Zetland, De Correspondent) e investigação cívica (p. ex., ProPublica, The Markup) priorizam tempo de prova sobre velocidade, com modelos de membership e publicação de bases de evidência. Sucesso: aprofundamento e rastreabilidade; desafios: escala, atração em ecossistemas habituados à gratificação rápida. Ecossistemas de verificação (p. ex., redes de factchecking como a IFCN e iniciativas nacionais) introduzem cadeias de evidência e rótulos de incerteza. Sucesso: correções públicas e padrões mínimos; desafios: latência, alcance limitado sem integração de plataforma. Camadas abertas de anotação (p. ex., Hypothes.is) acrescentam contraditório visível sobre conteúdos, mas enfrentam inércia de adoção. Em conjunto, estas experiências mostram que a infraestrutura lenta e os formatos de validação legível são possíveis: ganham em prova e accountability o que perdem em velocidade e escala. O passo seguinte é institucionalizar estes mecanismos — interoperáveis, auditáveis e economicamente sustentáveis — para que deixem de depender de exceções heróicas.
O que está em causa não é apenas a circulação de conteúdos, mas a própria possibilidade de uma razão pública enquanto espaço material de reorganização do sentido. A mentira funcional não é acidente moral nem patologia epistémica: é efeito necessário de uma ecologia algorítmica desenhada para premiar o que se cola, não o que se verifica. A crítica não pode limitar-se a diagnósticos normativos: ela deve tornar-se intervenção no mesmo sentido ontotécnico já precisado, exigindo uma ética da infraestrutura — uma ética que não se limite a julgar o enunciado, mas que redesenhe as condições materiais da sua emergência. Só assim será possível restituir à linguagem o seu poder mais radical: o de resistir àquilo que apenas funciona.
A verdade precisa de instituições contraalgorítmicas orientadas por este critério de desenho.
A justiça do espaço público começa por devolver à verdade o direito de gastar tempo.
[n.1] “Mentira funcional” = functional falsehood (no artigo ontológico: falsidade enquanto possibilidade estrutural sob baixa fricção temporal).
—— David Cota — Fundador da Ontologia da Complexidade Emergente ——