Máquinas reconhecem crenças, mas… (por Elson Pimentel)

Você está navegando na Netflix e a plataforma lhe sugere um filme. “Como ela sabia que eu gostaria disso?”, você pensa. A resposta não tem nada de mágica: [...]

Você está navegando na Netflix e a plataforma lhe sugere um filme. “Como ela sabia que eu gostaria disso?”, você pensa. A resposta não tem nada de mágica: a Netflix não adivinha, calcula. Ela atribui uma probabilidade, um número que expressa o quanto está “convencida” de que você vai gostar daquela escolha. Esse modo de pensar, hoje onipresente em algoritmos, tem origem em uma ideia formulada há quase cem anos por um jovem filósofo britânico chamado Frank Ramsey. Ele morreu cedo, mas deixou uma intuição decisiva: acreditar é calcular. E, a partir disso, crenças puderam ser expressas numericamente.

Em 1926, Ramsey percebeu que havia duas noções distintas de probabilidade: a da física, que descreve o mundo, e a da lógica, que descreve o que sabemos do mundo. Nessa segunda visão, cada pessoa atribui probabilidades conforme seu conhecimento e suas crenças. Mais ainda: essas probabilidades podem ser inferidas pela observação de ações. O que fazemos revela aquilo em que, de fato, acreditamos.

Ramsey resumiu isso em três regras simples:

A primeira é que crenças contraditórias devem somar 1 – se você tem 70% de certeza de que vai chover, então tem 30% de que não vai.

A segunda é que, se uma coisa leva à outra, acreditar na primeira compromete você com a segunda — se chover o chão molha; se chover amanhã, o chão estará molhado amanhã.

E a terceira: se receber uma informação nova, você deve ajustar suas crenças de maneira coerente. Se o vizinho anuncia nuvens negras, sua estimativa de chuva deve aumentar de modo compatível com o que você já sabia. Essa terceira regra é uma reinterpretação da famosa lei de Bayes, agora aplicada às crenças pessoais. Ela permitiu transformar incertezas individuais em números manipuláveis e abriu caminho para os algoritmos contemporâneos: cliques, buscas e visualizações tornam-se “apostas” observáveis, que revelam preferências ocultas. Assim, modelos bayesianos atualizam “crenças” sobre cada usuário, formando perfis únicos que dispensam médias populacionais. As máquinas, portanto, “reconhecem crenças”, não no sentido humano de compreender, mas no sentido lógico de inferir padrões coerentes.

Se é assim, surge uma pergunta inevitável: se a máquina segue exatamente as regras que definem a racionalidade, por que desconfiamos dela? O que parece faltar?

Parte da resposta está no próprio Ramsey. Ele imaginava um agente solitário, calculando ganhos e perdas como quem escolhe a melhor jogada num tabuleiro. Mas não vivemos apenas desse tipo de racionalidade. Às vezes ficamos em casa porque estamos tristes. Recusamos um benefício claro porque ele fere nossos valores. Mudamos de ideia não por informação nova, mas porque alguém de quem gostamos se magoou. Nada disso é ‘irracional’: são dimensões da vida que simplesmente não cabem numa equação.

A virada de Wittgenstein – É aqui que entra uma guinada importante. Ludwig Wittgenstein, que começou a carreira tentando, como Ramsey, organizar o mundo por meio da lógica, mais tarde concluiu que antes de qualquer cálculo existe algo mais fundamental: vivemos em práticas sociais compartilhadas. Aprendemos a falar, a trabalhar, a reconhecer alguém como amigo ou desconhecido porque participamos de um modo de vida em que esses gestos fazem sentido. Ele chamou isso de “formas de vida”.

E máquinas não participam delas. A Netflix pode registrar que você assiste a muitas comédias, mas não sabe se você está tentando aliviar o luto. Pode prever que você gosta de dramas familiares, mas não distingue entretenimento de escapismo. Ela vê padrões, não contextos; coerências numéricas, não compromissos. Não compartilha vulnerabilidade, nem expectativas sociais, nem a experiência de pertencer a uma comunidade, elementos mínimos para que possamos confiar em alguém.

As abordagens de Ramsey e Wittgenstein iluminam partes distintas do problema. A primeira explica como máquinas podem inferir crenças com precisão crescente. A segunda mostra por que essa precisão não basta para capturar dignidade, pertencimento ou sentido. Outras ciências também oferecem respostas parciais. Talvez, então, o ponto não seja encontrar uma formulação definitiva, mas reconhecer que perdemos algo sempre que traduzimos a vida social em padrões de cálculo.

Máquinas reconhecem nossas crenças no que elas têm de mais regular. Mas o que realmente importa, aquilo que dá peso às decisões, valor às relações e sentido às escolhas, nasce em territórios que nenhum algoritmo habita. Entre cálculos e formas de vida, continuamos a ser criaturas que compreendem muito mais do que se consegue observar ou prever.

Elson Luiz de Almeida Pimentel
Mestre em Filosofia pela UFMG
Autor de Dilema do Prisioneiro: da Teoria dos Jogos à Ética

Compartilhe esse artigo: