O PERIGO DE TERCEIRIZAR O PENSAMENTO

Você já parou para pensar a dificuldade que seria explicar para um antepassado seu como usar uma calculadora, ou simplesmente fazer arroz em uma panela elétrica? Com o passar do tempo, é fácil esquecer quantas ferramentas foram criadas e aprimoradas ao longo de um século, já que as inovações de ontem se tornam as tarefas comuns de hoje. O computador aprimorou o cálculo, o motor melhorou a força, o telescópio ‘sofisticou’ a visão. A Inteligência Artificial, porém, inaugura algo qualitativamente diferente: ela amplia, e potencialmente substitui, partes do próprio processo de pensar.

Quando pensamos na delegação de esforço físico, é algo que nunca ameaçou diretamente a autonomia cognitiva humana. Porém, quando levamos em conta a delegação de interpretações, decisões e sínteses para sistemas eventuais, pode-se ocasionar em uma alteração silenciosa na forma como formamos juízo sobre a realidade. A ameaça não é a substituição do trabalho humano, mas sim a externalização do pensamento crítico.[MN2]  Não estamos apenas começando terceirizar o que fazemos, mas como pensamos, desconsiderando o próprio pensamento em troca de uma conveniência que anestesia a mente.

O argumento que favorece o uso de Inteligências Artificiais costuma ser pragmático, como ganhos de produtividade com redução de custo cognitivo e otimização de tarefas e fluxos de trabalho. No entanto, os exemplos mencionados anteriormente não são falsos. O problema surge quando criamos uma dependência estrutural em sistemas de alta conveniência, como já aconteceu antes. O feed da sua rede social molda sua atenção e memória; o GPS atrofia sua navegação espacial; o corretor altera seus padrões de escrita. Com os modelos de linguagem, esse fenômeno se intensifica: por operarem diretamente sobre o espaço simbólico da cognição resumindo, argumentando, interpretando e sugerindo decisões eles reduzem drasticamente a fricção cognitiva, tornando o atalho cerebral quase irresistível. 

Considerando todos os riscos apresentados à sua habilidade cognitiva, é comum considerar quais são os perigos que uma tecnologia deste calibre pode apresentar a você, porém não é imposto que utilizar da Inteligência Artificial seja um risco, mas sim parar de verificar, questionar e reconstruir mentalmente o caminho até uma resposta final.

Historicamente, o ato de pensar envolvia custo e verificação. Tomemos como exemplo a elaboração de um artigo acadêmico: era preciso consultar diversas fontes, lidar com ambiguidades e enfrentar um processo de atrito intelectual que funcionava como um mecanismo natural de validação. Com o advento da IA generativa, esse processo é comprimido a segundos, sem que os sinais de incerteza comuns na prática de especialistas sejam transferidos ao usuário.

Tomando a perspectiva técnica do funcionamento de um modelo de linguagem como o GPT, estes não possuem um modelo de verdade, mas sim operam por correlação estatística, otimizando plausibilidade e não veracidade. Ou, de outra forma mais sintetizada, fazem inúmeros cálculos de probabilidade para definir qual conteúdo deverá ser devolvido para o usuário, optando por uma resposta bem estruturada e linguisticamente suave, com a possibilidade de o conteúdo estar incorreto, formando um erro estilizado, ‘bonito’, que pode enganar o usuário final caso ele não exerça pensamento crítico.

Seria ingênuo defender abstinência tecnológica já que a IA é infraestrutura cognitiva do século XXI, levando profissionais que ignorarem estas ferramentas a ficarem em uma desvantagem competitiva real. O desafio não é rejeitar este tipo de tecnologia, mas sim evitar a substituição passiva da cognição pela delegação automática. Ou seja, usando a IA como um amplificador e não como um oráculo, tratando respostas como rascunhos probabilísticos e mantendo ciclos humanos de verificação. Em termos práticos, a pergunta central deixa de ser “A IA consegue fazer isso por mim?” e passa a ser “Em que partes deste processo eu não posso abrir mão de pensar?”.

O risco civilizatório não está em máquinas que pensam demais, mas sim em humanos que, aos poucos, pensam menos por poderem delegar. A questão não é usarmos a Inteligência Artificial para pensar, mas sim quanto do pensamento estaremos dispostos a perder no processo.


 penso que seria melhor “a dificuldade que […]”

 Porém, quando delegamos interpretações, decisões e sínteses a sistemas automatizados, isso pode ocasionar uma alteração silenciosa na forma como formamos juízo sobre a realidade. A ameaça não é a substituição do trabalho humano, mas sim a externalização do pensamento crítico

 O problema surge quando criamos uma dependência estrutural em sistemas de alta conveniência, como já aconteceu antes. O feed da sua rede social molda sua atenção e memória; o GPS atrofia sua navegação espacial; o corretor altera seus padrões de escrita. Com os modelos de linguagem, esse fenômeno se intensifica: por operarem diretamente sobre o espaço simbólico da cognição resumindo, argumentando, interpretando e sugerindo decisões eles reduzem drasticamente a fricção cognitiva, tornando o atalho cerebral quase irresistível

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *