Vivemos um tempo em que as perguntas mais importantes são também as mais silenciosas.
A inteligência artificial nos permite escrever, responder, decidir — tudo em poucos segundos.
Mas será que, nesse ritmo, ainda conseguimos pensar?
Um estudo recente do MIT nos cutuca com uma frase provocadora:
“Large language models impede scientific thinking.”
Em português direto: modelos de linguagem como o ChatGPT atrapalham o pensamento científico.
Mas o que isso quer dizer, na prática?
O paradoxo da facilidade
O estudo mostra que, ao usar IA para resolver problemas complexos — especialmente dilemas com múltiplas variáveis — as pessoas tendem a:
- Fazer menos perguntas;
- Considerar menos hipóteses;
- Desistir mais rápido do raciocínio próprio.
Em outras palavras, pensar dói.
E quando temos uma IA oferecendo respostas fáceis, muitas vezes preferimos não sentir essa dor.
A curto prazo, isso parece uma benção.
A longo prazo, pode ser uma perda de autonomia, de autoria… e até de vocabulário.
Jonathan Haidt já alertava para os efeitos neurológicos do excesso de telas.
A IA é apenas a próxima camada de um fenômeno maior: a terceirização do nosso processo interno.
Escolhas contraintuitivas
No mundo da liderança, sabemos: as escolhas mais sábias nem sempre são as mais populares.
Usar IA apenas como revisora — e não como redatora principal — é uma dessas decisões.
Contraintuitiva, sim.
Mas potente.
Porque quando escrevemos com as próprias palavras, somos obrigados a sentir.
A organizar o pensamento.
A encontrar a nossa própria voz, em meio ao ruído.
E isso… não se automatiza.
O risco real não é a IA te deixar burro.
É você se acostumar a não começar nada sozinho.
É delegar o início do raciocínio.
É preferir consumir à criar.
E nesse processo, a gente perde algo essencial:
a chance de construir um legado.
Não falo de um legado de produtividade.
Mas de presença.
De coerência.
De escolhas difíceis e corajosas que, mesmo parecendo lentas, sustentam o que importa de verdade.
Como você quer ser lembrado?
Talvez a resposta não esteja nos dados.
Nem na IA.
Talvez esteja no vazio antes do clique.
Na hesitação antes de perguntar pro ChatGPT.
Naquela pausa em que você sente:
isso ainda é meu?
Se esse texto te cutucou, recomendo a leitura completa do estudo do MIT.
Ele traz dados, análises e exemplos que aprofundam essa discussão — e nos lembram que pensar ainda é um ato profundamente humano.
Baixe aqui o estudo completo
Sim, estudos mostram que o uso excessivo de IA para resolver problemas pode reduzir nossa capacidade de formular perguntas e explorar hipóteses de forma autônoma.
Quando usamos IA como principal redatora, corremos o risco de perder nossa voz própria, reduzindo a autenticidade e a profundidade dos nossos escritos.
Porque pensar exige esforço e reflexão. A IA oferece respostas fáceis, o que pode nos acostumar a evitar o desafio de raciocinar por conta própria.
O ideal é usá-la como uma revisora ou auxiliar, mantendo o controle do processo criativo e o protagonismo da autoria humana.
O estudo alerta que modelos de linguagem como o ChatGPT podem reduzir a qualidade do raciocínio científico, ao desestimular o pensamento investigativo e crítico.
O maior risco é se acostumar a terceirizar o início do pensamento, perdendo gradualmente a capacidade de iniciar ideias e desenvolver argumentos por conta própria.