Descreer por default

Hace un par de años, cuando empecé a interactuar con los LLM, es decir con los modelos de inteligencia artificial generativa como ChatGPT, comencé mi exploración con una pregunta que consideraba de respuesta simple: ¿Cuál es el disco más vendido del rock nacional? En ese momento, con mucha elocuencia y seguridad el desfachatado “sacó la guitarrita” y contestó que era un álbum de Los Gatos, sin tener en cuenta que muchos crecimos, en la era A.I. (Antes de Internet) con El amor después del amor como banda sonora de nuestras vidas.
La ventaja de entrenar una mente oponible
En este caso yo conocía la respuesta y capté el error, pero ¿qué pasa con la cantidad de veces que le preguntamos sobre campos que desconocemos, en mi caso por ejemplo de salud, plomería o asuntos legales y nos devuelve una “alucinación” que tomamos como válida? Y no es solo texto. Con la proliferación de modelos de generación de imágenes como Nano Banana de Google, podemos crear una foto verosímil nuestra junto a nuestro famoso preferido sin que queden rastros del montaje, pero también se puede usar para la esparcir mentiras digitales con consecuencias terrenales. Y ya sabemos la desinformación viaja más rápido que lo real.
Urge, en tiempos de IA cotidiana, desempolvar la habilidad de la metacognición, nuestra capacidad de reflexionar sobre el propio pensamiento y proceso mental. “En este caso para generar una conciencia reflexiva sobre cómo decido con ayuda de la IA. No se trata solo de reconocer nuestros sesgos cognitivos (errores automáticos de percepción, memoria o juicio), sino también de captar las falacias: razonamientos que suenan lógicos, pero están fallidos de raíz”, me explicó Juan Martín Branchi, consultor especializado en aprendizaje.
La IA no solo mitiga, sino que puede reforzar sesgos (confirmación, disponibilidad, anclaje) y producir falacias. “Por eso, diferenciar lo verosímil de lo verdadero es hoy una competencia crítica. Por ejemplo, en falacias argumentativas podemos entrenar el ojo para detectar trampas lógicas como ’esto lo dice en tono académico, por lo tanto debe ser cierto’ (apelación a autoridad), ‘si pasó una vez, siempre pasará’ (generalización). Un pensamiento de segundo orden, nos permite aprender a no quedarnos con lo verosímil, sino a ir detrás de lo verdadero”, completa Branchi.
Un razonamiento convincente puede estar equivocado. La forma seduce, pero el fondo es lo que importa. Si me permito dudar, tamizar mi confianza antes de creer en todo lo que me devuelve la IA, le estaremos dando su rol de herramienta, para tener nosotros el más relevante que es el de pensar y usar críticamente sus resultados.
Con la próxima respuesta que te de tu IA amiga te podés preguntar no solo si es útil y si el output está entregada bonito, sino también “¿dónde está la trampa lógica o el sesgo acá?”.
Un razonamiento convincente puede estar equivocado; la forma seduce, pero el fondo es lo que importa Negocios
Leave a Comment