Una de las críticas más conocidas a la forma en que la economía intenta entender el comportamiento humano es la idea de que las personas toman decisiones racionales. Durante casi 250 años, los modelos económicos partieron del supuesto de que actuamos como si fuéramos calculadoras perfectas, siempre buscando lo que más nos conviene. Pero desde otras disciplinas, como la psicología, surgieron fuertes cuestionamientos a esa visión.
Daniel Kahneman y Amos Tversky fueron pioneros en mostrar que, en realidad, muchas veces tomamos decisiones influidas por sesgos y atajos mentales —lo que se conoce como heurísticas. Es decir, no analizamos todas las opciones posibles, sino que buscamos soluciones rápidas y simples, que no siempre son las mejores. Por este trabajo, Kahneman recibió el Premio Nobel de Economía en 2002, y años después, también lo hizo Richard Thaler (2017), otro referente de la llamada economía del comportamiento.
Una de las razones por las que usamos estas heurísticas es porque hacer análisis complejos no es fácil. De hecho, ya en los años setenta, Herbert Simon había hablado de esto con su concepto de racionalidad limitada: no tomamos decisiones perfectas porque no tenemos ni el tiempo, ni la información, ni la capacidad para hacerlo.
Ahora bien, con la llegada de tecnologías como los modelos de lenguaje de gran escala (los famosos LLM, como ChatGPT, Copilot, DeepSeek, Grok, Gemini o Claude), quizás esta historia está por cambiar. Estas herramientas están empezando a ayudarnos a procesar información de forma mucho más rápida y profunda. Y si logran facilitar la toma de decisiones complejas —como elegir un plan de pensiones, un seguro, o una carrera universitaria— podríamos empezar a tomar decisiones más racionales, más cercanas a lo que "deberíamos" haber elegido según los modelos económicos clásicos.
Esto nos lleva a una pregunta interesante: ¿podrían estas tecnologías darnos una nueva versión del homo economicus? ¿Una donde, con ayuda de inteligencia artificial, sí tomemos las decisiones óptimas que antes solo existían en la teoría?
* Nota al margen
Como ejemplo ilustrativo, realicé un ejercicio con el quiz diseñado por Hans Rosling sobre "Factfulness", disponible en factfulnessquiz.com, para evaluar si las respuestas generadas por Copilot presentaban sesgos. Los resultados fueron interesantes: el modelo respondió correctamente al 100% de las preguntas, muy por encima del promedio de respuestas correctas de los usuarios humanos, que ronda apenas el 40%. Este resultado sugiere que, al menos en ciertos contextos, la inteligencia artificial puede ayudarnos a corregir errores sistemáticos de percepción sobre el mundo. Sin embargo, también es importante reconocer que estos modelos no están exentos de problemas: siguen existiendo riesgos de que reproduzcan sesgos estructurales, como lo advierten investigaciones sobre racismo encubierto en IA, como la publicada por el Instituto de IA Centrada en el Ser Humano de Stanford (ver aquí). La cuestión, entonces, no es solo si la IA puede tomar decisiones racionales, sino también quién define lo que es racional y bajo qué valores.
No hay comentarios:
Publicar un comentario