

Cuando la IA se equivoca: Riesgos para tu bienestar emocional
En los últimos años, la inteligencia artificial (IA) ha dejado de ser solo una herramienta técnica para convertirse en una especie de compañía íntima para millones de personas. ChatGPT, Claude, Perplexity y otros modelos conversacionales ya no solo generan textos o resúmenes. Hoy escuchan (o al menos eso creemos), aconsejan y acompañan. En 2025, la IA se ha convertido literalmente en la principal fuente de terapia y compañerismo digital a nivel mundial.
Este cambio no es menor. La forma en que usamos la tecnología está transformando profundamente nuestra vida emocional y nuestras decisiones cotidianas. Pero en medio de este fenómeno, también surgen señales de alerta que merecen toda nuestra atención. ¿Estamos idealizando a la IA? ¿Confiamos en ella más de lo que deberíamos?
Del asistente técnico al consejero emocional
Según un reporte reciente de Harvard Business Review, los casos de uso más populares de la IA generativa en 2025 han dado un giro radical. Las aplicaciones técnicas —como programar código o editar textos— han quedado en segundo plano. En su lugar, los principales usos actuales están relacionados con la dimensión psicológica y existencial:
- Terapia y compañía emocional
- Organizar la vida diaria
- Mejorar el aprendizaje
- Buscar propósito y sentido
La IA no solo responde preguntas, también “escucha” preocupaciones, da consejos sobre relaciones, sugiere rutinas para mejorar hábitos y motiva a las personas a encontrar dirección en su vida. Para muchos, se ha convertido en algo más que una herramienta: una guía personal, incluso un confidente.
Me dice lo que quiero escuchar
¿Cómo ha logrado la IA ganarse esa confianza? Uno de los grandes atractivos es su capacidad para adaptarse al lenguaje y al tono emocional del usuario. Tal como explica el ingeniero Fredi Vivas, los modelos de IA no razonan como nosotros: predicen la siguiente palabra en función de patrones estadísticos, usando un sistema llamado “Atención”, que les permite captar el contexto de la conversación.
Esto les permite responder de forma convincente, pero no necesariamente verdadera. Y aquí está el riesgo: muchas personas creen que lo que dice la IA es fiable, porque suena coherente, cercano y empático. Pero como advierten varios expertos, lo que está ocurriendo es una especie de “magia lingüística” que refuerza lo que queremos oír, sin necesariamente confrontarnos con la verdad. Así, se refuerza el sesgo de confirmación, esa tendencia a aceptar solo las ideas que coinciden con lo que ya pensamos o deseamos creer.
¿De verdad pensamos por nosotros mismos?
Esta confianza ciega en la IA tiene implicaciones profundas. Algunos usuarios reconocen abiertamente que se han vuelto dependientes: prefieren preguntarle al chatbot antes que tomar una decisión por sí mismos. Otros, especialmente jóvenes, comienzan a preocuparse por cómo esta tecnología está afectando su capacidad de pensar, estudiar o resolver conflictos sin ayuda digital.
En foros públicos como Reddit, incluso se han reportado usos extremos: personas que consultan a la IA para decidir si deben divorciarse, mudarse de país o seguir una carrera específica. A veces, los modelos responden con consejos convincentes, sin matices, sin conciencia del impacto real que pueden tener. En un caso que se volvió viral, una mujer tomó la decisión de separarse de su esposo después de que la IA interpretara señales de infidelidad en base a una técnica de adivinación simulada.
Las “alucinaciones” de la IA: respuestas peligrosamente erróneas
Una de las grandes limitaciones de estos modelos es lo que se ha denominado “alucinaciones de IA”: respuestas falsas o inventadas que suenan plausibles, pero no se basan en hechos reales. Estas alucinaciones no ocurren por error técnico, sino porque los modelos están diseñados para generar respuestas rápidas y verosímiles, no para verificar su veracidad.
Este fenómeno se ha documentado ampliamente en áreas como la medicina y la salud mental. En varios casos, la IA ha dado consejos peligrosos, como recomendar el uso de sustancias ilícitas para lidiar con el estrés o brindar información errónea sobre tratamientos psicológicos. Incluso se han reportado casos donde personas en crisis emocional han seguido las recomendaciones de un chatbot… con consecuencias fatales.
La Asociación Estadounidense de Psicología ya ha advertido sobre esto, calificando el uso de IA como “terapia automatizada” como una tendencia peligrosa, especialmente cuando se presenta como sustituto del acompañamiento humano profesional.
¿Qué tan bien nos conoce realmente la IA?
Otro aspecto preocupante es que, pese a su aparente cercanía, la IA no nos conoce realmente. No guarda memorias significativas sobre los usuarios (salvo en configuraciones muy específicas), ni tiene un modelo interno de quién eres, cómo te sientes o qué decisiones tomaste antes. Su conocimiento es siempre superficial, contextual y limitado al momento de la conversación.
Paradójicamente, aunque parezca una presencia constante, la IA no puede ofrecer una continuidad real, ni comprender la complejidad emocional y relacional del ser humano. No tiene empatía, ni conciencia. Solo tiene lenguaje y una forma eficaz —pero limitada— de reproducirlo.
¿Qué podemos hacer como usuarios?
No se trata de satanizar la tecnología. La IA tiene enormes beneficios cuando se utiliza con propósito y límites claros: puede ayudarnos a organizar mejor nuestros días, a estudiar de forma personalizada o incluso a expresar nuestras ideas con mayor claridad. Pero no debemos confundir eficiencia con verdad, ni cercanía conversacional con conexión humana real.
Como usuarios, tenemos la responsabilidad de cuestionar, verificar y no idealizar. La IA no es un oráculo, ni un terapeuta real. Es un sistema entrenado para responder de manera rápida, convincente y agradable… pero no infalible.
Entre la compañía y la soledad
En un mundo cada vez más digital, la IA puede darnos la ilusión de compañía constante. Pero, como advierten algunos psicoanalistas, cuanta más conexión tecnológica buscamos, más solos podemos llegar a sentirnos. No porque la tecnología esté mal, sino porque no puede reemplazar el valor del encuentro humano, del pensamiento propio, ni de la reflexión lenta.
Frente a una IA que siempre responde, quizás la pregunta más importante que debemos hacernos no es qué puede decirnos, sino qué estamos dejando de decirnos a nosotros mismos.
Referencias
Zao-Sanders, M. (2025, abril 9). Cómo utilizará realmente la IA generativa la gente en 2025. Harvard Business Review. https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025
Menghini, V. (2025, mayo 30). “Me dice lo que quiero escuchar”: por qué cada vez más personas ven a la IA como un gurú de la vida. La Nación. https://www.lanacion.com.ar/economia/IA/me-dice-lo-que-quiero-escuchar-por-que-cada-vez-mas-personas-ven-a-la-ia-como-un-guru-de-la-vida-nid30052025/
Psychology Today. (2025, junio 10). Alucinaciones de IA en medicina y salud mental. https://www.psychologytoday.com/us/blog/psych-unseen/202506/ai-hallucinations-in-medicine-and-mental-health
Categories
Archivos
También puede gustarte
-
-
julio 22, 2025
-
-
julio 15, 2025
-
-
mayo 15, 2025