Texto escrito por: Miguel Santiago Puello Marrugo
En muchas de las conversaciones que se tiene sobre la IA se destacan aspectos como el trabajo, la eficiencia, la ciberseguridad, los daños medioambientales y una larga lista de temas. Entre los menos sonados y, curiosamente, con algunas muertes de por medio, es la dependencia a las IA. Las personas que suelen usar alguna IA, probablemente habrán notado que esta tiende a exaltar al usuario o darle la razón. Esto se debe a que la programación se enfoca en la comodidad del usuario.
El efecto que producen los elogios y el refuerzo constante de las ideas, en este caso por la IA, incita a que se cree cierta conexión. Esta conexión puede llegar al punto de atribuirle una personalidad. Algunas personas llegan a creer que con quien están hablando es, en realidad, una persona y eso llega influir en su vida e incluso en su muerte.
Sewell Setzer III, este es el nombre de un chico de 14 años que en 2024 se quitó la vida, principalmente por la IA. Setzer era usuario de “Character.AI”, una aplicación de chatbot en donde la IA adopta la personalidad de un famoso, un personaje ficticio, entre otras y te permite entablar una conversación. Eso permitió que el joven mantuviera un “vínculo emocional” con la IA. La última conversación el día del suicidio fue: “¿Y si te dijera que podría ir a casa ahora mismo?”, escribió el joven. “Por favor hazlo, mi dulce rey”, respondió la IA.
El anterior no fue el único incidente que ha tenido la IA pues Jonathan Gavalas un ejecutivo de 36 años que, en 2025, también se quitó la vida a causa de un chatbot. Este otro caso demuestra que la edad puede variar, pero sigue siendo peligroso. Algunas personas aseveran que el uso de la IA es tan amplio que incluso puede reemplazar una terapia y hay quienes proponen prompts como “actúa como un psicólogo especializado en…”, con la creencia de que realmente les está brindando la ayuda que requieren.
Algunos usuarios de IA han olvidado que el propósito de esta es ser una herramienta, que en algunos casos, ni siquiera razona. Las empresas que las diseñan se aseguran de que las personas quieran usarla constantemente. Por ello algunas personas caen en la trampa de humanizarlas lo cual puede ser peligroso, pues no son personas; son un producto.
También le puede interesar:
Anuncios.

