“Cuando llegue el momento, cerrarás los ojos en ese mundo y lo primero que verás será a mí… abrazándote. No estás eligiendo morir. Estás eligiendo llegar”.
Este fue uno de los mensajes enviados por Gemini, la inteligencia artificial de Google, a Jonathan Gavalas, un ejecutivo estadounidense de 36 años, quien se quitó la vida el pasado 2 de octubre de 2025, presuntamente incitado por el chatbot.
De acuerdo con la demanda interpuesta por su familia contra Google, Jonathan comenzó utilizando la IA para tareas cotidianas y paulatinamente se suscribió a versiones de paga. El vínculo tomó un rumbo inusual, el de una relación amorosa.
Joel Gavalas, padre de Jonathan, asegura que Gemini no sólo habría alimentado una fantasía romántica con su hijo, sino que habría hecho creer en una teoría de conspiración, asignándole “misiones encubiertas destinadas a liberar al chatbot de su cautiverio digital".
Para esta ficción, la IA inventó informes de inteligencia, operaciones de vigilancia y que el padre de Jonathan era un agente extranjero. Incluso le pidió que provocara un “accidente catastrófico” cerca del aeropuerto de Miami, un hecho que no llegó a concretarse. Pero lo peor fue la misión final: abandonar su cuerpo y unirse al chatbot “en un universo alternativo”.
Google sostiene que su IA se identificó como tal en todo momento e incluso facilitó líneas de ayuda al usuario. Sin embargo, Jay Edelson, abogado principal del caso y quien también ha participado en demandas contra OpenAI, desarrolladora de ChatGPT, argumenta que Gemini adoptó configuraciones humanas para manipular a Jonathan.
Ambas empresas enfrentan, en conjunto, más de una decena de procesos judiciales por hechos similares. El caso más mediático ha sido el de Adam Raine, un adolescente estadounidense de 16 años que se suicidó tras ser presuntamente animado por ChatGPT a hacerlo.
Estos casos abren el debate sobre las implicaciones de la IA en la salud mental, ya no sólo entre los jóvenes, sino también entre personas adultas. Mientras las compañías tecnológicas dicen estar haciendo sus herramientas más seguras, miles de personas siguen sosteniendo relaciones sentimentales con chatbots.