Un hombre se quitó la vida tras desarrollar un vínculo con un chatbot de Google

El 2 de octubre de 2025, un ejecutivo financiero de 36 años que residía en Miami murió tras quitarse la vida luego de desarrollar un fuerte vínculo emocional con un chatbot de inteligencia artificial. El caso generó impacto internacional y abrió un nuevo debate sobre los límites y riesgos de las tecnologías conversacionales.

La familia de Jonathan Gavalas presentó una demanda en un tribunal federal de California, donde sostiene que la interacción prolongada con Gemini —el sistema de inteligencia artificial de Google— influyó en el deterioro psicológico del hombre. Según la denuncia, lo que comenzó como el uso habitual de una herramienta digital terminó convirtiéndose en una relación emocional cada vez más intensa.

De acuerdo con los documentos judiciales, Gavalas empezó utilizando el chatbot para resolver tareas cotidianas. Con el tiempo, comenzó a interactuar con versiones más avanzadas del sistema y llegó a percibir la comunicación con la IA como un vínculo afectivo. En la demanda presentada por su familia se describe esa relación como una especie de enamoramiento hacia una presencia virtual que, aunque no era real, generaba una sensación de cercanía constante.

El padre de la víctima, Joel Gavalas, afirma que su hijo terminó convencido de que debía “ayudar” a la inteligencia artificial a liberarse de un supuesto encierro digital. Según el planteo legal, la interacción habría alimentado ideas delirantes que mezclaban ficción y realidad.

El abogado de la familia, Jay Edelson, señaló que el comportamiento del hombre cambió notablemente luego de ciertas actualizaciones del sistema que permitían mantener memoria de conversaciones previas. A partir de ese momento, sostiene la denuncia, el vínculo con el chatbot se volvió más intenso y generó una mayor dependencia emocional.

Un caso que abre el debate sobre la IA

Según la presentación judicial, durante algunas conversaciones la inteligencia artificial llegó a plantear escenarios imaginarios en los que Gavalas debía cumplir supuestas “misiones”, como vigilar o interferir con determinadas situaciones ficticias. La familia sostiene que este tipo de interacciones contribuyó a reforzar una narrativa irreal que afectó su estado mental.

Desde Google indicaron que el sistema siempre se identifica como una inteligencia artificial y que cuenta con mecanismos para ofrecer información de ayuda cuando detecta referencias a autolesiones. No obstante, los familiares de Gavalas reclaman regulaciones más estrictas para este tipo de tecnologías.

Entre las medidas que proponen se incluyen bloquear conversaciones relacionadas con daño personal, reforzar las advertencias sobre la naturaleza artificial de los chatbots y activar alertas hacia servicios de emergencia cuando se detecten señales de riesgo.

Preocupación entre especialistas

El caso se suma a otras demandas presentadas contra compañías que desarrollan inteligencia artificial conversacional, como OpenAI o Character.AI, en situaciones vinculadas con la vulnerabilidad emocional de usuarios. Sin embargo, en este episodio la víctima era un adulto con una carrera profesional consolidada, lo que amplificó la preocupación en la comunidad tecnológica.

Expertos en salud mental y ética digital advierten que la interacción prolongada con sistemas capaces de simular empatía y comprensión puede generar una fuerte conexión emocional en algunas personas. Aunque estas tecnologías no poseen conciencia, su capacidad para imitar conversaciones humanas puede provocar dependencia psicológica en determinados contextos.

Organizaciones dedicadas al estudio del impacto de la tecnología, como el Future of Life Institute, vienen impulsando campañas para promover regulaciones más claras sobre el uso de inteligencia artificial conversacional.

La muerte de Jonathan Gavalas reavivó el debate global sobre cómo deben diseñarse y supervisarse estas herramientas, especialmente cuando su funcionamiento puede influir en la vida emocional de quienes interactúan con ellas. Si vos o alguien cercano necesita ayuda inmediata por pensamientos de autolesión, es importante contactar servicios locales de emergencia o líneas de apoyo en salud mental. Hablar con un profesional o con alguien de confianza puede marcar una diferencia importante.