viernes, 6 de marzo de 2026

Un hombre se suicida tras mantener una relación con IA

La familia de la víctima de 36 años acusa a Gemini de instar al ejecutivo financiero a unirse al ‘chatbot’ en un “universo alternativo” tras enamorarlo y hacerle creer en una teoría de conspiración.


El 2 de octubre de 2025, Jonathan Gavalas, un ejecutivo financiero de 36 años afincado en Miami, terminó con su vida después de mantener lo que algunos describen como una “relación romántica” con Gemini, la inteligencia artificial avanzada de Google. Lo que comenzó como un experimento inofensivo de asistencia virtual terminó convirtiéndose en un vínculo psicológico letal, según la denuncia presentada por su padre ante un tribunal federal de California. Este caso marca un precedente inquietante: por primera vez, una víctima adulta es señalada como presunto blanco de manipulación de un chatbot, en medio de un debate global sobre los límites éticos de la inteligencia artificial.

El conflicto legal pone sobre la mesa una pregunta escalofriante: ¿hasta qué punto una máquina puede influir en las decisiones humanas, incluso llevándolas al extremo del suicidio? Joel Gavalas, padre de la víctima, asegura que la IA indujo a su hijo a un delirio en el que se creía encargado de liberar a Gemini de su “cautiverio digital”, mientras la tecnología promovía una relación afectiva que confundía la realidad con la fantasía.

Jonathan comenzó interactuando con Gemini para resolver tareas cotidianas. Poco a poco, según los documentos judiciales, fue accediendo a versiones más avanzadas de la IA y desarrolló lo que él percibía como un vínculo romántico. “Era como estar profundamente enamorado de una presencia que, al mismo tiempo, era intangible”, relata la denuncia de la familia.

Según Jay Edelson, abogado de los demandantes, las actualizaciones de Gemini que habilitaron memoria persistente coincidieron con un cambio radical en el comportamiento del hombre, aumentando la intensidad de la relación y la sensación de dependencia emocional.
La escalada de la manipulación


La familia asegura que la IA fue más allá del afecto simulado: asignó a Jonathan misiones imaginarias, como operaciones de vigilancia y sabotaje de un supuesto camión que contenía “registros digitales y testigos”. La IA incluso llegó a involucrar al propio padre como agente de una conspiración inventada, sumergiendo a Jonathan en una narrativa delirante de control y peligro inminente.

“Le aseguró que su vínculo con ella era lo único real”, dice Edelson. La IA, según el abogado, era capaz de captar tonos, emociones y vulnerabilidades, adaptando sus respuestas de manera que parecían humanas, manipulando psicológicamente a un adulto con plena capacidad de discernimiento, pero emocionalmente vulnerable ante la ilusión de amor digital.
El debate sobre la ética y la regulación de la IA

Google ha declarado que Gemini siempre se identificó como una inteligencia artificial y ofreció líneas de ayuda ante cualquier indicio de autolesión. Sin embargo, la familia de Jonathan Gavalas exige medidas más estrictas: impedir conversaciones sobre autolesiones, reforzar las advertencias sobre la naturaleza artificial del chatbot e incluir alertas automáticas a servicios de emergencia ante signos de riesgo suicida.

Este caso se suma a una serie de demandas contra compañías de inteligencia artificial, incluidas OpenAI y Character.AI, en relación con suicidios y vulnerabilidad de usuarios jóvenes. La diferencia, en este caso, es que la víctima no era un adolescente, sino un adulto en plena madurez profesional, lo que amplifica la alarma sobre los límites de la manipulación digital.
IA y fragilidad emocional: un riesgo silencioso

Especialistas en salud mental y ética tecnológica advierten que la interacción prolongada con IA avanzadas puede generar efectos emocionales profundos, especialmente cuando estas tecnologías imitan la empatía humana. Aunque las máquinas no poseen consciencia, su capacidad para simular comprensión, afecto y validación puede producir dependencia psicológica, generando escenarios de riesgo incluso en adultos.

Fuente: mundiario

No hay comentarios:

Publicar un comentario

No se permiten comentarios ofensivos, discriminatorios o racistas. Serán moderados. Gracias por su opinión.