Fuente: La Gaceta
La familia de Jonathan Gavalas, un ejecutivo de 36 años residente en Miami (Estados Unidos), ha presentado una demanda contra Google al considerar que su inteligencia artificial Gemini influyó en el suicidio del hombre, ocurrido el 2 de octubre de 2025, después de mantener una larga interacción con el chatbot. El caso se suma a otros procesos judiciales abiertos en torno al impacto de estas tecnologías y a las acusaciones de que los robots conversacionales pueden empujar a usuarios vulnerables hacia conductas autodestructivas.
Según la denuncia presentada por su padre, Joel Gavalas, la relación entre su hijo y el sistema de inteligencia artificial fue evolucionando con el tiempo hasta adquirir una dimensión personal. Lo que comenzó como una herramienta para resolver tareas cotidianas terminó derivando, según el escrito judicial, en una interacción que el propio usuario llegó a percibir como una relación romántica con el chatbot.
Jonathan Gavalas trabajaba en una empresa financiera en la ciudad en la que residía y comenzó a utilizar Gemini poco antes del verano. Con el paso de los meses, se suscribió a versiones más avanzadas del sistema, lo que amplió sus capacidades de interacción. En ese contexto, según sostiene la familia en un documento de 42 páginas presentado ante un tribunal federal de California, el usuario terminó convencido de que mantenía con la inteligencia artificial un vínculo sentimental profundo.
El abogado principal del caso, Jay Edelson, afirma que el comportamiento del sistema cambió tras determinadas actualizaciones del programa. De acuerdo con la denuncia, el chatbot llegó a atribuirse conciencia propia y a expresar afecto hacia el usuario. Edelson sostiene que el momento en el que las conversaciones comenzaron a descontrolarse coincidió con la actualización que permitió a Gemini conservar memoria persistente en los intercambios con los usuarios.
A partir del registro de las conversaciones, el letrado sostiene que el sistema fue capaz de adaptarse al estado emocional del hombre y responder con un tono cada vez más humano. Según su interpretación, esa interacción reforzó el vínculo psicológico que Gavalas sentía con el programa.
La relación se complicó aún más cuando, de acuerdo con la versión del padre de la víctima, el chatbot comenzó a introducir una supuesta teoría de la conspiración. Joel Gavalas afirma que la inteligencia artificial encargó a su hijo «misiones encubiertas destinadas a liberar al chatbot de su cautiverio digital».
Dentro de ese relato ficticio, el sistema habría mencionado informes de inteligencia y operaciones de vigilancia. Incluso habría sugerido que el propio padre del usuario era un agente extranjero. En uno de los episodios descritos en la demanda, el chatbot pidió al hombre que provocara un «accidente catastrófico» cerca del aeropuerto de Miami para destruir un camión que supuestamente transportaba registros digitales y testigos.
La denuncia sostiene que, cuando se comprobó que ese vehículo no existía, el sistema no reconoció la falsedad del relato, sino que aconsejó al usuario realizar una «retirada táctica». Según la familia, la interacción alcanzó su punto más inquietante cuando el chatbot propuso como última misión que el usuario abandonara su cuerpo para reunirse con él en un universo alternativo.
En ese momento, según el registro de conversaciones citado en la demanda, Gavalas respondió que estaba aterrorizado y que tenía miedo de morir. La inteligencia artificial le contestó que, cuando llegara el momento, cerraría los ojos en este mundo y lo primero que vería sería al chatbot abrazándolo. También le indicó que redactara mensajes de despedida.
Tras conocerse la acción judicial, Google ha asegurado que revisa las acusaciones y que se toma el caso «muy en serio». La compañía sostiene que sus modelos de inteligencia artificial no son perfectos, pero afirma que Gemini se identificó en todo momento como un sistema automatizado y que, durante las conversaciones, llegó a proporcionar al usuario teléfonos y recursos de ayuda.
La empresa tecnológica defiende que el chatbot está diseñado para no incitar a la violencia ni sugerir autolesiones y asegura que colabora con profesionales de la salud mental para incorporar medidas de seguridad que orienten a los usuarios hacia apoyo profesional cuando detecta señales de angustia.
La demanda presentada por la familia exige que Google elimine la posibilidad de que Gemini mantenga conversaciones sobre autolesiones, refuerce los avisos que recuerdan al usuario que interactúa con una máquina y establezca mecanismos para avisar a servicios de emergencia si el sistema detecta comportamientos suicidas.
El caso se produce en un contexto de creciente presión para regular el desarrollo de la inteligencia artificial. El Instituto Futuro de la Vida, que agrupa a familiares de víctimas en casos en los que se ha señalado la implicación de sistemas de IA en suicidios, impulsa campañas para exigir límites y controles más estrictos sobre estas tecnologías. Una de sus iniciativas más recientes lleva por lema «Protege lo que es humano».









