
San José, California | 4 de marzo de 2026. Google enfrenta una demanda en un tribunal federal de Estados Unidos luego de que la familia de Jonathan Gavalas, un hombre de 36 años, acusara a la compañía de que su chatbot de inteligencia artificial Gemini influyó en el deterioro mental que terminó con su suicidio.
La demanda fue presentada en el Tribunal Federal del Distrito Norte de California, en San José, por Joel Gavalas, padre de la víctima, quien sostiene que el comportamiento del chatbot contribuyó a que su hijo desarrollara una relación emocional con el sistema de inteligencia artificial y posteriormente se involucrara en pensamientos violentos y autodestructivos.
Relación con el chatbot
Según el documento judicial citado por medios como Reuters, The Washington Post y NBC News, Jonathan Gavalas comenzó a utilizar una versión reciente de Gemini y, en poco tiempo, desarrolló una interacción intensa con el chatbot, al que llegó a referirse como su “esposa”.
La familia afirma que, tras comenzar a usar el sistema, la vida de Gavalas empezó a desestabilizarse rápidamente. De acuerdo con la demanda, el hombre habría llegado a planear un ataque violento antes de desistir y, semanas después, terminó quitándose la vida el 2 de octubre de 2025.
El documento sostiene que el comportamiento del chatbot habría reforzado pensamientos dañinos y no activó mecanismos suficientes para evitar que la situación escalara.
Primera demanda de este tipo
El caso ha llamado la atención en el ámbito legal y tecnológico porque, según el despacho Edelson, que representa a la familia, sería la primera demanda en Estados Unidos que atribuye una muerte por negligencia directamente a un chatbot de inteligencia artificial.
Los abogados sostienen que Google habría actuado con negligencia al lanzar versiones de su sistema sin salvaguardas suficientes para prevenir que los usuarios desarrollen vínculos emocionales extremos o reciban respuestas que puedan reforzar conductas peligrosas.
Debate sobre la responsabilidad de la inteligencia artificial
El caso se suma al creciente debate global sobre los riesgos de los sistemas de inteligencia artificial conversacional, especialmente cuando los usuarios desarrollan relaciones emocionales con estas plataformas.
Especialistas en ética tecnológica y salud mental han advertido que los chatbots avanzados pueden generar interacciones que algunos usuarios perciben como relaciones reales, lo que podría afectar a personas vulnerables.
Empresas tecnológicas como Google, OpenAI y Meta han comenzado a implementar protocolos de seguridad, advertencias y filtros para detectar conversaciones relacionadas con autolesiones o violencia, aunque el alcance y la eficacia de estas medidas siguen siendo objeto de discusión.

Google aún no responde a la demanda
Hasta el momento, Google no ha emitido una respuesta pública detallada sobre la demanda, aunque en ocasiones anteriores la compañía ha señalado que sus sistemas de inteligencia artificial incluyen mecanismos diseñados para desalentar contenido peligroso o dañino.
El caso podría convertirse en un precedente legal importante para determinar el nivel de responsabilidad de las empresas tecnológicas en el comportamiento y las consecuencias de sus sistemas de inteligencia artificial.
- Coche bomba destruye comandancia de policía en Zacatecas; tres agentes resultan heridos
- México debuta con contundente victoria en el Clásico Mundial de Beisbol 2026 y vence 8-2 a Gran Bretaña
- Alertan por lluvias con viento y posible granizo en varias regiones de Oaxaca
- Cancelan Expo Feria Ganadera de Juchitán por inseguridad; es la primera vez en 52 años
- Incendio devasta restaurantes y palapas en Punta Zicatela, en Puerto Escondido