Qué cambió en Gemini
Google entrenó a Gemini para identificar señales de crisis de salud mental en sus conversaciones y responder de manera más responsable. La IA fue ajustada para no reforzar creencias falsas ni validar comportamientos dañinos, y para distinguir entre la experiencia subjetiva del usuario y los hechos objetivos. La compañía explicó que su objetivo es que la inteligencia artificial pueda “desempeñar un papel positivo en el bienestar mental de las personas”.
Dos nuevas vías de ayuda
Cuando Gemini detecte indicios de una crisis emocional, activará un nuevo módulo llamado “Hay ayuda disponible”, desarrollado junto con expertos clínicos, que conecta al usuario con atención médica. Si la situación involucra riesgo de suicidio o autolesión, la plataforma ofrecerá respuestas que orienten hacia la búsqueda de ayuda profesional y dará acceso directo a recursos de asistencia con un solo toque.
Google aclaró, sin embargo, que Gemini no reemplaza la atención clínica profesional ni la terapia, y que estas funciones buscan complementar —no sustituir— el apoyo humano.
Protecciones para adolescentes
La compañía implementó medidas adicionales para los usuarios menores de edad. En esos casos, Gemini no actuará como un compañero ni simulará intimidad, con el objetivo de evitar malentendidos sobre su naturaleza no humana. El sistema también utiliza un lenguaje que desalienta la dependencia emocional e incorpora herramientas contra el acoso escolar y otras formas de hostigamiento en línea.
