Tus conversaciones con ChatGPT podrían ser públicas en Google, alerta R3D

chatgpt

Conversaciones con chatbots quedan expuestas en Google

R3D advierte sobre riesgos de privacidad

La Red en Defensa de los Derechos Digitales (R3D) alertó que conversaciones privadas con chatbots de inteligencia artificial, como ChatGPT, Claude, DeepSeek o Grok, pueden quedar expuestas en la web y ser indexadas por buscadores como Google. Esta situación, señaló la organización, representa un riesgo para quienes comparten información sensible en estas plataformas.

De acuerdo con R3D, los temas tratados en estas conversaciones abarcan desde información corporativa confidencial hasta aspectos íntimos relacionados con la sexualidad, la salud mental o las relaciones personales. El problema radica en que, aunque las personas usuarias esperan privacidad, en la práctica los diálogos pueden hacerse públicos a través de enlaces compartidos.

Fast Company reveló la primera filtración

La advertencia de R3D se apoyó en un reportaje publicado por Fast Company a finales de julio. En esa investigación se documentó que Google estaba indexando conversaciones privadas de ChatGPT.

El medio reveló que el equipo de investigación localizó más de 4,500 conversaciones disponibles en el motor de búsqueda, algunas con información delicada sobre conflictos familiares o problemas personales. Esto ocurrió porque varias personas usuarias utilizaron la función de “Compartir” que generaba un enlace público, aunque se pensaba que era restringido.

Tras conocerse el caso, OpenAI decidió retirar la opción de compartir para impedir que las conversaciones continuaran siendo rastreadas por Google.

Más de 130 mil enlaces expuestos

A pesar de esta medida, otros especialistas replicaron el experimento y confirmaron que no solo ChatGPT presentaba esta vulnerabilidad. Según R3D, también se encontraron datos expuestos de usuarios de otros chatbots como Claude y Grok.

“Más de 130 mil enlaces a conversaciones privadas estuvieron disponibles para consulta”, detalló la organización. Entre esos contenidos aparecían datos personales, información empresarial y hasta posibles intenciones delictivas.

R3D destacó además el trabajo del grupo Digital Digging, que halló 512 conversaciones privadas mediante técnicas de búsqueda sugeridas por Claude. La información filtrada incluía incluso documentos corporativos y datos sensibles de usuarios que creyeron haber generado un enlace privado similar al de servicios como Google Docs.

Riesgo para usuarios y empresas

El investigador informático Dead1nfluence advirtió que esta vulnerabilidad podría convertirse en un recurso para atacantes cibernéticos. Con un acceso sencillo, sería posible identificar a compañías y revisar si empleados divulgaron información sin darse cuenta.

Ante ello, R3D reiteró el llamado a no compartir datos sensibles en chatbots de inteligencia artificial, ya que la exposición pública de la información podría generar riesgos personales y empresariales.