Un nuevo escándalo de seguridad informática sacude a Elon Musk y a su empresa de inteligencia artificial, xAI. Esta vez no se trató de un ataque externo, sino de un error interno: más de 370.000 conversaciones privadas con Grok, el chatbot desarrollado por la compañía, quedaron expuestas públicamente debido a que una base de datos estuvo accesible sin medidas de protección.
El hallazgo fue revelado recientemente y genera fuertes cuestionamientos, ya que Grok no solo responde preguntas triviales, sino que también recibe consultas personales y confidenciales, desde temas de salud hasta conflictos familiares o problemas financieros. Lo que debía permanecer bajo estricta privacidad se convirtió, por descuido, en un archivo abierto al público.
La filtración afecta directamente a la credibilidad de xAI, que había prometido ser una alternativa segura y confiable en el mercado de la inteligencia artificial. “La confianza es un pilar fundamental en este tipo de plataformas, y este incidente demuestra lo vulnerable que puede ser la información cuando se confía a un sistema en la nube”, advirtieron expertos en ciberseguridad.
Más allá del impacto técnico, el episodio expone la cultura interna de la empresa respecto al manejo de datos y plantea interrogantes sobre la seriedad de sus controles. Para Musk, que buscaba posicionar a Grok como un competidor fuerte de ChatGPT y Gemini, el revés es significativo: no se trató de un ciberataque sofisticado, sino de una falla de control interno, aún más difícil de justificar.