Skip to main content

¿Tu selfie te delata? ChatGPT ya puede decir dónde estás y preocupa a los expertos en doxxing

Lo que empezó como un juego inocente al estilo GeoGuessr se ha convertido en un nuevo frente de preocupación en el ámbito de la privacidad digital. El último modelo de OpenAI, denominado o3 de ChatGPT, está demostrando una habilidad que fomenta el doxxing: puede deducir ubicaciones a partir de simples fotografías con un nivel de precisión que sorprende tanto a expertos como a usuarios casuales.

La capacidad de la IA para “razonar” sobre imágenes —incluso cuando son de baja calidad, están recortadas o desenfocadas— ha despertado entusiasmo entre los curiosos… y preocupación entre los expertos en privacidad.

¿Qué está pasando con o3?
Desde la liberación pública de los modelos o3 y o4-mini, usuarios de plataformas como Reddit o X (antes Twitter) han comenzado a experimentar con ellos subiendo fotos personales, capturas urbanas o incluso menús de restaurantes, y pidiendo a ChatGPT que juegue a ser GeoGuessr, el popular juego online que consiste en adivinar lugares usando imágenes de Google Street View.

Lo que comenzó como una broma geek ha mutado en una prueba empírica de lo que muchos ya intuían: la inteligencia artificial actual puede deducir mucho más de una imagen de lo que la mayoría de los humanos sería capaz. De un fondo borroso, una farola, una placa callejera apenas visible o incluso un estilo arquitectónico, el modelo es capaz de deducir el barrio, la ciudad o incluso el local exacto.

En una de las pruebas más comentadas, el modelo identificó correctamente que una foto de una cabeza de rinoceronte púrpura colgada en una pared correspondía a un bar tipo speakeasy en Williamsburg, Brooklyn. Otro modelo, GPT-4o, pensó erróneamente que era un pub británico.

¿Diversión o una nueva herramienta para el doxxing?
Aunque para muchos se trata de una simple curiosidad tecnológica, la posibilidad de adivinar ubicaciones exactas a partir de una imagen plantea riesgos reales, especialmente en términos de doxxing. El doxxing —la práctica de revelar públicamente información personal o ubicaciones sin consentimiento— ya era un problema en redes sociales, pero con estas nuevas capacidades de la IA, el riesgo se amplifica.

Imagina subir una selfie en casa o desde una cafetería local a Instagram, sin ninguna intención de revelar tu ubicación. A ojos humanos, puede parecer una imagen neutra, sin datos reveladores. Pero para un modelo como o3, que puede identificar pistas visuales imperceptibles —como el tipo de enchufe, un cartel de fondo o incluso las plantas de la zona—, esa imagen podría ser la clave para localizarte con gran precisión.

La implicación no es menor: periodistas, activistas, figuras públicas o incluso usuarios anónimos podrían verse expuestos si una simple imagen puede ser usada como “huella geográfica”.

La respuesta de OpenAI
Consultada al respecto, OpenAI ha explicado que sus modelos tienen limitaciones éticas integradas, y que se niegan a proporcionar información privada o sensible. “Los modelos están diseñados para rechazar solicitudes relacionadas con la identificación de personas en imágenes”, señala un portavoz de la compañía.

Además, la empresa ha defendido que la capacidad de razonamiento visual del modelo tiene aplicaciones positivas en ámbitos como la accesibilidad, el análisis en situaciones de emergencia o la investigación científica. No obstante, los mecanismos de contención actuales no están exentos de fallos: algunos usuarios han reportado que, aunque el modelo no da una dirección exacta, ofrece pistas suficientes como para que una persona malintencionada pueda deducirla por sí misma.

¿Qué podemos hacer los usuarios?
Como periodistas y especialistas en ciberseguridad, no basta con señalar el problema: hay que ayudar a mitigarlo. Algunas recomendaciones básicas para proteger tu privacidad visual incluyen:

Evitar publicar imágenes con elementos identificativos de fondo, como matrículas, nombres de calles o lugares fácilmente reconocibles.

Desenfocar fondos o usar filtros que alteren el contexto visual.

Desactivar la geolocalización en fotos antes de compartirlas.

Estar atentos a los términos de uso y privacidad de plataformas como OpenAI, y reclamar mayor transparencia en cómo se entrenan y moderan sus modelos.