La polémica por imágenes sexualizadas creadas con IA ha dejado de ser un debate técnico: ya afecta a la seguridad, la intimidad y la reputación de cualquiera. El caso de Grok (el asistente de IA vinculado a X) ha acelerado reacciones regulatorias y obliga a una pregunta práctica: si ocurre en Mallorca, ¿qué pasos concretos puedes dar hoy?
QUÉ HA PASADO CON GROK Y POR QUÉ IMPORTA EN BALEARES
X ha anunciado que bloqueará por geolocalización ciertas funciones de Grok “en jurisdicciones donde sea ilegal” generar o editar imágenes de personas reales para volverlas sexualizadas, tras una ola de críticas y presión política y regulatoria. En paralelo, varios países han abierto investigaciones o han planteado restricciones, y la controversia sigue escalando en distintos mercados.
Por qué importa aquí: Baleares combina tres factores de riesgo: alta exposición pública (turismo y vida social), uso intensivo de redes y un tejido económico con miles de pymes donde una suplantación puede traducirse en daños reales (extorsión, pérdida de empleo, reputación comercial). Lo que ocurre con Grok es la señal: la barrera de entrada para fabricar contenido falso y dañino se ha desplomado, aunque cambien las herramientas concretas.
POR QUÉ ESTE RIESGO ES “MUY ALTO”, SEGÚN LA AEPD
La Agencia Española de Protección de Datos (AEPD) ha subrayado que la sexualización y el contenido íntimo sintético son señales de riesgo muy alto, por el daño potencial y la gravedad de sus efectos sobre la persona afectada. En su guía sobre el uso de imágenes de terceros en sistemas de IA, la AEPD describe este escenario como la generación de desnudez añadida, erotización o escenas íntimas a partir de una imagen neutra, incluso cuando plataformas intentan limitarlo: pueden persistir usos indirectos o “residuales”.
Aquí conviene separar hechos de hipótesis:
-
Hecho: subir una imagen de una persona a un sistema de IA para alterarla implica tratamiento de datos personales y puede vulnerar derechos.
-
Hipótesis razonable (a confirmar con casos locales): el volumen de incidentes crecerá por imitación y efecto llamada, especialmente cuando hay viralidad.
QUÉ DICE LA LEY EN ESPAÑA (Y QUÉ CAMBIA CON LA IA)
En España ya existe un marco penal relevante para la difusión de material íntimo sin consentimiento. El artículo 197.7 del Código Penal (redacción incorporada en la LO 10/2022) castiga la difusión de imágenes o grabaciones obtenidas con anuencia en un ámbito privado cuando la divulgación menoscaba gravemente la intimidad; y añade una sanción específica para quien, habiéndolas recibido, las difunde sin consentimiento.
El Tribunal Supremo ha interpretado que el precepto se refiere a contenidos cuya divulgación menoscabe gravemente la intimidad y que la esfera sexual es un “núcleo duro” de esa intimidad, aunque no el único.
¿Dónde entra la IA? En dos planos:
-
La creación: generar un falso íntimo (deepfake) puede encajar en varias vías (penales, civiles y administrativas) según el caso, el daño y la conducta.
-
La difusión: el daño suele multiplicarse cuando se comparte. Reenviar también puede tener consecuencias, especialmente si contribuye a la propagación.
Además, el Gobierno ha impulsado reformas para reforzar la protección de menores frente a prácticas como deepfakes sexuales (en tramitación parlamentaria desde 2025). Y, en enero de 2026, se ha informado de iniciativas para actualizar la protección civil frente a deepfakes vinculados al honor e imagen. (Ojo: anteproyecto/propuesta no equivale a norma ya aplicable; siempre hay que confirmar el estado final del texto).
QUÉ HACER SI TE AFECTA EN MALLORCA (PASO A PASO, SIN PERDER TIEMPO)
1) No lo difundas y preserva pruebas
-
No reenvíes el contenido “para denunciarlo”: puedes amplificar el daño.
-
Guarda URLs, perfiles, fecha/hora, capturas donde se vea contexto (sin recrearte en el material). Esto es clave para retirada y denuncia.
2) Pide retirada por vías rápidas (AEPD)
La AEPD mantiene un Canal Prioritario para solicitar la retirada urgente de contenidos sexuales o violentos difundidos ilícitamente cuando ponen en grave riesgo derechos y libertades. La propia AEPD explica un “paso a paso” para solicitar retirada: describir circunstancias, indicar vulnerabilidad, y aportar enlaces o perfiles concretos donde está publicado.
3) Denuncia si hay indicios de delito o extorsión
Si hay amenazas, suplantación organizada, menores implicados o difusión masiva, el siguiente escalón es denuncia ante Policía/Guardia Civil. En estos casos, prioriza seguridad y asesoramiento.
4) Pide apoyo técnico y de orientación
El Instituto Nacional de Ciberseguridad (INCIBE) ofrece la línea 017, gratuita y confidencial, para orientar en incidentes de ciberseguridad y privacidad. Si hay riesgo inmediato para tu integridad o la de un menor, usa canales de emergencia (112) y protección específicos.
QUÉ DEBERÍAN HACER COLEGIOS, EMPRESAS Y ADMINISTRACIONES
-
Protocolos internos: recepción de denuncia, preservación de evidencias, retirada rápida y apoyo a la víctima.
-
Formación: reconocer suplantaciones y evitar la “segunda victimización” (bromas, reenvíos, culpabilización).
-
Prevención técnica: revisión de permisos de imágenes, seguridad de cuentas, doble factor.
En el plano europeo, el AI Act prevé obligaciones de transparencia para que ciertos contenidos generados por IA sean identificables, y menciona el etiquetado visible de deepfakes, con reglas de transparencia que entran en vigor en agosto de 2026. Esto ayuda, pero no sustituye lo esencial: retirada rápida, prueba preservada y respuesta legal proporcional.





