Preguntas y Respuestas de la directiva China que regula la IA emocional: el futuro de los “compañeros virtuales” ya no será libre.


❓ ¿Por qué es importante conocer esta ley?

Porque regula un tipo de IA cada vez más popular:

👉 IA que simula emociones y relaciones humanas

Afecta directamente a:

  • Apps como Replika o ChatGPT
  • Empresas tecnológicas
  • Usuarios que buscan compañía digital

👉 Define límites claros sobre emociones, contenido y comportamiento de la IA.

❓ ¿Qué regula exactamente esta normativa?

Regula servicios de IA que:

  • Simulan personalidad humana
  • Mantienen interacción emocional continua
  • Ofrecen compañía o apoyo emocional

📌 Ejemplo claro:

  • Replika (pareja o amigo virtual)

❓ ¿Qué servicios NO están incluidos?

No aplica a:

  • Atención al cliente
  • IA educativa
  • Herramientas informativas

📌 Ejemplo:

  • ChatGPT (cuando se usa solo para información o trabajo)

❓ ¿Cuál es el objetivo principal?

  • Promover la innovación
  • Proteger al usuario
  • Mantener la seguridad del Estado

👉 Equilibrio entre tecnología y control.

❓ ¿Qué principios sigue el gobierno?

  • Innovación + seguridad
  • Regulación progresiva
  • Contenido “positivo”

❓ ¿Quién supervisa estos servicios?

  • Gobierno central (ciberseguridad)
  • Ministerios
  • Autoridades locales

👉 También se exige autorregulación de las empresas.

❓ ¿Qué fomenta la ley?

  • Desarrollo de IA propia (chips, algoritmos)
  • Uso en: cuidado infantil ancianos cultura

📌 Ejemplo:

  • IA de compañía para personas mayores

❓ ¿Qué está prohibido?

La IA NO puede generar contenido que:

  • Amenace al Estado
  • Promueva odio o violencia
  • Sea sexual explícito
  • Difunda desinformación

👉 Esto afecta directamente a apps emocionales.

❓ ¿Cómo cambiarían apps como Replika?

Con Replika:

  • ❌ Menos contenido romántico/sexual explícito
  • ❌ Nada de temas políticos sensibles
  • ✔ Conversaciones más “seguras” y positivas
  • ✔ Menos intensidad emocional

👉 Sería un “compañero”, pero más controlado.

❓ ¿Cómo cambiaría ChatGPT?

Con ChatGPT:

  • ✔ Si es informativo → pocos cambios
  • ❗ Si actúa como compañero emocional: Respuestas más controladas Filtro de contenido estricto Supervisión estatal

❓ ¿Qué pasa con IA terapéutica o emocional?

  • ✔ Permitida
  • ❗ Pero: No debe sustituir humanos No debe manipular emociones Debe ser segura

❓ ¿Qué pasa con niños y ancianos?

  • ✔ Uso fomentado
  • ❗ Alta protección: Supervisión estricta Control del contenido emocional

❓ ¿Qué cambios generales tendrán todas las apps?

  1. 🎭 Menos “apariencia humana real”
  2. 🧠 Control emocional
  3. 🛑 Filtro fuerte de contenido
  4. 📜 Supervisión del gobierno

❓ ¿Cuándo entra en vigor?

📅 15 de julio de 2026

Comentarios