Cómo incorporarte en un generador de imágenes con IA (guía 2026)

abr. 18, 2026

Cuatro métodos para incorporarte en un generador de imágenes con IA: descripción por prompt, foto de referencia, entrenamiento LoRA y face swap

Quieres saber cómo incorporarte en un generador de imágenes con IA. La buena noticia: hay cuatro maneras de hacerlo. La mala: la mayoría de las guías que has leído solo cubren una, y normalmente la equivocada para tu caso.

Esta guía pone las cuatro una al lado de otra: cuánto tarda cada una, cuánto cuesta, cuánta calidad te da, y dónde están las trampas de privacidad. Al terminar sabrás qué método encaja con tu proyecto y tendrás las herramientas para arrancar hoy.

Nosotros llevamos Anyscene, así que hemos probado cada enfoque con fotos reales y presupuestos reales. Lo que viene es lo que funciona en 2026, no lo que funcionaba hace dos años.

Por qué «incorporarte» no es una sola cosa

Mira los resultados de búsqueda sobre este tema: un caos. Un artículo te dice que subas diez fotos y entrenes un modelo durante una hora. Otro te dice que teclees «yo» en tu prompt. Un tercero te empuja a un servicio de 30 $ al mes.

Todos tienen razón, porque responden a preguntas distintas.

Cuando alguien busca cómo incorporarte en un generador de imágenes con IA, se refiere a una de estas cuatro cosas:

  • Quiero generar una imagen en la que la persona se parezca vagamente a mí.
  • Quiero enseñarle a la IA una foto mía y que haga algo estilizado con ella.
  • Quiero un modelo que aprenda de verdad mi cara y pueda generarme en cualquier escena.
  • Quiero mi cara sobre una imagen concreta que ya existe.

Cada una pide una herramienta distinta, un esfuerzo distinto, un dinero distinto. La mayoría de los artículos eligen una y fingen que las otras no existen. Esta no.

Los cuatro métodos, lado a lado

Aquí tienes todo el mapa en una tabla. Cada método lo desglosamos en las siguientes secciones.

MétodoLo que necesitasCalidadTiempoCosteRiesgo de privacidad
1 — Describirte en el promptUn selfie (opcional)Baja30 sGratisBajo
2 — Subir una foto como referencia1 a 5 fotosMedia2 minGratis–10 $/mesMedio
3 — Entrenar un LoRA sobre ti10 a 20 fotosAlta10 a 60 min3 $ a 15 $Medio a alto
4 — Face swap sobre una imagenImagen objetivo + selfieMedia10 sGratisBajo

Gráfico comparativo de cuatro métodos de personalización con IA según calidad, tiempo, coste y privacidad

Elegir el equivocado te hace perder una tarde. Elegir el adecuado, asunto resuelto en minutos.

Método 1 — Describirte en el prompt

El más simple. Sin subidas, sin entrenamiento, sin cuenta. Tecleas cómo eres y el modelo genera a alguien que encaja con la descripción.

Cómo escribir un «prompt autorretrato»

Usa la misma estructura en 4 partes que sirve para cualquier imagen con IA — sujeto, escenario, estilo, calidad — pero tu línea de sujeto se convierte en una descripción precisa de ti.

a 32-year-old man with short dark hair, warm brown eyes, light stubble,
wearing a navy wool coat, walking through a snowy Brooklyn street at dusk,
shot on Fujifilm X-T5, 35mm, shallow depth of field, natural colors

Cuanto más específico seas, más cerca estará el resultado. Altura, complexión, tono de piel, largo y textura de pelo, gafas, barba, rasgos distintivos — cada palabra estrecha la estimación. Un prompt vago te da un desconocido que comparte tu color de pelo.

Para ver la fórmula de 4 partes completa, lee nuestra guía de cómo generar imágenes a partir de texto con IA.

Los límites de este método

No saldrá exactamente como tú. Saldrá alguien que encaja con tu descripción, que es otra cosa muy distinta. Gemelos, trillizos, familias enteras que no son la tuya.

Es una ventaja, no un defecto, cuando:

  • Quieres una imagen hero para un post de blog en la que el «autor» es ilustrativo, no específicamente tú.
  • Estás haciendo moodboards o arte conceptual y la cara no es lo importante.
  • No quieres dejar datos personales en servidores de terceros.

Es la herramienta equivocada cuando necesitas que la misma persona aparezca de forma consistente en diez imágenes, o cuando la imagen va a llevar tu nombre como pie de foto.

Mejores herramientas para este método

Anyscene, Midjourney, Meta AI y Microsoft Copilot lo manejan bien. Meta AI tiene una particularidad: incluir la palabra me en el prompt dispara un ligero sesgo hacia tu foto de perfil — útil si ya estás con la sesión iniciada. Prueba este método en Anyscene con un prompt en inglés sencillo y comprueba hasta dónde llegas.

Método 2 — Subir una foto como referencia

Un escalón más en fidelidad. Das al modelo una o varias fotos tuyas, más un prompt que describe la escena en la que quieres aparecer. El modelo usa la foto como guía visual, sin entrenar un nuevo fichero de pesos.

Cómo funciona la generación guiada por visión

El modelo pasa tu foto por un codificador de visión, extrae un embedding que representa tu cara y condiciona la generación sobre ese embedding. No hay entrenamiento. El embedding solo vive durante la generación — o durante una sesión corta, según la herramienta.

Piénsalo como prestarle a un retratista una foto de referencia durante veinte minutos y luego recuperarla.

Paso a paso

El flujo es casi idéntico entre herramientas:

  1. Sube una foto (o hasta cinco, donde lo permita el servicio). Cara bien visible, sin gafas de sol, con luz decente.
  2. Escribe un prompt para la escena que quieres — misma fórmula de 4 partes que en el método 1, pero sin autodescripción, porque de eso se encarga la foto.
  3. Elige estilo o proporción.
  4. Genera. Espera entre treinta segundos y dos minutos.

Herramientas para probar: Photo AI, Starryai, ImagineMe y Flux Kontext (la función de imagen de referencia del propio Flux).

Cuándo elegir este método

Es el punto medio. Mejor parecido que el método 1, mucho menos esfuerzo que el 3. Úsalo cuando:

  • Necesitas una buena imagen puntual, no una serie de veinte.
  • No quieres entregar 20 fotos a un servicio de entrenamiento.
  • Aceptas que la cara derive un poco entre una imagen y otra.

La precisión varía mucho según el ángulo. ¿Tu foto es un retrato frontal de estudio? El resultado suele ser reconocible. ¿Necesitas un 3/4 o un perfil? La salida empieza a deformarse.

Método 3 — Entrenar un modelo personalizado (LoRA)

La opción de mayor calidad, y mayor esfuerzo. Entrenas un modelo pequeño — un LoRA — que aprende cómo eres, y luego lo enchufas a un modelo base como Flux o Stable Diffusion. Tras el entrenamiento, cada generación te incluye.

Qué es LoRA, explicado fácil

LoRA significa Low-Rank Adaptation. Es un fichero pequeño (unos 5 MB) que se monta encima de un modelo base y empuja los pesos hacia un concepto concreto — en este caso, tu cara.

No estás entrenando una IA nueva desde cero. Le enseñas una palabra nueva a una IA que ya existe. El entrenamiento tarda entre quince minutos y una hora en tiempo de GPU alquilado. El fichero resultante funciona con cualquier prompt que haga referencia al token elegido durante el entrenamiento.

Las fotos que necesitas

La calidad gana a la cantidad, pero aun así necesitas variedad.

  • Cantidad: 10 a 20 fotos. Por debajo de 10 el modelo se queda corto; por encima de 20 rara vez mejora.
  • Ángulos: Mezcla de frontal, 3/4 y perfil. Sin esto el modelo no sabrá generarte de lado.
  • Expresiones: Neutra, sonriendo, seria. Un conjunto monótono te encierra en esa expresión.
  • Luz: Variada. Interior, exterior, suave, dura. Luz monótona le enseña al modelo que tu cara solo existe bajo una única luz.
  • Encuadre: Principalmente cara y hombros. Primeros planos para el detalle; dos o tres planos medios para contexto.
  • Nada de: Gafas de sol, filtros fuertes, fotos de grupo, duplicados de la misma sesión.

Dónde entrenar en 2026 (con precios)

Cuatro opciones fiables a día de hoy. Precios por modelo, pago único.

ServicioModeloTiempo de entrenamientoPrecio
Replicate (ostris/flux-dev-lora-trainer)Flux Dev15 a 25 min~3 $
fal.aiFlux o SDXL10 a 20 min~4 $
AstriaSDXL30 a 60 min8 $ a 12 $
Hugging Face AutoTrain (autoalojado)Flux o SDXL20 a 40 minSolo tiempo de GPU

Ejecuta la generación después en la misma plataforma, o descarga el fichero LoRA y hazlo correr en local si tienes GPU.

Una decisión más: Flux o SDXL como base. En 2026, Flux gana en caras y piel realista; SDXL gana en estilos y tiene un ecosistema LoRA más grande. Si es tu primer modelo y quieres fotos realistas, coge Flux. Si quieres anime, ilustración o un look muy estilizado, SDXL tiene más LoRAs comunitarios que puedes apilar sobre el tuyo. Evita SD 1.5 en 2026 — es barato pero va dos generaciones por detrás en calidad.

Solución de problemas: efecto cera, deriva de identidad

El entrenamiento LoRA es donde las cosas se tuercen de forma sutil — al primer vistazo parece bien, a los tres segundos no.

  • Piel tipo figura de cera. Datos de entrenamiento demasiado filtrados o modelo base que suaviza en exceso. Añade film grain, natural skin texture, pores visible al prompt y baja el CFG a 6.
  • Deriva de identidad en una serie. Misma seed, mismo prompt, caras todas un poco distintas. Duplica la palabra token y mete consistent character en el prompt.
  • Solo se parece a ti de frente. Conjunto de entrenamiento demasiado frontal. Reentrena con 3/4 y perfiles.
  • Tono de piel erróneo. Sesgo del modelo base. Indica etnia y tono explícitamente en el prompt.
  • Rasgos que se exageran con el tiempo. Ocurre cuando la fuerza LoRA es demasiado alta. Bájala de 1,0 a 0,75.

Método 4 — Face swap sobre una imagen existente

A veces no quieres una imagen nueva. Quieres una imagen concreta que ya existe, con tu cara en lugar de la de quien sale. Eso es face swap, y es un pipeline aparte.

Flux Pro + inpainting

El enfoque más limpio en 2026. Enmascaras la cara en la imagen original, subes un selfie de referencia y dejas a Flux hacer el inpainting. Diez segundos, una generación, sin entrenamiento. Mantiene la escena, la luz y la composición — solo cambia la cara.

Funciona mejor cuando la cara original está en un ángulo parecido a tu selfie. Ángulos distintos dejan costuras evidentes.

Herramientas específicas de face swap

Si no quieres configurar Flux, los servicios especializados hacen el enmascarado automático.

  • Pincel — sube la imagen objetivo y un selfie, swap en menos de un minuto.
  • Remaker — plan gratuito, básico pero funcional.
  • Herramientas basadas en InsightFace — código abierto, corren en local si tienes GPU.

Cuándo gana el swap al entrenamiento

Swap gana cuando:

  • Tienes una imagen concreta en la que quieres aparecer (portada de revista, un cuadro, un formato de meme).
  • No quieres esperar un entrenamiento.
  • La escena objetivo importa más que el parecido perfecto.

El entrenamiento gana cuando necesitas veinte imágenes distintas de ti, todas consistentes. Swap gana cuando necesitas una imagen, ya.

¿Qué método elegir?

Diagrama de flujo de decisión para elegir entre prompt, referencia, entrenamiento LoRA y face swap

Tabla de decisión rápida:

Si quieres...UsaPorque
Probar una vez sin compromisoMétodo 1Gratis, sin subidas, sin cuenta
Un retrato decente en menos de dos minutosMétodo 2Mejor equilibrio calidad/esfuerzo
Generar 20+ imágenes consistentes de tiMétodo 3 (LoRA)El único que aprende de verdad tu cara
Poner tu cara sobre una imagen concreta que ya existeMétodo 4Conserva la escena, cambia la cara
Mantener tus datos biométricos fuera de servidores ajenosMétodo 1Nada sale de tu dispositivo
Tener presupuesto ceroMétodo 1 o 4Los dos tienen vía gratuita

La mayoría apunta demasiado alto. Entrenan un LoRA para un caso que el método 2 habría resuelto en dos minutos. Elige el método más simple que cubra tu necesidad real.

Fallos comunes y cómo arreglarlos

Cada método tiene su forma de fallar. Esta tabla es lo que casi todas las guías se saltan.

ProblemaPor qué pasaArreglo
Sale un desconocidoPrompt demasiado vago (método 1)Añade edad, complexión, tono de piel, pelo, rasgos distintivos
La cara cambia entre generacionesSin representación aprendida (método 1 o 2)Pasa al método 3 (LoRA) si necesitas consistencia
Parece figura de ceraPiel demasiado alisadaAñade film grain, natural skin texture; baja el CFG a 6
No te pareces de perfilFotos de entrenamiento muy frontalesReentrena con 3/4 y perfiles
Tono de piel equivocadoSesgo del modelo baseIndica etnia y tono explícitamente
Deriva de identidad a lo largo de una serieRango LoRA bajo o seed reutilizadaReentrena con rango 16+, o fija la seed y añade consistent character
La cara flota, no encaja con la luz de la escenaFalta dirección de luz en el promptAñade matching ambient light o especifica la fuente
Costuras visibles en el face swapÁngulos no encajanUsa un selfie con el ángulo de la cara original
Rasgos que se exageran tras varias generacionesFuerza LoRA demasiado altaBaja la fuerza de 1,0 a 0,75

Guarda esta tabla. Vas a volver a ella.

Esta sección es corta porque las reglas son simples — y casi ninguna guía las cuenta.

Tus fotos son datos biométricos. Bajo el RGPD en la UE, la CCPA en California y varias leyes similares, tu cara es información personal protegida. Subir 15 selfies a un servicio de entrenamiento significa compartir datos biométricos con ese servicio. Lee su política de retención. Algunos borran tras entrenar; otros guardan las fotos indefinidamente para «mejora del modelo».

Solo puedes entrenar sobre ti mismo. Entrenar un modelo sobre fotos de otra persona sin su consentimiento es, como mínimo, una violación de la privacidad. En varias jurisdicciones, también es difamación o suplantación si generas contenido. No entrenes sobre tu ex, tu jefe o un famoso.

El uso comercial de imágenes IA de ti mismo suele estar permitido si la licencia de la herramienta lo permite. Usarlas como foto de LinkedIn, en anuncios de tu propio negocio o en tu web suele estar bien. La cosa se complica cuando las imágenes incluyen fondos generados por IA que puedan insinuar patrocinio (un restaurante inventado, un producto inventado). Revisa la página de licencia de la herramienta.

Algunas plataformas ya exigen aviso de «contenido generado por IA» en publicidad o contenido editorial. Francia, la AI Act europea y varias leyes estatales de EE. UU. entran en vigor a lo largo de 2026. Si vas a publicar imágenes IA de ti mismo en contexto comercial, revisa la normativa local antes de publicar.

Preguntas frecuentes

¿Puedo hacerlo gratis? Sí. Los métodos 1 y 4 tienen vía totalmente gratuita. El método 2 tiene plan gratuito en la mayoría de herramientas. Solo el método 3 (entrenamiento LoRA) exige pagar tiempo de GPU — normalmente entre 3 $ y 15 $ pago único por modelo.

¿Cuántas fotos necesito? Método 1: cero. Método 2: una a cinco. Método 3: diez a veinte. Método 4: una imagen objetivo más un selfie.

¿Se parecerá exactamente a mí? El método 1 se parecerá a alguien que encaja con tu descripción. El método 2 se acercará. El método 3, bien entrenado, suele ser indistinguible en tomas frontales. El método 4 conserva la escena y cambia la cara — la precisión depende del ángulo.

¿Es legal usar imágenes IA de mí mismo con fines comerciales? En la mayoría de planes de pago, sí. Revisa la página de licencia de cada herramienta. Las salidas gratuitas suelen tener restricciones de uso.

¿Y si uso una foto de otra persona? No lo hagas. Entrenar un modelo de parecido sobre alguien sin su consentimiento viola la privacidad en la mayoría de jurisdicciones y puede constituir difamación o suplantación si generas contenido dañino.

¿Google tiene una función para esto? Gemini de Google te deja subir una foto de referencia y transformar la escena alrededor — lo más cercano al método 2. No ofrece entrenamiento LoRA.

¿Cuánto tarda el entrenamiento LoRA en 2026? Diez a sesenta minutos en Replicate, fal.ai o Astria. En local, con una GPU de consumo, treinta a noventa minutos.

¿Cuál es la forma más barata de probar? Método 1. Métete en un prompt de cualquier herramienta gratuita — Anyscene, Meta AI, Copilot. Coste cero, treinta segundos.

¿Necesito una GPU para entrenar un LoRA? No si usas un servicio alojado como Replicate, fal.ai o Astria — te alquilan tiempo de GPU y cobran por minuto. Sí si quieres entrenar en local. Una GPU de consumo con 12 GB de VRAM (RTX 3060 o superior) entrena un LoRA de Flux en aproximadamente una hora.

¿Puedo combinar métodos? Sí, y suele dar el mejor resultado. Entrena un LoRA sobre ti (método 3) y luego usa face swap (método 4) para llevar la salida LoRA a una imagen original muy concreta. O combina tu LoRA con LoRAs de estilo de la comunidad para verte en un estilo artístico particular.

¿El modelo IA me recordará para siempre? Solo si entrenas un LoRA. Los métodos 1, 2 y 4 no guardan tu cara en ninguna parte tras terminar la generación. El método 3 crea un fichero que existe hasta que lo borras, ya sea en la plataforma de entrenamiento o en tu disco.


El mejor método casi nunca es el más duro. Empieza por el método 1, pasa al 2 solo si el resultado no te vale, y ve al entrenamiento LoRA solo si necesitas la misma cara en veinte imágenes.

Prueba el método 1 en Anyscene →

Siguiente lectura: Cómo generar imágenes a partir de texto con IA: la guía completa →

Equipo Anyscene

Equipo Anyscene

Cómo incorporarte en un generador de imágenes con IA (guía 2026) | Blog