
Tu veux savoir comment t'incorporer dans un générateur d'images IA. Bonne nouvelle : il y a quatre façons de le faire. Mauvaise nouvelle : la plupart des guides que tu as lus n'en couvrent qu'une seule, souvent la mauvaise pour ton usage.
Ce guide présente les quatre, côte à côte — combien de temps chacune prend, ce qu'elle coûte, à quel point le résultat est convaincant, et où sont les pièges en matière de vie privée. À la fin, tu sauras quelle méthode colle à ton projet et tu auras les outils pour la lancer aujourd'hui.
On fait tourner Anyscene, donc on a testé chaque approche avec de vraies photos et de vrais budgets. Ce qui suit, c'est ce qui marche en 2026, pas ce qui marchait il y a deux ans.
Pourquoi « s'incorporer » n'est pas une seule chose
Regarde les résultats de recherche sur ce sujet : c'est le chaos. Un article te dit de téléverser dix photos et d'entraîner un modèle pendant une heure. Un autre te dit de taper « moi » dans ton prompt. Un troisième te pousse vers un service à 30 $ par mois.
Ils ont tous raison, parce qu'ils répondent à des questions différentes.
Quand les gens cherchent comment t'incorporer dans un générateur d'images IA, ils pensent à l'une de ces quatre choses :
- Je veux générer une image où la personne me ressemble vaguement.
- Je veux montrer à l'IA une photo de moi et qu'elle en fasse quelque chose de stylisé.
- Je veux un modèle qui apprenne vraiment mon visage et puisse me placer dans n'importe quelle scène.
- Je veux mon visage sur une image précise qui existe déjà.
Chacune demande un outil différent, un effort différent, un budget différent. La plupart des articles choisissent une option et ignorent les autres. Pas celui-ci.
Les quatre méthodes, côte à côte
Voici toute la carte sur un tableau. Chaque méthode est détaillée dans les sections suivantes.
| Méthode | Ce qu'il te faut | Qualité | Temps | Coût | Risque vie privée |
|---|---|---|---|---|---|
| 1 — Te décrire dans le prompt | Un selfie (facultatif) | Faible | 30 s | Gratuit | Faible |
| 2 — Téléverser une photo de référence | 1 à 5 photos | Moyenne | 2 min | Gratuit–10 $/mois | Moyen |
| 3 — Entraîner un LoRA sur toi | 10 à 20 photos | Élevée | 10 à 60 min | 3 $ à 15 $ | Moyen à élevé |
| 4 — Face swap sur une image | Image cible + selfie | Moyenne | 10 s | Gratuit | Faible |

Choisir la mauvaise te fait perdre un après-midi. Choisir la bonne, et c'est plié en quelques minutes.
Méthode 1 — Te décrire dans le prompt
La plus simple. Pas de téléversement, pas d'entraînement, pas de création de compte. Tu tapes à quoi tu ressembles et le modèle génère quelqu'un qui colle à la description.
Comment écrire un « prompt autoportrait »
Utilise la même structure en 4 parties que pour n'importe quelle image IA — sujet, décor, style, qualité — mais ta ligne de sujet devient une description précise de toi.
a 32-year-old man with short dark hair, warm brown eyes, light stubble,
wearing a navy wool coat, walking through a snowy Brooklyn street at dusk,
shot on Fujifilm X-T5, 35mm, shallow depth of field, natural colorsPlus tu es précis, plus le résultat te ressemblera. Taille, morphologie, teint, longueur et texture des cheveux, lunettes, barbe, signes particuliers — chaque mot resserre la devinette. Un prompt vague te donne un inconnu qui partage simplement ta couleur de cheveux.
Pour un tour complet de la formule à 4 parties, lis notre guide sur comment générer des images à partir de texte avec l'IA.
Les limites de cette méthode
Le résultat ne te ressemblera pas vraiment. Il ressemblera à quelqu'un qui colle à ta description, ce qui n'a rien à voir. Des jumeaux, des triplés, des familles entières qui ne sont pas la tienne.
C'est un avantage, pas un défaut, quand :
- Tu veux une image d'illustration pour un article de blog où l'« auteur » est symbolique, pas spécifiquement toi.
- Tu travailles sur des moodboards ou de l'art conceptuel et le visage n'est pas le sujet.
- Tu ne veux aucune donnée personnelle sur des serveurs tiers.
C'est le mauvais outil si tu dois faire apparaître la même personne sur dix images cohérentes, ou si l'image sera légendée avec ton nom.
Les meilleurs outils pour cette méthode
Anyscene, Midjourney, Meta AI et Microsoft Copilot gèrent tous bien cette méthode. Meta AI a ceci de particulier que le mot me dans un prompt déclenche un léger biais vers ta photo de profil — utile si tu es déjà connecté. Teste cette méthode sur Anyscene avec un prompt en anglais courant pour voir à quel point tu peux t'approcher.
Méthode 2 — Téléverser une photo de référence
Un cran au-dessus en fidélité. Tu donnes au modèle une ou plusieurs photos de toi, plus un prompt décrivant la scène où tu veux apparaître. Le modèle utilise la photo comme guide visuel, sans entraîner un nouveau fichier de poids.
Comment fonctionne la génération guidée par vision
Le modèle fait passer ta photo dans un encodeur visuel, en extrait un embedding qui représente ton visage, puis conditionne la génération sur cet embedding. Aucun entraînement n'a lieu. L'embedding ne vit que le temps de la génération — ou d'une courte session, selon l'outil.
Imagine que tu prêtes à un portraitiste une photo de référence pendant vingt minutes, puis que tu la reprends.
Déroulé pas à pas
Le processus est quasi identique d'un outil à l'autre :
- Téléverse une photo (ou jusqu'à cinq, sur les services qui le permettent). Visage bien visible, sans lunettes de soleil, bonne lumière.
- Écris un prompt pour la scène voulue — même formule à 4 parties que la méthode 1, mais sans la description de toi, puisque la photo s'en charge.
- Choisis un style ou un format d'image.
- Génère. Attends de trente secondes à deux minutes.
Outils à essayer : Photo AI, Starryai, ImagineMe et Flux Kontext (la fonction d'image de référence de Flux).
Quand choisir cette méthode
C'est la voie médiane. Meilleure ressemblance que la méthode 1, bien moins d'effort que la 3. Utilise-la quand :
- Tu as besoin d'une belle image unique, pas d'une série de vingt.
- Tu ne veux pas confier 20 photos à un service d'entraînement.
- Tu acceptes que le visage dérive légèrement d'une image à l'autre.
La précision varie beaucoup selon l'angle. Si ta photo est un portrait de face en studio, le résultat sera en général reconnaissable. Si tu veux un 3/4 ou un profil, le résultat commence à se déformer.
Méthode 3 — Entraîner un modèle personnalisé (LoRA)
L'option la plus qualitative, mais la plus exigeante. Tu entraînes un petit modèle — un LoRA — qui apprend à quoi tu ressembles, puis tu le branches sur un modèle de base comme Flux ou Stable Diffusion. Après l'entraînement, chaque génération inclut ton visage.
Ce qu'est un LoRA, expliqué simplement
LoRA signifie Low-Rank Adaptation. C'est un petit fichier (environ 5 Mo) qui vient se poser sur un modèle de base et déplace les poids vers un concept précis — ici, ton visage.
Tu n'entraînes pas une nouvelle IA à partir de rien. Tu apprends un mot nouveau à une IA existante. L'entraînement prend entre quinze minutes et une heure sur du temps GPU loué. Le fichier obtenu fonctionne avec n'importe quel prompt qui fait référence au token choisi à l'entraînement.
Les photos qu'il te faut
La qualité bat la quantité, mais il te faut quand même de la variété.
- Nombre : 10 à 20 photos. En dessous de 10, le modèle sous-apprend ; au-dessus de 20, le gain est rare.
- Angles : un mélange de face, 3/4 et profil. Sinon le modèle ne saura pas te générer de côté.
- Expressions : neutre, souriante, sérieuse. Un jeu monotone te bloque dans cette expression.
- Lumière : variée. Intérieur, extérieur, douce, dure. Une lumière monotone apprend au modèle que ton visage n'existe que sous une seule lumière.
- Cadrage : surtout visage et épaules. Des gros plans pour le détail, deux ou trois plans moyens pour le contexte.
- À éviter : lunettes de soleil, filtres lourds, photos de groupe, doublons de la même séance.
Où entraîner en 2026 (avec les tarifs)
Quatre options fiables à l'heure où j'écris. Tarifs par modèle, paiement unique.
| Service | Modèle | Durée entraînement | Tarif |
|---|---|---|---|
| Replicate (ostris/flux-dev-lora-trainer) | Flux Dev | 15 à 25 min | ~3 $ |
| fal.ai | Flux ou SDXL | 10 à 20 min | ~4 $ |
| Astria | SDXL | 30 à 60 min | 8 $ à 12 $ |
| Hugging Face AutoTrain (self-hosted) | Flux ou SDXL | 20 à 40 min | Coût GPU uniquement |
Lance la génération sur la même plateforme après, ou télécharge le fichier LoRA et fais-le tourner en local si tu as un GPU.
Une décision en plus : Flux ou SDXL comme base. En 2026, Flux gagne sur les visages et la peau réaliste ; SDXL gagne sur le rendu stylisé et a un écosystème LoRA plus large. Si c'est ton premier modèle et que tu veux des photos réalistes, prends Flux. Si tu veux de l'anime, de l'illustration ou un rendu très stylisé, SDXL a plus de LoRA communautaires que tu peux empiler sur le tien. Évite SD 1.5 en 2026 — c'est peu cher mais la qualité a deux générations de retard.
Dépannage : effet cire, dérive d'identité
L'entraînement LoRA est le moment où les choses déraillent subtilement — ça semble bon au premier coup d'œil, puis ça sonne faux trois secondes plus tard.
- Peau en cire. Données d'entraînement trop filtrées ou modèle de base trop lissant. Ajoute
film grain, natural skin texture, pores visibleau prompt et baisse le CFG à 6. - Dérive d'identité sur une série. Même seed, même prompt, visages tous légèrement différents. Double le mot-token et ajoute
consistent characterau prompt. - Ressemble à toi de face seulement. Jeu d'entraînement trop frontal. Refais avec des 3/4 et des profils.
- Mauvais teint. Biais du modèle de base. Précise l'ethnie et le teint explicitement dans le prompt.
- Les traits s'exagèrent au fil des générations. Arrive quand la force LoRA est trop haute. Baisse-la de 1,0 à 0,75.
Méthode 4 — Face swap sur une image existante
Parfois tu ne veux pas une nouvelle image. Tu veux une image existante précise, avec ton visage à la place de celui qui y est. C'est le face swap, et c'est un pipeline à part entière.
Flux Pro + inpainting
L'approche la plus propre en 2026. Tu masques le visage dans l'image source, tu téléverses un selfie de référence, et tu laisses Flux faire l'inpainting. Dix secondes, une génération, aucun entraînement. La scène, la lumière et la composition restent intactes — seul le visage change.
Marche mieux quand le visage source est dans un angle proche de ton selfie. Des angles trop différents laissent des coutures évidentes.
Outils dédiés au face swap
Si tu ne veux pas configurer Flux, des services spécialisés gèrent le masquage automatiquement.
- Pincel — téléverse l'image cible et un selfie, swap en moins d'une minute.
- Remaker — palier gratuit, basique mais fonctionnel.
- Outils à base d'InsightFace — open source, tournent en local si tu as un GPU.
Quand le swap bat l'entraînement
Le swap gagne quand :
- Tu as une image précise dans laquelle tu veux apparaître (une couverture de magazine, un tableau, un format de mème).
- Tu ne veux pas attendre un entraînement.
- La scène cible compte plus que la ressemblance parfaite.
L'entraînement gagne quand tu veux vingt images différentes de toi, toutes cohérentes. Le swap gagne quand tu veux une image, maintenant.
Quelle méthode choisir ?

La table de décision rapide :
| Si tu veux... | Utilise | Parce que |
|---|---|---|
| Tester une fois sans engagement | Méthode 1 | Gratuit, sans téléversement, sans compte |
| Un beau portrait en moins de deux minutes | Méthode 2 | Meilleur compromis qualité/effort |
| Générer 20+ images cohérentes de toi | Méthode 3 (LoRA) | La seule qui apprenne vraiment ton visage |
| Mettre ton visage sur une image précise déjà existante | Méthode 4 | Préserve la scène, remplace le visage |
| Garder tes données biométriques hors des serveurs tiers | Méthode 1 | Rien ne quitte ton appareil |
| Avoir un budget de zéro | Méthode 1 ou 4 | Les deux ont une offre gratuite |
La plupart des gens visent trop haut. Ils entraînent un LoRA pour un besoin que la méthode 2 aurait réglé en deux minutes. Choisis la méthode la plus simple qui répond à ton besoin réel.
Ratés fréquents et comment les corriger
Chaque méthode a sa façon de rater. Ce tableau est ce que la plupart des guides oublient.
| Problème | Pourquoi | Correctif |
|---|---|---|
| Le résultat ressemble à un inconnu | Prompt trop vague (méthode 1) | Ajoute âge, morphologie, teint, cheveux, signes distinctifs |
| Le visage change d'une génération à l'autre | Pas de représentation apprise (méthode 1 ou 2) | Passe à la méthode 3 (LoRA) si la cohérence compte |
| Effet figurine en cire | Peau trop lissée | Ajoute film grain, natural skin texture ; baisse le CFG à 6 |
| Ne te ressemble pas de profil | Photos d'entraînement trop frontales | Refais l'entraînement avec des 3/4 et profils |
| Mauvais teint | Biais du modèle de base | Précise ethnie et teint explicitement |
| Dérive d'identité sur une série | Rang LoRA trop bas ou seed réutilisé | Refais à rang 16+, ou fixe le seed et ajoute consistent character |
| Le visage flotte, ne colle pas à la lumière de la scène | Pas de direction de lumière dans le prompt | Ajoute matching ambient light ou précise la source |
| Coutures visibles sur le face swap | Angles différents | Utilise un selfie qui colle à l'angle du visage cible |
| Les traits s'exagèrent après quelques générations | Force LoRA trop haute | Passe la force de 1,0 à 0,75 |
Garde ce tableau sous la main. Tu y reviendras.
Vie privée, consentement et aspects juridiques
Cette section est courte parce que les règles sont simples — et la plupart des guides les sautent.
Tes photos sont des données biométriques. Sous le RGPD en Europe, le CCPA en Californie et plusieurs lois similaires, ton visage est une donnée personnelle protégée. Téléverser 15 selfies chez un service d'entraînement, c'est partager des données biométriques avec ce service. Lis leur politique de conservation. Certains effacent après l'entraînement ; d'autres gardent les photos indéfiniment pour « améliorer le modèle ».
Tu n'as le droit d'entraîner que sur toi-même. Entraîner un modèle sur les photos de quelqu'un sans son consentement constitue au minimum une violation de la vie privée. Dans plusieurs juridictions, c'est aussi de la diffamation ou de l'usurpation si tu génères du contenu. N'entraîne pas sur ton ex, ton patron ou une célébrité.
L'usage commercial d'images IA de toi-même est en général autorisé si la licence de l'outil le permet. Les utiliser comme photo LinkedIn, dans des pubs pour ta propre entreprise, sur ton site, c'est généralement ok. La complication arrive quand les images contiennent des décors générés par IA qui pourraient suggérer un parrainage (un faux restaurant, un faux produit). Vérifie la page de licence de l'outil utilisé.
Certaines plateformes imposent désormais une mention « contenu IA » en publicité ou en usage éditorial. La France, l'AI Act européen et plusieurs lois d'États américains entrent en vigueur au fil de 2026. Si tu publies des images IA de toi dans un contexte commercial, vérifie les exigences locales avant de publier.
Questions fréquentes
Puis-je faire ça gratuitement ? Oui. Les méthodes 1 et 4 ont un chemin totalement gratuit. La méthode 2 a une offre gratuite sur la plupart des outils. Seule la méthode 3 (entraînement LoRA) demande du temps GPU payant — en général entre 3 $ et 15 $, paiement unique par modèle.
Combien de photos me faut-il ? Méthode 1 : zéro. Méthode 2 : une à cinq. Méthode 3 : dix à vingt. Méthode 4 : une image cible plus un selfie.
Est-ce que ça me ressemblera vraiment ? La méthode 1 ressemblera à quelqu'un qui colle à ta description. La méthode 2 s'en rapprochera. La méthode 3, bien entraînée, est souvent indiscernable sur des plans de face. La méthode 4 conserve la scène et remplace le visage — la précision dépend de la correspondance des angles.
Est-il légal d'utiliser des images IA de moi-même à des fins commerciales ? Sur la plupart des offres payantes, oui. Vérifie la page de licence de l'outil. Les sorties gratuites ont souvent des restrictions d'usage.
Et si j'utilise une photo de quelqu'un d'autre ? À ne pas faire. Entraîner un modèle de ressemblance sur quelqu'un sans son consentement viole la vie privée dans la plupart des juridictions, et peut constituer de la diffamation ou de l'usurpation si tu génères du contenu préjudiciable.
Google a-t-il une fonction pour ça ? Gemini de Google te laisse téléverser une photo de référence et transformer la scène autour — le plus proche de la méthode 2. Il ne propose pas d'entraînement LoRA.
Combien de temps dure un entraînement LoRA en 2026 ? De dix à soixante minutes sur Replicate, fal.ai ou Astria. En local sur un GPU grand public, de trente à quatre-vingt-dix minutes.
Quelle est la manière la moins chère d'essayer ? La méthode 1. Tape-toi dans un prompt d'un outil gratuit — Anyscene, Meta AI, Copilot. Coût zéro, trente secondes.
Faut-il un GPU pour entraîner un LoRA ? Non si tu passes par un service hébergé comme Replicate, fal.ai ou Astria — ils te louent du temps GPU facturé à la minute. Oui si tu veux entraîner en local. Un GPU grand public avec 12 Go de VRAM (RTX 3060 et au-dessus) gère l'entraînement Flux LoRA en environ une heure.
Puis-je combiner les méthodes ? Oui, et c'est souvent le meilleur résultat. Entraîne un LoRA sur toi (méthode 3), puis utilise le face swap (méthode 4) pour plaquer la sortie LoRA sur une image source très précise. Ou combine ton LoRA avec des LoRA de style de la communauté pour te placer dans un style artistique particulier.
Le modèle IA se souviendra-t-il de moi pour toujours ? Uniquement si tu entraînes un LoRA. Les méthodes 1, 2 et 4 ne conservent ton visage nulle part après la génération. La méthode 3 crée un fichier qui existe jusqu'à ce que tu le supprimes, sur la plateforme d'entraînement ou sur ton disque.
La meilleure méthode n'est presque jamais la plus compliquée. Commence par la méthode 1, passe à la méthode 2 seulement si le résultat ne te suffit pas, et ne va à l'entraînement LoRA que si tu as besoin du même visage sur vingt images.
Essaie la méthode 1 sur Anyscene →
À lire ensuite : Générer des images à partir de texte avec l'IA : le guide complet →

