DAKAR, 12 février 2026(JVFE)-La réglementation indienne sur les technologies de l’information de 2026 crée un nouveau cadre juridique pour encadrer les contenus générés par l’IA et les deepfakes, obligeant les plateformes à étiqueter, prévenir et supprimer rapidement les médias synthétiques.
L’Inde vient de franchir une étape majeure avec la notification, le 10 février 2026, des amendements aux Règles sur les technologies de l’information (IT Rules 2021), qui entreront officiellement en vigueur le 20 février 2026.
Voici les points clés de cette nouvelle réglementation :
1. Définition légale de l’IA (SGI)
Le texte introduit pour la première fois le terme d’Information Générée de manière Synthétique (SGI). Cela englobe tout contenu audio, visuel ou audiovisuel créé ou modifié par IA qui semble réel ou indiscernable d’une personne ou d’un événement réel (les fameux deepfakes).
2. Étiquetage et Transparence Obligatoires
- Marquage visible : Tout contenu généré par IA doit porter un label clair et proéminent.
- Métadonnées de traçabilité : Les plateformes doivent intégrer des identifiants uniques et des métadonnées persistantes pour permettre de retracer l’origine du contenu et les outils utilisés.
- Déclaration de l’utilisateur : Les créateurs de contenu sur les grandes plateformes (Meta, X, YouTube) devront déclarer si leur média est synthétique avant la publication.
3. Délais de retrait drastiques
La réactivité imposée aux plateformes (intermédiaires) est fortement accélérée :
- 3 heures : C’est le nouveau délai maximum pour supprimer un contenu illégal après un ordre gouvernemental ou judiciaire (contre 36 heures auparavant).
- 2 heures : Délai pour le retrait de contenus sensibles comme la nudité non consentie ou les deepfakes portant atteinte à l’identité d’une personne.
4. Responsabilité et Sanctions
Les plateformes qui ne respectent pas ces règles risquent de perdre leur “safe harbour” (immunité juridique), les rendant légalement responsables des contenus tiers qu’elles hébergent. Les infractions liées aux deepfakes malveillants peuvent désormais tomber sous le coup du code pénal indien (Bharatiya Nyaya Sanhita).
Souhaitez-vous savoir comment ces règles s’appliquent spécifiquement aux entreprises étrangères opérant en Inde ou aux créateurs de contenu individuels ?
L’Inde a pris sa mesure réglementaire la plus stricte à ce jour contre les deepfakes et la désinformation générée par l’IA.
Le 10 février 2026, le ministère de l’Électronique et des Technologies de l’information a notifié le Règlement de 2026 modifiant le Règlement sur les technologies de l’information (Lignes directrices relatives aux intermédiaires et Code de déontologie des médias numériques) . Ce règlement entrera en vigueur le 20 février 2026.
À première vue, le gouvernement affirme que cet amendement répond à la recrudescence des préjudices tels que la diffusion non consensuelle d’images intimes, la pédopornographie et les usurpations d’identité perpétrées par l’intelligence artificielle. Cependant, son impact profond est structurel. De fait, l’Inde transforme les plateformes numériques, d’hébergeurs passifs, en acteurs actifs du contrôle de la liberté d’expression en ligne.
Ce document explicatif détaille les changements apportés aux règles, leur importance et la manière dont ils pourraient remodeler la liberté d’expression, la responsabilité des plateformes et le cadre des droits numériques en Inde.
Pourquoi les règles informatiques de 2026 sont importantes
Aujourd’hui, la technologie des deepfakes n’est plus expérimentale. Elle fait désormais partie intégrante de notre vie numérique quotidienne.
Les outils d’IA peuvent désormais créer des visages, des voix et des vidéos réalistes en quelques secondes. De ce fait, la propagande politique, les arnaques par usurpation d’identité vocale, la fausse pornographie et les fausses preuves se répandent rapidement.
Par conséquent, l’État a abandonné une approche purement réactive. Au lieu d’agir seulement après qu’un préjudice soit survenu, les règles de 2026 exigent que les plateformes stoppent, détectent, étiquettent et bloquent les contenus synthétiques dès leur création.
En termes simples, l’Inde passe d’une réglementation post-publication à un contrôle pré-publication.
Qu’est-ce qui est considéré comme « information générée synthétiquement » ?
Aux termes de cet amendement, les informations générées synthétiquement désignent :
Contenu audio, visuel ou audiovisuel créé ou modifié artificiellement à l’aide d’une ressource informatique, de manière à paraître réel et à montrer des personnes ou des événements susceptibles d’être perçus comme réels.
Parallèlement, les règles excluent :
- Correction et mise en forme de routine
- Matériel académique, éducatif et de recherche
- Des outils d’accessibilité tels que la traduction et la transcription
Néanmoins, le critère principal est le réalisme apparent du contenu, et non l’intention de nuire.
Pourquoi c’est important
Du fait de cette approche, un contenu peut être soumis à la réglementation même s’il est :
- Satire
- Parodie politique
- loisirs artistiques
- Reconstruction documentaire
Il est important de noter que les règles n’exigent aucune preuve d’intention, de tromperie ou de préjudice.
Étiquetage obligatoire du contenu généré par l’IA
Dans le cadre de ce nouveau dispositif, les plateformes permettant la création ou le partage de contenus synthétiques doivent garantir :
- Étiquettes claires et visibles générées par l’IA
- Métadonnées permanentes intégrées ou marqueurs d’origine
- Identifiants uniques liés aux systèmes de la plateforme
De plus, les intermédiaires ne doivent pas autoriser la suppression ou la modification de ces étiquettes ou métadonnées.
Impact pratique
Par conséquent, l’Inde s’oriente vers un système national de marquage électronique des contenus par intelligence artificielle.
Pourtant, les règles n’expliquent pas :
- Quel format de filigrane utiliser ?
- Comment les étiquettes fonctionneront sur les différentes plateformes
- Comment le contenu chiffré ou hors ligne sera traité
Les plateformes sont donc confrontées à des coûts élevés et à une incertitude juridique.
Les plateformes doivent empêcher la diffusion de contenu synthétique illégal.
Aux termes de cet amendement, les intermédiaires doivent utiliser des outils automatisés pour s’assurer que les utilisateurs ne peuvent pas générer de contenu synthétique qui :
- Contient du matériel pédopornographique
- Crée de faux documents ou enregistrements électroniques
- Relatif aux explosifs, aux armes ou aux munitions
- Présente faussement des personnes ou des événements réels
C’est important, car cela marque un grand tournant.
Il n’est plus seulement demandé aux plateformes de supprimer les contenus illégaux. Elles doivent désormais les empêcher d’apparaître.
Règle des trois heures pour la mise hors service
L’amendement réduit considérablement les délais :
- Retrait sur ordre légal : sous 3 heures
- Délai de réponse de l’utilisateur à la réclamation : 2 heures
- Résolution des réclamations : 7 jours
De toute évidence, la rapidité est désormais le moteur de l’application de la loi.
Conséquence
Étant donné la brièveté des délais, les plateformes auront tendance à supprimer rapidement les contenus plutôt que de les vérifier minutieusement. Par conséquent, une suppression excessive s’avère plus sûre.
Le refuge sûr devient conditionnel
Le gouvernement affirme que le retrait proactif à l’aide d’outils automatisés ne violera pas la protection de l’article 79 relative aux zones de sécurité.
Concrètement, cela signifie :
La notion de zone de sécurité n’existe que si les plateformes surveillent et modèrent activement le contenu.
Ainsi, les intermédiaires passent d’hôtes neutres à garants obligatoires du contenu.
Déclarations des utilisateurs et vérification de la plateforme
En vertu des nouvelles règles, les principales plateformes de médias sociaux doivent :
- Demander aux utilisateurs de déclarer si le contenu est synthétique
- Vérifier la déclaration à l’aide d’outils techniques
- Afficher les étiquettes où la présence de contenu synthétique est confirmée
Toutefois, si une plateforme autorise sciemment la diffusion de contenu synthétique non étiqueté, elle est considérée comme ayant manqué à son obligation de diligence raisonnable.
Intégration du droit pénal
Les infractions sont directement liées à plusieurs lois pénales, notamment :
- Bharatiya Nyaya Sanhita, 2023
- Bharatiya Nagarik Suraksha Sanhita, 2023
- Loi POCSO
- Loi sur la représentation du peuple
- Loi sur la représentation indécente des femmes
De ce fait, la modération des contenus par l’IA devient un élément de la répression pénale.
Le changement de politique fondamental
En termes simples, l’Inde passe de :
Notification et retrait pour détecter, étiqueter, prévenir et bloquer
Pris dans leur ensemble, ces éléments illustrent un modèle de gouvernance numérique préventif.
Liberté d’expression et préoccupations constitutionnelles
Surlargeur
Le réalisme étant l’élément déclencheur, la parole licite peut être réglementée même sans préjudice.
Effet rafraîchissant
De ce fait, les créateurs peuvent s’autocensurer.
Censure privée
Par conséquent, ce sont les plateformes, et non les tribunaux, qui décident de ce qui reste en ligne.
Cadre d’absence d’appel
Par ailleurs, les utilisateurs ne disposent d’aucun recours légal clair contre les retraits abusifs.
Comparaison des règles informatiques indiennes en matière d’IA à l’horizon 2026 avec le reste du monde
Globalement, parmi les grandes démocraties, l’Inde suit le modèle le plus interventionniste.
Les règles informatiques de 2026 pour l’IA ne concernent pas uniquement les deepfakes.
Elles illustrent plutôt la transition de l’Inde vers un État numérique préventif, où la parole est filtrée dès sa création et où les plateformes agissent comme des régulateurs délégués.
En fin de compte, ce sont les tribunaux et le débat démocratique qui décideront si cette voie protège les utilisateurs ou restreint excessivement la liberté d’expression.
Fodé CISSE, Journaliste, Rédacteur en Chef & Directeur de Publication © JVFE

