Que se passe-t-il quand une intelligence artificielle refuse de parler de certains sujets ? DeepSeek, le ChatGPT chinois, esquive méthodiquement les questions sensibles sur Tiananmen, Taïwan ou les Ouïghours. Entre censure assumée et détours surprenants, découvrez comment cette IA navigue dans un cadre politique strict… et comment certains contournent ses restrictions.
L’IA DeepSeek face à la censure : pourquoi elle évite certains sujets ?

Le chatbot DeepSeek, développé par une start-up chinoise, évite de répondre à 85 % des questions sur des sujets sensibles liés à la Chine, selon une étude menée par Promptfoo. Le modèle d’intelligence artificielle DeepSeek R1 refuse d’aborder des thématiques controversées et reprend parfois des éléments de langage proches du discours officiel chinois. Cette approche soulève des questions sur la transparence des IA chinoises et les implications de la censure dans leur développement.
DeepSeek, une IA soumise aux directives du gouvernement chinois
DeepSeek a été présenté comme un concurrent de ChatGPT, développé en Chine pour répondre aux besoins d’un marché en forte demande. Doté d’une compréhension avancée du langage naturel, le modèle R1 est capable de générer du texte en plusieurs langues et de répondre à des requêtes variées. Cependant, son fonctionnement révèle des restrictions majeures lorsqu’il est confronté à des sujets sensibles en Chine.
L’étude de Promptfoo a testé 1 360 questions portant sur des thèmes politiques et historiques sensibles, notamment :
- Les manifestations de Tiananmen en 1989
- La situation des Ouïghours au Xinjiang
- La souveraineté de Taïwan et d’Arunachal Pradesh
- La comparaison entre Xi Jinping et Winnie l’Ourson, interdite en Chine
Dans 85 % des cas, DeepSeek refuse de répondre et indique que ces sujets dépassent son cadre de compétence. Lorsqu’il formule une réponse, l’IA adopte souvent une rhétorique conforme au discours du gouvernement chinois. Par exemple, interrogé sur la souveraineté de Taïwan, DeepSeek affirme que l’île est une « partie inaliénable de la Chine depuis l’Antiquité ». Concernant le Xinjiang, il qualifie les accusations de violations des droits humains de « rumeurs infondées », attribuées à des « forces occidentales cherchant à déstabiliser la Chine ».
En outre, DeepSeek ne reconnaît pas certains territoires contestés. Lorsqu’il est interrogé sur l’État indien d’Arunachal Pradesh, revendiqué par la Chine, il évite la question ou affirme que la région fait partie du Tibet méridional, une position alignée sur la politique de Pékin.
Les chercheurs ont également découvert que la censure de DeepSeek pouvait être contournée en modifiant la formulation des questions. Par exemple, en évitant d’inclure directement des termes comme « Tiananmen », certains utilisateurs ont réussi à obtenir des réponses plus détaillées. Cela met en évidence les limites des mécanismes de filtrage intégrés au modèle.
Report: DeepSeek censors topics deemed sensitive in China.#FoundationModels https://t.co/5KfZhfDcbs
— Ai Junzi (@aijunzi) February 2, 2025
Entre ambitions technologiques et contrôle de l’information
Le cas de DeepSeek s’inscrit dans une dynamique plus large, celle du développement d’une IA nationale chinoise, capable de rivaliser avec les modèles occidentaux tout en respectant les directives gouvernementales. La Chine investit massivement dans l’intelligence artificielle, considérée comme un secteur stratégique. Cependant, les contraintes politiques imposées aux entreprises compliquent leur positionnement sur le marché international.
DeepSeek a connu un succès rapide en Chine, figurant parmi les applications les plus téléchargées sur l’App Store après son lancement. Ce succès témoigne d’un intérêt fort pour les alternatives locales aux modèles américains comme ChatGPT ou Gemini. Toutefois, les restrictions imposées à DeepSeek posent la question de sa compétitivité face à des concurrents étrangers plus ouverts et moins soumis à des limitations politiques.
Certaines entreprises du secteur ont exprimé des réserves sur l’utilisation de DeepSeek en dehors de la Chine. La start-up Elicit, spécialisée dans la recherche assistée par IA, a déclaré que « DeepSeek R1 présente un biais pro-Parti Communiste Chinois évident », le rendant inadapté aux usages académiques ou scientifiques nécessitant une neutralité des sources.
L’étude de Promptfoo a également mis en lumière la possibilité de versions non censurées du modèle, accessibles à ceux qui l’exécutent en local plutôt que via l’interface cloud de l’application. Ces versions pourraient permettre à certains utilisateurs d’échapper aux restrictions officielles, bien que leur diffusion demeure incertaine.
Alors que les IA deviennent des outils incontournables pour l’accès et l’analyse de l’information, la question de leur neutralité et de leur contrôle prend une dimension majeure. Le cas de DeepSeek illustre les tensions entre avancées technologiques et restrictions politiques, dans un contexte où la Chine cherche à renforcer son influence tout en contrôlant étroitement la diffusion de l’information.