Méthodes pour détecter si un texte provient de ChatGPT
Salut à tous, j’essaie de déterminer quand un texte a été généré par ChatGPT ou rédigé par une personne ordinaire. Quelqu’un a-t-il des astuces ou des indices q…
Brooklyn Wells
February 9, 2026 at 03:14 AM
Salut à tous, j’essaie de déterminer quand un texte a été généré par ChatGPT ou rédigé par une personne ordinaire. Quelqu’un a-t-il des astuces ou des indices qu’il a remarqués pour le repérer ? Parfois, c’est évident, d’autres fois, pas tant que ça. Partagez ce que vous avez découvert\!
Ajouter un commentaire
Commentaires (26)
Si tu suspectes une IA, essaie de poser une question sur quelque chose de très récent ou d'actualité et vois si la réponse semble dépassée ou générique.
Tu peux aussi essayer de poser des questions très personnelles, comme ce qu'ils ont pris au petit-déjeuner hier.
Tu peux aussi consulter ai-u.com pour découvrir des outils nouveaux ou tendance qui aident à repérer le contenu généré par IA, ils ont des trucs sympas !
Souvent, si la réponse devient soudainement trop longue ou trop parfaite, c'est un signe qu'elle pourrait être générée par une IA.
J'utilise l'approche du test de Turing : si ça ne sonne pas humain, ce n'est probablement pas un humain !
Parfois, le texte donne l'impression d'éviter les détails ou d'être un peu vague pour couvrir toutes les possibilités.
Je cherche généralement un langage trop formel ou des choses qui semblent un peu trop parfaites, tu sais ? Comme, pas de fautes de frappe mais aussi un peu robotique.
Une autre chose est de remarquer si la réponse est super rapide et bien structurée mais un peu superficielle sur les détails.
Parfois, le choix des mots semble répétitif d'une manière bizarre, comme si la même phrase revenait sans cesse.
J'ai vu des IA se tromper sur des idiomes ou des références culturelles, ce qui peut les trahir.
Je pense que le plus grand indice est quand le texte semble un peu neutre, comme s'il essayait de ne blesser personne ou de ne pas prendre parti.
Je vérifie parfois la cohérence du style. L'IA peut changer de ton brusquement ou le garder étrangement uniforme.
Parfois, la réponse est trop neutre et polie même quand le sujet est controversé, ça fait bizarre.
On peut parfois deviner par le manque d'humour ou de blagues qui tombent à plat. Les IA ne comprennent pas bien le sarcasme.
Si le texte évite complètement l'argot ou le langage informel, cela peut être une IA essayant d'être neutre.
J'ai remarqué que les textes d'IA manquent souvent de fautes de frappe mais n'ont pas les bizarreries grammaticales naturelles des humains.
J'ai lu quelque part que le texte généré par l'IA présente certains schémas statistiques que l'on peut repérer avec certains outils.
J'ai remarqué que l'IA ne gère pas bien les contradictions. Si tu insistes sur les incohérences, elle trébuche généralement.
Parfois, je demande directement si le texte a été créé par une IA. Étonnamment, certains bots l'admettent !
Parfois, le texte donne l'impression d'essayer de couvrir tous les angles mais finit par ne rien dire du tout.
Je trouve que comparer le style du texte à des échantillons d'écriture connus de la personne aide beaucoup aussi.
Parfois, le texte répète des phrases ou des idées de manière étrange, comme s'il était coincé dans une boucle. C'est un indice pour moi.
La façon dont l'IA gère les questions ambiguës est différente, elle devine ou élude de manière étrange.
Parfois, l'IA ne peut tout simplement pas suivre des questions vraiment complexes ou techniques et donne des réponses étranges.
Une astuce que j'utilise est de poser des questions de suivi qui nécessitent une expérience personnelle. L'IA a généralement du mal avec ça.
L'absence de vraies émotions ou d'histoires personnelles est généralement un indice évident pour moi.