Le débat autour de l’usage de l’intelligence artificielle dans la rédaction d’articles et de recherches académiques reste intense. Mais une grande partie de cette discussion demeure enfermée dans la peur de l’outil, au lieu de poser la question plus sérieuse: comment l’utiliser de façon à élever la qualité du savoir sans dissoudre la responsabilité?

J’écris à partir d’une expérience pratique, non d’une simple spéculation. Depuis trois ans, j’utilise l’IA de manière intensive. À l’aéroport de Montréal, j’ai supervisé la formation d’employés et de gestionnaires à son usage dans la rédaction de rapports, avant que cela ne débouche sur des recommandations administratives encourageant un usage massif mais encadré. En parallèle, avec ScholarQuran et Intellexis Studio, je travaille à fournir aux chercheurs des outils capables d’intégrer l’IA dans l’écriture académique de manière professionnelle, non pour prendre des raccourcis, mais pour relever le niveau.

Cette expérience m’amène à voir le débat depuis deux angles: celui de l’institution qui cherche efficacité et discipline, et celui du chercheur qui cherche profondeur, méthode et authenticité.

Pourquoi le sujet est-il si sensible?

L’écriture académique n’est pas seulement un assemblage de phrases. C’est un document de responsabilité. Lorsqu’un chercheur écrit, il affirme implicitement qu’il a lu, comparé, vérifié, argumenté et attribué les idées à leurs auteurs. Dès lors qu’un outil peut produire un texte extérieurement convaincant, l’inquiétude devient logique: qui garantit l’exactitude de l’information? Qui répond d’une conclusion embellie par le style? Qui assume les conséquences d’une erreur?

Dans le monde professionnel, j’ai vu la même inquiétude sous une autre forme. Un responsable veut un rapport clair, précis et attribuable. L’employé peut utiliser l’outil pour accélérer la rédaction, mais le texte final doit refléter une réalité opérationnelle vérifiable, et non devenir une belle prose qui masque des lacunes dans les données ou les engagements.

Où se situe le véritable danger?

Les risques essentiels sont connus.

D’abord: l’intégrité et la transparence

Dans l’univers académique, ne pas déclarer l’usage de l’outil complique l’évaluation du travail et menace l’équité. Dans l’institution, l’absence de transparence peut produire des rapports dont on ne sait plus s’ils reposent sur des données solides ou sur une formulation séduisante.

Ensuite: les hallucinations et les fausses références

L’IA peut produire des informations erronées avec une assurance trompeuse. Elle peut aussi inventer des références ou les confondre. Ce ne sont pas des erreurs ordinaires, parce qu’elles séduisent précisément ceux qui n’ont pas encore les moyens de les déceler.

Troisièmement: l’érosion des compétences

Quand l’outil devient une béquille permanente, les capacités à construire une argumentation, à exercer une critique et à formuler une pensée s’affaiblissent. Le danger est pédagogique avant d’être moral.

Quatrièmement: la confidentialité

Dans les institutions, faire entrer des données sensibles ou des documents internes dans des outils non approuvés peut ouvrir un risque juridique et organisationnel considérable.

Cinquièmement: l’uniformisation du style

L’outil peut produire des textes brillants en apparence mais très semblables les uns aux autres. Il augmente le volume plus facilement qu’il n’accroît la connaissance.

Pourquoi je soutiens malgré tout l’usage de l’IA

Mon expérience à l’aéroport de Montréal m’a conduit à penser que l’enjeu n’est pas l’autorisation ou l’interdiction, mais la gouvernance. Quand les employés disposent d’une vraie formation aux bonnes pratiques et que l’IA s’inscrit dans une culture professionnelle claire, la qualité des rapports s’améliore au lieu de se dégrader.

Plusieurs bénéfices me paraissent importants.

  • L’outil restitue au chercheur et au professionnel du temps de réflexion en allégeant les tâches mécaniques de reformulation, de structuration ou de titrage.
  • Il améliore la clarté linguistique, notamment dans des contextes multilingues ou pour des auteurs qui publient dans une langue qui n’est pas la leur.
  • Il peut servir de contradicteur critique: on peut lui demander des objections, des questions de relecteur ou des angles morts méthodologiques.
  • Il réduit l’écart entre une idée forte et un produit final bien structuré.
  • Il répond à une dynamique institutionnelle réelle: les organisations avancent vers un usage conscient de l’IA, non vers un rejet pur et simple.

Redéfinir l’authenticité

C’est ici que se trouve, à mes yeux, le point décisif. Dans le passé, l’originalité se mesurait implicitement à celui qui avait écrit les mots. Ce critère va devenir insuffisant, parce que l’outil sait désormais générer des mots avec aisance.

L’authenticité, telle que je la comprends aujourd’hui, se mesurera davantage à ceci:

  • Qui a formulé la véritable question de recherche?
  • Qui a choisi la méthode et fixé ses limites?
  • Qui a décidé ce qu’il fallait mesurer et ce qu’il fallait laisser de côté?
  • Qui a interprété les résultats, les a situés dans la littérature et a discuté les explications concurrentes?
  • Qui assume les affirmations face à la critique et à l’évaluation?

Dans ce cadre, l’IA peut aider à rédiger, mais elle ne peut pas posséder le projet cognitif. Ce projet demeure humain, en tant que conduite, responsabilité et reddition de comptes.

De la formation institutionnelle aux outils pour chercheurs

La différence entre un usage anarchique et un usage professionnel tient souvent à l’existence d’un environnement qui impose une méthode. C’est précisément ce que j’essaie de construire avec ScholarQuran et Intellexis Studio: faire de l’IA autre chose qu’une simple fenêtre de conversation, un cadre de travail qui oriente le chercheur vers les bonnes pratiques.

Dans le champ académique, la professionnalité n’est pas qu’une question d’écriture élégante. Elle suppose de vérifier les références au lieu de reprendre aveuglément celles que propose l’outil, de documenter le raisonnement et la méthode, de contrôler le degré d’intervention de l’IA, et de protéger la confidentialité comme la propriété intellectuelle.

Quelques règles d’un usage intensif mais conscient

L’expérience m’a conduit à quelques principes simples.

  • Vous restez toujours responsable du résultat final.
  • N’introduisez jamais dans des outils non approuvés des données que vous n’avez pas le droit d’exposer.
  • Distinguez l’amélioration de la langue de la production du savoir: la seconde exige des garde-fous beaucoup plus stricts.
  • Les références ne doivent pas être prises telles quelles depuis l’IA; elles doivent venir des bases de données et être contrôlées.
  • Dans la mesure du possible, faites de l’IA un relecteur critique plutôt qu’un auteur de substitution.
  • La transparence n’est pas un luxe: elle protège la personne, l’institution et la recherche elle-même.

Conclusion

Après trois années d’usage intensif, une expérience de formation pratique à l’aéroport de Montréal et le développement d’outils destinés aux chercheurs, j’en suis arrivé à une conviction simple: le risque n’est pas que l’IA écrive, mais que l’humain renonce à conduire le sens.

Dans l’avenir, l’authenticité ne se mesurera plus à la question naïve: “Qui a écrit les mots?” Elle se mesurera à la question exigeante: “Qui a conduit le savoir?”

Le chercheur ou le professionnel qui sait piloter les outils, préserver la transparence et vérifier ce qu’il affirme écrira mieux, non parce qu’il possède une machine qui écrit, mais parce qu’il possède un esprit qui sait ce qu’il veut dire et pourquoi il l’écrit.