ما زال الجدل محتدمًا حول استعمال الذكاء الاصطناعي في كتابة المقالات والبحوث الأكاديمية. غير أنّ كثيرًا من هذا الجدل يدور في دائرة “الخوف من الأداة” بدل أن يقترب من سؤال أكثر جدية: كيف نستخدمها بحيث ترفع جودة المعرفة، ولا تُسقط عنها المسؤولية؟
أكتب هذا المقال من موقع تجربة عملية لا من موقع تنظير مجرد؛ فأنا أستعمل الذكاء الاصطناعي بشكل مكثف منذ ثلاث سنوات، وأشرفت في مطار مونتريال على تدريب الموظفين والمديرين على استخدامه في كتابة التقارير، ثم لاحقًا تحوّل الأمر إلى توصيات إدارية تدفع الموظفين نحو استعماله بوعي وبكثافة، مع توفير تدريبات حول أفضل الممارسات. وفي مسار موازٍ، أعمل في مشروعي ScholarQuran وIntellexis Studio على توفير أدوات للباحثين كي يستخدموا الذكاء الاصطناعي في كتابة البحوث الأكاديمية بشكل احترافي، لا على طريقة “اختصار الطريق”، بل على طريقة “رفع السقف”.
هذه الخلفية تجعلني أرى النقاش من زاويتين: زاوية المؤسسة التي تبحث عن الكفاءة والانضباط، وزاوية الباحث الذي يبحث عن العمق والمنهجية والأصالة.
⸻
- لماذا يبدو الموضوع حساسًا؟
الكتابة الأكاديمية ليست كلمات مرتبة فحسب؛ إنها وثيقة مسؤولية. حين يكتب الباحث، فهو يعلن ضمنيًا أنه قرأ، ووازن، وحقق، واستدلّ، ونسب الأفكار إلى أصحابها. لذلك، عندما تدخل أداة قادرة على إنتاج نصٍّ “مقنع شكليًا”، يصبح القلق منطقيًا: من يضمن صحة المعلومة؟ من يضمن أن الاستنتاج لم يُزخرف لغويًا؟ ومن يتحمل تبعات الخطأ؟
في بيئة العمل، رأيت القلق نفسه يظهر بطريقة أخرى: مدير يريد تقريرًا واضحًا ودقيقًا ويمكن مساءلة صاحبه عنه. الموظف قد يستعين بالأداة لتسريع الكتابة، لكن التقرير في النهاية يجب أن يعكس واقعًا تشغيليًا، وأن يكون قابلاً للتدقيق، وأن لا يتحول إلى نص جميل يخفي فجوات في البيانات أو الالتزامات.
⸻
- جملة المخاوف: أين يكمن الخطر الحقيقي؟
المخاوف الأساسية يمكن تلخيصها في نقاط مترابطة، أهمها:
أولًا: النزاهة والشفافية
في الأكاديميا، عدم التصريح باستخدام الأداة يربك تقييم الجهد، ويهدد عدالة المقارنة. وفي المؤسسة، غياب الشفافية قد ينتج تقارير لا يُعرف إن كانت مبنية على بيانات صحيحة أم على “صياغة مُقنعة”.
ثانيًا: الهلوسة واختلاق المراجع
الذكاء الاصطناعي قد يقدّم معلومات غير صحيحة بثقة عالية، وقد يقترح مراجع غير موجودة أو يخلط بينها. هذه ليست أخطاء عادية، لأنها تُغري غير الخبير بتصديقها.
ثالثًا: تآكل المهارات
حين تتحول الأداة إلى عكّاز دائم، تتراجع مهارات بناء الحجة، والتحليل النقدي، وصياغة الفكرة. وهذا خطر تربوي قبل أن يكون أخلاقيًا.
رابعًا: الخصوصية والسرية
في المؤسسات خصوصًا، إدخال بيانات حساسة أو وثائق داخلية إلى أدوات غير معتمدة قد يفتح بابًا مكلفًا قانونيًا وتنظيميًا.
خامسًا: تجانس الأسلوب وتضخيم الإنتاج
قد تنتج نصوصًا “لامعة” لكنها متشابهة، وتزيد الكمّ على حساب النوع. وفي البحث العلمي، هذا يخلق تضخمًا نصيًا لا يوازيه تضخم في المعرفة.
هذه المخاوف حقيقية، وقد لمست بعضها بنفسي في التدريب المؤسسي: التحدي الأكبر ليس في “تشغيل الأداة”، بل في جعل الناس يفهمون حدودها ومتى يجب التحقق ومتى يجب الامتناع عن إدخال معلومة أصلًا.
⸻
- لماذا أؤيد الاستخدام؟ لأنني رأيت أثره حين يُحكم
رغم المخاوف، تجربتي في مطار مونتريال جعلتني أميل إلى أن القضية ليست “السماح والمنع”، بل “الحوكمة”. فحين يصبح لدى الموظفين تدريب واضح على أفضل الممارسات، ويتحول الذكاء الاصطناعي إلى جزء من الثقافة المهنية، ترتفع جودة التقارير بدل أن تنهار.
ما الذي يبرر إذًا أهمية الاستخدام؟
أولًا: استرجاع وقت التفكير من قبضة الأعمال الآلية
الوقت الذي يُستهلك في إعادة الصياغة، وترتيب الأقسام، وبناء العناوين، يمكن أن يعود لصاحبه كي يركز على لبّ التقرير أو البحث: تحليل الوضع، قراءة البيانات، أو بناء الاستنتاجات.
ثانيًا: تحسين الوضوح والدقة اللغوية
في بيئات متعددة اللغات أو عند غير الناطقين بلغة النشر، تساعد الأداة على نقل الفكرة بوضوح دون أن تقتلها. هذا مكسب معرفي عندما يكون المحتوى تحت رقابة صاحبه.
ثالثًا: تحويل الذكاء الاصطناعي إلى “خصم نقدي”
من أكثر الاستخدامات قيمة: أن تطلب من الأداة اعتراضات على حجتك، أو أسئلة صعبة قد يطرحها محكّم، أو نقاط ضعف في منهجك. هنا تصبح الأداة عاملًا لرفع الجودة لا لاستبدال العقل.
رابعًا: تقليل الفجوة بين الفكرة والمنتج النهائي
كثير من الباحثين لديهم أفكار قوية لكن يعجزون عن تحويلها إلى نص أكاديمي متماسك. إذا استُخدمت الأداة كـ”محرّر” و”منظّم”، قد تتقدم أفكار كانت ستبقى حبيسة المسودات.
خامسًا: واقع تنظيمي يتجه للاعتماد الواعي
عندما تصل المؤسسة إلى توصيات إدارية تدفع نحو استخدام الذكاء الاصطناعي “بكثافة ووعي”، فهذا يعني أن الفكرة لم تعد هامشية. التنظيم يميل غالبًا إلى ما يُحسّن الإنتاجية مع ضبط المخاطر، لا إلى الرفض المطلق.
⸻
- تطور مفهوم الأصالة: من “كاتب الكلمات” إلى “قائد البحث”
هنا نصل إلى النقطة التي أراها مفصلية، وأنا أشرت إليها في حوارات سابقة: Redefining Originality.
في الماضي، كانت الأصالة تُقاس ضمنيًا بمن كتب الكلمات. لكن في المستقبل القريب، لن يكون هذا معيارًا صالحًا وحده، لأن الأداة قادرة على توليد الكلمات بسهولة.
الأصالة — كما أراها اليوم في عملي الأكاديمي والمهني — ستقاس أكثر بـ:
• من صاغ السؤال البحثي الحقيقي؟
• من اختار المنهجية وعرّف حدودها؟
• من حدّد ما الذي يجب قياسه وما الذي يجب تركه؟
• من فسّر النتائج وربطها بالأدبيات، وناقش بدائل التفسير؟
• من يتحمل مسؤولية الادعاءات أمام النقد والتحكيم؟
بهذا المعنى، يمكن للذكاء الاصطناعي أن يساعدك في صياغة النص، لكنه لا يستطيع أن “يملك” المشروع المعرفي. المشروع يظل لك أنت: قيادةً، ومسؤوليةً، ومحاسبةً.
⸻
- من التدريب المؤسسي إلى أدوات الباحثين: لماذا ScholarQuran وIntellexis Studio مهمان؟
الفرق بين استخدام عشوائي وبين استخدام احترافي هو وجود “بيئة” تساعد المستخدم على الالتزام بالمعايير. وهذا بالضبط ما أحاول أن أفعله في ScholarQuran وIntellexis Studio: ألا يكون الذكاء الاصطناعي مجرد نافذة دردشة، بل إطار عمل يُرشد الباحث إلى الطريقة الصحيحة.
في البحث الأكاديمي، الاحترافية لا تعني فقط كتابة جميلة، بل تعني:
• تدقيق المراجع وعدم قبول اقتراحات الأداة دون تحقق.
• توثيق خطوات التفكير والمنهج والاستنتاج.
• التحكم في درجة تدخل الذكاء الاصطناعي (تحرير/تنظيم/مراجعة/اقتراح) دون أن يتحول إلى “كاتب بديل”.
• احترام الخصوصية والملكية الفكرية، خصوصًا في البيانات الحساسة أو المقابلات أو المواد غير المنشورة.
وجود أدوات مصممة لهذا الغرض يختصر طريقًا كبيرًا: لأن كثيرًا من الأخطاء لا تأتي من سوء نية، بل من غياب إطار إرشادي واضح.
⸻
- قواعد استعمال “مكثف وواعٍ”: ما الذي علّمتني إياه التجربة؟
إذا أردنا تلخيص الخبرة العملية التي رأيتها في التدريب المؤسسي وأطبقها أيضًا على السياق الأكاديمي، فهي هذه القواعد:
أنت المسؤول النهائي دائمًا: لا توقّع على تقرير أو بحث إلا بعد تحقق فعلي من كل ادعاء مهم.
لا تُدخل ما لا يحق لك إدخاله: أي بيانات حساسة أو داخلية أو معلومات مشاركين يجب أن تبقى خارج الأدوات غير المعتمدة.
افصل بين “تحسين اللغة” و”إنتاج المعرفة”: الأول مقبول غالبًا، الثاني يحتاج ضوابط صارمة.
المراجع لا تُؤخذ من الذكاء الاصطناعي كما هي: تُؤخذ من قواعد البيانات، ويُستأنس بالأداة فقط في التنظيم.
اجعل الذكاء الاصطناعي مُراجِعًا لا كاتبًا كلما استطعت: اطلب منه كشف الثغرات بدل أن يملأ الصفحة.
الشفافية ليست ترفًا: التصريح بالاستخدام يحميك ويحمي المؤسسة ويحمي البحث.
⸻
الذكاء الاصطناعي يكتب… لكنك أنت من يتحمل المعنى
بعد ثلاث سنوات من الاستخدام المكثف، وبعد تجربة تدريب عملي في مطار مونتريال، وبعد بناء أدوات موجّهة للباحثين في ScholarQuran وIntellexis Studio، أستطيع أن أقول: الخطر ليس في أن الذكاء الاصطناعي يكتب، بل في أن الإنسان يتنازل عن القيادة.
في المستقبل، لن تُقاس الأصالة بالسؤال الساذج: “من كتب الكلمات؟” بل بالسؤال الصارم: “من قاد المعرفة؟”.
والباحث أو الموظف الذي يحسن قيادة الأدوات، ويحافظ على الشفافية، ويتقن التحقق، سيكتب أفضل… لا لأنه يملك آلة تكتب، بل لأنه يملك عقلًا يعرف ماذا يريد من الكتابة ولماذ