يشهد العالم اليوم نقاشًا محتدمًا حول مستقبل الذكاء الاصطناعي. فبينما يرى فريق من المفكرين والعلماء ـ يتقدمه المؤرخ يوفال نوح هراري ومعه أصوات بارزة مثل جيفري هينتون ويشوا بنجيو ـ أن هذه التكنولوجيا قد تحمل تهديدًا وجوديًا للبشرية، يعتقد آخرون أن تلك المخاوف مبالغ فيها، وأن التركيز يجب أن ينصبّ على التحديات الراهنة الملموسة.

وقد تجاوز هذا الجدل الأوساط الأكاديمية ليشمل السياسة والاقتصاد والثقافة، مما يجعل عرض الرؤيتين أمرًا ضروريًا لفهم الصورة الكاملة.

أولًا: أصوات التحذير من المخاطر الوجودية

يرى يوفال هراري أن الذكاء الاصطناعي قد لا يبقى أداة طيّعة، بل يمكن أن يتحول إلى ذكاء غريب لا يخضع بالكامل للسيطرة البشرية، وهو احتمال يثير أسئلة عميقة حول قدرتنا على التنبؤ بتصرفات أنظمة تُدرّب على مليارات البيانات.

كما يحذر أنصار هذا الاتجاه من قدرة الذكاء الاصطناعي على تقويض الثقة العامة من خلال حملات الدعاية السياسية الموجّهة باستخدام بيانات ضخمة، مثل فضيحة “كامبريدج أناليتيكا” التي أظهرت كيف يمكن استغلال الخوارزميات للتأثير على الناخبين. ومع تطور الأدوات الحالية، قد يصبح المحتوى المفبرك أكثر صعوبة في التمييز، مما يعمّق أزمة الثقة.

ولا يقتصر القلق على الجانب السياسي؛ فثمة مخاوف من تركّز السلطة الاقتصادية والسياسية في أيدي شركات التكنولوجيا الكبرى أو بعض الحكومات التي قد تحتكر هذه الأدوات للتحكم في المعلومات وتوجيه المجتمعات وفق مصالحها الخاصة.

أما في المجال العسكري، فيُخشى أن يؤدي الاعتماد على أنظمة الأسلحة المستقلة إلى حروب غير قابلة للسيطرة، إذ تُدار قرارات الحياة والموت بواسطة خوارزميات بلا رقابة بشرية كافية.

ثانيًا: أصوات ترى المخاطر الراهنة

في المقابل، يرفض علماء مثل يان لوكون (كبير علماء الذكاء الاصطناعي في شركة ميتا) وصف الذكاء الاصطناعي بأنه تهديد وجودي، معتبرين أن النماذج الحالية ليست كائنات واعية، بل أدوات إحصائية متقدمة لا تملك أهدافًا أو رغبات مستقلة.

ويرى فريق واسع أن التركيز على سيناريوهات نهاية العالم يُشتّت الانتباه عن أزمات واقعية ملموسة مثل التحيزات الخوارزمية التي تعيد إنتاج صور التمييز في التوظيف والعدالة، أو فقدان الوظائف في مجالات بدأت تتأثر بوضوح كخدمة العملاء وكتابة المحتوى والترجمة، إضافة إلى المراقبة الرقمية التي تُستخدم في بعض الدول السلطوية للتضييق على الحريات.

أما الدعوات إلى وقف تطوير الذكاء الاصطناعي مؤقتًا، فيراها كثيرون غير واقعية، إذ إن المنافسة بين الدول والشركات تجعل الالتزام الجماعي بها أمرًا صعبًا. ويقترح هؤلاء بديلًا أكثر عملية يتمثل في وضع معايير دولية للأمان والشفافية والمساءلة، مع تعزيز التربية الإعلامية والقدرة النقدية لدى المجتمعات لمواجهة التضليل.

ثالثًا: بين الحذر والتفاؤل – نحو توازن مطلوب

رغم اختلاف المواقف، يمكن استخلاص أرضية مشتركة: لا أحد ينكر أن الذكاء الاصطناعي يحمل مخاطر، لكن حجمها وأولويتها محل نقاش.

ويكمن التحدي في الموازنة بين الابتكار والحماية. فالذكاء الاصطناعي بدأ بالفعل يحقق إنجازات مهمة في مجالات متعددة: في الطب يُستخدم لاكتشاف أدوية جديدة والمساعدة في تشخيص أمراض معقّدة مثل السرطان بدقة عالية، وفي التعليم تتيح المنصات الذكية أساليب تعلم مخصصة تتكيف مع مستوى الطالب، بينما تسهم التطبيقات البيئية في توقع الكوارث الطبيعية وتحسين استهلاك الطاقة.

ولعل الطريق الأمثل يكمن في الاستفادة من هذه الفرص الهائلة مع بناء أنظمة رقابية وتشريعية فاعلة، إلى جانب رفع وعي الأفراد والمجتمعات بما يرافق هذه الأدوات من مخاطر، حتى تبقى التكنولوجيا وسيلة لخدمة الإنسان لا وسيلة للسيطرة عليه.

رابعًا: مسؤوليتنا كمستخدمين

هذا النقاش حول الذكاء الاصطناعي ليس مجرد صراع بين التفاؤل والتشاؤم، بل هو دعوة لإعادة التفكير في دورنا كبشر أمام التكنولوجيا. فالسؤال الحقيقي ليس: هل الذكاء الاصطناعي خطر أم فرصة؟ بل: ما دورنا نحن في توجيه مساره؟

هنا تبرز مسؤوليتنا كمستخدمين في التحقق من صحة المحتوى الذي نتلقاه، وكأفراد في المطالبة بسياسات عادلة وشفافة، وكجماعات في دفع عجلة التطوير نحو مسار آمن. فالجواب في النهاية بأيدينا، كبشر، لا في الخوارزميات وحدها.