الأحد، 20 يوليو 2025

01:58 م

علاء الدين رجب يكتب: هلوسة الذكاء الاصطناعي

السبت، 19 يوليو 2025 02:19 ص

المهندس علاء الدين رجب

م/ علاء الدين رجب – خبير التحول الرقمي

م/ علاء الدين رجب – خبير التحول الرقمي

مع ازدياد الاعتماد على الذكاء الاصطناعي (AI) في مختلف مجالات الحياة والاقتصاد، باتت أدواته جزءًا أساسيًا من القرارات الاستراتيجية، من صناعة المحتوى، إلى التشخيص الطبي، إلى التخطيط المالي. إلا أن تصاعد الثقة العمياء في هذه النماذج قد يُخفي عيوبًا جوهرية تهدد بمخاطر غير محسوبة، على رأسها ما يُعرف بـ "هلوسة الذكاء الاصطناعي" — وهي ظاهرة توليد معلومات غير صحيحة، أو مفبركة، تُعرض بلغة منطقية تبدو موثوقة.
هذه الظاهرة لا تقتصر على أخطاء عرضية، بل تمثل تحديًا بنيويًا في طريقة عمل النماذج اللغوية الكبرى (LLMs). فهذه النماذج، مهما بدت ذكية، لا تمتلك فهمًا حقيقيًا للواقع، بل تنتج محتوى استنادًا إلى احتمالات لغوية مستمدة من بياناتها التدريبية.
إن هذا الواقع يفرض على القيادات التنفيذية وصنّاع القرار في الشرق الأوسط إعادة التفكير في حدود استخدام الذكاء الاصطناعي، ووضع أطر رقابية لتفادي الاعتماد الأعمى على ما قد يكون "ثقة مزيفة" بلغة دقيقة.
الهلوسة في الواقع العملي – أمثلة من الميدان على أخطاء بارزة في عدة مجالات:

1.    القطاع القانوني: قضايا مختلقة أمام القضاء
في مايو 2023، واجه محامٍ في نيويورك عقوبات تأديبية بعد أن قدم للقضاء مرافعة مدعومة بحجج قانونية "اقترحها" عليه ChatGPT. ليتبين أن هذه القضايا القضائية لا وجود لها، بل كانت اختلاقًا لغويًا من النموذج.
2.    القطاع الطبي: توصيات مغلوطة قد تهدد الأرواح
دراسة نُشرت في BMJ Health & Care Informatics أظهرت أن ChatGPT قدّم توصيات تشخيصية وعلاجية خاطئة في ما يزيد عن 25% من الحالات الطبية المختبرة، بما في ذلك تقديم دواء غير ملائم لحالة حساسية.
3.     القطاع المالي: أخطاء تحليل الأسواق
قدّم نموذج ذكاء اصطناعي تحليلًا مفصلاً عن أداء إحدى الشركات الناشئة، بما في ذلك أرقام إيرادات وأرباح مفصلة... ليتبين أن كل هذه البيانات كانت مفبركة، إذ لا وجود فعلي لتلك الأرقام في أي قاعدة بيانات رسمية. الخطر هنا أن التقرير بدا "موثقًا"، لكنه قائم على لا شيء.
4.     القطاع الأكاديمي: مراجع وهمية
كشفت مجلة Nature أن باحثين استخدموا ChatGPT لإعداد فصول من رسائلهم العلمية، لكنهم وجدوا أن المراجع التي قدمها النموذج – على الرغم من صياغتها المقنعة – مختلقة كليًا. الأمر الذي دفع جامعات مرموقة إلى حظر استخدام هذه النماذج في المهام الأكاديمية دون إشراف مباشر.
5.     الصحافة والمحتوى: أخبار لا أساس لها
في إحدى التجارب، طلب صحفي من نموذج ذكاء اصطناعي كتابة تقرير عن "شركة تكنولوجية وهمية". المذهل أن النموذج لم يكتف بالكتابة، بل قدّم معلومات عن مؤسسين، وتاريخ تأسيس، وجولات تمويل، واقتباسات من مستثمرين... كل ذلك خيال محض.
6.     اليحث الشرعي والفتوى الذكاء الاصطناعي والفتوى: انزلاق في المساحات الحساسة
من أكثر المجالات التي تزداد فيها المخاوف من استخدام الذكاء الاصطناعي بشكل غير منضبط هو مجال الفتوى والبحث الشرعي. فبينما يسعى بعض المطورين إلى استخدام الذكاء الاصطناعي كأداة للوصول إلى النصوص الفقهية، أو تنظيم فتاوى سابقة، إلا أن الاعتماد عليه في إصدار الأحكام أو تقديم الفتوى دون إشراف بشري يشكل خطرًا حقيقيًا على الدين والمجتمع مثل: 
•    نقص في فهم المقاصد والسياقات
النصوص الشرعية — من القرآن الكريم والحديث النبوي — لا تُفهم من ظاهرها فقط، بل تتطلب فهمًا دقيقًا للسياق، والمقاصد، وأسباب النزول، ومدارس الفقه، والتغير الزمني. هذه عناصر لا يمكن لنموذج لغوي، مهما بلغ من الذكاء الإحصائي، أن يدركها أو يتفاعل معها بمرونة العالم الفقيه.
•     خطورة التوليد غير المدقق للنصوص
أثبتت التجارب أن الذكاء الاصطناعي قد ينسب أقوالاً خاطئة إلى علماء مشهورين، أو يُركّب فتاوى بناءً على أسئلة مغلوطة، أو يستخرج أحكامًا خاطئة من مصادر غير موثوقة. والأسوأ، أن صياغته المقنعة قد توهم غير المختصين أن الحكم صادر عن مرجعية موثوقة.
•     غياب المسؤولية الشرعية
في الإسلام، الفتوى أمانة ومسؤولية دينية وأخلاقية. والمفتي يُسأل يوم القيامة عن ما يُفتي به، لأنه يتحدث باسم الشريعة. أما الذكاء الاصطناعي، فهو لا يحمل نية، ولا يعي العواقب، ولا يتحمل مسؤولية شرعية. فكيف يمكن أن يُؤتمن على أرواح الناس، وديانتهم، وفتاواهم؟
•     تشويه صورة الشريعة لدى الجمهور
إذا انتشرت مخرجات غير منضبطة من نماذج ذكاء اصطناعي تقدم أحكامًا متشددة، أو متساهلة، أو متناقضة، فإن ذلك قد يربك الناس في دينهم، ويفتح الباب لتشكيك العامة في ثبات المرجعيات الشرعية.


الأسباب الرئيسية لهلوسة الذكاء الاصطناعي:

جذور الظاهرة... ودورة تغذية اصطناعية خطيرة
تعتمد النماذج اللغوية الكبرى على تحليل مليارات النصوص لتعلّم أنماط اللغة. لكنها لا "تفهم" مثل الإنسان، ولا تتحقق من الواقع. وبدلاً من قول "لا أعرف"، قد تخمّن إجابة تبدو لغويًا صحيحة ولكنها زائفة.
كلما زادت الأسئلة الغامضة أو المتخصصة، زادت احتمالية الهذيان الاصطناعي. ومع توسع استخدام النماذج في إنتاج المحتوى عبر الإنترنت، بدأت تبرز ظاهرة جديدة وخطيرة:
الجذور التقنية للظاهرة
ظاهرة "هلوسة الذكاء الاصطناعي" (AI hallucination) تشير إلى قيام نماذج اللغة مثل ChatGPT أو غيرها من الأنظمة الذكية بتوليد معلومات غير صحيحة أو ملفقة تبدو للوهلة الأولى منطقية أو موثوقة، لكنها في الواقع غير دقيقة أو لا تستند إلى مصادر حقيقية.
وهذا يحدث لأسباب متعددة تتعلق بطبيعة بناء النماذج وطريقة تدريبها.
1.    طريقة التدريب على البيانات
النماذج اللغوية الكبيرة تُدرَّب على كميات ضخمة من النصوص من الإنترنت تشمل الصحيح والمغلوط.
النموذج لا "يفهم" المعنى مثل الإنسان، بل يتوقع الكلمة التالية اعتمادًا على الأنماط الإحصائية.
لذلك قد يولد محتوى يبدو منطقيًا لكنه خاطئ، لأنه لا يملك "وعيًا" أو "تمييزًا" للحقيقة.
2.    عدم وجود مصدر تحقق داخلي
الذكاء الاصطناعي لا يرجع إلى قاعدة بيانات موثقة أو نظام تحقق من الحقائق (fact-checking) وقت التوليد.
هو يتنبأ بما يبدو منطقيًا بناءً على التدريب، دون الرجوع الفعلي إلى مصدر موثق.
3.    الرد على الأسئلة الغامضة أو غير الدقيقة
عندما يواجه الذكاء الاصطناعي سؤالًا غامضًا أو غير محدد أو عن موضوع غير مغطى جيدًا في بيانات تدريبه، فإنه "يخمن" الإجابة.
هذا التخمين قد يكون ملفقًا أو غير موجود أساسًا.
4.    التضارب في البيانات التدريبية
إذا احتوى نموذج التدريب على معلومات متناقضة (مثلاً: مقال يقول إن العالم X اخترع الشيء Y، وآخر يقول Z هو المخترع)، فقد يخلط النموذج بينهما. و النتيجة: إجابات غير دقيقة أو مؤلفة.
5.    ضغط المستخدم على النموذج للإجابة
بعض الأسئلة التي لا إجابة لها (مثلاً: "ما هو رقم بطاقة ائتمان أينشتاين؟")، يحاول النموذج رغم ذلك توليد إجابة "محتملة"، لإرضاء المستخدم.
6.    عدم وجود نموذج منطقي داخلي أو فهم سببي
النموذج لا يعرف العلاقات السببية، ولا يملك نموذجًا منطقيًا للعالم.  لذلك لا يستطيع تمييز "المستحيل" من "المحتمل"، ما يؤدي إلى هلوسات في المجالات المعقدة (الطب، القانون، الدين...).
7.    الذكاء الاصطناعي يستهلك ذاته: المحتوى يولّد المحتوى
في السنوات الأخيرة، باتت نسبة متزايدة من المحتوى المتاح على الإنترنت منشأة بواسطة الذكاء الاصطناعي. هذا يعني أن النماذج الجديدة تُدرّب أحيانًا على بيانات ليست حقيقية أو بشرية المصدر، بل ناتجة عن نماذج سابقة. ما يؤدي إلى "دورة مغلقة من إعادة التوليد الاصطناعي" (AI Feedback Loop).وتأثير ذلك خطير:
o    -تدهور جودة البيانات التدريبية.
o    -تكرار الهلوسات وتضخيم الأخطاء.
o    -ضعف ارتباط النماذج المستقبلية بالواقع البشري.
في دراسة أجراها باحثون من جامعة أكسفورد بالتعاون مع OpenAI عام 2024 خلصت إلى أن استمرار التدريب على محتوى مولد آليًا قد يؤدي إلى تآكل تدريجي في دقة النماذج وتضاؤل تنوع المعرفة، ما يهدد مستقبل الذكاء الاصطناعي نفسه.

تزداد احتمالية الهلوسة في الحالات التالية:
•    عند طرح أسئلة تتطلب مصادر محددة أو معلومات حديثة.
•    عندما يكون الموضوع نادرًا أو تخصصيًا للغاية.
•    في غياب آليات للربط مع مصادر خارجية موثوقة (

خارطة طريق للحذر الذكي – كيف نستخدم الذكاء الاصطناعي دون الوقوع في فخه؟
•    اعتماد مراجعة بشرية إلزامية
لا ينبغي أبدًا التعامل مع مخرجات الذكاء الاصطناعي كمصادر نهائية. يجب على المؤسسات أن تفرض مراجعة بشرية لأي قرار يُبنى على تحليل أو توصية من نموذج ذكي.
•    برامج تدريب داخلي
يتعين تدريب الموظفين على التعرف على ملامح الهلوسة ومؤشرات المحتوى المختلق، وتطوير مهارات التحقق من الحقائق في جميع الإدارات.
•     استخدام أدوات تحقق داعمة (Plugins, APIs)
توفر العديد من منصات الذكاء الاصطناعي أدوات ربط مع قواعد بيانات موثوقة مثل Wolfram Alpha، أو PubMed. من الضروري تفعيل هذه الخصائص عند توليد المحتوى المتخصص.
•     فصل المحتوى البشري عن المحتوى الآلي في التدريب
يجب على شركات التقنية أن تميّز بين المحتوى الأصلي والمحتوى المولّد أثناء تدريب نماذجها، لتفادي دورة التغذية الاصطناعية.

الطريق يبدأ بتشريعات عربية صارمة
مثلما أطلق الاتحاد الأوروبي "قانون الذكاء الاصطناعي" في 2024، فإن منطقة الشرق الأوسط تحتاج إلى تشريع مشابه يضمن:
•    الإفصاح عند استخدام الذكاء الاصطناعي. 
•    ضمان الشفافية والمساءلة في المخرجات.
•    حماية المستهلك والمستخدم من التضليل.
•    منع الانحياز والتضليل
•    تحفيز الابتكار مع وضع حدود واضحة
•    التشريع يجب أن يُلزم المطورين بالإفصاح عن الخوارزميات والنماذج، ويوفر آليات للطعن.
•    تحديد ضوابط استخدام الذكاء الاصطناعي في الدين والأمن والتعليم والقضاء و التوظيف.
•    عقوبات على الاستخدام الضار أو المضلل للذكاء الاصطناعي.

الخلاصة: الذكاء الاصطناعي لا يعفي من الذكاء البشري
لقد اجتزنا مرحلة الانبهار بالذكاء الاصطناعي، وحان وقت الحكمة في استخدامه. هو أداة عظيمة، لكنها لا تفكر ولا تتحقق. و"هلوساته" قد تكون مقنعة لغويًا لكنها قاتلة معرفيًا.  و نحن أمام مرحلة فارقة في تاريخ التقنية. فالذكاء الاصطناعي سيظل أحد أعظم أدوات القرن، لكنه لا يخلو من العيوب. إن الهلوسة ليست مجرد خلل تقني، بل هي تحدٍ معرفي وأخلاقي يوجب علينا كأفراد ومؤسسات أن نحذر من "الثقة العمياء".
يجب أن يبقى العقل البشري هو الضامن الأخير لجودة القرار. وكما قال المدير التنفيذي السابق لجوجل إريك شميت:
"الذكاء الاصطناعي قوي، لكن من الخطأ الاعتقاد بأنه يفكر أو يتحقق... إنه فقط يتنبأ." و لكي نحصد ثماره دون أن نُلدغ من عيوبه، يجب أن نُعيد مركزية الإنسان في كل قرار مبني على التقنية، وأن نحمي الحقيقة من وهم الاصطناع.

search