الإثنين، 16 يونيو 2025

07:27 ص

علاء الدين رجب يكتب: هل تلتهم شبكة الانترنت نفسها؟ الموت الطوعي للذكاء الصطناعي

الأحد، 25 مايو 2025 11:48 م

المهندس علاء رجب

م/علاء الدين رجب – خبير التحول الرقمي

م/علاء الدين رجب – خبير التحول الرقمي

في الأساطير القديمة: كان الأوربوروس Ouroboros يرمز للخلود، وهو رمز قديم يصوِّر الثعبان أو التنين وهو يأكل ذيله، وكأنه دورة خلود لا تنتهي من التطور داخل الأبدية. 

أول ظهور معروف له كان على أحد التوابيت التي تحيط بتابوت توت عنخ آمون في النص المبهم للعالم الآخر، البعض يفسِّر الأوربوروس كحالة عقاب أبدي تصيب المغرورين في الجحيم، فهو يأكل نفسه ويتغذى بها.

ولكن هل وصل الذكاء الاصطناعي إلى حالة الأوربوروس؟

تعالوا نشرح لكم: في البداية، تعلَّمت نماذج الذكاء الاصطناعي التوليدي منا نحن البشر، استقت بياناتها من الإنترنت مباشرة، من بيانات حقيقية أصلية أنتجها ملايين البشر.

تنامت ظاهرة الإنترنت سواء على الصعيد الكمي من حيث كثرتها، أو على الصعيد النوعي من حيث تعقيداتها وتداخلاتها مع تفاصيل حياتنا اليومية، ومع ذلك، فبالرغم من الكم الهائل من البيانات التي أصبحت في متناول يد الإنسان، إلا أنه يستمر في اتباع سياسات تضر بالبيئات الطبيعية التي يعيش فيها، هو والكائنات الحية الأخرى على حد سواء.

وبالمثل، فإن هذه الشبكات التي يحدث أن تتغذى بمعلومات مغلوطة ومزيَّفة، قد تؤدي إلى اتخاذ البشر "قرارات سيئة، بغض النظر عن حكمتهم أو طيبتهم الشخصية". فكمُّ البيانات الهائل هنا لم يكن شفيعًا للبشرية أن تتخذ خطوات أكثر رُشدًا نحو مستقبل آمن وبعيد عن الإخفاقات.

كيف حدث ذلك؟ عصر الاستفادة المجانية من البيانات يقترب من نهايته، والدعاوى القضائية عن الاستخدام غير المرخص في ازدياد.

فما الحل؟ كيف يمكن تفادي ذلك؟ عن طريق التحوُّل إلى البيانات التركيبية.

بدأت شركات الذكاء الاصطناعي استخدام نماذج اللغة الكبيرة (LLM) لإنشاء بيانات تركيبية تُستخدم كمدخلات لتدريب نماذج جديدة.

 هذا النهج سريع وقابل للتوسع، كما أنه يتجنب المشكلات القانونية، لكنه يفتح الباب لخطر أكبر: وهو أن يصبح الذكاء الاصطناعي ضحية لنفسه.

عندما تتدرَّب النماذج على محتوى أنتجه ذكاء اصطناعي آخر، تصبح النتائج متكررة وضعيفة، مما يؤدي إلى تدهور الإبداع وجودة المخرجات.

 بمرور الوقت، تفقد النماذج قدرتها على التعلُّم من العالم الحقيقي، وتصبح عالقة في حلقة مفرغة من المحاكاة الذاتية.

لا تحتاج شركات الذكاء الاصطناعي إلى إذن لاستخدام المحتوى المجاني المنشور. فإذا انتشرت نصوص أو أكواد أو مراجعات مُولَّدة بالذكاء الاصطناعي عبر المدونات والمنتديات، فإنها تصبح جزءًا من بيانات التدريب، حتى لو حاولت بعض الشركات تصفية هذه البيانات، فإن اكتشافها بشكل موثوق يظل تحدِّيًا صعبًا.

والأسوأ أن الذكاء الاصطناعي يُنتِج محتوى – ملايين الصفحات يوميًا – بأسرع بكثير من البشر الذين يُنشئون محتوى محدودًا، وهذا التسارع يزيد من ضغط المنافسة بين الشركات، مما يدفعها إلى تبنِّي حلول أرخص وأسرع، وإن كانت جودتها مشكوكًا فيها.

النتيجة: عندما تتآكل المعرفة، تتراجع الحقيقة وتصبح النتائج وهمية.

أظهرت دراسة أجرتها جامعتا ستانفورد وتورنتو عام 2023 أن الاعتماد على البيانات المُولَّدة من محتويات تم إنشاؤها اصطناعيًا، والتي جنَّبت الشركات أكثر من 1.7 مليار دولار ثمن التراخيص التي تم تفاديها، يؤدي إلى "تدهور لا رجعة فيه" في أداء النماذج على المدى الطويل، مما يُفقِد الذكاء الاصطناعي أساسه الذي بُني عليه، وهو "المعرفة الحقيقية".

النماذج التي تعكس الواقع سابقًا، قد تصبح مجرد مرايا تعكس نفسها فقط. بهذا الشكل، قد يكون الذكاء الاصطناعي في طريقه إلى تدمير نفسه دون أن يدري.

أصبح لدينا مفترسٌ جديد في غابة الويب. الخيار الحقيقي الوحيد هو ما إذا كنا سنُصبح مفترسين أو فرائس، والأكيد أن المفترس الجديد هذا يأكل نفسه.

search