أوقفوا هلوسة الذكاء الاصطناعي قبل أن تضر بنتائجكم

كتبه: بن لوكس

لغويّ معلوماتي، باحث في الذكاء الاصطناعي وحاصل على ماجستير في تكنولوجيا الصوت بالذكاء الاصطناعي

1 مايو 2025

ترجمة: د. إدريس أوهلال

جدول المحتويات

الملخص

المقدمة

  • أولًا-ما هي هلوسة الذكاء الاصطناعي؟
  • ثانيًا-ما أسباب الهلوسة في الذكاء الاصطناعي؟
  • ثالثًا-أنواع هلوسة الذكاء الاصطناعي
  • رابعًا: مخاطر الهلوسة المرتبطة بالذكاء الاصطناعي
  • خامسًا-تدابير لمنع الهلوسة المرتبطة بالذكاء الاصطناعي
  • سادسًا-استخدم الذكاء الاصطناعي بلا هلوسة ابتداءً من اليوم
  • سابعًا-الأسئلة المتكررة (FAQ)

 

الملخص

 

  • تحدث هلوسة الذكاء الاصطناعي عندما تنتج النماذج بكل ثقة معلومات زائفة أو مختلقة؛ بسبب سوء جودة البيانات، أو فرط التخصيص (overfitting)، أو الإرشادات المبهمة.
  • تتراوح الهلوسات بين الخطأ الواقعي إلى اختلاق المحتوى، وقد تضر بالثقة، وتكلّف الشركات مليارات، أو تنشر معلومات مضللة ضارّة.
  • تشمل التدابير الرئيسة للوقاية: اختيار منصات ذكاء اصطناعي موثوقة، إضافة تقنية (RAG)(الجيل المعزَّز بالاسترجاع)، إعداد إرشادات دقيقة، وإدخال إشراف بشري.

المقدمة

ربما رأيت أشخاصًا يسخرون من عبثية هلوسات الذكاء الاصطناعي. وللأمانة فإن نموذج ذكاء اصطناعي يمتلك معرفة شبه لا نهائية، وقدرات تفكير شبيهة بالبشر، وسرعة هائلة في التنفيذ، ثم يفشل أمام مسألة رياضيات في مستوى رياض الأطفال، هو بالفعل أمر عبثي بعض الشيء.

لكن وراء التسلية والمرح تكمن حقيقة أكثر جدية، وربما خفية.

في هذا المقال، سأتحدث عن هلوسات الذكاء الاصطناعي:

  • ما هي؟
  • ما أسبابها؟
  • لماذا هي مهمة؟
  • وما التدابير التي يمكنكم اتخاذها لمنعها؟

ما هي هلوسة الذكاء الاصطناعي؟

تحدث هلوسة الذكاء الاصطناعي عندما يقدّم نموذج ذكاء اصطناعي معلومات غير دقيقة أو مضللة أو مختلقة بالكامل. هذه المعلومات الزائفة قد تبدو معقولة، وفي كثير من الحالات تمرّ دون أن تُكتشف.

وبسبب الانتشار الواسع للنماذج اللغوية الكبيرة (LLMs)، غالبًا ما يُشار إلى الهلوسات في سياق نماذج النص التوليدية، لكن في الواقع، فإنها تمثل خطرًا على أي تطبيق من تطبيقات الذكاء الاصطناعي التوليدي.

ما أسباب الهلوسة في الذكاء الاصطناعي؟

 

تحدث هلوسة الذكاء الاصطناعي عندما تتعلّم النماذج أنماطًا زائفة.

النماذج في سياق الذكاء الاصطناعي، تشير إلى قدرتها على استخدام أمثلة تدريب فردية لتعميم بيانات جديدة. قد يكون ذلك سلسلة كلمات تُكوّن تتمة نص، أو توزيع بكسلات لصورة تمثّل كلبًا.

في حالة هلوسة (LLM)، يرى النموذج أن سلسلة معينة من الكلمات هي الاستجابة الأكثر احتمالًا لإرشاد المستخدم، حتى لو كانت زائفة.

يمكن أن يكون ذلك بسبب واحد أو أكثر من الأسباب الآتية:

  1. بيانات تدريب ذات جودة منخفضة

تُدرّب النماذج، مثل (ChatGPT) على كميات هائلة من البيانات. هذه البيانات مهما كانت وفيرة، تظلّ غير مثالية للأسباب الآتية:

  • فجوات في بعض المجالات.
  • انعكاس التحيزات الموجودة في العالم الواقعي.
  • معلومات مضللة عمدًا أو سخرية غير مميّزة.
  • تحيّز، كما في حالة البيانات غير المتوازنة.

أمثلة:

إذا دُرِّب النموذج على جميع عواصم الدول ما عدا عاصمة واحدة، فقد يتمكن من اختراع اسم مدينة تبدو “محتملة” لتلك الدولة وفق نموذجه الإحصائي.

في توليد الصور: إذا كانت معظم الإرشادات حول موضوع “الطيور” تُنتج صورًا لنوع واحد فقط، مثل الحمام، فإن النموذج قد يتجاهل تنوّع الطيور الأخرى؛ ما يؤدي إلى انحياز في النتائج.

في بيانات التدريب، غالبًا ما وردت كلمة strawberry) ) (الفراولة بالإنجليزية) في سياق مشكلة شائعة عند متعلمي اللغة الإنجليزية: هل فيها حرف(R) مزدوج (RR) أم لا؟ لذلك النموذج اعتاد أن يرى في هذه الكلمة 2 (R). بالمقابل من النادر أن تُكتب المعلومة الدقيقة أن كلمة (strawberry)  تحتوي فعليًا على (3)  حروف  (R) النتيجة: عندما يُسأل النموذج: كم عدد حروف (R) في( strawberry) قد يجيب: “اثنان”؛ لأنه هذا السياق الأكثر تكرارًا في بياناته، بينما الجواب الصحيح هو “ثلاثة”. إذن الواضح من المثال أن النموذج لا “يعرف” الإجابة، بل يتنبأ بناءً على أنماط ظهرت في بياناته. إذا كانت البيانات ناقصة أو منحازة، يُخطئ حتى في سؤال بديهي.

  1. هيكلية النموذج وطريقة التوليد

النماذج مبنية على شبكات عصبية معقّدة جدًا. التباينات الطفيفة تؤثر في كيفية تفاعلها مع بيانات التدريب والإرشادات.

التوليد يتم كلمة بكلمة (أو جزء كلمة)، عبر التنبؤ بالكلمة الأكثر احتمالًا تالية. هذا يضمن استمرارية الجملة، لكنه لا يضمن الحقيقة.

مثال:

“الثعلب البني السريع يقفز فوق الكلب الكسول . “الكلمة الأكثر احتمالًا: “dog/الكلب”. لكن الاعتماد على الاحتمال فقط يجعل النتائج متوقعة لكن فاقدة للحقيقة أحيانًا.

  1. فرط التخصيص (Overfitting)

عندما يتدرب النموذج بدقة مفرطة على بيانات التدريب، يصبح عاجزًا عن التكيف مع مدخلات جديدة.

بدل أن يقول “لا أعرف”، قد يُرجِع معلومات لشركة مشابهة أو يكرر شيئًا من بيانات التدريب.

  1. إرشادات رديئة (Poor Prompts)

الإرشادات الغامضة أو غير الدقيقة تزيد من احتمالية الهلوسة.

مثلًا: سؤال: ما حبكة (Shark Girl)؟،  قد يؤدي إلى خلط بين فيلم (Sharkboy and Lavagirl)، أو فيلم رعب آخر بنفس الاسم، أو كتاب أطفال صدر مؤخرًا.

غياب الوضوح يجعل الاستجابة توليفًا مختلقًا لا يمت للحقيقة بصلة.

أنواع هلوسة الذكاء الاصطناعي

أخطاء واقعية:

  • مثل خطأ في سنة حدث معين، أو عاصمة دولة، أو رقم إحصائية.

محتوى مختلق:

  • مثل ادعاء أن تلسكوب جيمس ويب التقط أول صور لكواكب خارجية (وهو خطأ حدث فعلًا مع Google Bard).

معلومات مضللة:

  • مثل توصية (Google AI)بأكل الصخور أو إلصاق البيتزا، بناءً على محتوى ساخر لم يُوسم كـ “سخرية”.

مخاطر الهلوسة المرتبطة بالذكاء الاصطناعي

فقدان الثقة:

  • مثل خطأ (Cursor AI)في خدمة العملاء الذي جعل مستخدمين يُلغون اشتراكاتهم.

 

التكلفة المالية:

  • مثال سقوط أسهم (Alphabet) بمقدار 100 مليار دولار بسبب خطأ حول جيمس ويب.

 

معلومات ضارة:

  • أخطاء في وصف جرعات طبية أو تشخيصات.

 

الأمن السيبراني:

  • قد يُخترع اسم مكتبة برمجية غير موجودة، ثم يستغلها قراصنة عبر هجوم يُسمى                     slopsquatting).)

تدابير لمنع الهلوسة

اختيار منصة موثوقة:

  • يجب أن تضمن الشفافية وآليات التخفيف.

 

استخدام (RAG):

  • دعم النموذج بمصادر بيانات خارجية موثوقة.

 

إضافة تعليمات دقيقة:

  • “في الداخل = في الخارج”. كلما كان الإرشاد أوضح، قلّت الأخطاء.

 

إشراف بشري:

  • وجود إنسان في الحلقة لتقييم ومراجعة النتائج والتدخل عند الحاجة.

استخدم الذكاء الاصطناعي بلا هلوسة ابتداءً من اليوم

قد تشكّل الشكوك المتعلقة بموثوقية الذكاء الاصطناعي عائقًا أمام الشركات في الاستفادة منه، والمضي قدمًا في مسار التحول الرقمي. ومع ذلك، فإن الجمع بين مجموعة من الحلول العملية يضمن استخدامًا أكثر أمانًا وموثوقية، من أبرزها:

  • تقنية  (RAG): التي تسمح للنموذج بالاعتماد على مصادر خارجية موثوقة قبل توليد الإجابة؛ مما يقلل من احتمالية اختلاق معلومات.
  • الإشراف البشري: حيث تتم مراجعة المخرجات والتدخل عند الحاجة؛ لضمان دقة النتائج قبل الاعتماد عليها في القرارات الحساسة.
  • أنظمة الأمان: التي تحمي من المخاطر التقنية، مثل الهجمات أو استغلال الثغرات الناتجة عن اختلاق بيانات أو مكتبات برمجية غير صحيحة.

وبهذا، يمكن تحويل الذكاء الاصطناعي من أداة قد تثير الشكوك إلى شريك موثوق وآمن في دعم الأعمال وتعزيز الابتكار.

حلول إضافية لتقليل هلوسة الذكاء الاصطناعي غير مذكورة في الدراسة:

  1. تحسين جودة البيانات
  • الشرح: كلما كانت بيانات التدريب أنظف وأكثر شمولًا وتوازنًا، قلّت احتمالية أن يولّد النموذج معلومات مختلقة أو منحازة.
  • مثال: إدخال مصادر موثوقة (أبحاث علمية، وثائق رسمية، بيانات حكومية) بدل الاعتماد على محتوى الإنترنت غير المنضبط.
  1. التدريب المستمر والتحديث الدوري للنماذج
  • الشرح: الذكاء الاصطناعي يتقادم بسرعة،ما لم يُدرَّب دوريًا على مستجدات دقيقة وموثوقة، سيبدأ في ارتكاب المزيد من الأخطاء.
  • الأهمية: التحديث المستمر يضمن أن المعلومات تعكس الواقع الحالي، وليست قديمة أو منقوصة.
  1. استخدام أدوات كشف الهلوسة آليًا
  • الشرح: هناك تقنيات ناشئة يمكنها مراجعة الإجابات التي يولّدها الذكاء الاصطناعي، ورصد ما إذا كانت تحتوي على ادعاءات غير موثقة.
  • الأهمية: تعمل كطبقة “فلترة” إضافية قبل عرض الإجابة على المستخدم.
  1. ضبط صياغة الأوامر
  • الشرح: كلما كان السؤال أو الأمر الموجَّه للنموذج محددًا وواضحًا ومرفقًا بسياق، قلّت احتمالية الانحراف نحو هلوسة.
  • مثال: بدل أن تسأل: “أعطني تقريرًا عن الاقتصاد” →الأفضل: “أعطني تقريرًا عن النمو الاقتصادي في السعودية خلال السنوات الخمس الأخيرة استنادًا إلى تقارير البنك الدولي.”
  1. اعتماد أسلوب “لا أعرف”
  • الشرح:برمجة النموذج على أن يجيب بـ “لا أعرف” أو “المعلومة غير متاحة” أفضل من أن يختلق جوابًا.
  • الأهمية: يحافظ على المصداقية، ويمنع تمرير معلومات مضللة.
  1. الاختبار قبل النشر
  • الشرح: اختبار النموذج في بيئات تجريبية على أسئلة حساسة أو تخصصية قبل إطلاقه للجمهور.
  • الأهمية: يكشف أنماط الهلوسة، ويتيح معالجتها مبكرًا.
  1. تخصيص النماذج لمجالات محددة
  • الشرح: النماذج العامة أكثر عرضة للهلوسة؛ لأنها تتعامل مع جميع المجالات. أما النماذج المتخصصة (مثلاً في الطب أو القانون) فتكون أكثر دقة إذا دُرّبت على قواعد بيانات متخصصة.

الخلاصة:

الوقاية من الهلوسة ليست بحل واحد، بل بمزيج من:

  • تقنيات داعمة (RAGكشف الهلوسة)
  • آليات تنظيمية (إشراف بشري + رفض الإجابة عند الجهل)
  • جودة بيانات (تحسين، تحديث، تخصيص)

وبهذا يمكن جعل الذكاء الاصطناعي أداة آمنة، ودقيقة، وموثوقة تعزز الثقة بدل أن تهددها.

الأسئلة المتكررة (FAQ)

كيف أعرف أن في إجابة الذكاء الاصطناعي هلوسة إذا لم أكن أعرف الموضوع؟

  • ابحث عن مؤشرات،مثل: ثقة مفرطة، تفاصيل دقيقة للغاية، أو أسماء وإحصاءات غير قابلة للتحقق.

ما مدى شيوع الهلوسات في (LLMs

  • شائعة جدًا، حتى في النماذج المتقدمة،مثل (GPT وClaude5)، خاصة في المواضيع المتخصصة أو الغامضة.

هل النماذج غير النصية (مثل توليد الصور) قد تُنتج هلوسات؟

  • نعم، مثل ظهور أطراف إضافية، أو تمثيلات ثقافية خاطئة، بسبب تحيز البيانات.

 

هل تحدث الهلوسات أكثر في لغات أو ثقافات معينة؟

  • نعم، في اللغات غير الممثلة جيدًا، وفي السياقات غير الغربية؛ بسبب سيطرة البيانات الإنجليزية.

ما القطاعات الأكثر تعرضًا للمخاطر؟

  • الصحة، المالية، القانون، خدمة العملاء؛ لأن الأخطاء هنا تعني خسائر مالية، تبعات قانونية، أو أضرار بالسمعة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *