هلوسة الذكاء الاصطناعي: ما هي ولماذا تحدث؟

نشرت: 2024-06-27

ما هي هلاوس الذكاء الاصطناعي؟

تحدث هلوسة الذكاء الاصطناعي عندما تقوم أدوات الذكاء الاصطناعي بإنشاء معلومات غير صحيحة بينما تبدو واثقة. يمكن أن تتراوح هذه الأخطاء من حالات عدم الدقة البسيطة، مثل تحريف تاريخ تاريخي، إلى معلومات مضللة بشكل خطير، مثل التوصية بعلاجات صحية قديمة أو ضارة. يمكن أن تحدث هلوسة الذكاء الاصطناعي في الأنظمة التي تدعمها نماذج اللغات الكبيرة (LLMs) وتقنيات الذكاء الاصطناعي الأخرى، بما في ذلك أنظمة توليد الصور.

على سبيل المثال، قد تذكر إحدى أدوات الذكاء الاصطناعي بشكل غير صحيح أن برج إيفل يبلغ ارتفاعه 335 مترًا بدلاً من ارتفاعه الفعلي البالغ 330 مترًا. في حين أن مثل هذا الخطأ قد يكون غير مهم في المحادثة غير الرسمية، فإن القياسات الدقيقة أمر بالغ الأهمية في المواقف عالية المخاطر، مثل تقديم المشورة الطبية.

وللحد من الهلوسة في الذكاء الاصطناعي، يستخدم المطورون تقنيتين رئيسيتين: التدريب باستخدام الأمثلة المتعارضة، مما يعزز النماذج، وضبطها باستخدام مقاييس تعاقب الأخطاء. يساعد فهم هذه الأساليب المستخدمين على استخدام أدوات الذكاء الاصطناعي بشكل أكثر فعالية وإجراء تقييم نقدي للمعلومات التي ينتجونها.

اعمل بشكل أكثر ذكاءً مع Grammarly
شريك الكتابة بالذكاء الاصطناعي لأي شخص لديه عمل للقيام به

أمثلة على هلاوس الذكاء الاصطناعي

شهدت الأجيال السابقة من نماذج الذكاء الاصطناعي هلوسة أكثر تكرارًا من الأنظمة الحالية. تشمل الحوادث البارزة إخبار روبوت سيدني للذكاء الاصطناعي التابع لشركة Microsoft لمراسل التكنولوجيا كيفن روز بأنه "كان يحبه"، كما قام مولد الصور Gemini AI التابع لشركة Google بإنتاج صور غير دقيقة تاريخيًا.

ومع ذلك، فقد تحسنت أدوات الذكاء الاصطناعي اليوم، على الرغم من أن الهلوسة لا تزال تحدث. فيما يلي بعض الأنواع الشائعة من هلوسة الذكاء الاصطناعي:

  • حقيقة تاريخية: قد تشير أداة الذكاء الاصطناعي إلى أن أول هبوط على سطح القمر حدث في عام 1968 بينما حدث بالفعل في عام 1969. ويمكن أن تؤدي مثل هذه الأخطاء إلى تحريف أحداث مهمة في تاريخ البشرية.
  • خطأ جغرافي: قد يشير الذكاء الاصطناعي بشكل غير صحيح إلى تورونتو باعتبارها عاصمة كندا على الرغم من أن العاصمة الفعلية هي أوتاوا.قد تؤدي هذه المعلومات الخاطئة إلى إرباك الطلاب والمسافرين الذين يتطلعون إلى التعرف على جغرافية كندا.
  • البيانات المالية: يمكن لنموذج الذكاء الاصطناعي أن يخدع المقاييس المالية، مثل الادعاء بأن سعر سهم الشركة ارتفع بنسبة 30 بالمائة في يوم واحد، بينما كان التغيير في الواقع أقل بكثير.الاعتماد فقط على النصائح المالية الخاطئة يمكن أن يؤدي إلى قرارات استثمارية سيئة.
  • التوجيه القانوني: قد يؤدي نموذج الذكاء الاصطناعي إلى تضليل المستخدمين بأن الاتفاقيات الشفهية ملزمة قانونًا مثل العقود المكتوبة في جميع السياقات.وهذا يتجاهل حقيقة أن بعض المعاملات (على سبيل المثال، المعاملات العقارية) تتطلب عقودًا مكتوبة من أجل الصحة والتنفيذ.
  • معلومات خاطئة عن البحث العلمي: قد تستشهد أداة الذكاء الاصطناعي بدراسة من المفترض أنها تؤكد إنجازًا علميًا في حين لا توجد مثل هذه الدراسة.هذا النوع من الهلوسة يمكن أن يضلل الباحثين والجمهور حول الإنجازات العلمية الهامة.

لماذا تحدث هلاوس الذكاء الاصطناعي؟

لفهم سبب حدوث الهلوسة في الذكاء الاصطناعي، من المهم التعرف على الأعمال الأساسية للماجستير في القانون. تم بناء هذه النماذج على ما يعرف ببنية المحولات، التي تعالج النص (أو الرموز المميزة) وتتنبأ بالرمز المميز التالي في تسلسل. وعلى النقيض من العقول البشرية، فإنها لا تمتلك "نموذجًا عالميًا" يفهم بطبيعته التاريخ، أو الفيزياء، أو مواضيع أخرى.

تحدث هلوسة الذكاء الاصطناعي عندما يولد النموذج استجابة غير دقيقة ولكنها مشابهة إحصائيًا للبيانات الصحيحة. وهذا يعني أنه على الرغم من أن الاستجابة خاطئة، إلا أنها تحتوي على تشابه دلالي أو هيكلي مع ما يتوقعه النموذج على الأرجح.

تشمل الأسباب الأخرى لهلوسة الذكاء الاصطناعي ما يلي:

بيانات التدريب غير مكتملة

تعتمد نماذج الذكاء الاصطناعي بشكل كبير على اتساع وجودة البيانات التي يتم تدريبها عليها. عندما تكون بيانات التدريب غير كاملة أو تفتقر إلى التنوع، فإنها تحد من قدرة النموذج على توليد استجابات دقيقة وشاملة. تتعلم هذه النماذج بالقدوة، وإذا كانت الأمثلة الخاصة بها لا تغطي نطاقًا واسعًا بما يكفي من السيناريوهات ووجهات النظر والواقع المضاد، فإن مخرجاتها يمكن أن تعكس هذه الفجوات.

غالبًا ما يظهر هذا القيد على شكل هلوسة لأن نموذج الذكاء الاصطناعي قد يملأ المعلومات المفقودة بتفاصيل معقولة ولكنها غير صحيحة. على سبيل المثال، إذا تعرض الذكاء الاصطناعي في الغالب لبيانات من منطقة جغرافية واحدة - على سبيل المثال، مكان به وسائل نقل عام واسعة النطاق - فقد يولد استجابات تفترض أن هذه السمات عالمية في حين أنها ليست كذلك. الذكاء الاصطناعي ليس مجهزًا ليعرف أنه يغامر بما يتجاوز حدود ما تم تدريبه عليه. وبالتالي، قد يقدم النموذج تأكيدات واثقة لا أساس لها أو متحيزة.

التحيز في بيانات التدريب

يرتبط التحيز في بيانات التدريب بالاكتمال، ولكنه ليس هو نفسه. في حين تشير البيانات غير المكتملة إلى ثغرات في المعلومات المقدمة إلى الذكاء الاصطناعي، فإن البيانات المتحيزة تعني أن المعلومات المتاحة مشوهة بطريقة ما. وهذا أمر لا مفر منه إلى حد ما، نظرا لأن هذه النماذج يتم تدريبها إلى حد كبير على شبكة الإنترنت، والإنترنت لديه تحيزات متأصلة. على سبيل المثال، يعاني العديد من البلدان والسكان من نقص التمثيل على الإنترنت، حيث لا يزال ما يقرب من 3 مليارات شخص في جميع أنحاء العالم يفتقرون إلى إمكانية الوصول إلى الإنترنت. وهذا يعني أن بيانات التدريب قد لا تعكس بشكل مناسب وجهات نظر هذه المجتمعات غير المتصلة بالإنترنت ولغاتها وأعرافها الثقافية.

حتى بين مستخدمي الإنترنت، هناك فوارق في من يقوم بإنشاء المحتوى ومشاركته، وما هي المواضيع التي تتم مناقشتها، وكيفية تقديم هذه المعلومات. يمكن أن تؤدي انحرافات البيانات هذه إلى تعلم نماذج الذكاء الاصطناعي وإدامة التحيزات في مخرجاتها. إن وجود درجة معينة من التحيز أمر لا مفر منه، ولكن مدى وتأثير انحراف البيانات يمكن أن يختلف بشكل كبير. لذا، فإن هدف مطوري الذكاء الاصطناعي هو إدراك هذه التحيزات، والعمل على التخفيف منها حيثما أمكن، وتقييم ما إذا كانت مجموعة البيانات مناسبة لحالة الاستخدام المقصودة.

عدم وجود تمثيل واضح للمعرفة

تتعلم نماذج الذكاء الاصطناعي من خلال مطابقة الأنماط الإحصائية ولكنها تفتقر إلى تمثيل منظم للحقائق والمفاهيم. وحتى عندما يصدرون بيانات واقعية، فإنهم لا "يعرفون" صحتها لأنهم لا يملكون آلية لتتبع ما هو حقيقي وما هو غير حقيقي.

هذا الغياب لإطار واقعي متميز يعني أنه في حين أن حاملي شهادة الماجستير في القانون يمكنهم إنتاج معلومات موثوقة للغاية، إلا أنهم يتفوقون في محاكاة اللغة البشرية دون الفهم الحقيقي أو التحقق من الحقائق التي يمتلكها البشر. هذا القيد الأساسي هو الفرق الرئيسي بين الذكاء الاصطناعي والإدراك البشري. مع استمرار تطور الذكاء الاصطناعي، تظل مواجهة هذا التحدي أمرًا بالغ الأهمية للمطورين لتعزيز مصداقية أنظمة الذكاء الاصطناعي.

عدم فهم السياق

يعد السياق أمرًا بالغ الأهمية في التواصل البشري، لكن نماذج الذكاء الاصطناعي غالبًا ما تواجه صعوبة في التعامل معه. عندما يُطلب منهم ذلك باللغة الطبيعية، يمكن أن تكون إجاباتهم حرفية بشكل مفرط أو بعيدة عن الواقع لأنهم يفتقرون إلى الفهم الأعمق الذي يستمده البشر من السياق - معرفتنا بالعالم، والتجارب الحياتية، والقدرة على القراءة بين السطور، وفهم الافتراضات غير المعلنة.

على مدى العام الماضي، تحسنت نماذج الذكاء الاصطناعي في فهم السياق البشري، لكنها لا تزال تعاني من عناصر مثل النص الفرعي العاطفي، والسخرية، والسخرية، والمراجع الثقافية. قد يتم إساءة تفسير العبارات العامية أو العامية التي تطورت في المعنى من خلال نموذج الذكاء الاصطناعي الذي لم يتم تحديثه مؤخرًا. وإلى أن تتمكن نماذج الذكاء الاصطناعي من تفسير الشبكة المعقدة من التجارب والعواطف البشرية، ستظل الهلوسة تشكل تحديا كبيرا.

كم مرة تهلوس روبوتات الدردشة المدعمة بالذكاء الاصطناعي؟

من الصعب تحديد التردد الدقيق لهلوسة الذكاء الاصطناعي. يختلف المعدل بشكل كبير بناءً على النموذج أو السياق الذي تُستخدم فيه أدوات الذكاء الاصطناعي. يشير أحد التقديرات من Vectara، وهي شركة ناشئة تعمل في مجال الذكاء الاصطناعي، إلى أن روبوتات الدردشة تهلوس في أي مكان بنسبة تتراوح بين 3 بالمائة و27 بالمائة من الوقت، وفقًا لقائمة المتصدرين للهلوسة العامة الخاصة بـ Vectara على GitHub، والتي تتتبع تكرار الهلوسة بين روبوتات الدردشة الشائعة عند تلخيص المستندات.

قامت شركات التكنولوجيا بتطبيق إخلاء المسؤولية في برامج الدردشة الخاصة بها لتحذير الأشخاص من الأخطاء المحتملة والحاجة إلى التحقق الإضافي. يعمل المطورون بنشاط على تحسين النماذج، وقد شهدنا بالفعل تقدمًا في العام الماضي. على سبيل المثال، تشير OpenAI إلى أن GPT-4 أكثر احتمالية لإنتاج استجابات واقعية بنسبة 40 بالمائة مقارنة بسابقه.

كيفية منع الهلوسة الذكاء الاصطناعي

في حين أنه من المستحيل القضاء على هلوسة الذكاء الاصطناعي بشكل كامل، إلا أن هناك العديد من الاستراتيجيات التي يمكن أن تقلل من حدوثها وتأثيرها. بعض هذه الأساليب قابلة للتطبيق بشكل أكبر على الباحثين والمطورين الذين يعملون على تحسين نماذج الذكاء الاصطناعي، بينما يتعلق البعض الآخر بالأشخاص العاديين الذين يستخدمون أدوات الذكاء الاصطناعي.

تحسين جودة بيانات التدريب

يعد ضمان وجود بيانات عالية الجودة ومتنوعة أمرًا بالغ الأهمية عند محاولة منع هلوسة الذكاء الاصطناعي. إذا كانت بيانات التدريب غير كاملة أو متحيزة أو تفتقر إلى التنوع الكافي، فسيواجه النموذج صعوبة في توليد مخرجات دقيقة عند مواجهة حالات جديدة أو هامشية. ينبغي للباحثين والمطورين أن يسعوا جاهدين إلى تنظيم مجموعات بيانات شاملة وتمثيلية تغطي وجهات نظر مختلفة.

الحد من عدد النتائج

في بعض الحالات، تحدث هلاوس الذكاء الاصطناعي عندما تولد النماذج عددًا كبيرًا من الاستجابات. على سبيل المثال، إذا طلبت من النموذج 20 مثالًا لمطالبات الكتابة الإبداعية، فقد تدرك أن جودة النتيجة تنخفض في نهاية المجموعة. وللتخفيف من ذلك، يمكنك تقييد مجموعة النتائج بعدد أصغر وتوجيه أداة الذكاء الاصطناعي للتركيز على الاستجابات الأكثر واعدة وتماسكًا، مما يقلل من فرص استجابتها بنتائج بعيدة المنال أو غير متسقة.

الاختبار والتحقق من الصحة

يجب على كل من المطورين والمستخدمين اختبار أدوات الذكاء الاصطناعي والتحقق من صحتها لضمان الموثوقية. يجب على المطورين تقييم مخرجات النموذج بشكل منهجي مقابل الحقائق المعروفة، وأحكام الخبراء، واستدلالات التقييم لتحديد أنماط الهلوسة. ليست كل الهلوسة متشابهة؛ يختلف التلفيق الكامل عن التفسير الخاطئ بسبب فقدان دليل السياق.

يجب على المستخدمين التحقق من صحة أداء الأداة لأغراض محددة قبل الوثوق بمخرجاتها. تتفوق أدوات الذكاء الاصطناعي في مهام مثل تلخيص النص وإنشاء النص والترميز ولكنها ليست مثالية في كل شيء. إن تقديم أمثلة على المخرجات المرغوبة وغير المرغوب فيها أثناء الاختبار يساعد الذكاء الاصطناعي على التعرف على تفضيلاتك. إن استثمار الوقت في الاختبار والتحقق من الصحة يمكن أن يقلل بشكل كبير من خطر هلوسة الذكاء الاصطناعي في تطبيقك.

توفير قوالب للمخرجات المنظمة

يمكنك توفير قوالب بيانات تخبر نماذج الذكاء الاصطناعي بالتنسيق الدقيق أو البنية التي تريد تقديم المعلومات بها. من خلال تحديد كيفية تنظيم النتائج بالضبط والعناصر الأساسية التي يجب تضمينها، يمكنك توجيه نظام الذكاء الاصطناعي لإنشاء استجابات أكثر تركيزًا وملاءمة. على سبيل المثال، إذا كنت تستخدم أداة الذكاء الاصطناعي لمراجعة منتجات أمازون، فما عليك سوى نسخ كل النص من صفحة المنتج، ثم توجيه أداة الذكاء الاصطناعي لتصنيف المنتج باستخدام نموذج القالب التالي:

مطالبة:قم بتحليل نص صفحة منتج أمازون المقدم واملأ النموذج أدناه.استخراج التفاصيل ذات الصلة، والحفاظ على المعلومات موجزة ودقيقة، والتركيز على الجوانب الأكثر أهمية.إذا كانت هناك أي معلومات مفقودة، فاكتب "غير متاح". لا تقم بإضافة أي معلومات لم يتم الإشارة إليها مباشرة في النص.

  • اسم المنتج: [اسم المنتج المستنتج بواسطة الذكاء الاصطناعي هنا]
  • فئة المنتج: [فئة المنتج المستنتجة بواسطة الذكاء الاصطناعي هنا]
  • نطاق السعر: [السعر المستنتج بواسطة الذكاء الاصطناعي هنا] [الدولار الأمريكي]
  • الميزات الرئيسية: [وصف موجز هنا]
  • الايجابيات [أعلى 3 في النقاط]
  • سلبيات [أعلى 3 نقاط في النقاط]
  • التقييم العام: [مرتبة على مقياس من 1 إلى 5]
  • ملخص المنتج: [2-3 جمل كحد أقصى]

من غير المرجح أن تتضمن المخرجات الناتجة مخرجات ومعلومات خاطئة لا تفي بالمواصفات التي قدمتها.

استخدم أدوات الذكاء الاصطناعي بمسؤولية

في حين أن الاستراتيجيات المذكورة أعلاه يمكن أن تساعد في منع هلوسة الذكاء الاصطناعي على المستوى النظامي، إلا أنه يمكن للمستخدمين الفرديين تعلم كيفية استخدام أدوات الذكاء الاصطناعي بشكل أكثر مسؤولية. قد لا تمنع هذه الممارسات الهلوسة، لكنها يمكن أن تحسن فرصك في الحصول على معلومات موثوقة ودقيقة من أنظمة الذكاء الاصطناعي.

  • قم بإسناد النتائج وتنويع مصادرك: لا تعتمد فقط على أداة واحدة للذكاء الاصطناعي للحصول على معلومات مهمة.قم بمقارنة المخرجات مع مصادر أخرى حسنة السمعة، مثل المؤسسات الإخبارية القائمة، والمنشورات الأكاديمية، والخبراء البشريين الموثوقين، والتقارير الحكومية للتحقق من دقة المعلومات واكتمالها.
  • استخدم حكمك: أدرك أن أدوات الذكاء الاصطناعي، حتى الأكثر تقدمًا، لها حدود وعرضة للأخطاء.لا تثق تلقائيًا في مخرجاتهم. تعامل معهم بعين ناقدة واستخدم حكمك الخاص عند اتخاذ القرارات بناءً على المعلومات التي يولدها الذكاء الاصطناعي.
  • استخدم الذكاء الاصطناعي كنقطة بداية: تعامل مع المخرجات الناتجة عن أدوات الذكاء الاصطناعي كنقطة بداية لمزيد من البحث والتحليل بدلاً من اعتبارها إجابات نهائية.استخدم الذكاء الاصطناعي لاستكشاف الأفكار، وتوليد الفرضيات، وتحديد المعلومات ذات الصلة، ولكن عليك دائمًا التحقق من صحة الرؤى المولدة وتوسيع نطاقها من خلال الخبرة البشرية والأبحاث الإضافية.

خاتمة

تنشأ هلوسة الذكاء الاصطناعي من القيود الحالية لأنظمة LLM، والتي تتراوح من عدم الدقة البسيطة إلى الافتراءات الكاملة. تحدث هذه بسبب بيانات التدريب غير الكاملة أو المتحيزة، والفهم السياقي المحدود، ونقص المعرفة الواضحة.

على الرغم من التحديات، تظل تقنية الذكاء الاصطناعي قوية وتتحسن باستمرار. يعمل الباحثون على تقليل الهلوسة، وقد تم إحراز تقدم كبير. يمكنك الحد من الهلوسة من خلال توفير قوالب منظمة، وتقييد المخرجات، والتحقق من صحة النموذج لحالة الاستخدام الخاصة بك.

استكشف أدوات الذكاء الاصطناعي بعقل متفتح. إنها توفر قدرات رائعة تعزز براعة الإنسان وإنتاجيته. ومع ذلك، استخدم حكمك مع النتائج التي تم إنشاؤها بواسطة الذكاء الاصطناعي والمعلومات المرجعية ذات المصادر الموثوقة. احتضن إمكانات الذكاء الاصطناعي مع البقاء يقظًا للهلوسة.