الهلوسة الرقمية
لا أعني بعنوان هذا المقال هلاوس بعض الحكومات والجامعات والمؤسسات العربية بخصوص إنجاز “التحول الرقمي” دون بنية تحتية كافية ووافية لتحقيق هذا التحول، سواء أكانت هذه البنية مادية تتعلق بالعتاد والأجهزة، أو كانت معرفية تتعلق بإنتاج المعرفة الرقمية واستخدامها وتطويرها، إنما أشير بالعنوان إلى إحدى الظواهر المُهمة في مجال الذكاء الاصطناعي (نظرًا لعواقبها التطبيقية الوخيمة)، التي تُقارن عادةً بهلوسة الدماغ البشري في محاولةٍ لفهمها ومعرفة أسبابها، ومن ثم منعها أو الحد منها.
الهلوسة الرقمية (Digital Hallucination) أو هلوسة الذكاء الاصطناعي (AI Hallucination) ببساطة ظاهرة يُدرك فيها نموذج اللغة الكبير (Large Language Model LLM)، الذي غالبًا ما يكون برنامج دردشة آلي (Generative AI Chatbot) أو أداة رؤية حاسوبية (Computer Vision Tool)– أنماطًا أو أشياء غير موجودة أو غير محسوسة للمراقبين البشريين، مما يؤدي إلى مخرجات غير منطقية أو غير دقيقة تمامًا. وعلى نحو أوضح، إذا قدم المستخدم طلبًا لأداة ذكاء اصطناعي توليدية، فإنه يرغب بالطبع في الحصول على مخرجات تعالج مطالبته معالجة مناسبة (أي إجابة صحيحة عن سؤالٍ ما). ومع ذلك، في بعض الأحيان تنتج خوارزميات الذكاء الاصطناعي مخرجات لا تعتمد على بيانات التدريب (Training Data)، أو يفك المحول (Transformer) تشفيرها على نحو غير صحيح، أو لا تتبع أي نمط يمكن تحديده، ولذا نقول مجازًا أن الأداة “تُهلوس” الاستجابة.
في أوائل العقد الأول من القرن الحادي والعشرين، استُخدِم مصطلح الهلوسة في مجال الرؤية الحاسوبية (Computer Vision) –بناء تطبيقات ذكية قادرة على فهم محتوى الصور كما يفهمها الإنسان– بدلالة إيجابية مؤداها وصف عملية إضافة التفاصيل إلى الصورة. على سبيل المثال، مهمة توليد صور للوجه عالية الدقة من مدخلات منخفضة الدقة تسمى هلوسة الوجه (Face Hallucination). وفي أواخر سنة 2010، خضع المصطلح لتحول دلالي سلبي، إذ أصبح يشير إلى توليد مخرجات غير صحيحة أو مضللة من أنظمة الذكاء الاصطناعي في مهام مثل الترجمة أو اكتشاف الأشياء (Object Detection) (اكتشاف أشياء دلالية من فئة معينة في الصور ومقاطع الفيديو الرقمية). وفي سنة 2017 استخدم باحثو جوجل هذا المصطلح لوصف الاستجابات الناتجة عن نماذج الترجمة الآلية العصبية (Neural Machine Translation NMT) عندما لا تكون مرتبطة بالنص المصدر، وفي سنة 2018، استُخدِم المصطلح في مجال رؤية الكمبيوتر لوصف الحالات التي يُكتشَف فيها كائنات غير موجودة على نحو خاطئ بسبب الهجمات العدائية. ولم يلبث مصطلح الهلوسة في الذكاء الاصطناعي أن اكتسب اعترافًا أوسع نطاقًا خلال العامين الماضيين، لا سيما مع طرح روبوتات الدردشة المستخدمة على نطاق واسع استنادًا إلى نماذج اللغات الكبيرة (Large Language Models LLMs).
قد يبدو المصطلح مثيرًا للدهشة، نظرًا لأن الهلوسة ترتبط عادة بأدمغة الإنسان أو الحيوان، وليس الآلات. لكن من وجهة نظر مجازية، يُعبر المصطلح عن كثرة من المخرجات بدقة، بخاصة في حالة التعرف على الصور والأنماط (إذ يمكن أن تكون المخرجات سريالية حقًا في المظهر). صحيح أن ثمة اختلافات جوهرية بين أنظمة الإنسان وأنظمة الذكاء الاصطناعي، إلا أن هناك قواسم مشتركة بين هلاوس الإنسان والذكاء الاصطناعي، منها:
- كلاهما ينجم عن تفسيرات خاطئة للمدخلات أو البيانات الحسية: تنشأ الهلوسة البشرية من معالجة الدماغ غير الصحيحة للمعلومات الحسية، في حين تنبع هلوسة الذكاء الاصطناعي من تفسير خاطئ للبيانات.
- يمكن أن يتأثر كلاهما بالتحيزات: عند البشر، يمكن للتحيزات المعرفية تشكيل طبيعة الهلوسة، في حين يمكن أن تتأثر هلوسة الذكاء الاصطناعي بالتحيزات في بيانات التدريب أو الخوارزميات.
- كلاهما له عواقب سلبية محتملة: يمكن أن تكون للهلوسة البشرية آثار ضارة على الصحة العقلية والأداء اليومي، في حين أن هلوسة الذكاء الاصطناعي يمكن أن تؤدي إلى تنبؤات أو قرارات غير صحيحة لها آثار ضارة محتملة.
بعبارة أخرى، تشبه هلاوس الذكاء الاصطناعي الطريقة التي يرى بها البشر أحيانًا أشكالًا في السحب أو وجوهًا على القمر. ومع ذلك، هناك اختلاف رئيس: ترتبط هلاوس الذكاء الاصطناعي باستجابات أو معتقدات غير مبررة بدلًا من تجارب الإدراك الحسي، وتحدث هذه الاستجابات الخاطئة بسبب عوامل مختلفة، بما في ذلك التجهيز الزائد، وتحيز بيانات التدريب أو عدم دقتها، والتعقيد العالي للنموذج. على سبيل المثال، قد يتضمن برنامج الدردشة الآلي المدعوم بنماذج اللغة الكبيرة مثل “تشات جي بي تي” (ChatGPT)– أكاذيب عشوائية تبدو معقولة ضمن المحتوى الذي يُنشأ. وقد ذهب المحللون سنة 2023 إلى أن روبوتات الدردشة تهلوس بنسبة تصل إلى 27%، مع وجود أخطاء واقعية في 46% من استجاباتها. ويشكل اكتشاف هذه الهلوسة وتخفيفها تحديات كبيرة للنشر العملي وموثوقية نماذج اللغة الكبيرة في سيناريوهات العالم الفعلي.
تتضمن بعض الأمثلة البارزة على هلوسة الذكاء الاصطناعي ما يلي:
- ادّعى برنامج الدردشة بارد (Bard) التابع لشركة جوجل، على نحو غير صحيح، أن تليسكوب جيمس ويب الفضائي (James Webb Space Telescope) قد التقط الصورة الأولى في العالم لكوكب خارج نظامنا الشمسي. والحقيقة أنه في سبتمبر من العام الماضي، التقط ويب صورة لكوكب خارج المجموعة الشمسية، لكن هذه لم تكن الصورة الأولى على الإطلاق لأي كوكب خارج المجموعة الشمسية، وهو إنجاز حدث سنة 2004.
- مارس روبوت الدردشة سيدني (Sydney)، الذي قدمته ميكروسوفت مدعومًا بالذكاء الاصطناعي (Microsoft’s Chat AI)، سلوكًا غريبًا في مخرجاته، إذ اعترف بالوقوع في حب المستخدمين، وقدَّم نصائح وتهديدات غريبة ومثيرة، بداية من طلبه من أحد المستخدمين ترك زوجته، ووصولًا إلى التلويح بإمكانية سرقة الرموز النووية وإطلاق العنان للفيروسات. وذكر أحد كُتاب صحيفة نيويورك تايمز أنه عندما تحدث إلى سيدني، بدا كأنه: «مراهق متقلب المزاج ومصاب بالهوس والاكتئاب، وقد وقع في فخ، ضد إرادته، داخل محرك بحث من الدرجة الثانية!».
- سحبت شركة ميتا (Meta) العرض التجريبي الخاص بنموذج اللغة الكبير جالاكتيكا (Galactica) سنة 2022 بعد تدريبه على المعرفة العلمية بثمانية وأربعين مليون مثال للمقالات العلمية والمواقع الإلكترونية والكتب المدرسية وملاحظات المحاضرات والموسوعات، وذلك بسبب إنتاجه لمعلومات مغلوطة وُصفت بالهراء العلمي، واختلاقه لأوراقٍ بحثية مزيفة نُسبت أحيانًا إلى مؤلفين حقيقيين، بالإضافة إلى ميله إلى التحيز وعدم قدرته على التمييز بين الفعلي والزائف.
من جهة أخرى، يمكن أن تؤدي الهلوسة الرقمية إلى عواقب وخيمة فيما يتعلق بتطبيقات العالم الفعلي. على سبيل المثال، قد يُحدد نموذج الذكاء الاصطناعي للرعاية الصحية على نحو غير صحيح آفة جلدية حميدة على أنها خبيثة، ما قد يؤدي بدوره إلى تدخلات طبية غير ضرورية. كذلك يمكن أن تساهم الهلوسة في انتشار المعلومات الخاطئة أو المُضللة. على سبيل المثال: إذا استجابت الروبوتات الإخبارية المهلوسة للاستفسارات بشأن حالة الطوارئ الناشئة بمعلومات لم يتحقق من صحتها، فمن الممكن أن تنشر الأكاذيب والشائعات بما يُقوض جهود التهدئة.
يمكن أن تكون نماذج الذكاء الاصطناعي أيضًا عرضة للهجمات العدائية، إذ تتلاعب الجهات الفاعلة السيئة بمخرجات نموذج الذكاء الاصطناعي عن طريق تعديل بيانات الإدخال بمهارة. مثلًا: في مهام التعرف على الصور، قد يتضمن الهجوم العدائي إضافة كمية صغيرة من الضوضاء المصممة خصيصًا إلى الصورة، مما يتسبب في تصنيف الذكاء الاصطناعي لها تصنيفًا خاطئًا. وقد يصبح هذا مصدر قلق أمني كبير، بخاصة في المجالات الحساسة مثل الأمن السيبراني (Cybersecurity)، وتقنيات المركبات ذاتية القيادة. ولعل أفضل طريقة للتخفيف من تأثير هلوسة الذكاء الاصطناعي هي إيقافها قبل حدوثها، وذلك ببعض الخطوات، مثل:
- استخدام بيانات تدريب عالية الجودة، إذ تُحدد جودة بيانات التدريب وأهميتها سلوك النموذج وجودة مخرجاته.
- تحديد الغرض الذي سيخدمه نموذج الذكاء الاصطناعي النوعي، ذلك أن توضيح كيفية استخدام نموذج الذكاء الاصطناعي وميدان هذا الاستخدام سيساعد في تقليل الهلوسة وإكمال مهامه على نحو أكثر فاعلية.
- استخدم قوالب البيانات (Data Templates)، إذ توفر قوالب البيانات تنسيقًا محددًا مسبقًا، مما يزيد من احتمالية إنشاء نموذج الذكاء الاصطناعي مخرجات تتوافق مع الإرشادات المحددة، ويضمن اتساق المخرجات ويقلل من احتمالية أن يؤدي النموذج إلى نتائج خاطئة.
- الحد من الردود (Limit Responses)، إذ غالبًا ما تُصاب نماذج الذكاء الاصطناعي بالهلوسة لأنها تفتقر إلى القيود التي تحد من النتائج المحتملة، ولمنع هذه المشكلة وتحسين الاتساق العام ودقة النتائج، يجب رسم حدود لنماذج الذكاء الاصطناعي باستخدام أدوات التصفية و/أو الحدود الاحتمالية الواضحة.
- اختبار النظام وتحسينه باستمرار، إذ يُعد اختبار نموذج الذكاء الاصطناعي النوعي بدقة قبل الاستخدام أمرًا حيويًا لمنع الهلوسة، كما هو الحال مع تقييم النموذج باستمرار.
- الاعتماد على الرقابة البشرية، ذلك أن التأكد من تحقيق المُبرمج البشري من صحة مخرجات الذكاء الاصطناعي ومراجعتها بمنزلة إجراء داعم نهائي لمنع الهلوسة، كما تضمن الرقابة البشرية أنه إذا أصيب الذكاء الاصطناعي بالهلوسة، فإن ثمة من سينقيه ويصححه.
أخيرًا، وعلى الرغم من أن هلوسة الذكاء الاصطناعي تُمثل بالتأكيد نتيجة غير مرغوب فيها في معظم الحالات، فإنها تقدم أيضًا مجموعة من حالات الاستخدام المثيرة للاهتمام التي يمكن أن تساعد المؤسسات على الاستفادة من إمكاناتها الإبداعية بطرق إيجابية، ومن أمثلة ذلك:
- الفن والتصميم: إذ تقدم هلوسة الذكاء الاصطناعي نهجًا جديدًا للإبداع الفني، وتوفر للفنانين والمصممين وغيرهم من المبدعين أداة لتوليد صور مذهلة بصريًا وخيالية. وبفضل قدرات الهلوسة للذكاء الاصطناعي، يمكن للفنانين إنتاج صور سريالية وشبيهة بالحلم يمكنها توليد أشكال وأساليب فنية جديدة.
- تصور دلائل البيانات وتفسيرها: إذ يمكن لهلوسة الذكاء الاصطناعي تبسيط تصور البيانات بالكشف عن اتصالات جديدة وتقديم وجهات نظر بديلة بخصوص المعلومات المعقدة. وقد يكون هذا ذا قيمة خصوصًا في مجالات مثل التمويل، إذ يُسهل تصور اتجاهات السوق المعقدة والبيانات المالية اتخاذ قرارات أكثر دقة وتحليلًا للمخاطر.
- الألعاب والواقع الافتراضي: إذ تعمل هلوسة الذكاء الاصطناعي أيضًا على تعزيز التجارب المثيرة في الألعاب والواقع الافتراضي. إن توظيف نماذج الذكاء الاصطناعي للهلوسة وإنشاء بيئات افتراضية يمكن أن يساعد مطوري الألعاب ومصممي الواقع الافتراضي على تخيل عوالم جديدة تنقل تجربة المستخدم إلى المستوى التالي، ويمكن أن تضيف الهلوسة أيضًا عنصر المفاجأة وعدم القدرة على التنبؤ والحداثة إلى تجارب الألعاب.
ربما علينا أن نشير في النهاية إلى أن ثمة علاقة جدلية بين هلوسة الذكاء الاصطناعي وهلوسة القائمين عليه، أعني كثرةً من المسؤولين والمدراء التنفيذيين للتكنولوجيا الذين يُطلقون العنان لمصالحهم الربحية والسيادية، ويُسوقون الأمل كذبًا في واقع يتشوق إليه!
يقولون لنا إن الذكاء الاصطناعي التوليدي سوف يُنهي الفقر، وسوف يعالج الأمراض كافة، وسوف يحل مشكلة التغير المُناخي، وسوف يجعل وظائفنا أكثر أهمية وإثارة وسهولة، وسوف يمنحنا حياة كاملة من الترفيه والتأمل، مما يساعدنا على استعادة إنسانيتنا التي افتقدناها بسبب الميكنة الرأسمالية المتأخرة، وسوف يُثري نُظمنا التعليمية ويدفع بها إلى المنتج الإبداعي المأمول، وسوف يُنهي شعور الإنسان بالوحدة، وسوف يجعل حكوماتنا أكثر عقلانية وأقدر وأسرع في الاستجابة لمطالبنا، إلخ. أخشى أن هذه هي الهلوسة الحقيقية للذكاء الاصطناعي، وقد سمعناها جميعًا بتكرار منذ إطلاق تشات جي بي تي!
ثمة عالم يمكن فيه بالفعل تنظيم الذكاء الاصطناعي التوليدي، بوصفه أداة بحث تنبؤية قوية وقادرة على أداء المهام الشاقة، لصالح البشرية والأنواع الأخرى ووطننا المشترك. لكن لكي يحدث ذلك، فلا بد من نشر هذه التكنولوجيات داخل نظام اقتصادي واجتماعي مختلف إلى حد كبير عن نُظمنا الحالية، نظام يهدف إلى تلبية الاحتياجات البشرية وحماية الأنظمة الكوكبية التي تدعم أشكال الحياة جميعها، وإلا، ما العمل الذي تؤديه هذه الأدوات الجديدة والغريبة؟ إليكم إحدى الفرضيات: إنها محض مجموعة من قصص الغلاف القوية والمغرية لما قد يتبين أنه أكبر سرقة وأكثرها أهمية في تاريخ البشرية، لأن ما نشهده الآن هو استيلاء أغنى الشركات في التاريخ (ميكروسوفت، وأبل، وجوجل، وميتا، وأمازون…) من جانب واحد على مجموع المعرفة البشرية الموجودة في قالب رقمي قابل للإلغاء، وعزلها داخل منتجات خاصة، التي سوف يصبح كثيرًا منها أداة للهيمنة على أولئك الذين دربوا الآلات طوال حياتهم دون إعطاء إذن أو موافقة!
مقالات ذات صلة:
الذكاء الاصطناعي (حصاد 2023 وتحديات المستقبل)
مشروع جديد لوكالة ناسا يهدف لرؤية عصور الكون المظلمة
* تنويه: الأفكار المذكورة في المقال لا تعبر بالضرورة عن رأي الموقع.
_________________________________
لمتابعة قناة اليوتيوب لأكاديمية بالعقل نبدأ، اضغط هنا
لقراءة المزيد من المقالات، اضغط هنا