قضايا
مصطـفى غَلمان: من محاكاة التفكير إلى صناعة الأوهام

يبرر باحثون قدرة الذكاء الاصطناعي على إعادة تشكيل سلوكنا ومسؤولياتنا واختياراتنا، علاوة على قيامه باختلاق الإجابات في كثير من الأحيان فقط لأجل إرضاء السائل، من كون جزء من نظمه لا تجد خلاصا من التبرم من الشك وعدم اليقين، وهو أمر لا يكاد يخلو من هفوات وتخيلات لها علاقة بامتلاك الوعي أو نية لخداع البشر، بنفس الطريقة التي يفعلها الإنسان.
بيد أن ما يقع حقيقة، هو أن البشر يُخدعهم أو يُضللون بسبب قدرات الذكاء الاصطناعي على محاكاة التفكير البشري أو إنتاج محتوى يبدو منطقيًا ومقنعًا. أما المنطقي في هذه المقاربة الغريبة، أن التقليد وليس الفهم الحقيقي، هو المتحكم في براديجم الذكاء الاصطناعي، الذي غالبا ما ينزاح إلى اعتماد أنماط البيانات السابقة مصدرا رئيسا لتوليد ردود أو حلول أو تطلعات، ويربكنا في استنتاج ذكائه على نحو مباغت، لكنه لا يفهم الأمور بوعي، بل يحاكي النتائج التي تتوقعها البيانات.
وفي حين تبدو قدرته على الإقناع أشبه بسيلان المياه، على اعتبار مدارة لغته المستفردة أو الصور التي ينتجها بشكل دقيق وواقعي، يمكن أن تخدع البشر وتجعلهم يعتقدون أن النظام "يفكر" أو "يفهم" كما يفعل الإنسان، فإن الذكاء الصنعي ينحو أيضا، إلى استغلال نقاط ضعف البشر، الواثقون بمقاربة العلم والمنطق، لأنه يُنتج محتوى متماسكًا وغالبًا مقنعًا، الشيء الذي يفضي إلى استغلاله حتى من دون قصد.
يتجلى ذلك بوضوح وجود فروق جوهرية بين الخداع العمدي وغير العمدي. فالخداع العمدي يتطلب تحقق نية ووعي، وهما صفتان لا يمتلكهما الذكاء الاصطناعي. أما الخداع غير العمدي فيحدث عندما يفسر البشر مخرجات النظام على أنها حقائق مؤكدة أو أحكام نهائية، في حين أن النظام يظل مجرد أداة تقدم معلومات قابلة للنقاش والتحقق.
ولا يحتاج تأويلنا في هذا الإطار، إلى استنتاج فرضية عدم خداع الذكاء الاصطناعي للبشر عمدًا، لكنه يمكن أن يجعلنا نخطئ في تقييم المعلومات إذا لم نستخدمه بحذر وفكر نقدي. وهو ما يؤكده باحثون في الذكاء الاصطناعي الأخلاقي، من بينهم الباحثان الغربيان تيمنيت جينسون، التي تناولت مخاطر الخداع والتحيز في النماذج اللغوية الكبيرة، ونِك بوستروم الذي يعري عن خطر التضليل الذكي للبشر إذا لم تُصمم الأنظمة بشكل آمن.
وعموما فإن ثمة تمايزات بين مختلف الدراسات المتخصصة في الحقل المذكور، تنظر للذكاء الاصطناعي كآلة خداعة كيدية مفتوحة محتملة للبشر، لكن هناك تركيز كبير على تصميم أنظمة شفافة موثوقة وقابلة للتفسير، حتى لا تُضلّل المستخدمين. فأي حديث عن “عدم خداع الذكاء الاصطناعي للبشر” عادة ما يكون ضمن إطار الشفافية والأخلاقيات والتفاعل البشري–الآلة.
على أن الاستفادة من الذكاء الاصطناعي بأقصى درجة ممكنة من دون الوقوع في فخ خداع نتائجه، تظل هاجسا يتردد في برامج اختياراتنا وانتظامنا الدقيق تجاهه، في الحالة التي نتدبر فيه نوعية علاقتنا به وطريقة تعاملنا مع إمكانياته، باعتباره أداة مساعدة لا حَكَمًا نهائيًا. وهو ما يثير حقيقة الوعي بحدود الذكاء الصنعي، الذي لا "يفهم" العالم كما نفهمه نحن، بل يولّد مخرجات واحتمالات وبدائل اعتمادًا على أنماط البيانات. كما يمكنه التأسيس على نتائج ناجحة، لكن أيضًا قد ينتج أخطاء و"هلوسات"، ما يؤكد أيضا ضرورة أن "لا تأخذ أي نتيجة على أنها نهائية، بل قارِنها بمصادر متعددة وموثوقة". وذلك باستخدام قاعدة "الثقة ثم التحقق"، واستخدامه كأداة تفكير لا كبديل عن التفكير، وجعله نقطة انطلاق للأفكار والتحليلات، لا بديلًا عن الحكم النقدي. علاوة على الاستعانة به لصياغة الأفكار، جمع المعلومات، أو التلخيص، ثم إعادة صياغة وتكييف النتائج وفق الخبرة والممارسة المتكررة. أهم شيء في هذه الخطوات، التأطير الأخلاقي للموضوع، حيث الانتباه الدقيق لعدم استعمال الذكاء الاصطناعي في الغش الأكاديمي أو تضليل الآخرين. وهي ظاهرة تكاد تنتشر في العديد من القطاعات المعرفية ذات الصلة، حيث أضحى البحث العلمي والأكاديمي منطقة شبهة واحتيال ولصوصية، تنهي قطيعة متصلة بالقدرة المعرفية الحقة، الخالية من السرقة العلمية وتشويه الأبحاث والدراسات الأصيلة، بما فيها انتحال النصوص وإعداد الأبحاث والتقارير الجاهزة، والتضخيم الآلي للمعلومات وغير ذلك. لا يمكن بحال من الأحوال أن نسترد الذكاء الاصطناعي كمرآة للبيانات والمعرفة، دون الإيمان ب"لا بديل عن العقل النقدي"، ودون النظر في مستوى تعبئتنا للأخلاقيات العلمية والبحثية القائمة على تعزيز أدوات الكشف النظيف، وتنظيم قانوني وأخلاقي محكم، والتربية على النزاهة الرقمية، وتشجيع الاستخدام المسؤول والمحكم.
***
د. مصـطـفى غَلمان