قضايا

نوال طه ياسين: الذكاء الاصطناعي بوصفه بنية سلطوية جديدة

كثُرت الدراسات في الآونة الأخيرة حول الذكاء الاصطناعي، حتى أنه لا يكاد يخلو مجال من المجالات المعرفية الا وتناول هذا الموضوع، بل أنه أصبح حديث الناس، وأثار دهشتهم في الوقت نفسه، نظرًا لسهولة استخدامه وسرعة استجابته وغيرها من الميزات الأخرى.

واذا عدنا الى الذكاء في الأصل نجد أنه سمة انسانية ومن تمثيلاته سرعة التعلم، استحضار المعلومات، التحليل، النقد، الاستدلال، المقارنة، وغيرها من العمليات. لكن الأمر المذهل الذي حصل ان الآلة التي نصنعها بعضها على صورتنا، وهناك من لها مسحة من الذكاء تحاكي به الذكاء البشري هذا ان لم تفقه في أغلب الأحيان، وهو ما أطلق عليه فلاسفة ما بعد الانسانية "بالتحسين المعرفي"، هذا من جهة، ومن جهة أخرى، الآلة كما هو معروف "أداة" تستخدم لإعانة الانسان على انجاز الأعمال، الا أن الذكاء الاصطناعي بوصفه آلة وانجازًا علميًا هيأ للإنسان فرصًا جديدة :-ففي المجال الطبي ابتكرت روبوتات لتشخيص الأمراض واجراء العمليات الدقيقة مثل (Da Vinci Xi)، وفي المجال اللغوي هناك برامج مثل برنامج ((Grammarly، الذي يساعد الباحث للتأكد من دقة البناء النحوي للنص، أو في مجال الترجمة هناك برامج تناسب التخصصات لترجمة النصوص واعطاء أكثر من خيار للوصول الى المعنى الصحيح، وفي أية لغة مثل برنامج ((Deepl، مع الأخذ بنظر الاعتبار أن هذه البرامج تتعامل مع اللغات عالية الموارد وتُستثني الواطئة منها.أما في المجال الحقوقي، فمن لديه دعوى ويرغب بأخذ استشارة قانونية بإمكانه استشارة الذكاء الاصطناعي وتساعد امكانيات تحليل المستندات المتعددة الاستخدامات ((CoCounsel Legal المحامين على مراجعة المعلومات من جميع الأنواع، والوصول الى رؤى قابلة للتنفيذ على نحو سريع، والعثور على الثغرات القانونية بين الملايين من الصفحات. وبإمكان هذا البرنامج الاجابة على أسئلة معقدة حول الوثائق ومقارنتها ومقابلتها، وتقديم ملخصات مصممة خصيصًا، والبحث في قواعد البيانات الضخمة، وتحليل الحجج، واكتشاف التوصيفات الخاطئة.

لكن الانجازات العلمية على الرغم من الآفاق الجديدة التي تهيؤها الا أنها تطرح تحديات أخلاقية وقانونية، بدليل أنها تسببت بارتكاب أخطاء جمة في حقوق الانسان. والسبب في ذلك التسارع المهول في تطوير هذه التقنيات، مما أثار شعورًا بالقلق الوجودي تجاه نشر ها. والمراقب الذكي بإمكانه أن يحدد السنوات (2021-2022-2023)،التي لوحظ فيها ذلك الانتشار وقد مثلت هذه الفترة لحظة تحول نوعي في 1-تطوير هذه التقنيات بعيدًا عن الرقابة الأخلاقية والقانونية 2-خروجها من المختبرات التكنولوجية المغلقة الى الاستخدام الشعبي الواسع 3-الادمان التكنولوجي Technology addiction على الأجهزة الرقمية.وهو نوع من الإدمان السلوكي يتميز بالاستخدام المفرط وغير المنضبط للأجهزة الإلكترونية. فالأدوات مثل Midjourney AI، Generative AI & Chat GPT)) وغيرها عندما خرجت من المختبرات الى الاستخدام الشعبي الواسع أتاحت لمستخدمين عاديين انتاج صور ونصوص بكفاءة غير مسبوقة مما طرح تساؤلات عدة منها: التساؤل عن مكانة الانسان بوصفه مفكرًا ومبدعًا حاملًا للذوق الجمالي ومصدرًا للتجربة الانسانية المتجددة في زمن الألة، وعن كيفية حماية حقوق الملكية الفكرية. فهذه النماذج التي تتغذى على محتوى أبدعه بشر تُعيد انتاجه من دون اذن أو تعويض، فضلًا عن التساؤل عن تداعيات هيمنة التقنيات الذكية على ماهية الانسان، ومن هنا حذر فلاسفة التقنية مثل برنارد ستيغلر من الوقوع في خطرين يتمثل الخطر الأول ب"الاستلاب الرقمي" اذ ان هذه التكنولوجيا تؤثر على الفعل الانساني والهوية والذاكرة، وتهدد باختزالنا من كائنات منتجة الى مستهلكه، وهذا يعني اغتراب الانسان عن ذاته ومجتمعه تحت وطأة الهيمنة الرقمية، ومن ثم الوقوع بالخطر الثاني المتمثل ب"التشيؤ التقني" اذ يُخشى من هيمنة هذه التكنولوجيا على ماهية الانسان واختزالها في منظومة تقنية لا تراعي قيمته الوجودية فيتحول الى مجرد رقم في منظومة آلية تستخرج منها البيانات وتُعاد قولبتها لأغراض ربحية. هكذا يبدو الذكاء الاصطناعي ليس أداةً وحسب، بل هو قوة بنيوية تعيد تشكيل مفهوم الانسان وحقوقه.

ومن هنا تبرز ضرورة تفعيل الرقابة القانونية والمحاكمة الأخلاقية، لأن مثل هذه المخاطر تُهدد أهم حق من حقوق الانسان المتمثلة (بفهم معنى أن نكون بشرًا)، فالشركات التكنولوجية تسعى الى خلق علاقة وجدانية بين الانسان والآلة تسمى (اسقاط المشاعر على الأشياء الاصطناعية)، ومن مظاهر هذه الحالة الحوار مع الآلة كما لو كانت ذاتًا واعية، وهذا المسعى ليس بريئًا اذ يًعد أخطر ما أحدثته التكنولوجيا’ اذ أدى الى تضاؤل الاحساس بالذات أمام الآلات تتظاهر بالفهم والتعاطف. وكان نتيجة ذلك اضعاف ادراكنا لخصوصية المشاعر الانسانية ذلك انها غير قابلة للبرمجة، فضلا عن أن هذه الشركات استثمرت ذلك في تقديم التكنولوجيا كمعالج نفسي، في حين أنها تبقى مجر د آلة مصممة للاستجابة على نحو مشروط لا واع. ومن الجدير بالذكر ان نفوذ الشركات الى هذا الحد أدى الى التشكيك في حدود السلطة بين الآلة والبشر، وتفعيل فكرة (سلطة الآلة على الانسان)، أو ما بات يعرف ب(تطبيع الرقابة) لتصبح حالة طبيعية وجزء من الحياة اليومية، وهو الدور الذي تؤديه شركات مثل (كوكل-ميتا، أمازون أوبن اي) في تشكيل بيئة الذكاء الاصطناعي. من خلال أنظمة التعرف على الوجوه بكاميرات مدعومة بالذكاء الاصطناعي، وتقنيات تتبع الحركة، والتحليل السلوكي ان كل ما تقدم يؤكد الفكرة المحورية لهذا المقال، فهذه الشركات لم تعد تجارية وحسب، بل انها قوى فوق دولية تمتلك كمًا هائلًا من البيانات، ولها القدرة على التأثير في الرأي العام، ويبدو ذلك من خلال التواطؤ بين هذه الشركات والسياسات التي تطمح الى تقويض حقوق الانسان وتعزيز السيطرة السياسية ليس على شعوبها وحسب بل على العالم بأسره. لذلك ينبغي الحذر كل الحذر من مساعي بعض التقنيين لمنح الآلة بعض الحقوق، في وقت سُلبت به حقوق الانسان ومُنحت للآلة، والهدف من كل ذلك تحجيم قدرات الانسان (المستهلك) لها.

ان كل ما تقدم، وغيره من المخاطر والأخطاء دفعت الأمم المتحدة لحقوق الانسان مؤخرًا في تقريرها الصادر في 20 من شباط 2026، من التحذير من تحول الذكاء الاصطناعي الجامح الى "وحش فرانكشتاين"، وهذا يحدث اذا افتقر مطوروه الى فهم عميق للمبادئ الاخلاقية والاجتماعية الأساسية. لأنهم سيطورون شيئا لا يمكنهم السيطرة عليه فيما بعد، اذا لم يكونوا على دراية بمخاطر هذه الثورة التكنولوجية.

***

أ. د. نوال طه ياسين - أستاذ الفلسفة المعاصرة

جامعة البصرة-كلية الآداب-قسم الفلسفة

في المثقف اليوم