قراءة في كتاب
حاتم حميد محسن: ماذا يحدث عندما تصبح المكائن أذكى من الانسان؟
هل ستُدارالانسانية في يوم ما بواسطة المكائن؟ هل سنصبح عبيدا او فريسة او لا قيمة لنا أمام الذكاء المتفوق الاصطناعي؟ بينما قد تبدو هذه الأسئلة تنتمي لعالم الخيال العلمي، لكن نهاية العالم المحتملة بفعل الذكاء الصناعي تصبح وبشكل متزايد موضوعا ملحّا في النقاشات العامة ولدى صنّاع السياسة، بسبب التطور المتسارع والمستمر في التكنلوجيات ذات الإقبال المتزايد مثل روبوتات الدردشة chat GPT.
القلق الكبير حول الذكاء الصناعي يستلزم ما يُعرف بـ "الغرابة" singularity"(1) ،وهي النقطة الافتراضية التي يصبح عندها النمو في ذكاء الماكنة خارج السيطرة ولا يمكن ايقافه.
الغرابة واحتمال فقدان السيطرة على الذكاء الصناعي
في ورقته عام 2010 بعنوان (الغرابة: تحليل فلسفي)، يصف الفيلسوف ديفد شالمر David chalmers بوضوح الغرابة كالتالي: "ماذا يحدث عندما تصبح المكائن أذكى من الانسان؟" احدى الرؤى هي ان هذا الحدث سيتبعه انفجار وبمستويات كبيرة جدا للذكاء الصناعي، عندما كل جيل من المكائن يخلق بدوره المزيد من المكائن الذكية. هذا الانفجار في الذكاء يُعرف الآن بـ "الغرابة". وبكلمة اخرى: اذا كنا قادرين على خلق مكائن أكثر ذكاءً من الانسان، عندئذ سيكون ذلك الجيل من المكائن من حيث المبدأ قادرا على خلق مكائن أكثر ذكاءً مرة اخرى.
هذا قد يقود الى زيادة متسارعة ومضاعفة – الغرابة – حيث سيُترك ذكاء الانسان و بسرعة ودون رجعة بعيدا الى الوراء من ذكاء الماكنة. القلق الرئيسي هو ، لو حدثت مثل هذه الغرابة، سوف لم تعد لدينا السلطة او التحكّم بما يحدث في المجتمع لأن أهداف وأفعال الذكاء الصناعي المتفوق سوف لا يمكن لنا التنبؤ بها. ربما سيوظّف الذكاء الصناعي كل ما لدينا من كهرباء لتغذية مشاريعه الذكية. وقد يقرر اختراق أنظمتنا العسكرية ويفجر جميع القنابل النووية دفعة واحدة. قد تتم التضحية بجزء كبير من الانسانية لتحقيق هدف لا يمكن لأحد فهمه.
وبينما تعبّر عدد من الشخصيات الهامة في بحوث الذكاء الصناعي ومختلف الحكومات عن قلق حقيقي حول الغرابة، لكن الفيلسوف الأمريكي دانيال دينيت Daniel Dennett لم يقتنع بذلك.
في الفصل الأخير من كتابه (من البكتريا الى باخ وبالعكس)، يتأمل دينيت الدور الذي تلعبه التكنلوجيا وما ستلعبه في حياتنا. يقول:
"انا لست قلقا حول ما تقوم به البشرية من خلق جنس من الوكلاء فائقي الذكاء يمكنهم حتما استعبادنا، لكن ذلك لا يعني عدم خوفي. انا أرى سيناريوهات اخرى أقل دراماتيكية لكنها من المحتمل جدا في المستقبل القريب ان تسبب قلقا وتتطلب عملا فوريا.
اعتمادنا على الذكاء الصناعي قد يقود الى الإهمال
يرى دينيت انه رغم ان حدث الغرابة يبقى ممكننا من حيث المبدأ"لكن حجم المهمة اكبر واكثر صعوبة مما ادّعى به القادة الفرحون". دانيت يجادل بان التكنلوجيا الذكية تضعنا أمام تهديدات عملية كبيرة محتملة جدا. وكما يقول:
"الخطر الحقيقي، أعتقد هو ليس لأن المكائن أكثر ذكاء منا او انها سوف تستحوذ على دورنا كقادة لمصيرنا، وانما لأننا سوف نبالغ في تقدير فهمنا لأخِر ادوات التفكير لدينا فنسلّم السلطة لها قبل الأوان بما يتجاوز كثيرا كفائتها". لنأخذ النقل كمثال. ليس فقط صناعات الطيران والسفن التي تعتمد على GPS لغرض الملاحة الفاعلة والآمنة: كم فرد يستعمل الان تلفونه الذكي بدلا من استعمال خارطة الطريق؟
او نأخذ مثالا آخرا عن الطب. الأنظمة القائمة على الكومبيوتر الان تتفوق كثيرا على خبراء التشخيص في مجال عملهم، تحدد في مرحلة مبكرة مراحل السرطان والأمراض الاخرى بدقة غير مسبوقة.
ماذا يعني هذا حول كيفية تدريب الاطباء؟ هل سيشجعنا على التخلص من الكثير من التعليم الطبي التقليدي، لأن المكائن تستطيع الان القيام بأجزاء معينة من المهمة بشكل أكثر كفاءة؟
وكما يلخص دينيت:
"... كم يجب ان نقلق من تقليل أهميتنا من خلال إعتمادنا المتزايد على الذكاء الصناعي؟ قد يقال بانه طوال التاريخ نحن دائما استخدمنا التكنلوجيا لنجعل حياتنا أسهل، وان الذكاء الصناعي هو فقط آخِر اختراع خطير سنستوعبه حالا. لكن الاختلاف هنا هو انه بينما شيء مثل التراكتور يستبدل عمل الانسان، لكنه لا يستبدل فهم الانسان: دماغ الانسان لايزال يلعب دورا مركزيا في حراثة الحقول.
الذكاء الصناعي مختلف لأنه يستبدل فعلا فهم الانسان: نحن نسلّم للماكنة ليس فقط العمل وانما السلطة الفكرية والخبرة (التركتور الآن تتم برمجته بسوفتوير وربما في يوم ما سيعمل هذا السوفتوير بشكل مستقل تماما دون حاجة لمراقبة الانسان).
هذا بالنسبة لدانيت هو الذي يشكل الخطورة. ماذا يحدث عندما تتعطل الماكنة؟ هل ستتوفر هناك الكثير من المعلومات لدى الخبراء البشر للعمل؟ لو ادّى الانبعاث الكتلي الاكليلي من الشمس الى القضاء على جميع الالكترونيات في العالم،مثلا، فهل يمكننا البقاء كحضارة؟ وكما أعلنت وكالة ناسا في مقال لها حول الانفجارات الشمسية "في عالم تكنلوجي متقدم باضطراد، وحيث تقريبا كل شخص يثق بخلايا التلفون وان الـ GPS يتحكم ليس فقط في نظام الخارطة في السيارة وانما ايضا في الملاحة الجوية وفي الساعات الدقيقة جدا التي تحكم الإجراءات المالية، لكن طقس الفضاء او التغيرات في بيئة الفضاء بين الشمس والارض هي مسألة خطيرة. ولهذا، بجانب إعداد مكائننا لمثل هذه التغيرات في الفضاء ، ماذا يمكننا القيام به ثقافيا لمنع أنفسنا من ان نصبح معتمدين بعمق على التكنلوجيا؟ كيف نضمن ان لا نبالغ في تقدير كفاءة المكائن في ادارة المجتمعات لمصلحتنا؟
الانتباه الى عدم كفاءة السوفتوير
أحد الحلول التي طرحها دونيت لمشكلة الإعتماد المتزايد هو جعل الحدود واضحة جدا بين المكائن التي هي أدوات وتلك التي تستبدل فهمنا. هو يكتب:
"نحن يجب ان نكشف ونهزأ من جميع التشبيهات اللامبررة للانسان مع انظمة جذابة ومليئة بالطاقة، عندما تتفاعل مع الكومبيوتر، انت يجب ان تعرف انك تتفاعل مع كومبيوتر". نحن يجب ان نجعل من الشائع تحديد العيوب في الانظمة". وما هو اكثر، نحن يجب ان نضعها في القانون بان أي إعلانات للتكنلوجيا يجب ان تعترف بكل النواقص في السوفتوير – تماما مثلما شركات الرعاية الصحية ملزمة بوضع قائمة بالتاثيرات الجانبية. وكما يعلن دينيت بقوة:
"الأنظمة التي تخفي عمدا نواقصها وعدم كفائتها يجب اعتبارها محتالة، ومبتكروها يجب ان يذهبوا الى السجن لإرتكابهم جريمة الغش او إستعمال ذكاء صناعي يتظاهر ككائن بشري". هذا قد يبدو قلقا غير ضروري، لكن جدال دينيت يجب النظر اليه في سياق الكيفية التي تعمل بها المجتمعات حاليا. هناك فهم سائد سلفا لدى قليل من الناس في مختلف هياكل السلطة. السياسيون يعرفون بعض الاشياء، العلماء والأساتذة يعرفون بعض الاشياء، قادة الشركات يعرفون بعض الاشياء، خدمات الطوارئ تعرف بعض الاشياء، لكن لا أحد يعرف كل شيء.
التخصص هو الشائع في المجتمع . واذا نتنازل عن تلك المعرفة التخصصية للمكائن، عندئذ عندما يصبح المجتمع اكثر تعقيدا سيعرف الناس القليل حول كيفية التعامل معها.
نحن يمكننا تشغيل المكائن بالروبوت بسهولة لحل المشاكل، لكننا لا نستطيع مكننة الحضارة بالروبوت بدون التسبب بأضرار خطيرة. وكما يستنتج دينيت: :الحضارة مشروع مستمر، وحينما نتخلى عن محاولة فهمها سنتحمل العواقب المترتبة على ذلك".
***
حاتم حيد محسن
.......................
الهوامش
(1) اول منْ استخدم مفهوم الغرابة singularity في السياق التكنلوجي هو الرياضي الهنغاري الامريكي جون فون نيومان عام 1958، بعد ذلك اصبح للمفهوم قبولا شعبيا بعد ان نشر الامريكي vernor vinge استاذ الرياضيات وعلوم الكومبيوتر عام 1983 مقالا له ادّعى فيه بانه حالما يخلق الانسان ذكاءً صناعيا اكبر من ذكاءه هو، سيكون هناك تحول تكنلوجي واجتماعي مشابه لـ " تشابك الزمكان في مركز الثقب الاسود". وفي مقال آخر له عام 1993(الغرابة التكنلوجية القادمة) ذكر انها ستؤشر لنهاية الجنس البشري عندما يستمر ذكاء صناعي متفوق جديد بترقية نفسه ويتقدم تكنلوجيا بسرعة غير مفهومة. هو تنبأ ان يحدث هذا بعد عام 2030 . بعض العلماء، بمن فيهم ستيفن هاوكنك، عبّروا عن القلق من ان الذكاء الصناعي سيؤدي الى انقراض البشرية. اما Ray Kurzwell في كتابه (الغرابة قريبة) يتنبأ بحدوثها عام 2045.