أقلام فكرية

حاتم حميد محسن: دور الأفكار القديمة في معالجة مشاكل الذكاء الصناعي

حين لا يوجد ركاب في التاكسي الذاتية الحركة، يمكنها ان تتوقف كثيرا لتقليل الزحام وتلوث الهواء. ولكن بعد ان تتحرك لإلتقاط ركاب قد تقوم بسحق احد المارة في احدى ممرات المشاة فتسبب له جروح خطيرة. السؤال هنا منْ يستحق الإشادة والثناء على أفعال السيارة في تقليل الزحام والتلوث؟ وعلى منْ يقع اللوم في الإضرار بالمارة؟

أحد الاحتمالات هو مصمم سيارة التاكسي الذاتية الحركة. لكن في عدة حالات، لم يكن مصممو السيارة قادرين على التنبؤ الدقيق بسلوك التاكسي. في الحقيقة، الناس عادة يريدون من الذكاء الصناعي ان يكتشف افكارا او خططا جديدة وغير متوقعة. اذا كنا نعرف بالضبط ما يجب ان يقوم به النظام، عندئذ نحن لا نحتاج للقلق من الذكاء الصناعي. اما الخيار الآخر هو ابداء الإعجاب بالتاكسي ذاتها او لومها. لكن هذه الانواع من انظمة الذكاء الصناعي هي بالأساس مقررة سلفا: سلوكها يتقرر بشفرتها الخاصة وببيانات الاستشعار الآتية حتى لو كان المراقبون يصارعون للتنبؤ بذلك السلوك. من غير المألوف الحكم أخلاقيا على ماكنة ليس لديها خيار.

طبقا للعديد من الفلاسفة المعاصرين، الافراد العقلانيون يمكن ان يكونوا مسؤولين أخلاقيا عن أفعالهم حتى لو كانت تلك الافعال مصممة سلفا بالكامل – سواء بعلوم الاعصاب او بالشفرة. لكن الكثيرين يتفقون بان الفرد الاخلاقي يجب ان تكون لديه قدرات معينة لا تتوفر لدى سائق التاكسي الذاتية الحركة. هذه القدرات تصوغ وتحدد مبادئه الخاصة. أنظمة الذكاء الصناعي تقع في منطقة وسطى غير مريحة بين الافراد الأخلاقيين والوسائل غير الأخلاقية.

كمجتمع، نحن نواجه لغزا: يبدو ان لا أحد ، او لا شيء مسؤول عن أفعال الذكاء الصناعي – وهي ما يسميها الفلاسفة فجوة المسؤولية. النظريات الحالية في المسؤولية الأخلاقية لا تبدو ملائمة لفهم المواقف التي تستلزم الاستقلالية او شبه الاستقلالية في أنظمة الذكاء الصناعي.

اذا كانت النظريات الحالية لا تعمل، فربما يجب النظر في افكار القرون الماضية التي نجد لها صدى لافتا اليوم.

الله والانسان

سؤال مشابه حيّر رجال اللاهوت المسيحيين في القرن الرابع عشر بدءا من توما الاكويني حتى دونز سكوتس ووليم اوكهام. كيف يمكن ان يكون الناس مسؤولين عن أفعالهم وعن النتائج اذا كان الإله القدير هو الذي صممها – ومن المفترض انه عرف ما سينتج عنها؟ فلاسفة القرون الوسطى آمنوا بان قرارات المرء تنتج عن ارادته التي  تعمل وفق نتاجات عقله. بعبارة اخرى، هم فهموا عقل الانسان كـمجموعة من القدرات الذهنية التي تسمح بالتفكير العقلاني والتعلم. العقل هو الجزء العقلاني، والمنطقي من اذهان الناس او ارواحهم. عندما يواجه شخصان موقفان متشابهان ويتوصلان الى نفس "الاستنتاج العقلاني" حول كيفية التعامل مع الاشياء، فهما يستعملان العقل. العقل هنا يشبه كود الكومبيوتر.

لكن العقل لايعطي دائما جوابا فريدا. احيانا، العقل يعطي فقط امكانات، والرغبة ستختار من بينها سواء بوعي او بدون وعي. الرغبة هي فعل الاختيار الحر من بين الإمكانات.

كمثال بسيط، في يوم ممطر، العقل يأمر باني يجب ان استخرج مظلة من خزانتي للحماية من المطر، لكنه لم يحدد أي واحدة. الرغبة تختار المظلة الحمراء بدلا من الزرقاء. مفكرو القرون الوسطى، يرون ان المسؤولية الاخلاقية تعتمد على ما يساهم به كل من الرغبة والعقل. اذا كان العقل يقرر ان هناك فقط فعل واحد ممكن،  فانا لن استطيع عمل اي شيء آخر. وبذلك انا لا أكون مسؤول أخلاقيا. قد يستنتج احد ان الله مسؤول اخلاقيا طالما عقلي يأتي من الله – مع ان اللاهوتيين في القرون الوسطى يتحفظون على نسبة المسؤولية لله. من جهة اخرى، اذا كان العقل لا يضع مطلقا اية قيود على أفعالي، عندئذ انا مسؤول اخلاقيا بالكامل. وطالما الرغبة تقوم بكل العمل، فان معظم الافعال تستلزم مساهمات من كل من العقل والرغبة .

بعض الناس عادة يقيّدون عملنا: من الوالدين والمعلمين الى القضاة والامراء، خاصة في ايام فلاسفة القرون الوسطى، بما يجعل من الصعب تحديد المسؤولية الأخلاقية.

الانسان والذكاء الصناعي

من الواضح، ان العلاقة بين مطوري الذكاء الصناعي ونتاجهم ليس بالضبط نفس الشيء كما هو بين الله والانسان. لكن اساتذة الفلسفة والكومبيوتر يرون شيئا موازيا مثيرا للاهتمام. وهو ان تلك الافكار القديمة قد تساعدنا اليوم في التفكير بالكيفية التي يساهم بها نظام الذكاء الصناعي ومطوروه في المسؤولية الاخلاقية. مطورو الذكاء الصناعي ليسو ذوي قدرة كالالهة وانما هم يوفرون "العقل" لنظام الذكاء الصناعي عبر اختيار وتنفيذ طرقه في التعليم وقدرات الاستجابة. من وجهة نظر المصمم، هذا "العقل" يقيّد سلوك الذكاء الصناعي ولكن لا يقرر ابدا سلوكه بالكامل.

معظم أنظمة الذكاء الصناعي الحديثة تُصمم لتتعلم من البيانات ويمكنها الاستجابة ديناميكيا لبيئتها. الذكاء الصناعي لديه "ارادة" تختار كيفية الاستجابة ضمن قيود "عقله". المستخدمون، المدراء، المنظمون، الاطراف الاخرى يمكنهم ايضا تقييد انظمة الذكاء الصناعي – مثلما الطريقة التي تقيّد بها سلطات الملوك الناس ايام فلاسفة القرون الوسطى.

منْ المسؤول؟

من الملفت ان هذه الافكار القديمة تتعامل جيدا مع المشاكل الاخلاقية المتعلقة بانظمة الذكاء الصناعي. فلو عدنا للسؤال الانف الذكر: منْ المسؤول عن فوائد وأخطار التاكسي الذاتية الحركة؟ هنا التفاصيل تكتسب اهمية. فمثلا، اذا كان مطور التاكسي يكتب بشكل صريح الكيفية التي يجب تتصرف بها التاكسي عند نقاط عبور المشاة، عندئذ سلوكها سيكون ناتج كليا عن "عقلها" وبهذا سيكون المطورون مسؤولين.

لكن لنفترض ان التاكسي واجهت مواقف لم تُبرمج بوضوح – مثل لو ان نقاط المشاة صُبغت بطريقة غير عادية او ان التاكسي تلقّت ارشادات مختلفة عن البيانات في بيئتها قياسا بما وضعه المطور في ذهنه. في حالات كهذه، ستكون افعال التاكسي ناتجة كليا عن "رغبتها" لأن التاكسي اختارت خيارا غير متوقع – وبهذا فان التاكسي مسؤولة.

اذا كانت التاكسي مسؤولة اخلاقيا، فكيف نصف الموقف؟ هل شركة التاكسي مسؤولة؟ هل كان من الواجب ان يتم تحديث كود التكسي؟ لم يتفق اثنان على جواب كامل. لكننا نعتقد ان الفهم الجيد للمسؤولية الاخلاقية هو الخطوة الاولى الهامة. افكار القرون الوسطى ليست فقط حول اشياء ذلك العصر. اولئك الثيولوجيون يمكنهم مساعدة الاخلاقيين اليوم في فهم التحديات الحالية لأنظمة الذكاء الصناعي حتى وان لم يكن التوغل فيها الآن عميقا.   

***

حاتم حميد محسن

The conversation,Sep 2024

 

في المثقف اليوم