القرار الأخلاقي السليم ما بين الأنانية أو الإيثار... الموت أو الحياة

تعد "معضلة الترولي" جوهر الحديث في هذا الجانب، يُذكر أن الفيلسوفة البريطانية، "فيليبا فوت Philippa Foot"، أول من طرح النقاش حول "معضلة الترولي trolley problem"، في عام 1967م، عندما قالت إنها معضلة بسيطة بشرط العمل على حل لغز اتخاذ القرار الأخلاقي، لأن التفكير به أمر مرهق حقاً

فلك مثلاً أن تتخيل عربة "ترولي trolley" مسرعة باتجاه خمسة من العمال في أحد الطُرق، فإن انقاذ حياة هؤلاء العمال يتوقف على وجود مقبض تحكم لهذه العربة حتى يتسنى لسائقها تحويل اتجاهها نحو طريق آخر. ولكن في المقابل يوجد على الطريق الأخرى عامل واحد.. وفي هذه الحالة على سائق العربة أن يقرر هل يستمر في سيره نحو العمال الخمسة ويقتلهم أو أن يغير اتجاه عربته نحو الطريق الأخرى فيقتل عاملاً واحداً، إذن، ما هو القرار الصحيح في هذا الموقف؟

حاول العلماء في بحثهم، الذي نشرته مجلة العلوم، التعامل مع المشاكل الفلسفية لهذا الموضوع وتحديد مدى تأثيرها وأهميتها. وأشار العالم في مجال الاجتماع الحسابي، الدكتور رهوان، ضمن حديثه، فقال «يعتبر العنصر التجريبي أحد أهم العناصر المفقودة في هذه المعضلة، فنحن بحاجة للتأكد من رغبة الأشخاص في الواقع».

لقد قدم كل استطلاع رأي ودراسة عرض للمواقف والأحداث بمعايير مختلفة، كتغيير عدد المشاة المطلوب انقاذ حياتهم أو إدراج أحد أفراد الأسرة في سياق الموقف أو المشكلة.  فوجدوا أن نتائج أحد الدراسات قد أظهرت مدى تردد وحيرة المشاركين فيما يتعلق بالموافقة على التنظيم الحكومي الخاص بخوارزميات الذكاء الاصطناعي، حتى لو كان ذلك هو السبيل الوحيد لحل أو على الأقل تسوية الإجابة حول معضلة الترولي.

تفاوت عدد المشاركين في استطلاعات الرأي الستة من 182 إلى 451 مشارك.

قد تأخذ الدراسة البحثية الجديدة والتي ركزت على جانب تصنيع المركبات ذاتية القيادة بهذا المجال إلى رحلة مظلمة مليئة بالمواجهات والتحديات الجمة على الصعيدين الفلسفي والقانوني. ونظراً لحداثة مفهوم المركبة ذاتية القيادة (A.V)، فإن الإجابة على التساؤلات التي تدور حولها والسعي لإيجاد الحلول المناسبة يتطلب سنوات طويلة. وكتوضيح لما سبق، أشار بعض المؤلفون بأنه «في حال عرضت الجهة المُصنعة للمركبات ذاتية القيادة نسخ وإصدارات مختلفة من الخوارزميات القادرة على اتخاذ القرارات الأخلاقية في هذه المركبات، ثم اختار أحد المشترين واحدة منها، فهل يتحمل المشتري في هذه الحالة المسؤولية عن العقبات السيئة لقرارات الخوارزمية الأخلاقية؟».

تحاول القوات المسلحة الأمريكية التوصل إلى تفاهم بشأن حقيقة أن التكنولوجيا المتقدمة على مشارف تمكين الآلات من اتخاذ قرارات القتل في المواقف المختلفة، كالطائرات المسلحة بلا طيار أو كما هي معروفة بطائرات الدرون (armed drones). وعليه أصدر البنتاغون، في عام 2012م، قراراً بشأن محاولة الفصل والتمييز بين الأسلحة المقاتلة المستقلة وشبه المستقلة، فهذه الأسلحة ليست محظورة في القانون الدولي ولكن يجب تصميمها وتصنيعها بحث تسمح للإنسان بالسيطرة عليها والتحكم بها ضمن مستويات مناسبة.

كما اقترح " جوشوا د. غرين "Joshua D. Greene، عالم النفس من جامعة هارفرد، في أحد مقالاته التي نشرتها مجلة "ساينس Science"، بأن العامل الفلسفي قد يلعب دوراً وتحدياً في عملية اتخاذ القرار الأخلاقي للآلات أكثر من العامل التقني، لذلك وقبل برمجة الآلات وفق الاخلاقيات والقيم الموجودة، تعين علينا التعرف على كيفية تبسيط هذه القيم وتوضيحها وجعلها متوافقة مع المواقف المختلفة."

وفي الوقت ذاته، تناقش الباحثون حول عملية تعليم الآلات للقرارات الأخلاقية، ولكنهم توصلوا بأن تنفيذ ذلك قد لا يكون بحد ذاته منهجاً صحيحاً ودقيقاً.

"أميتاي إتزيوني Amitai Etzioni""، عالم الاجتماع في جامعة جورج واشنطن، قال في حديثه «إذا كنت تعتقد أن الهدف من وجود الذكاء الاصطناعي هو الاستغناء عن البشر، فإنه بات من الضروري وجود برامج تعليم وتدريب لكيفية اتخاذ القرارات الأخلاقية للسيارات، ويجب أن يتم هذا بالشراكة بين الإنسان والآلة المرجوة، آخذين بعين الاعتبار أن يكون الإنسان هو العنصر المُتحكم بتقديم وتوجيه القرار الأخلاقي».

نشر هذا المقال في تاريخ
19/12/2019
تحت تصنيف
التكنولوجيا

المصادر:

1. المرجع الأول
2. المرجع الثاني
3. المرجع الثالث
4. المرجع الرابع
5. المرجع الخامس
6. المرجع السادس

التكنولوجيا

المزيد »