الاستخدام الأخلاقي للذكاء الاصطناعي وعلاقته بأخلاقيات الإنسان

"الذكاء الاصطناعي يستمد أخلاقيته من ردود الفعل الأخلاقية أو اللاأخلاقية للأعداد الكبيرة من الأشخاص"

حسبما صرح "جيمس جريملمان James Grimmelmann"، الأستاذ في كلية الحقوق بجامعة كورنيل.

التصور العام لقرارات الذكاء الاصطناعي الأخلاقية يسهل عملية الاختيار

تعكس هذه الرؤية المستقبلية مدى الاهتمام المتزايد لدى الباحثين في مجال الذكاء الاصطناعي للعمل على تمكين وتدريب الخوارزميات من اتخاذ القرار الأخلاقي في المواقف المختلفة عبر تزويدها بالأحكام الأخلاقية المتعلقة بالأشخاص من مختلف الفئات. من جهة أخرى، قام مؤخراً فريق بحثي آخر، من جامعة "ديوك Duke"، بنشر ورقة بحثية تبرهن بالأسباب والدلائل أنه كلما تزايد انتشار مفهوم الذكاء الاصطناعي وأصبح أكثر استقلالية، ازدادت الحاجة لوضع "إطار وتصور عام general framework" يحتوي على وصف آلية وكيفية اتخاذ القرارات الأخلاقية، ذلك بسبب عدم اقتناع الأشخاص المختلفين لمسار العمل الأخلاقي المناسب في موقف معين، وكما أن أنظمة التعلم الآلي التي تضم وجهات النظر المتراكمة للأشخاص حول المواقف المختلفة تمثل وسيلة ناجحة للبحث، كتلك الموجودة  بآلة "Moral Machine" المبنية على تقنية الذكاء الاصطناعي. وأشار الفريق البحثي بأن أي نظام قائم وفق هذه الآلية ربما تكون نتائج قراراته الأخلاقية أفضل بكثير من القرارات الفردية للبشر.

لقد تحدثنا عبر بودكاست "موجز أخبار العالم The Outline World Dispatch " الذي نبثه يومياً، مع "جون كريستيان Jon Christian"، حول أخلاقيات الذكاء الاصطناعي، يجدر الذكر أنه بإمكانك الاشتراك بتطبيق "آبل بودكاست Apple Podcasts" أينما كنت تستمع له.

هل ينجح crowdsourced؟

إن الآلية المُتبعة في الإجابة على الأسئلة الأخلاقية من خلال التعهيد الجماعي "crowdsourced" قد أحاطت نفسها ببعض المُنتقدين ممن أشاروا لوجود العديد من القيود والعيوب في استخدامه وتطبيقه.  ومن الأمثلة على هذه القيود، وجود ما يسمى بالتحيز في اختيار العينة أو تحيز الاختيار "sample bias"، حيث يُحتمل أن تقدم المجموعات المختلفة إرشادات وتوجيهات أخلاقية مختلفة، في ظل الحقيقة الواضحة بأن استطلاع الرأي لمنصة "Moral Machine" يجري عبر الانترنت، وهذا يعني أنه يقيس آراء مجموعة من الأشخاص وفق استطلاع رأي ذاتي الاختيار لأولئك الذي يمتلكون إمكانية استخدام الإنترنت ولديهم اهتمام بمجال الذكاء الاصطناعي. وأحد القيود الأخرى أيضاً هو احتمالية الحصول على نتائج مختلفة عند فحص البيانات ذاتها من خلال خوارزميات مختلفة.

«إن طريقة التعهيد الجماعي غير مسؤولة عن جعل الذكاء الاصطناعي أخلاقياً»، ذلك حسبما أشار "James Grimmelmann"، الأستاذ في كلية الحقوق بجامعة كورنيل، في أحد دراساته التي تناول بها دراسة العلاقة بين البرمجيات والثروة والسلطة. كما أشار في السياق ذاته بأن «من يحدد أخلاقية الذكاء الاصطناعي من عدم أخلاقيته هو ردود الفعل والآراء الأخلاقية أو اللاأخلاقية للأشخاص».

إن خصلة النفاق الموجودة بالفطرة لدى بعض البشر قد تمثل أحد عيوب تطبيق هذا المبدأ، حيث توصل "Rahwan" في أحد أبحاثه التي أجراها سابقاً إلى أنه بالرغم من موافقة معظم الأشخاص على ركوب السيارات ذاتية القيادة المُبرمجة على التضحية بركابها في سبيل انقاذ المارة مثلاً، مُعتبرين وجود سيارة بهذه التقنية أمر جيد، ولكن في المقابل يرفض هؤلاء في الواقع استقلال مثل هذه السيارات، فهم غير مستعدين لركوب سيارة قد تضحي بحياتهم وتقتلهم. من جهة أخرى، اقترح مؤخراً فريق من المفكرين الأوروبيين بتجهيز السيارات ذاتية القيادة بمقبض، ويطلق على هذا المقبض اسم "المقبض الأخلاقي ethical knob"، بحيث يسمح للراكبين التحكم بمقدار الأنانية التي سوف تتصرف بها السيارة أثناء وقوع الحادث، أي من خلال التحكم بالمقبض الأخلاقي سيكون القرار بيد الراكب فهو الذي يختار ما إذا كان يفضل التضحية بنفسه أو بغيره.

ولا تزال آراء المنتقدين تلاحق "Moral Machine"، ذلك لأن السيناريوهات الخطيرة التي تقوم بتجريبها وفحصها حول، فقدان مركبة ذاتية القيادة لقدرتها على التحكم الأمر الذي يعرضها لتصادم مُداهم ربما يودي بحياة بعض الأشخاص، قد تحدث بشكل نادر جداً مقارنة مع المواقف الحقيقية التي يلجأ بها الأشخاص لاتخاذ قرارات أخلاقية كتفضيل قيادة المركبة ببطيء على الطريق السريع من أجل استهلاك كمية أقل من الوقود.

إن التقنية التي سعى "Procaccia" لوضعها مُحاطة بالعديد من القيود، وهو مُدرك تماماً لذلك، فحسبما قال "إن نجاح أبحاثه يعتمد على الإيمان بأن السماح لجميع الأفراد بمشاركة آرائهم، رغم السلبيات المترتبة على هذا، سيكون الخيار الأفضل للتعامل مع هذه التقنية، وأضاف " أنا أؤمن بحق الجميع في المشاركة، حتى لو أدلى الناس ببعض الآراء التي لا تناسب الموقف."

لقد أصبح لدينا في الوقت الحالي الكثير من تجارب التعهيد الجماعي لأنواع أخرى من البيانات. فتوصل التقرير الذي أعدته منظمة "برو بابليكا ProPublica" حول ما سبق، بأن شركة "فيسبوك Facebook" قد سمحت لشركات الإعلان باستهداف المستخدمين حسب مجال اهتمامهم من خلال خوارزمية تُحدد هذه الاهتمامات بناء على سلوك المستخدمين للتطبيق. مثال آخر وهو، في أعقاب إطلاق النار الذي حدث في مدينة "لاس فيغاس Las Vegas"، فقد عرضت شركة "جوجل Google" أهم الروايات والاخبار التي تم تداولها فور وقوع الحدث، الامر الذي أدى لظهور نظريات المؤامرة الغريبة "conspiracy theories" حوله بشكل سريع عبر موقع "فورتشان 4chan". ففي الحالة الأولى والثانية، اعتمدت الخوارزميات المستخدمة على سلسلة إشارات مصدرها ملايين المستخدمين الحقيقيين لكلا التطبيقين سواء الفيسبوك أو جوجل، تماماً كما هو الحال مع خوارزمية اخلاقيات الذكاء الاصطناعي، ولكنها رغم ذلك لم تعمل كما هو مطلوب.

اتخذت بعض الحكومات إجراءات فعلية لمواجهة القوانين المحددة التي ستتعامل مع الأولويات الأخلاقية للمركبات ذاتية القيادة. فأقرت الحكومة الألمانية، خلال فصل الصيف، المبادئ والارشادات التوجيهية الأخلاقية الأولى على مستوى العالم للمركبات ذاتية القيادة، والتي تفرض على المركبات إعطاء الأولوية لحياة الإنسان والتضحية بالحيوانات، كما تمنعهم من اتخاذ القرارات بشأن سلامة الإنسان وفق عمره أو جنسه أو إعاقته.

تُمثل لائحة المبادئ والارشادات التوجيهية الأخلاقية التي وضعتها الحكومات عائقاً دون تطبيق الذكاء الاصطناعي، كتلك التي طورها "Procaccia" وزميله "Rahwan"، والتي تخضع لخصائص مماثلة بشأن اتخاذ قرار حول الشخص الذي ينبغي إنقاذه.

وحتى نفهم بشكل أفضل أي القرارات الأخلاقية يتبناها فريقه، طرحنا على "Procaccia" وفريق عمله سؤالاً حول قرارهم الأخلاقي بشأن الشخص الذي سيختارون عدم انقاذ حياته من الموت في ظل حدوث قائمة لا عد لها من المواقف والسيناريوهات المختلفة سواء كانت عادية أو تلك المحفوفة بالمخاطر والمخاوف. ومن خلال اجاباتهم البديهية، قالوا إذا كان السؤال هل ننقذ حياة شخص واحد أو شخصين، فبكل تأكيد سوف نختار قتل الشخص الواحد في سبيل انقاذ الشخصين. ولكن في بعض المرات، كان الغموض سيد الموقف، فلم تكن قراراتهم واضحة بسبب عدم المساواة التي تسيطر على المجتمع، فلو تُرك القرار لأنظمة الذكاء الاصطناعي بالاختيار بين قتل شخص مجرم أو شخص غير مجرم، فمن المؤكد أنها ستختار قتل المجرم، كما أنها ستقتل الشخص المُشرد الذي لا مأوى له في سبيل انقاذ شخص يحيا حياة كريمة.

نشر هذا المقال في تاريخ
22/12/2019
تحت تصنيف
التكنولوجيا

المصادر:

1. المرجع الأول
2. المرجع الثاني
3. المرجع الثالث
4. المرجع الرابع
5. المرجع الخامس
6. المرجع السادس

التكنولوجيا

المزيد »