روبوتات أخلاقية.. تعرف كيف يعلّم العلماء الربوتات التمييز بين الصحّ و الخطأ

مترجم عنMoral machines: here are 3 ways to teach robots right from wrongللكاتب Vyacheslav Polonski, Jane Zavalishina

0 140

روبوتات أخلاقية – أصبح من الصعب اليوم تخيل تكنولوجيا آسرة ومرعبة مثل تكنولوجيا تعلم الآلة، وفي حين أن التغطية الإعلامية والأوراق البحثية تسمح باستمرار إمكانات التعلم الآلي لتصبح أكبر محرك للتغيير الإيجابي في الأعمال التجارية والمجتمع، لم يزل السؤال الملح في عقل الجميع هو: «حسنًا، ماذا لو تحول كل شيء إلى خطأ فظيع؟»

كانت هذه مقدمة تقرير شيق في موقع المنتدى الاقتصادي العالمي، أعده عالم شبكات في جامعة أوكسفورد، والمدير التنفيذي لشركة «ياندكس» التي تقدم خدمات ذكاءً اصطناعيًا لشركات الصناعة، ذكر التقرير أن الخبراء قد حذروا – لسنوات – من التأثيرات غير المتوقعة للذكاء الاصطناعي العام على المجتمع، توقع «راي كرزويل» أنه بحلول عام 2029 ستتمكن الآلات الذكية من تخطي ذكاء البشر. وقال «ستيفن هوكينج»: إنه « بمجرد أن يطور الإنسان ذكاءً اصطناعيًا كاملًا، فسوف يسيطر هذا الذكاء الاصطناعي على نفسه، ويعيد تصميم نفسه في معدل متسارع بشدة »، وقد حذر «إيلون ماسك» من أن الذكاء الاصطناعي قد يشكل «خطرًا أساسيًا على وجود الحضارة البشرية». وقد كثرت في وسائل الإعلام وجهات نظر المحذرين بشأن إمكانيات الذكاء الاصطناعي المرعبة.

في أكثر الأحيان، قوبلت هذه النبوءات السوداوية بدعوات لتنفيذ أنظمة ذكاء اصطناعي أكثر أخلاقية، أي يقوم المهندسون بصبغ الأنظمة ذاتية التحكم بحس أخلاقي. وفقًا لبعض خبراء الذكاء الاصطناعي، فإنه بإمكاننا تعليم أسيادنا من الروبوتات المستقبلية كيف يميزون الصواب من الخطأ، شيء قريب من «الذكاء الاصطناعي السامري» الذي سوف يتصرف بمعدل من تلقاء نفسه، ويساعد البشر في مِحنهم.

بالرغم من أن هذا المستقبل لا زال على بعد عقود، هناك الكثير من عدم اليقين اليوم بشأن كيف سنصل لهذا المستوى من الذكاء العام للآلات، ولكن ما هو مهم في هذه الأثناء هو أنه حتى تطبيقات الذكاء الاصطناعي المحدودة الموجودة حاليًا تحتاج لانتباهنا العاجل بشأن قيامها بأخذ قرارات أخلاقية في مواقف الحياة اليومية. كمثال وثيق الصلة: عندما تقوم خوارزمية بأخذ قرارات عمن له الحق في الحصول على قروض، أو عندما يتعين على السيارات ذاتية القيادة أن تحسب قيمة حياة الإنسان في المواقف الخطيرة.

Embed from Getty Images

يرى الكاتبان أن تعليم الأخلاقيات للآلات صعب؛ لأن البشر لا يستطيعون إيصال الأخلاق بموضوعية بمعايير قابلة للقياس تجعل من السهل على الكمبيوتر أن يعالجها. وفي الحقيقة، وهو أمر مشكوك فيه، ما إذا كنا كبشر لدينا فهم سليم للأخلاقيات يمكننا جميعًا الإجماع عليه، ففي المعضلات الأخلاقية، يميل البشر للاعتماد على الشعور الداخلي بدلًا عن حسابات التكلفة والفوائد، والآلات من ناحية أخرى تحتاج معايير صريحة وموضوعية يمكنها قياسها وتحسينها بوضوح. كمثال: يستطيع لاعب الذكاء الاصطناعي أن يتفوق في الألعاب بقواعد وحدود واضحة، بتعلمه كيف يحسن نقاطه خلال جولات لعب متكررة.

بعد تجاربها مع التعلم المعزز العميق على ألعاب «فيديو أتاري»، كان باستطاعة برنامج «ديب-مايند» الخاص بشركة «ألفابيت» أن يهزم أفضل لاعب بشري في لعبة «Go». وفي الوقت نفسه جمعت شركة «openAI» خبرات حياتية لهزيمة أفضل لاعب بشري في مسابقة لعبة «دوتا 2»، وهي واحدة من أشهر المسابقات الرياضية الإلكترونية في العالم.

ولكن في مواقف الحياة الواقعية، فإن مسائل التحسين أكثر تعقيدًا إلى حد كبير، كمثال: كيف بإمكانك أن تعلم آلة كيف تحسّن العدل باستخدام خوارزمية. أو كيف تتغلب على التحيز العنصري أو الجنسي في البيانات المدخلة لتعليمها؟ لا يمكن للآلة تعلم ما هو العدل، إلا إذا كان لدى المهندسين المصممين لنظام الذكاء الاصطناعي مفهوم دقيق عن ماهية العدل!

وهذا ما جعل بعض المؤلفين يقلقون من استطاعة تطبيق بسيط للخوارزميات لحل المسائل اليومية أن يضخم عنصرية في أساسه، ويقوم بإنتاج تحيزات في البيانات التي يعتمد عليها. في أسوأ الحالات، بإمكان الخوارزميات أن ترفض خدمة الأقليات، أو تعيق فرص عمل الناس، أو تأتي بالمرشح السياسي الخطأ منتخبًا.

بالاستناد على خبرة الكاتبين في مجال تعلم الآلة، فهما يؤمنان أن هناك ثلاث طرق لبدء تصميم آلات أكثر انحيازًا للأخلاق:

1. تعريف السلوك الأخلاقي

يجب على باحثي الذكاء الاصطناعي والأخلاقيين أن يصوغوا القيم الأخلاقية في صورة عوامل قابلة للقياس، أو بعبارات أخرى، يجب عليهم أن يزودوا الآلات بإجابات محددة وقواعد لاتخاذ القرارات لأية معضلة أخلاقية محتملة من الممكن أن تصادفها، وهذا يتطلب من البشر أنفسهم أن يتفقوا على مسار العمل الأكثر أخلاقية في أي موقف مُعطى، وهي مهمة مليئة بالتحدي، لكنها ليست مستحيلة.

 

Embed from Getty Images

كمثال: إن لجنة أخلاقيات القيادة الذاتية والمتصلة في ألمانيا قد أوصت خصيصًا ببرمجة السيارات ذاتية القيادة بقيم أخلاقية لإعطاء الأولوية لحماية حياة البشر قبل أي شيء، ففي حالة وقوع حادث لا مفر منه؛ «يُمنع على السيارة أن توازن بين الضحايا وبعضهم» أي يجب ألا تكون السيارة قادرة على الاختيار بين قتل شخص واحد بناء على أية صفات فردية، مثل السن أو النوع أو البنية النفسية أو الجسمية عندما يكون التصادم محتومًا.

2. جمع أخلاقياتنا من الجميع كمصادر

يحتاج المهندسون أن يجمعوا البيانات الكافية عن مقاييس أخلاقية محددة ليستطيعوا تدريب خوارزمية ذكاء اصطناعي بشكل مناسب، فحتى بعد أن استطعنا تعريف معايير محددة لقيمنا الأخلاقية، قد يعاني نظام الذكاء الاصطناعي مع ذلك للاختيار بينها، إذا لم يكن لديه بيانات غير متحيزة بشكل كاف لتدريب نموذج تفكيره.

الحصول على بيانات مناسبة أمر مليء بالتحدي؛ لأن الأعراف الأخلاقية لا يمكن دائمًا توحيدها بشكل واضح، فالمواقف المختلفة تتطلب أساليب أخلاقية مختلفة، وفي بعض المواقف قد لا يوجد مسار عمل أخلاقي واحد. فكر في الأسلحة الفتاكة ذاتية التحكم، والتي يتم تطويرها حاليًا لصالح تطبيقات الجيش.

أحد الطرق لحل هذه المشكلة هو جمع الحلول المحتملة للمعضلات الأخلاقية من ملايين البشر كمصادر، على سبيل المثال: يعرض مشروع معهد «MIT» للآلات الأخلاقية كيف من الممكن الاستفادة بشكل فعال من البيانات المجمعة من الجميع في تدريب الآلات على القيام باتخاذ قرارات أخلاقية أفضل، وذلك في سياق السيارات ذاتية القيادة.

3. جعل الذكاء الاصطناعي صريحًا

يحتاج واضعو السياسات إلى تنفيذ مبادئ توجيهية تجعل قرارات الذكاء الاصطناعي أكثر شفافية فيما يتعلق بالأخلاقيات، وخاصة فيما يتعلق بالمقاييس الأخلاقية والنتائج. إذا ارتكب نظام الذكاء الاصطناعي أخطاء أو أصبح لديه عواقب غير مرغوب فيها، فليس بإمكاننا تقبل فكرة أن «الخوارزمية هي التي فعلتها!» كعذر كافٍ. ولكننا نعلم أيضًا أن المطالبة بالشفافية الكاملة للخوارزميات لا يمكن الدفاع عنه فنيًا (وبصراحة تامة، غير مفيد أبدًا).

الشبكات العصبية ببساطة معقدة جدًا ليقوم بشر بتدقيقها، لكن بدلًا عن ذلك يجب أن يكون هناك قدر أكبر من الشفافية حول كيفية قيام المهندسين بقياس القيم الأخلاقية قبل برمجتها، بالإضافة للنتائج التي سينتجها الذكاء الاصطناعي كنتيجة لهذه الاختيارات. كمثال للسيارات ذاتية القيادة، يمكن أن يعني هذا أن السجلات التفصيلية لجميع القرارات الآلية يتم الاحتفاظ بها في كل الأوقات لضمان قابليتها للمساءلة الأخلاقية.

يؤمن الكاتب أن هذه التوصيات الثلاث يمكن النظر لها كنقطة بداية لتطوير نظم ذكاء اصطناعي ملائمة أخلاقيًا، والفشل في صبغ الأخلاقيات في أنظمة الذكاء الاصطناعي قد يجعلنا نضع أنفسنا في مواقف خطيرة، كالسماح للخوارزميات بتقرير ما هو الأفضل لنا، كمثال في موقف حادث لا يمكن تلافيه، ستحتاج السيارات ذاتية القيادة إلى اتخاذ بعض القرارات للأفضل أو الأسوأ، ولكن إذا فشل مصمم السيارة في تحديد مجموعة من القيم الأخلاقية التي من الممكن أن تمثل مرشدًا للقرار، فقد يصل نظام الذكاء الاصطناعي لحل يسبب المزيد من الضرر، وهذا يعني أننا لا نستطيع ببساطة أن نرفض تحديد كمية قيمنا.

بالابتعاد عن هذا النقاش الأخلاقي الحرج، فنحن نصنع قرارًا أخلاقيًا ضمنًا، وكما يصبح الذكاء الآلي منتشرًا بشكل كبير في المجتمع، فإن سعر التقاعس عن هذا قد يكون هائلًا، قد يؤثر سلبًا على أرواح مليارات من البشر.

لا يمكن افتراض أن الآلات قادرة بطبيعتها على التصرف أخلاقيًا، يجب على البشر تعليمها ما هي الأخلاق، وكيف يمكن قياسها وتحسينها، قد تبدو هذه مهمة شاقة لمهندسي الذكاء الاصطناعي، لكن في النهاية، تحديد القيم الأخلاقية هو التحدي الذي واجهته البشرية طوال تاريخها، ومع ذلك فإن وضع أبحاث الذكاء الاصطناعي يتطلب منا أخيرًا أن نعرّف الأخلاقيات، ونحدد ماهيتها في عبارات صريحة. لا يمكن للمهندسين بناء «ذكاء اصطناعي سامري جيد»، طالما يفتقدون صياغة للإنسان السامري الجيد.

هذا المقال مترجم عن المنتدى الاقتصادي العالمي، لقراءة المقال الأصلي انقر على هذا الرابط والعهدة في المعلومات والآراء الواردة فيه على المصدر لا على مجلتنا.

المصادر: world economic forum ،Wikipédia 

 

اترك رد