هل للأخلاقيات دور في كيفية تصميم الذكاء الاصطناعي واعتماده
مع تزايد تأثير الذكاء الاصطناعي في كل ما يحيط بنا، هل للأخلاقيات دور في كيفية تصميم الذكاء الاصطناعي واعتماده وتطبيقه أيضًا؟

سلسلة حوارات جامعة حمد بن خليفة: الذكاء الاصطناعي والأخلاقيات

مع تزايد تأثير الذكاء الاصطناعي في كل ما يحيط بنا، هل للأخلاقيات دور في كيفية تصميم الذكاء الاصطناعي واعتماده وتطبيقه أيضًا؟

مع تزايد تأثير الذكاء الاصطناعي في كل ما يحيط بنا، هل للأخلاقيات دور في كيفية تصميم الذكاء الاصطناعي واعتماده وتطبيقه أيضًا؟

في هذه الحلقة من سلسلة حوارات ’جامعة حمد بن خليفة تتحدث‘، يشارك الدكتور حسن سجاد، عالم أول بمعهد قطر لبحوث الحوسبة، وسوزان كارامانيان، عميد كلية القانون، وجهات نظرهم حول هذه القضية.

س: ما الدور الذي تؤديه الخوارزميات في اختيار المعلومات والأخبار التي يتلقاها الناس وما هي المخاوف الأخلاقية المتعلقة بذلك؟

ج: تعتمد خوارزميات التعلم الآلي على كميات هائلة من البيانات للتعلم من النتائج المحتملة والتنبؤ بها. ونظرًا لأننا نعيش في عالم غير كامل، هناك تحيزات في البيانات تتعرف عليها الخوارزميات وتعكسها في تنبؤاتها. فعلى سبيل المثال، تبين أن أداة التوظيف في أمازون متحيزة ضد النساء لأن بيانات التدريب كانت تحت سيطرة المرشحين الذكور. وهناك العديد من الحكايات التي تنسج على هذا المنوال، ولم نجد حلاً بعد لمعالجة هذا الأمر. ولا يقتصر التمييز على النوع الاجتماعي ولكنه يستهدف أي فئة ممثلة تمثيلاً خاطئًا أو ناقصًا أو زائدًا في البيانات. ويثير اعتمادنا على مثل هذه الأنظمة مخاوف جدية بشأن عملية اتخاذ القرار الأخلاقي وعدالة الأحكام، وهي الركائز الأساسية لمجتمعنا.

س: تقع مهمة تطوير تكنولوجيا المستقبل على عاتق خبراء التكنولوجيا. كيف يمكننا ضمان تطوير الأساليب اللازمة لضمان التفكير الأخلاقي وتعزيز المسؤولية واستخدام المنطق في عملية التصميم؟

ج: نحن بحاجة إلى العمل عبر أبعاد مختلفة مثل تنظيم البيانات والتدريب النموذجي والتقييم. وهذا بدوره سيسمح لنا باختيار البيانات للتدريب بحكمة. إنها مشكلة صعبة ولا توجد "بيانات مثالية". وسيؤدي إنشاء مجموعات بيانات جديدة، وامتلاك أكثر من مجموعة بيانات معيارية واحدة لكل مهمة، إلى تنوع مجموعة البيانات.

وبالمثل، يجب أن نتخذ قرارات مستنيرة عند إدراج مجموعة بيانات في التدريب أو استبعادها. وتساعد عمليات التحقق البسيطة مثل تغطية المفردات والتخلص من كلمات المحتوى وما إلى ذلك في اكتشاف تنوع مجموعة البيانات ووجود إشارات بسيطة قد يتعلمها النموذج لحل المهمة.

وأخيرًا، هناك حاجة ماسة لتطوير طرق تقييم معيارية تتجاوز قياس الأداء، وتقييم نماذج الذكاء الاصطناعي قياسًا بالمخاوف الأخلاقية مثل التحيز الجنساني، والتمييز الديموغرافي، وعدالة القرار.

س: كيف يمكننا أن نجعل محركات البحث أكثر إنصافًا ودقةً ضد التحيزات؟

ج: لا يوجد حل واحد مناسب للجميع. وأنا أرى أن تفسير سبب توصل محرك البحث أو أي نظام ذكاء اصطناعي إلى قرار معين يُعدُ الخطوة الأساسية في هذا الاتجاه. ومن جانب مختلف، بدلاً من الاعتماد على التنبؤ بنظام واحد، ستوفر النتائج المجمعة لأنظمة متعددة نتائج متنوعة للمستخدمين، وستمنحهم الحرية في اختيار المعلومات التي يرغبون في استخدامها.

س: ما هي الجهود التي تبذلونها لمعالجة التحيز بين الجنسين في الذكاء الاصطناعي واستهداف الذكاء الاصطناعي الأخلاقي؟

ج: في معهد قطر لبحوث الحوسبة، قمنا بتطوير مجموعة أدوات NeuroX، التي تهدف إلى تحقيق الشفافية في الذكاء الاصطناعي، وهو عنصر أساسي لضمان العدالة والثقة واتخاذ القرارات الأخلاقية. وقد طورنا طرقًا توفر شرحًا لقرار النموذج وتبرز التحيزات إذا تعرف عليها النموذج واستخدمها. وتوضح مجموعة NeuroX عناصر نموذج الذكاء الاصطناعي المسؤولة عن قضايا أخلاقية معينة وتمكن المستخدمين من القضاء عليها.

 

س: كيف يُستخدم الذكاء الاصطناعي في المحاكم؟

ج: دعوني أجيب عن هذا السؤال أولاً بطرح ثلاثة أسئلة تعكس التطورات الأخيرة. هل يجب على القضاة استخدام الخوارزميات لتحديد مدة عقوبة السجن لشخص مدان بجريمة؟ وهل يجب أن تحل النتائج المستمدة من برنامج حاسوبي مصمم لتحليل السوابق القانونية محل وجهة النظر المدروسة للقاضي؟ وهل نحن على استعداد لأن يكون لدينا نموذج حاسوبي مبرمج مسبقًا، في مقابل المحكمة، لحل الخلافات بين أطراف العقد التجاري؟

شرعت التكنولوجيا في تغيير دور المحاكم بشكل أساسي. وحتى الآن، لم يكن للذكاء الاصطناعي، الذي تقوم فيه أجهزة التعلم الآلي بجمع البيانات في الوقت الفعلي ومعالجتها والتكيف معها بناءً على البيانات والقرارات السابقة، سوى تأثير محدود على قرارات المحكمة.

ومع ذلك، تؤثر الخوارزميات التي تفتقر إلى ميزة القدرة على التكيف بشكلٍ متزايد على القرارات القضائية. والمجال الأكثر وضوحًا الذي يحدث فيه هذا الأمر هو القانون الجنائي. فعلى سبيل المثال، تستخدم أربع ولايات أمريكية مساعدًا خوارزميًا لتوجيه القرارات بشأن مقدار الكفالة التي يجب أن يُطلب من الشخص دفعها لتأمين إعادة مثوله في محاكمة جنائية. وقد اعتمدت العديد من الولايات الأمريكية ملف التعريف الإصلاحي للتعامل مع الجاني عن طريق العقوبات البديلة فيما يتعلق بقرارات ما قبل المحاكمة، وإصدار الأحكام، وقرارات الإفراج المشروط. وتوجد بيانات تعكس مجموعة من الفئات وراء هذه البرامج، مثل العمر، وطبيعة الجرائم، والعقوبات السابقة، وتاريخ تعاطي المخدرات، وما إلى ذلك، وهي فئات تُعطى وزناً معينًا، ثم تُستخدم للتنبؤ بالسلوك.

س: هلا أوضحتِ لنا كيف يمكن أن يساعد الذكاء الاصطناعي في تعزيز الكفاءة والإنصاف.

ج: تكون المحاكم مزدحمة في جميع أنحاء العالم، وفي بعض الدول، قد يستغرق التوصل إلى تسوية كاملة لقضية ما عدة سنوات، وتكون العملية مكلفة. وإذا كان التعلم الآلي قادرًا على تقليل الوقت الذي يقضيه القاضي في إصدار الأحكام، فسوف يؤدي ذلك إلى توفير التكاليف. ويمكن لخوارزميات تقييم المخاطر أيضًا أن تخفف من المخاوف بشأن التحيز القضائي. 

س: لكن الذكاء الاصطناعي يمكن أن يقوض العدالة وسيادة القانون. هل يمكن أن توضحي ذلك؟

ج: الاستخدام الجامح لهذا النوع من التكنولوجيا له آثار أخلاقية كبيرة لأنه قد يقوض العدالة وسيادة القانون. ويجب محاكمة الفرد الذي يواجه عقوبة جنائية بناءً على سلوكه وصفاته المتفردة. وتستبعد خوارزميات تقييم المخاطر الاعتبار الفردي في الحكم، الذي يدخل في صميم كرامة الإنسان، إذا استُخدمت بدون العنصر البشري.

ثانيًا، تثير المخاوف بشأن نقص الشفافية فيما يتعلق بالخوارزميات تساؤلات حول دقتها وموثوقيتها. ويثير تعقيدها والافتقار المزعوم للاستعداد من مطوري البرنامج لمشاركة التفاصيل، بسبب مخاوف بشأن حماية الملكية الفكرية، شواغل أساسية تتعلق بالإجراءات القانونية الواجبة.

س: ما هي الضمانات أو المبادئ التوجيهية القانونية التي ينبغي وضعها لمنع حدوث ذلك؟

أولاً، يجب أن يدير العنصر البشري دائمًا استخدام الخوارزميات، بحيث يجب أن توجه التكنولوجيا القضاة ولكن لا تلزمهم. وثانيًا، تُعدُ الشفافية الكاملة فيما يتعلق بخوارزميات تقييم المخاطر أمرًا ضروريًا. وأخيرًا، أود أن أؤكد على أنه يجب أن تكون هناك موافقة مستنيرة من جميع الأطراف ذات الصلة، بالإضافة إلى الكشف الكامل عن تفاصيل عمل هذه الخوارزميات.