هل نحن مستعدون لعصر الذكاء الاصطناعي التوليدي؟ | جامعة حمد بن خليفة

هل نحن مستعدون لعصر الذكاء الاصطناعي التوليدي؟

24 مايو 2023

تأليف: الدكتور أمين صادقي - الدكتورة صفاء مسعود - الدكتور إينيس ألتينيسك - الدكتور سانجاي شاولا, معهد قطر لبحوث الحوسبة بجامعة حمد بن خليفة

يناقش المتحدثون الآثار المحتملة لاستحداث اللغة عبر الذكاء الاصطناعي وتأثيرها على التواصل في المجالات القانونية والتعليمية

تخيل أنك تتلقى مكالمة فيديو من شخص مقرّب وهو يمرّ بأزمةٍ ما، وفي عصر الذكاء الاصطناعي التوليدي الذي نعايشه اليوم، من المحتمل ألا نتمكّن من التعرّف على محتوى الفيديو وصوته ومزامنته ان كان صادقًا، أو غير ذلك، ففي ظل هذا الوضع، ماهي ردّة فعلك؟ هل ستتعاطف مع محتوى الرسالة وتصدّق أنه يمرّ بأزمة، أم أنّك ستتساءل أوّلاً "كيف أعرف أنك صادقٌ"؟ 

في حال تمّ استخدام الذكاء الاصطناعي التوليدي بشكل صحيح، يمكن أن يحدث ثورة في رفاهية حياة الإنسان، فعلى سبيل المثال، لن يكون هناك نقص في وكلاء خدمة العملاء المميزين، وسيتاح لك المزيد من الأطباء المتخصصين المستعدّين للاستماع إليك وشرح حالتك بدقةٍ، وسيتزايد عدد المعلّمين الذين يكرّسون جهودهم للعمل في أجزاء عديدة من العالم وخاصة العالم النامي. وبالتالي سينجح الذكاء الاصطناعي التوليدي في تحويلك الى مهندس برمجيات، فبدلا من أن تكتب التعليمات البرمجية، يمكنك فقط الاستفسار عمّا تريد، ليستجيب الذكاء الاصطناعي لتوقّعاتك. وبالمثل، يمكن للذكاء الاصطناعي التوليدي أن يحولك إلى شاعر ومصمم وفنان في نفس الوقت.

سيكون الذكاء الاصطناعي مفيدًا إذا ما أُستخدم بطريقة صحيحة، ولكن ماذا سيحدث إذا ما وقع في أيدي الأشخاص الخطأ؟ حتى وقت قريب، كان إنشاء محتوى سواء كان في شكل نصٍّ، أو صورةٍ، أو صوتٍ، أو فيديو، أو ردّة فعلٍ، مهارةً بشريّةً بامتيازٍ، فنحن كنّا نبني ثقتنا على حدسنا بأنه إذا بدَا المحتوى طبيعيًا، فهو حقيقيٌّ. لكن الثقة على هذا الحدس ستتراجع تدريجيًّا وسيصبح الوضع مثيرًا للشكّ، وبالتالي لن يُفوّتَ المستخدمون السيئون قريبًا إلى الاستفادة من زعزعة هذا الحدس، وقريبًا سيصبح الذكاء الاصطناعي التوليدي وسيلةً لكسب المال وخاصة من قبل المحتالين، حيث سيكون من الصعب أكثر من أي وقت مضى معرفة ما إذا كانت التعليقات، وفئة الجمهور المتلقّي، والمشاهير، فضلًا عن المعلومات، ان كانت حقيقية أو مزيّفة؟ حينذاك كيف سنحمي أنفسنا من مثل هؤلاء المحتالين؟

وفي هذا السياق، يجدر بنا اتّخاذ بعض الاحتراز، على سبيل المثال ولا الحصر، إنشاء قواعد وقوانين بشأن استخدام الذكاء الاصطناعي، إلّا أن هذه الضوابط من شأنها أن تأثّر سلبًا على الشركات التي تخضع بالفعل للقوانين الوطنية، بينما يفلت المحتالون والمجرمون من عدم الامتثال، وفي الحقيقة نحن لا نريد عالَماً يُمنع فيه المستخدمون الجيّدون من الابتكار بينما يُسمح للجهات المتحايلة الاستفادة من مزايا الذكاء الاصطناعي.

ولاشك أنه من شأن المغالاة في وضع الضوابط والقيود، أن يحمل في طياته رسالة خاطئة لمستخدمي الذكاء الاصطناعي، خاصة إذا لم يتوفر نظام مراقبة موثوق به، وللأسف، يُشبّه الذكاء الاصطناعي التوليدي بالصندوق الأسود، وبالتالي تُصبح المراقبة أمرًا صعبًا، ويترتّب عن ذلك استفادة المستخدمين المحتالين من انشغال السلطات بفرض الضوابط على الشركات الماثلة للقوانين، ويتحوّل الأمر برمّته الى خطر وشيك.

لا يقتصر سوء استخدام الضوابط فقط على المحتالين، ففي بعض الأحيان يمكن أن تحدّ القوانين من المنافسة وتُسبب نوعًا من أوجه عدم الكفاءة. فعلى سبيل المثال، إذا فُرض على كل تطبيق من تطبيقات الذكاء الاصطناعي اثبات خلوّه من المخالفات، فمن المحتمل أن يترتّب عن ذلك نوعًا من التأخير والتمييز والاحتكار وإهدارٍ للطاقات.

في بعض الأحيان تحيد القرارات واللوائح عن هدف إصدارها، فعلى سبيل المثال، تم إرساء ضوابط صارمة في المجالات الطبية لحماية المرضى، إلا أن هذا الأمر جاء بنتيجة سلبية في بعض البلدان، حيث أن نفس هذه القوانين جعلت من الرعاية الصحية تتجاوز الامكانيات المالية للمواطن العادي، وتصُب بدلّا من ذلك في مصلحة شركات الأدوية الكبرى، وفي بعض الأحيان يجد المستخدمون المستفيدون أنفسهم أمام أسعار غير معقولة ساهمت في ارتفاعها براءات الاختراع الصيدلانية، وفي نفس السياق نلاحظ أن عمليات المراجعة المطولة من شأنها أن تؤخّر فرص المرضى في الحصول على الأدوية الجديدة، فعلى سبيل المثال، عندما تعالت الأصوات في عام 2020 للحصول على الموافقة على لقاحات كوفيد 19، هنا يتبيّن ما مدى تأثير الضوابط القانونية على المبتكرين، حيث أنها تخيفهم و تحدّ من المنافسة الصحّية في السوق، وبالتالي نحن لا نحبّذ حدوث هذا مع ضوابط الذكاء الاصطناعي التي تُفرض على المستخدمين العاديين، بينما تساعد شركات التكنولوجيا الكبرى على احتكار السوق.

لكن، هل يعني هذا أنه من المسموح للمستخدمين الجيدين استعمال الذكاء الاصطناعي بدون قيود؟ فأحيانًا رغم النوايا الحسنة، إلا أن النتيجة تكون عكس توقعاتنا، بل ربما تكون أسوأ !، فعلى سبيل المثال صُنعت السيارات ذاتية القيادة بهدف تفادي الحوادث إلا أن استخدامها يعرّض الناس للخطر، وأيضًا لم يتم تصميم تقنية "تشات جي بي تي" للحصول على تشخيص طبي خاطئ، إلا أن ذلك يحدثُ أحيانًا، وبالتالي يُعدّ منع استخدام السيارات ذاتية القيادة وروبوتات المحادثة أو وضع ضوابط لها، أمرًا ملائمًا في بعض الأحيان، لكنه ليس حلًا واقعيًا. 

وفي الواقع، نحن نعيش عالماً زاخرًا بالوسائل التكنولوجية المذهلة، والتي بدورها تحتاج إلى تدابير استثنائية لاحتواء آثارها السلبيةً، وفيما يلي بعض آليات استخدام الذكاء الاصطناعي التوليدي مع الحد من آثارها السلبية:

  1. على الحكومات أن ترفع سقف مستوى الوعي العام، من خلال حملات تُسلط الضوء على فوائد ومخاطر استخدام الذكاء الاصطناعي التوليدي، حيث ينبغي منح المستخدمين عامة فرصًا لتقييم التقنيات بعناية، وتحديد ما إذا كانت مفيدة أم لا.
  2. على الباحثين محاولة فهم وتوصيف تقنيات الحماية، حيث إن أحد المحاور الرئيسية للبحوث هو التدقيق وذلك لكونه عنصرًا أساسيًا للقوانين الناجحة، فنحن بحاجة إلى تقنيات وبروتوكولات موثوقة للتحقق من أن النماذج التوليدية متوافقة ونزيهة وآمنة، وبالتالي يعدّ تصميم خوارزميات أفضل هو أحد التوجّهات الواعدة التي من شأنها أن تفصح عن الخيارات البشرية وتدمجها في النظام.
  3. على الشركات ذات المجالات التكنولوجية ومبتكري تقنيات الذكاء الاصطناعي التوليدي التجارية، منح الأولوية لتحقيق مصلحة الجمهور، بينما ينبغي على الحكومات إصدار قرارات ولوائح توفّر المصداقية والشفافية التي تحمي الجمهور، حيث تحبّذ الشركات التكنولوجية الإعلان عن ضوابط تخدم مصلحتها الخاصة، إلا أنّه على الحكومات العمل على تلبية مصالح الأفراد بشكلٍ أفضل أولاً وقبل كل شيء، وهذا لا يمنع الإشادة ببعض الشركات ذات المجالات التكنولوجية كونها أعربت عن قلقها بشأن الذكاء الاصطناعي التوليدي، الأمر الذي يتوجب عليها أن تجعل ذلك في صميم سياساتها وبشكل علنيّ، ومع ذلك فمن المهم أن تحرص الحكومات على عدم التلاعب بمصالح الأفراد، ففي بعض الأحيان يصبح احتكار التكنولوجيا أمرًا ضارًا.
  4. على الأنظمة القضائية أن تعمل على نحو أسرع وأكثر كفاءة لمواجهة المستخدمين مجهولي الهويّة، وينبغي أن يكون هناك مزيد من التعاون عبر الحدود، فقد ظهرت الكثير من الممارسات الخارجة عن القانون، والتي تعتمد على تقنيات الذكاء الاصطناعي مثل الاختراقات الالكترونية ونشر المعلومات المضللة وانتحال الشخصيات والقيام بحملات تشويه كبيرة، لدرجة أن الهياكل القانونية الحالية لم تنجح في السيطرة على هذا الوضع، ولهذا نحن بحاجة ملموسة إلى وسائل أكثر كفاءة للتثبّت من «المستخدمين الحقيقيين» واتخاذ إجراءات صارمة ضد ممارسات مثل انتحال الهوية وتسريب خصوصية البيانات، ففي غياب الضوابط، سيتمّ استغلال كل بصمة رقميّة من قبل نماذج التنبؤ بكتابة النصوص اللغوية.

على المجتمع العلمي مراجعة أهدافه، فالمبادرات الحالية لتحسين هذه الأنظمة رغم تحيزها المضمّن وغياب الموثوقية، تُعدّ أمرًا جيّدا، ولكن لا يُؤتي ثماره، إذ ينبغي أن نعالج مثل هذه القضايا الأساسية العلمية والعملية، فالشخص العادي لا يسمع ولا يقرأ أكثر من مليار كلمة طيلة حياته، إلا أن نماذج التنبؤ بكتابة النصوص اللغوية(LLMs) تحتاج إلى تريليون كلمة لتخزينها، وبالتالي عدم كفاءة هذه النماذج تُعتبر نقطة سلبيّة، سواء من حيث الموارد أو الموثوقية الحقيقية، ولا ينبغي نسيان أن الذكاء العام يتطلب إدراك العالم غير اللفظي الذي يتضمن المهارة والمشاعر، وفي النهاية نحن في حاجة ملموسة لتطوير تقنيات العرض والشرح لتحسين النماذج التوليدية، وفي نفس السياق ينبغي الإشارة الى ضرورة تأسيس علمٍ جديدٍ للتواكب مع ابتكارٍ هندسيٍ عجيب، وجعله آمن ومتين ولا يؤدّي الى دحض الحضارة البشرية.

ومثل جميع الابتكارات التكنولوجية الرئيسية، سيتم استخدام الذكاء الاصطناعي التوليدي بشكل جيد وضار، وبالتالي على الحكومات ألّا تتخذ موقف المتفرّج المحايد، وتترك القرار للقوى المهيمنة في السوق للتحكم في مصير هذه التقنيات، وفي نفس السياق، ينبغي وضع استراتيجيات تَدَخُّل لتحقيق التوازن والوئام بين التقدم التكنولوجي والصالح الاجتماعي العام، فضلًا عن وجوب استخلاص الدروس من التجارب السابقة، ومن الأمثلة البارزة ما يُنشر على مواقع التواصل الاجتماعي على نطاق واسع دون ضوابط، وما يترتّب عن ذلك من «توسّع خوارزمي» له تداعياته الكبيرة على المجتمع ككل.