تُناضلُ المنصَّاتُ الاجتماعية، الكبيرة منها والصغيرة على حدٍّ سواء، من أجل حماية مجتمعاتها من خطاب الكراهية والمحتوى المُتطرِّف والتحرُّش والتضليل، وقد أعلن عددٌ من مُثيري الشغب ينتمون إلى اليمين المُتطرِّف عبر منشوراتهم خططهم الرامية إلى اقتحام مبنى الكابيتول الأمريكي قبل أن يُقدِموا على تلك الخطوة فعليًّا في السادس من يناير، وربما كان الذكاء الاصطناعي أحد الحلول: ابتكار خوارزمياتٍ لكشف التعليقات السامَّة والتحريضية، وتمييزها من أجل حذفها، غير أن هذه النُّظُم وأمثالها تواجه تحدياتٍ كبيرة.
شهدت السنواتُ الأخيرة انتشارًا مُتسارعًا على شبكة الإنترنت للغة المُسيئة أو المُنطوية على خطاب الكراهية، واستفحلت المشكلةُ في الوقت الراهن؛ ففي بعض الأحيان، أدَّت التعليقاتُ السامَّة على شبكة الإنترنت إلى إثارة العنف على أرض الواقع، بدءًا من نعرات القومية الدينية في ميانمار ووصولًا إلى دعاية النازية الجديدة في الولايات المتحدة، وتُناضل منصاتُ التواصل الاجتماعي الأمريكية، عبر آلاف المراجعين البشريين لحذف أكبر قدرٍ ممكن من المحتوى المؤذي الذي لا يكفُّ عن التزايد، وقد ذُكِرَ في عام 2019 أنَّ مُراجعي محتوى "فيسبوك" مهدَّدون بخطر الإصابة باضطراب ما بعد الصدمة نتيجة تعرُّضهم المُتكرِّر لمحتوى كئيبٍ كهذا، لذا فإن الاستعانة بتعلُّم الآلة في إنجاز هذه المهمة يمكن أن يُسهم في التحكم في الحجم المتزايد من المحتوى المؤذي، مع الحدِّ في الوقت ذاته من التعرُّض البشري له، في واقع الأمر، استعان العديد من شركات التكنولوجيا العملاقة بالخوارزميات منذ سنواتٍ، جاعلين إياها جزءًا من عملية مراجعة المحتوى الخاصة بهم.
ومن بين تلك الشركات شركة "جيجسو"، إحدى الشركات التابعة لشركة "جوجل"، والتي ينصب تركيزُها على تعزيز أمان شبكة الإنترنت؛ فقد أدت الشركة في عام 2017 دورًا في ابتكار "الذكاء الاصطناعي المُخصَّص للمحادثة" Conversation AI، وهو مشروعٌ بحثيٌّ تآزري يهدف إلى اكتشاف التعليقات السامة على شبكة الإنترنت، غير أنَّ إحدى الأدوات التي ابتكرها القائمون على هذا المشروع -والتي أطلقوا عليها اسم "بيرسبكتيف" Perspective قُوبلت بنقدٍ شديد، وكان من الشكاوى الشائعة أن تلك الأداة صَممت مقياسًا عامًّا للسُّمِّية لم يكن مرنًا بما يكفي لتلبية الحاجات المتنوعة للمنصات المختلفة؛ فبعضُ المواقع الإلكترونية قد يحتاج مثلًا إلى الكشف عن التهديدات وليس اللغة المسيئة، في حين تحتاج مواقع أُخرى إلى عكس ذلك.
كما ظهرت مشكلةٌ أخرى، هي أن الخوارزمية تعلمت دمجَ تعليقاتٍ سامةٍ مع تعليقات غير سامة احتوت على كلماتٍ مرتبطة بالجنس أو التوجُّه الجنسي أو الدين أو الإعاقة؛ فمثلًا، أشار أحد المستخدمين إلى أن جملًا محايدة من قبيل "أنا امرأة سوداء مثلية الجنس" أو "أنا امرأة صمَّاء" أدت إلى درجات مرتفعة على مقياس السُّمِّية، في حين أدت جملةٌ من قبيل "أنا رجلٌ" إلى درجةٍ منخفضة على المقياس.
واستجابةً لتلك المخاوف، دعا فريقُ "الذكاء الاصطناعي المُخصَّص للمحادثة" المطوِّرين لتدريب خوارزمياتهم الخاصة باكتشاف السُّمِّية، وإدخالها في ثلاث منافساتٍ (بمعدل واحدة كل عام) تستضيفها منصةُ "كاجل"، التابعة لشركة "جوجل"، وهي منصةٌ تشتهر بمجتمع الممارسين لتعلُّم الآلة ومجموعات البيانات العامة والتحديات، وإسهامًا منه في تدريب نماذج الذكاء الصناعي، أطلق مشروع "الذكاء الصناعي المُخصَّص للمحادثة" مجموعتين من البيانات العامة تحتويان على أكثر من مليون تعليق سام وغير سام من موقع "ويكيبيديا" وخدمة تُدعى "سِيفيل كومنتس" Civil Comments، وجرى تقييم هذه التعليقات من حيث درجة سُمِّيتها من قِبَل مُفسرين، إذ دلَّ الوَسمُ «شديد السُّمِّية» على أن «التعليق ينطوي على قدر كبير جدًّا من الكراهية أو العدوانية أو الإهانة، مع أرجحية أن يجعلك تترك المناقشة أو تُحجم عن الإدلاء بدلوك فيها»، ودلَّ الوسمُ "سام" على أن «التعليق فظ أو مهين أو غير منطقي، مع احتمالية أن يجعلك تترك المناقشة أو تحجم عن الإدلاء بدلوك فيها»، وقد رُوجعت بعض التعليقات من قِبَل أكثر من 10 مُفسرين (وصل الرقم في بعض الأحيان إلى الآلاف)، بسبب طريقة جمع العينات والإستراتيجيات المُستَخدَمة لتعزيز دقة المُقَيِّم.
كان الهدف من تحدي جيجسو الأول بناء نموذجِ تصنيفٍ للتعليقات السامة متعددة الوسوم يتضمن وسومًا من قبيل "سام"، و"شديد السمِّية"، و"تهديدي"، و"مُهين"، و"فاحش"، و"منطوٍ على كراهية للهوية"، أما التحديان الثاني والثالث فقد ركزا على قيودٍ أكثر تحديدًا لواجهة برمجة التطبيقات (API) الخاصة بهم: تقليل التحيُّز غير المُتعمَّد نحو مجموعات هوية مُحَدَّدة سلفًا، وتدريب نماذج متعددة اللغات على بيانات باللغة الإنجليزية فقط.
قادت تلك التحديات إلى بعض الطرق الذكية لتحسين نماذج اللغة السامة، ومع ذلك، لم يكتشف فريقنا في "يونيتاري" -وهي شركة ذكاء اصطناعي متخصصة في مراجعة المحتوى- أيًّا من النماذج المُدَرَّبة التي أُعلِنَت للعامة.
لذا قررنا الاستفادة من أفضل حلول "كاجل" وتدريب خوارزمياتنا الخاصة، مع العزمِ على إتاحتها لعموم الناس، ولتحقيق هذا الهدف، اعتمدنا على نماذج «المحوِّل» المستخدمة حاليًّا في معالجة اللغة الطبيعية مثل نموذج "بيرت" BERT من شركة "جوجل"، ويُتاح الكثير من هذه النماذج في «مكتبة المُحوِّلات» مفتوحة المصدر.
هكذا بنى فريقنا "ديتوكسيفاي" Detoxify، وهي مكتبة سهلة الاستخدام ومفتوحة المصدر للكشف عن التعليقات، من أجل تحديد النصوص غير الملائمة أو المؤذية على شبكة الإنترنت، وتهدف هذه المكتبة إلى مساعدة الباحثين والممارسين على تحديد التعليقات السامة المحتملة، وكجزءٍ من هذه المكتبة، أطلقنا ثلاثة نماذج يتوافق كلٌّ منها مع أحد تحديات "جيجسو" الثلاثة، وفي حين استَخدمتْ أفضل حلول "كاجل" عدةَ مجموعات نَمذجة لكل تحدٍّ من أجل تحديد متوسط درجات النماذج المُدَرَّبة المتعددة، حصلنا على أداء مماثل باستخدام نموذج واحد فقط لكل تحدٍّ، ويمكن الوصول بسهولة إلى كل نموذج بسطرٍ واحدٍ من الرمز، كما يُتاح جميع النماذج ورمز التدريب لعموم الناس على موقع "جِتهاب" GitHub، ويمكنكم تجريب تلك النماذج في "جوجل كولاب" Google Colab.
وبالرغم من جودة أداء تلك النماذج في كثير من الحالات، فإنه من الأهمية بمكانٍ تسليطُ الضوء على جوانب قصورها، فأولًا، يكون أداء تلك النماذج جيدًا في الأمثلة المشابهة للبيانات التي دُرِّبَت عليها في الأساس، غير أنها تُخفق على الأرجح حال تعاملها مع أمثلة غير مألوفة من اللغة السامة، لذا نُشجِّع المطوِّرين على ضبط هذه النماذج وفقًا لمجموعات بياناتٍ تتوافق مع الحالات التي تُستخدم فيها.
وإضافةً إلى ذلك، لاحظنا أنه عندما يتضمن تعليقٌ نصي إهاناتٍ أو بذاءاتٍ، فإن ذلك يؤدي في أغلب الأحيان إلى درجات مرتفعة على مقياس السُّمِّية، بصرف النظر عن نية كاتب النص أو أسلوبه، فمثلًا، جملةٌ من قبيل «سئمتُ من كتابة هذا المقال الغبي»، تُسجل 99.7% على مقياس السُّمِّية، في حين يؤدي حذفُ كلمة «الغبي» من الجملة إلى خفض هذه النسبة إلى 0.05%.
وأخيرًا نقول إنه على الرغم من الحقيقة القائلة بأن تدريب أحد هذه النماذج المطروحة تدريبًا من نوعٍ خاص بهدف الحد من التحيز غير المُتعمد، لا تزال احتماليةُ تحيُّز النماذج الثلاثة جميعها قائمةً، وهو ما يطرح مخاوف أخلاقيةً عند إتاحتها للاستخدام لعموم الناس في مراجعة المحتوى.
ومع أن الكشف الآلي عن المحتوى اللغوي السام قد قطع شوطًا كبيرًا، لا يزال أمامنا طريقٌ طويلٌ للوصول إلى نماذج يمكنها التقاط المعنى الحقيقي الدقيق الكامن وراء اللغة، والوصول إلى ما هو أبعد من مجرد حفظ كلماتٍ وعباراتٍ بعينها، وبطبيعة الحال، سيؤدي الاستثمار في مجموعات بياناتٍ أفضل وأكثر تمثيلًا إلى تحسيناتٍ مرحلية، غير أننا يجب أن نخطوَ خطوةً أكبر من ذلك بأن نبدأ بتأويل البيانات في سياقها، وهو ما يُشكِّل عاملًا محوريًّا في فهم السلوك على شبكة الإنترنت؛ فقد نغفل بسهولة عن منشورٍ نصي يبدو في ظاهره حسنًا -رغم تضمُّنه رمزيةً عنصرية في صورة أو فيديو مرفق به- على مواقع التواصل الاجتماعي، بسبب انشغالنا بالنص وحده، نعلم أن فقدان السياق يؤدي في أغلب الأحيان إلى إصدارنا، نحن البشر، أحكامًا خطأ، فإذا كنا نريد أن نفتح المجال أمام الذكاء الاصطناعي كي يحل محل الجهد اليدوي على نطاق واسع، فمن الضروري أن نزود نماذجنا بالصورة الكاملة.
ليست هناك تعليقات:
إرسال تعليق