تدقيق خوارزميات التعلم الآلي: مستند تقني للمراجعين العامين
مع تكثيف نشر الذكاء الاصطناعي والتعلم الآلي ، سيكون من الضروري للمدققين العامين مواجهة التحديات التي تطرحها هذه التكنولوجيا الغازية بشكل تدريجي.
بقلم جان رور بيكستروم ، كبير علماء البيانات – مختبر الابتكار ، مكتب المدقق العام في النرويج
بدأت السلطات العامة والجهات الحكومية بالفعل في تطوير وتنفيذ خوارزميات الذكاء الاصطناعي (AI) والتعلم الآلي (ML) لتحسين الخدمات العامة وخفض التكاليف.
في حين أن المكاسب المحتملة هائلة ، فإن هذه التكنولوجيا تقدم أيضًا تحديات ومخاطر جديدة ، مثل أمن البيانات ، وإمكانية المعالجة غير المتكافئة المؤتمتة والمؤسسية ، والإنتاج الضخم للقرارات غير الصحيحة أو التمييزية.
مع تزايد انتشار الذكاء الاصطناعي ، سيصبح من الضروري بشكل متزايد أن تقوم مؤسسات التدقيق العليا (SAIs) بتدقيق التطبيقات التي تستند إلى خوارزميات الذكاء الاصطناعي والتعلم الآلي – والتي يتم إجراؤها عادةً كأداء خاص أو حالات تدقيق الامتثال. بالإضافة إلى ذلك ، تميل نماذج الذكاء الاصطناعي إلى أن تكون جزءًا لا يتجزأ من البنى التحتية الأوسع لتكنولوجيا المعلومات (IT) ، مما يشير إلى الحاجة إلى دمج عناصر تدقيق تكنولوجيا المعلومات.
حاليًا ، توجد إرشادات محدودة للمدققين العامين حول كيفية تدقيق خوارزميات الذكاء الاصطناعي وتعلم الآلة. لسد هذه الفجوة ، قام مكتب المدقق العام في النرويج – جنبًا إلى جنب مع الزملاء في علم البيانات من الأجهزة العليا للرقابة المالية والمحاسبة في فنلندا وألمانيا وهولندا والمملكة المتحدة – بتطوير “تدقيق خوارزميات التعلم الآلي: ورقة بيضاء للمراجعين العامين”.
تلخص الورقة ، المتوفرة عبر الإنترنت على www.auditingalgorithms.net ، المخاطر الرئيسية المرتبطة باستخدام الذكاء الاصطناعي وتعلم الآلة في الخدمات العامة. استنادًا إلى الخبرة التراكمية مع عمليات تدقيق ومراجعات الذكاء الاصطناعي لمشاريع تطوير البرمجيات الأخرى ، يقترح الكتاب الأبيض أيضًا كتالوج تدقيق يتضمن مناهج منهجية لعمليات تدقيق تطبيقات الذكاء الاصطناعي.
تتناول هذه المقالة بإيجاز بعض النقاط الرئيسية.
إدارة المشاريع وحوكمة أنظمة الذكاء الاصطناعي
هل المعرفة التقنية عالية التخصص بنماذج الذكاء الاصطناعي مطلوبة لمراجعة الخوارزميات؟ ليس بالضرورة.
هناك الكثير من القواسم المشتركة بين تدقيق تطوير نظام الذكاء الاصطناعي وأي تدقيق لإدارة المشروع. إذا أدخلت وكالة حكومية الذكاء الاصطناعي في بيئة محددة ، فقد يكون السؤال الجيد والبسيط للغاية ، “هل هناك هدف واضح للإنجاز المنشود؟” علاوة على ذلك ، إذا طبق المستشارون الخارجيون نظام الذكاء الاصطناعي ، “هل هناك هيكل مستدام للحفاظ على النموذج بمجرد مغادرة المستشارين؟”
لتخفيف الحاجة إلى المهارات المتخصصة ، من الضروري أن يكون لدى الوكالة وثائق وافرة لتطوير النموذج والموظفين الموجودين الذين يفهمون النموذج.
اعتبارات البيانات
تعد جودة البيانات مهمة دائمًا ، ولكنها مهمة في نمذجة الذكاء الاصطناعي. يمكن أن تؤدي البيانات المبسطة والمتحيزة إلى نتائج معيبة غير مقصودة.
مثال: إذا تم استخدام نفس البيانات لبناء النموذج (أثناء مرحلة التدريب) والتحقق من الأداء (أثناء الاختبار أو التحقق من الصحة) ، فمن المرجح أن يتم تضخيم مقاييس الأداء. يؤدي هذا “التخصيص” إلى فقدان الأداء عند استخدامه على بيانات إنتاج جديدة غير معروفة.
هناك اعتبار آخر مهم للبيانات يتعلق بالخصوصية واستخدام البيانات الشخصية. وضع الاتحاد الأوروبي اللائحة العامة لحماية البيانات (GDPR) ، والتي تحافظ على تقليل البيانات (الحد من كمية المعلومات الشخصية المستخدمة إلى ما هو ضروري للوصول إلى الهدف ذي الصلة) كمبدأ مركزي. في إعداد الذكاء الاصطناعي ، هذا يعادل تقييد الاستخدام الواسع للمعلومات الشخصية عند التدريب أو اختبار النماذج. على الرغم من أن البلدان في أجزاء أخرى من العالم لديها لوائح مختلفة ، فإن التقليل من استخدام البيانات الشخصية إلى ما هو ضروري للغاية هو قاعدة عامة جيدة.
تطوير نموذج
يسهل تطوير النموذج الشفاف والموثق جيدًا إمكانية التكرار ، والتي يمكن اختبارها بسهولة بواسطة مدقق يتمتع بمعرفة كافية بالذكاء الاصطناعي وتعلم الآلة لإجراء مراجعة التوثيق.
على نحو مفضل ، ستشمل الوثائق قاعدة بيانات جيدة التنظيم والتعليق (وفقًا لمعايير لغة الترميز) ، وسجلات مكثفة للأجهزة والبرامج المستخدمة ، وتفسيرات حول كيفية الحفاظ على النموذج بمجرد طرحه في الإنتاج.
من المهم بنفس القدر أن تكون خوارزمية الذكاء الاصطناعي أو التعلم الآلي محددة بشكل جيد ، خاصة إذا تم استخدام نموذج يصعب شرحه. يمكن أن يكون تدريب واختبار النموذج المختار مقابل النماذج الأخرى مفيدًا للمراجعين في التحقق من النموذج الذي تم اختياره.
تظل العدالة والمساواة في المعاملة في طليعة تطوير النموذج ، حيث يمكن أن يؤدي التحيز الخوارزمي إلى التمييز المؤسسي.
إذا كانت البيانات المستخدمة لبناء نموذج منحازة بعض الشيء ، فقد يضخم النموذج الذي تم تطويره بلا مبالاة هذه الخصائص. يتطلب الإنصاف القائم على المجموعة نماذج ML للتعامل مع المجموعات المختلفة بطريقة مماثلة. يمكن أن تكون حقوق الملكية أكثر تعقيدًا بعض الشيء. على سبيل المثال ، إذا كانت البيانات التي تم الحصول عليها لتدريب نموذج ذكاء اصطناعي تتضمن تباينات ديموغرافية على مستوى المجموعة ، فسوف يتعرف النموذج على هذه التباينات ، والتي يمكن أن تؤدي إلى تنبؤات مضللة.
يمكن أن يؤدي إنشاء نموذج ذكاء اصطناعي يستند إلى بيانات متحيزة إلى نتائج مشوهة ، والتي بدورها تصبح أساسًا للقرارات الآلية التي قد تؤدي إلى استنتاجات متحيزة أكبر.
يمكن أن يوفر استخدام الذكاء الاصطناعي والتعلم الآلي في القطاع العام مكافآت هائلة. في الوقت نفسه ، هناك خطر حقيقي من أن فشل النشر يمكن أن يلحق الضرر بالديمقراطية والنسيج الاجتماعي من خلال تعزيز التمييز والمعاملة غير المتكافئة على نطاق واسع.
مع تكثيف نشر الذكاء الاصطناعي والتعلم الآلي ، سيكون من الضروري للمدققين العامين مواجهة التحديات التي تطرحها هذه التكنولوجيا الغازية بشكل تدريجي.
يهدف “تدقيق خوارزميات التعلم الآلي: ورقة بيضاء للمدققين العامين” إلى مساعدة الأجهزة العليا للرقابة المالية والمحاسبة في تعلم المزيد حول تدقيق خوارزميات الذكاء الاصطناعي والتعلم الآلي ومساعدة المدققين على أن يصبحوا مجهزين بشكل أفضل لمواجهة التحديات.