الذكاء الاصطناعى القابل للتفسير

5
(1)

عندما يصبح الذكاء الاصطناعي أكثر تقدمًا ، يواجه البشر تحديًا لفهم كيفية وصول الخوارزمية إلى نتيجة وإعادة تتبعها. يتم تحويل عملية الحساب بأكملها إلى ما يشار إليه عادةً باسم “الصندوق الأسود” الذي يستحيل تفسيره. يتم إنشاء نماذج الصندوق الأسود هذه مباشرةً من البيانات. ولا يمكن حتى للمهندسين أو علماء البيانات الذين أنشأوا الخوارزمية فهم أو شرح ما يحدث بالضبط داخلها أو كيف وصلت خوارزمية الذكاء الاصطناعي إلى نتيجة معينة.  لذلك كان من الضرورى الوصول لشئ يعمل على حل هذه المشكلات وتم التوصل للذكاء الاصطناعى القابل للشرح، ويُعد الذكاء الاصطناعي القابل للشرح أمرًا ضروريًا للمؤسسات في بناء الثقة والدقة عند وضع نماذج الذكاء الاصطناعي في الإنتاج، وتساعد قابلية شرح الذكاء الاصطناعي المؤسسات على تبني نهج مسؤول لتطوير الذكاء الاصطناعي.

ماهية الذكاء الاصطناعي القابل للشرح (XAI)

الذكاء الاصطناعي القابل للشرح (XAI) عبارة عن مجموعة من العمليات والأساليب التي تسمح للمستخدمين بفهم النتائج والمخرجات التي تم إنشاؤها بواسطة خوارزميات التعلم الآلي والثقة فيها، حيث يُستخدم الذكاء الاصطناعي القابل للشرح لوصف نموذج الذكاء الاصطناعي وتأثيره المتوقع والانحيازات المحتملة، ويساعد في تميز دقة النموذج والنزاهة والشفافية والنتائج في صنع القرار المدعوم بالذكاء الاصطناعي

مجالات تطبيق XAI

يمكن أن تحقق XAI فائدة كبيرة لللعديد من المجالات التي تعتمد على أنظمة الذكاء الاصطناعي القابل للشرح والتفسير،ومنها:

  • المجال الصحى
  • القطاع المالى
  • فى مجال الطاقة
  • المركبات ذاتية القيادة

الشركات التى تقدم XAI

  • Google Cloud’s XAI platform
  • IBM
  • Flowcast
  • Fiddler Labs

الخاتمة

يُعد الذكاء الاصطناعي القابل للشرح أحد المتطلبات الرئيسية لتطبيق الذكاء الاصطناعي المسؤول، وهو منهجية للتنفيذ الواسع النطاق لأساليب الذكاء الاصطناعي في مؤسسات حقيقية تتسم بالنزاهة وإمكانية شرح النموذج، وللمساعدة في تبني الذكاء الاصطناعي بشكل مسؤول، تحتاج المؤسسات إلى تضمين المبادئ الأخلاقية في تطبيقات وعمليات الذكاء الاصطناعي من خلال بناء أنظمة الذكاء الاصطناعي القائمة على الثقة والشفافية، حيث يهدف XAI إلى توضيح وشرح كيفية الوصول إلى قرارات أو توصيات محددة، و يساعد البشر في كيفية / لماذا يتصرف الذكاء الاصطناعي بطرق معينة، ويمكن أن يساعد الذكاء الاصطناعي القابل للتفسير البشر على فهم وشرح خوارزميات التعلم الآلي (ML) والتعلم العميق والشبكات العصبية.

المراجع

  • Daglarli, E. (2021). Explainable Artificial Intelligence (xAI) Approaches and Deep Meta-Learning Models for Cyber-Physical Systems. In Artificial Intelligence Paradigms for Smart Cyber-Physical Systems (pp. 42-67). IGI Global.
  • D’Alterio, P., Garibaldi, J. M., & John, R. I. (2020, July). Constrained interval type-2 fuzzy classification systems for explainable AI (XAI). In 2020 IEEE International Conference on Fuzzy Systems (FUZZ-IEEE) (pp. 1-8). IEEE.
  • Das, A., & Rad, P. (2020). Opportunities and challenges in explainable artificial intelligence (xai): A survey. arXiv preprint arXiv:2006.11371.
Print Friendly, PDF & Email

قيمنا

5 / 5. 1

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

انتقل إلى أعلى