Definition

قانون الذكاء الاصطناعي (اللائحة 2024/1689) هو التشريع الأوروبي القائم على المخاطر الذي ينظم أنظمة الذكاء الاصطناعي. يفرض التزامات تتراوح بين الحظر المطلق لممارسات معينة وتقييمات المطابقة لأنظمة عالية المخاطر تُستخدم في تقييم الجدارة الائتمانية والبنية التحتية المالية.

النقاط الرئيسية

  • القانون يصنف أنظمة الذكاء الاصطناعي في أربعة مستويات مخاطر: غير مقبول، عالٍ، محدود، حد أدنى.
  • الغرامات تصل إلى 35 مليون يورو أو 7% من حجم الأعمال العالمي السنوي لاستخدام نظام ذكاء اصطناعي محظور.
  • أنظمة الذكاء الاصطناعي عالية المخاطر المستخدمة في التسجيل الائتماني يجب أن تجتاز تقييم المطابقة قبل 2 أغسطس 2026.
  • مكاتب المراجعة التي تستخدم أدوات ذكاء اصطناعي في عمليات المراجعة يجب أن تقيّم ما إذا كانت تُصنف عالية المخاطر بموجب الملحق الثالث.

كيف يعمل

يصنف إطار المخاطر في القانون الالتزامات بما يتناسب مع الضرر المحتمل لكل نظام ذكاء اصطناعي. المادة 5 تحظر فئة ضيقة من الأنظمة: التصنيف الاجتماعي من قبل السلطات العامة، وتقنيات التحديد البيومتري في الوقت الفعلي في الأماكن العامة (مع استثناءات محدودة)، واستغلال نقاط ضعف الفئات المستضعفة، والأنظمة التي تستخدم التلاعب أو الأساليب اللاوعية. أنظمة المخاطر العالية المدرجة في الملحق الثالث تحمل العبء الأكبر: يجب على مقدميها الحفاظ على نظام إدارة جودة، وإعداد توثيق تقني، وتفعيل التسجيل، وإجراء تقييم مطابقة، وتسجيل النظام في قاعدة بيانات الاتحاد الأوروبي قبل طرحه في السوق.

بالنسبة للخدمات المالية، الملحق الثالث، البند 5(ب) يصنف أنظمة الذكاء الاصطناعي المستخدمة في تقييم الجدارة الائتمانية أو تحديد أقساط التأمين على أنها عالية المخاطر. أي بنك أو شركة تأمين أو شركة تكنولوجيا مالية تعمل في الاتحاد الأوروبي وتستخدم نموذج تسجيل قائم على الذكاء الاصطناعي يجب أن تستوفي متطلبات إدارة المخاطر الكاملة بموجب المادة 9 بحلول 2 أغسطس 2026. المستخدمون (المؤسسات التي تستخدم النظام، وليس فقط مقدمي الخدمة الذين بنوه) يتحملون التزامات خاصة بهم بموجب المادة 26: الرقابة البشرية، ومراقبة بيانات المدخلات، والإبلاغ عن الحوادث، والتعاون مع السلطات الوطنية.

الجدول الزمني المرحلي له أهمية عملية. الممارسات المحظورة بدأ تطبيقها من 2 فبراير 2025. التزامات نماذج الذكاء الاصطناعي ذات الأغراض العامة (الشفافية والإفصاح عن حقوق الملكية الفكرية والتوثيق التقني وسياسات حقوق النشر) أصبحت سارية في 2 أغسطس 2025. قواعد أنظمة المخاطر العالية تُطبق من 2 أغسطس 2026. الأنظمة المدمجة في منتجات خاضعة لتشريعات قطاعية أوروبية (الأجهزة الطبية، الآلات) تحصل على مهلة ممتدة حتى 2 أغسطس 2027.

مثال عملي: شركة شيفر للإلكترونيات

العميل: شركة إلكترونيات ألمانية، سنة مالية 2025، إيرادات 310 مليون يورو، تقارير وفق معايير IFRS. تستخدم شيفر أداة تسجيل ائتماني قائمة على الذكاء الاصطناعي لتقييم الجدارة الائتمانية للعملاء قبل منح الائتمان التجاري. تعتمد الأداة على تاريخ المدفوعات ونسب القوائم المالية وبيانات مكاتب الائتمان الخارجية. الإدارة تتعامل مع الأداة كنظام دعم قرارات داخلي ولم تُجر تصنيفاً تنظيمياً.

الخطوة 1: تصنيف نظام الذكاء الاصطناعي بموجب القانون
أداة التسجيل الائتماني تقيّم الجدارة الائتمانية لأشخاص طبيعيين (عملاء شيفر في الائتمان التجاري يشملون مالكين أفراد). الملحق الثالث، البند 5(ب) من اللائحة 2024/1689 يصنف أنظمة الذكاء الاصطناعي المستخدمة في تقييم الجدارة الائتمانية على أنها عالية المخاطر. الأداة تقع ضمن النطاق.
ملاحظة التوثيق: تسجيل تحليل التصنيف، بما في ذلك مرجع الملحق الثالث، ووصف وظيفة الأداة، وتاريخ إجراء التحليل. الاحتفاظ بموقف الإدارة الأولي (غير الصحيح) بأن الأداة خارج النطاق والأساس الذي بُني عليه تجاوز هذا الموقف.

الخطوة 2: تحديد التزامات المقدم والمستخدم
شيفر اشترت الأداة من بائع خارجي (المقدم). يجب على البائع تقديم وثائق المطابقة والمواصفات التقنية بموجب المادتين 11 و13، مع تعليمات الاستخدام بموجب المادة 16. شيفر بصفتها المستخدم يجب أن تطبق الرقابة البشرية بموجب المادة 14، وتضمن أن بيانات المدخلات ذات صلة وتمثيلية بموجب المادة 10، وتراقب النظام أثناء التشغيل، وتبلغ عن الحوادث الخطيرة للسلطة الوطنية بموجب المادة 26.
ملاحظة التوثيق: حفظ إعلان مطابقة البائع ووثائق علامة CE. تسجيل قائمة التزامات شيفر كمستخدم واسم المسؤول المعين عن الرقابة البشرية. حفظ تقييم جودة بيانات المدخلات.

الخطوة 3: تقييم فجوة الامتثال والجدول الزمني
التزامات المخاطر العالية تسري من 2 أغسطس 2026. في تاريخ الميزانية العمومية (31 ديسمبر 2025)، لدى شيفر حوالي سبعة أشهر لتحقيق الامتثال. تقدر الإدارة تكاليف التنفيذ بمبلغ 280,000 يورو (مراجعة قانونية خارجية 85,000 يورو، تعديلات تقنية 120,000 يورو، تدريب الموظفين 40,000 يورو، رسوم تقييم المطابقة 35,000 يورو). لا يُعترف بمخصص لأنه لا يوجد التزام حالي في تاريخ التقرير؛ النفقات تتعلق بأنشطة امتثال مستقبلية.
ملاحظة التوثيق: تسجيل تحليل الفجوة وتفصيل تقديرات التكلفة. بيان الاستنتاج المحاسبي بموجب الفقرة 37.14 من معيار المحاسبة الدولي بأنه لا مخصص مطلوب لأن الالتزام بالامتثال لم يتبلور بعد إلى التزام حالي في نهاية السنة. الإشارة إلى اعتبار الإفصاح بموجب الفقرة 37.89 من معيار المحاسبة الدولي إذا كان المبلغ جوهرياً.

الخطوة 4: تقييم متطلبات الإفصاح
يقيّم المراجع ما إذا كانت التزامات قانون الذكاء الاصطناعي القادمة تنشئ التزاماً محتملاً أو تستوجب إفصاحاً كحدث لاحق. في 31 ديسمبر 2025، الالتزام تشريعي (ليس خاصاً بالمنشأة) ولا يستوفي تعريف معيار المحاسبة الدولي 37 للالتزام الحالي. بموجب الفقرة 1.125 من معيار المحاسبة الدولي (أو معيار IFRS 18 عند سريانه)، يجب على الإدارة الإفصاح عن تكلفة الامتثال المتوقعة إذا كانت جوهرية لفهم المستخدمين للبيانات المالية. يقيّم المراجع ما إذا كان الإفصاح كافياً.
ملاحظة التوثيق: توثيق تقييم اكتمال الإفصاح، مع الإشارة إلى الجدول الزمني لقانون الذكاء الاصطناعي والتكلفة المقدرة. تسجيل قرار الإدارة بشأن الإفصاح. إذا حذفت الإدارة الإفصاح، تسجيل تقييم المراجع لما إذا كان الحذف يشكل خطأً بموجب معيار المراجعة 450.

تصنيف أداة التسجيل الائتماني لشيفر على أنها عالية المخاطر بموجب الملحق الثالث قابل للدفاع عنه لأنها تندرج مباشرة تحت البند 5(ب). لا يُعترف بمخصص لأنه لا يوجد التزام حالي في تاريخ التقرير بموجب معيار المحاسبة الدولي 37. الخطوة التالية: متابعة تقدم الإدارة في تحقيق الامتثال قبل الموعد النهائي في أغسطس 2026.

ما يخطئ فيه المراجعون والممارسون

  • تجاهل التزامات المستخدم المنفصلة. المادة 26 من قانون الذكاء الاصطناعي تفرض مسؤوليات مستقلة على المستخدمين (المؤسسات التي تستخدم أنظمة الذكاء الاصطناعي)، منفصلة عن مسؤوليات المقدمين (المؤسسات التي طورتها). افتراض أن وثائق مطابقة البائع تغطي واجبات المستخدم يترك فجوات في الرقابة البشرية ومراقبة جودة البيانات والإبلاغ عن الحوادث.
  • عدم تقييم أدوات الذكاء الاصطناعي الخاصة بمكتب المراجعة. مكاتب المراجعة التي تستخدم أدوات ذكاء اصطناعي في عمليات المراجعة (اختبار القيود اليومية الآلي، التحليلات التنبؤية لتقييم المخاطر) غالباً لا تقيّم ما إذا كانت هذه الأدوات تُصنف على أنها عالية المخاطر. إذا كانت أداة الذكاء الاصطناعي تؤثر على استنتاجات المراجعة التي يعتمد عليها أطراف ثالثة، يجب على المكتب تقييم الأداة وفق الملحق الثالث ونظام إدارة الجودة الخاص بالمكتب بموجب معيار إدارة الجودة 1 (ISQM 1).

قانون الذكاء الاصطناعي مقابل اللائحة العامة لحماية البيانات

البُعدقانون الذكاء الاصطناعي (اللائحة 2024/1689)اللائحة العامة لحماية البيانات (اللائحة 2016/679)
النطاقينظم أنظمة الذكاء الاصطناعي المطروحة في السوق الأوروبية أو المستخدمة فيها، بغض النظر عن مكان تأسيس المقدمينظم معالجة البيانات الشخصية لمقيمي الاتحاد الأوروبي، بغض النظر عن مكان تأسيس المتحكم
المحفزطرح نظام ذكاء اصطناعي في السوق الأوروبية أو تشغيله داخل الاتحادمعالجة بيانات شخصية لأفراد في الاتحاد الأوروبي
إطار المخاطرتصنيف من أربعة مستويات: غير مقبول، عالٍ، محدود، حد أدنىلا توجد مستويات رسمية، لكن تقييمات أثر حماية البيانات مطلوبة للمعالجة عالية المخاطر بموجب المادة 35
الغرامة القصوى35 مليون يورو أو 7% من حجم الأعمال العالمي20 مليون يورو أو 4% من حجم الأعمال العالمي
التداخلأنظمة الذكاء الاصطناعي التي تعالج بيانات شخصية يجب أن تمتثل للائحتين في وقت واحد؛ قانون الذكاء الاصطناعي لا يلغي متطلبات اللائحة العامة لحماية البيانات

اللائحتان تسريان بالتوازي. أداة تسجيل ائتماني بالذكاء الاصطناعي تعالج بيانات شخصية (مما يفعّل اللائحة العامة لحماية البيانات) وتجري تقييم جدارة ائتمانية (مما يفعّل الملحق الثالث من قانون الذكاء الاصطناعي). يجب على المستخدم استيفاء مجموعتي المتطلبات. نظام متوافق مع اللائحة العامة لحماية البيانات ليس بالضرورة متوافقاً مع قانون الذكاء الاصطناعي، لأن القانون يفرض التزامات إضافية حول التوثيق التقني وتقييم المطابقة لا تتطلبها اللائحة العامة لحماية البيانات، بالإضافة إلى واجبات الرقابة البشرية المستمرة.

المصطلحات ذات الصلة

  • توجيه تقارير الاستدامة المؤسسية (CSRD): إطار إفصاح استدامة أوروبي يتداخل مع قانون الذكاء الاصطناعي عندما تُستخدم أنظمة ذكاء اصطناعي في إعداد إفصاحات ESRS.
  • الأهمية النسبية المزدوجة: مفهوم يتطلب تقييم الأثر والمخاطر المالية معاً، وهو وثيق الصلة عند تقييم مخاطر عدم الامتثال لقانون الذكاء الاصطناعي.
  • معيار إدارة الجودة 1 (ISQM 1): نظام إدارة الجودة في مكاتب المراجعة الذي يجب أن يتضمن تقييم أدوات الذكاء الاصطناعي المستخدمة في عمليات المراجعة.
  • الالتزام المحتمل: تصنيف محاسبي ذو صلة عند تقييم ما إذا كانت غرامات قانون الذكاء الاصطناعي المحتملة تستوجب إفصاحاً بموجب معيار المحاسبة الدولي 37.

الأدوات ذات الصلة

تقييم الأهمية النسبية المزدوجة: يساعد في تحديد ما إذا كانت مخاطر قانون الذكاء الاصطناعي جوهرية بموجب إطار ESRS.

احصل على رؤى تدقيق عملية أسبوعياً.

ليست نظريات امتحانات. فقط ما يجعل عمليات التدقيق أسرع.

أكثر من 290 دليلاً منشوراً20 أداة مجانيةصُمم بواسطة مراجع حسابات ممارس

بدون إزعاج. نحن مراجعون، لا مسوّقون.