هل أصبح الذكاء الاصطناعي خطرًا غير قابل للتأمين؟ المخاطر التي تقلق شركات التأمين الكبرى
في تطور مثير للقلق، بدأت شركات التأمين الكبرى في الولايات المتحدة، مثل AIG وGreat American وWR Berkley، بالتعبير عن صعوبة التعامل مع المخاطر الناتجة عن الذكاء الاصطناعي. هذه الشركات تعتبر أن مخرجات تقنيات الذكاء الاصطناعي أشبه بـ”الصندوق الأسود” الذي لا يمكن التنبؤ بسلوكه، وهو ما يجعل التغطية التأمينية التقليدية غير كافية.
وأكدت التقارير أن شركات التأمين تطلب من الجهات التنظيمية السماح لها باستثناء أي مسؤوليات ناتجة عن استخدام الذكاء الاصطناعي من وثائق التأمين، خوفًا من التعرض لخسائر ضخمة غير متوقعة.
هذه الخطوة تعكس إدراك القطاع المالي أن الذكاء الاصطناعي لم يعد مجرد أداة ابتكار، بل أصبح يمثل تهديدًا نظاميًا محتملاً.
حوادث وأمثلة على المخاطر
شهد العامان الماضيان مجموعة من الحوادث التي سلطت الضوء على صعوبة تأمين الذكاء الاصطناعي.
من بين هذه الحوادث، وقع خطأ في Google AI أدى إلى اتهام شركة طاقة شمسية بمسؤولية قانونية غير موجودة.. ما أسفر عن دعوى قضائية بقيمة 110 ملايين دولار.
كما اضطرت شركة Air Canada إلى التعامل مع خصم ابتكره روبوت الدردشة الخاص بها دون أي أساس قانوني.
وفي حادثة أكثر خطورة، استخدم محتالون نسخة رقمية مقلدة لأحد كبار التنفيذيين لسرقة 25 مليون دولار من شركة هندسية بريطانية عبر مكالمة فيديو بدت واقعية تمامًا.
هذه الأمثلة تُبرز كيف أن الأخطاء الفردية أو الاستغلال الاحتيالي يمكن أن تتحول إلى خسائر مالية ضخمة.. وهو ما يقلق شركات التأمين بشأن الذكاء الاصطناعي.
الخطر النظامي والضغط على التأمين
ما يقلق شركات التأمين ليس مجرد حوادث فردية، بل “الخطر النظامي” الناتج عن آلاف المطالبات المتزامنة إذا ارتكب نموذج ذكاء اصطناعي واسع الاستخدام خطأً واحدًا.
كما ذكر مسؤول في شركة Aon، فإن القطاع قادر على التعامل مع خسارة بقيمة 400 مليون دولار لشركة واحدة.. لكنه عاجز تمامًا أمام خطأ واحد يؤدي إلى عشرات الآلاف من المطالبات في الوقت نفسه.
هذه المخاطر دفعت بعض شركات التأمين المتخصصة إلى رفض تغطية أي مخاطر مرتبطة بالنماذج الكبيرة للذكاء الاصطناعي.. مثل ChatGPT، معتبرة أن الاحتمالات غير المحسوبة للخسائر تجعلها غير قابلة للتأمين.
مستقبل التأمين والذكاء الاصطناعي
مع تزايد الاستخدام في القطاعات المختلفة، تواجه شركات التأمين تحديًا جديدًا: كيفية وضع حدود واضحة للتغطية دون أن تتعرض لخسائر كبيرة.
من المحتمل أن نشهد في المستقبل سياسات تأمين جديدة مصممة خصيصًا للذكاء الاصطناعي.. أو استثناءات خاصة بالخطأ الناتج عن النماذج الذكية.
وفي الوقت نفسه، يطرح هذا الواقع أسئلة حول المسؤولية القانونية: هل يتحمل مزود النموذج المسؤولية؟ أم المستخدم؟ أم كلاهما؟ هذه التساؤلات تشكل تحديًا أمام الجهات التنظيمية والمستثمرين على حد سواء، وتفتح المجال أمام نقاشات حادة حول مستقبله وتأثيره على الاقتصاد العالمي.










