الذكاء الاصطناعي يورّط ديلويت.. ويجبرها على إعادة جزء من أتعابها للحكومة الأسترالية

الذكاء الاصطناعي يورّط ديلويت.. ويجبرها على إعادة جزء من أتعابها للحكومة الأسترالية

المؤشر 26-10-2025   ستُعيد شركة "ديلويت" جزءاً من مستحقاتها عن تقرير أعدّته لحكومة أستراليا بعد اعترافها بأن أجزاءً منه أُنتجت باستخدام الذكاء الاصطناعي، وأنه تضمّن عدداً من الأخطاء.

وقالت وزارة التوظيف والعلاقات العمالية الأسترالية، إن شركة المحاسبة والاستشارات الكبرى ستُعيد الدفعة الأخيرة من قيمة العقد، بعد إقرارها بأن بعض المراجع الواردة في التقرير كانت غير صحيحة.

وكانت الوزارة قد كلّفت "ديلويت" في ديسمبر كانون الأول الماضي بإجراء "مراجعة ضمان مستقلة" بقيمة 439 ألف دولار أسترالي (نحو 290 ألف دولار أميركي)، لتقييم المشكلات المرتبطة بنظام الرعاية الاجتماعية الذي يفرض عقوبات تلقائية على الباحثين عن عمل.

ونُشر التقرير في وقت سابق من العام الجاري، قبل أن تُرفع نسخة مصحّحة منه الجمعة الماضية على موقع الوزارة الإلكتروني.

وكانت صحيفة "الأستراليان فاينانشيال ريفيو" قد كشفت في أغسطس آب أن التقرير احتوى على أخطاء عديدة، من بينها مراجع واستشهادات بتقارير أكاديمية وهمية من جامعات سيدني ولوند السويدية.

وأوضحت الحكومة الأسترالية أن مضمون التقرير وتوصياته لم يتغير، مضيفةً أن العقد سيُعلَن عنه رسمياً بعد استكمال الإجراءات المالية.

خطر الهلوسة

وتسلّط هذه الواقعة الضوء على المخاطر التي تواجهها شركات الاستشارات عند استخدام تقنيات الذكاء الاصطناعي، ولا سيّما خطر ما يُعرف بـ"الهلوسة" أو توليد معلومات غير دقيقة.

وتستثمر شركات "الأربعة الكبار" —ومنها "ديلويت" و"برايس ووترهاوس كوبرز" و"إرنست ويونغ" و"كيه بي إم جي"— إلى جانب شركات الاستشارات الاستراتيجية مثل "ماكينزي"، مليارات الدولارات في تطوير تطبيقات الذكاء الاصطناعي، على أمل تسريع وتيرة تقديم الاستشارات والتدقيق للعملاء.

 

شركات الاستشارات الأربع الكبرى، إلى جانب بيوت الاستشارات الاستراتيجية مثل «ماكينزي»، مليارات الجنيهات في أبحاث وتطوير الذكاء الاصطناعي، في مسعى منها للحفاظ على موقعها في مواجهة المنافسين الأصغر والأكثر مرونة. وتأمل هذه الشركات في توظيف التكنولوجيا لتسريع وتيرة تقديم الاستشارات والتدقيقات لعملائها.

لكن هيئة الرقابة المحاسبية البريطانية حذّرت في يونيو حزيران الماضي من أن شركات «الأربعة الكبار» لا تتابع بالشكل الكافي تأثير الأدوات الآلية والذكاء الاصطناعي على جودة عمليات التدقيق، رغم توسّعها المتزايد في استخدام هذه التقنيات لأغراض تقييم المخاطر وجمع الأدلة

وفي النسخة المحدَّثة من التقرير، أضافت «ديلويت» إشارات إلى استخدام الذكاء الاصطناعي التوليدي في الملحق، موضحةً أن جزءاً من التقرير «شمل استخدام سلسلة أدوات قائمة على نموذج لغوي ضخم للذكاء الاصطناعي التوليدي (Azure OpenAI GPT-4o) مرخّص من قِبل الجهة الحكومية».

ورغم أن «ديلويت» لم تُقرّ صراحةً بأن الذكاء الاصطناعي كان السبب وراء الأخطاء في النسخة الأصلية، فإنها اعترفت بأن النسخة المحدَّثة صحّحت أخطاءً في الاستشهادات والمراجع وفي ملخّص واحد لإجراءات قانونية.

وقالت الشركة في النسخة المعدّلة إن «التحديثات التي أُجريت لا تؤثر إطلاقاً في مضمون التقرير أو نتائجه أو توصياته».

وأضافت «ديلويت أستراليا»: «لقد جرى حلّ المسألة مباشرةً مع الجهة العميلة».