
أثارت شركة الاستشارات العالمية Deloitte موجة انتقادات واسعة بعد الكشف عن احتواء تقرير أعدّته لصالح جهة حكومية أسترالية على أخطاء ومراجع غير صحيحة ناتجة عن استخدام تقنيات الذكاء الاصطناعي، في واقعة أعادت الجدل حول الاعتماد غير المنضبط على أدوات الذكاء الاصطناعي في الأعمال الاستشارية.
وبحسب ما نقلته وسائل إعلام دولية، فإن التقرير الذي قُدِّم إلى وزارة التوظيف والعلاقات العمالية الأسترالية تضمّن إحالات إلى أحكام قضائية وأبحاث أكاديمية غير موجودة فعليًا، وهو ما يُعرف بظاهرة “الهلوسة” المرتبطة بنماذج الذكاء الاصطناعي التوليدي. وقد تم اكتشاف هذه الأخطاء من قبل باحثين وأكاديميين بعد نشر التقرير رسميًا.
واعترفت Deloitte لاحقًا بوجود أخطاء في بعض المراجع، مؤكدة أن أجزاء من التقرير تم إعدادها باستخدام أدوات ذكاء اصطناعي، مع الإقرار بعدم كفاية المراجعة البشرية قبل التسليم النهائي. وعلى إثر ذلك، قامت الشركة بسحب التقرير وإعادة نشر نسخة منقحة بعد تصحيح البيانات والمراجع.
وفي تطور لاحق، أعلنت الجهة الحكومية الأسترالية عن اتفاق مع Deloitte لاسترداد جزء من قيمة العقد، في خطوة تهدف إلى معالجة تداعيات الخطأ وضمان الالتزام بالمعايير المهنية في التقارير الرسمية.
وتأتي هذه الواقعة في وقت تتسابق فيه شركات الاستشارات العالمية على دمج الذكاء الاصطناعي في خدماتها، وسط تحذيرات متزايدة من مخاطر الاعتماد المفرط على التقنيات التوليدية دون أطر صارمة للحوكمة والمراجعة. ويرى خبراء أن القضية تمثل ضربة لسمعة Deloitte، وتسلّط الضوء على الحاجة إلى ضوابط أكثر صرامة عند استخدام الذكاء الاصطناعي في إعداد التقارير الحساسة، خصوصًا تلك الموجّهة لصنّاع القرار.










