الشراكة بين Franklin Templeton وWand AI: تعزيز الذكاء الاصطناعي في إدارة الأصول
الشراكة بين Franklin Templeton وWand AI: تعزيز الذكاء الاصطناعي في إدارة الأصول
الجمعة - 21 نوفمبر - 2025
تحالف الذكاء الاصطناعي بين Microsoft وNVIDIA وAnthropic: رؤية جديدة لبنية السحابة
تحالف الذكاء الاصطناعي بين Microsoft وNVIDIA وAnthropic: رؤية جديدة لبنية السحابة
الجمعة - 21 نوفمبر - 2025


متابعة – أمل علوي

 

أكثر من نصف المستخدمين اليوم يعتمدون على الذكاء الاصطناعي للبحث عبر الإنترنت، لكن دقة البيانات المنخفضة في الأدوات الشائعة تخلق مخاطر جديدة على الأعمال. يُظهر تحقيق جديد وجود فجوة بين ثقة المستخدمين والدقة التقنية، مما يشكل مخاطر محددة على الامتثال القانوني والتخطيط المالي.

 

التحديات التي تواجه المديرين التنفيذيين

يمثل اعتماد هذه الأدوات تحديًا تقليديًا للـ “تكنولوجيا الظل” في المؤسسات. وفقاً لاستطلاع أُجري في سبتمبر 2025 بين 4,189 بالغًا في المملكة المتحدة، يعتقد حوالي ثلث المستخدمين أن الذكاء الاصطناعي أصبح أكثر أهمية بالنسبة لهم من البحث التقليدي على الويب. إذا كان الموظفون يثقون في هذه الأدوات للأبحاث الشخصية، فمن المؤكد أنهم يستخدمونها أيضًا للبحث التجاري.

 

فجوة الدقة في البحث بالذكاء الاصطناعي

اختبر التحقيق ستة أدوات رئيسية: ChatGPT، Google Gemini (بنسختيه العادية و”نظرة عامة الذكاء الاصطناعي”)، Microsoft Copilot، Meta AI، وPerplexity، عبر 40 سؤال شائع في مجالات المالية، القانون، وحقوق المستهلك. حصلت Perplexity على أعلى درجة، بينما كانت Meta الأدنى.

 

ولكن، وجدت التحقيقات أن كل هذه الأدوات تخطئ في قراءة المعلومات أو تقدم نصيحة ناقصة، مما يشكل مخاطر كبيرة على الأعمال. عندما طُلب من ChatGPT وCopilot استشارة حول استثمار سنوي معين، فشلا في التعرف على خطأ متعمد.

 

المخاطر القانونية والمالية

بالنسبة للفرق القانونية، يمكن أن تشكل العمومية في تفسير اللوائح خطرًا تجاريًا. إذ تشير النتائج إلى أن هذه الأدوات غالبًا ما تفشل في فهم اختلافات القوانين بين مناطق المملكة المتحدة، مما يعرض الشركات لمخاطر قانونية.

 

قضايا الشفافية في المصادر

أحد القضايا الرئيسية في إدارة بيانات المؤسسة هو نسب المعلومات. على الرغم من أن أدوات الذكاء الاصطناعي تتحمل مسؤولية عالية في الشفافية، فإنها كثيرًا ما تستشهد بمصادر غير دقيقة أو غير موجودة. قد يؤدي ذلك إلى كفاءة مالية غير مثمرة.

 

طريق الاستخراج الآمن من المخاطر

لا ينبغي على القادة منع أدوات الذكاء الاصطناعي، بل يجب عليهم تنفيذ أطر حوكمة قوية لضمان دقة النتائج:

 

تحديد دقيق في الاستفسارات: يجب على الشركات تدريب الموظفين على تقديم استفسارات واضحة تشمل نطاقها القانوني.

 

مطالبة بالتحقق من المصادر: يجب على الموظفين التأكد من دقة المعلومات من عدة مصادر، خاصة في المواضيع ذات المخاطر العالية.

 

تنفيذ “رأي ثانٍ”: ينبغي اعتبار مخرجات الذكاء الاصطناعي رأيًا واحدًا من بين العديد من الآراء، والتأكيد على استشارة المتخصصين قبل اتخاذ قرارات مهمة.

 

 

تتطور أدوات الذكاء الاصطناعي مع تحسن تدريجي في دقة بحثها، ولكن الاعتماد المفرط عليها في الوقت الحالي قد يكون مكلفًا. يكمن الفرق بين تحقيق كفاءة الأعمال من الذكاء الاصطناعي واحتمال الفشل في الامتثال في عملية التحقق.

 

تم باستخدام أدوات الذكاء الاصطناعي.



مشاركة الخبر
أخبار مشابهة