تقوم شركة Character AI بإنهاء تجربة chatbot للأطفال
تقوم شركة Character AI بإنهاء تجربة chatbot للأطفال
الأربعاء - 29 أكتوبر - 2025
TechCrunch Disrupt 2015
تعطيل TechCrunch 2025: اليوم الثالث
الأربعاء - 29 أكتوبر - 2025


متابعة – أمل علوي

 

على الرغم من الاستخدام الواسع للذكاء الاصطناعي في الأغراض الشخصية والتجارية، لا يزال الناس لا يثقون به بشكل كامل. أصبح استخدام الذكاء الاصطناعي ضرورة حتمية للشركات للبقاء تنافسية، حيث يمكن أن يؤدي دمجه في العمليات المختلفة إلى زيادة الإنتاجية وفتح آفاق جديدة للإيرادات.

استخدام واسع، ولكن ثقة محدودة
في الإمارات العربية المتحدة، التي تُعرف بسرعة اعتمادها للتكنولوجيا، أفادت دراسة من KPMG أن 97% من الناس يستخدمون الذكاء الاصطناعي في وظائفهم أو دراساتهم أو حياتهم الشخصية. ومع ذلك، يُظهر التقرير نفسه أن 84% من الناس لن يثقوا بأنظمة الذكاء الاصطناعي إلا إذا كانوا متأكدين من استخدامها بطريقة موثوقة، بينما يعتقد 57% أنه يجب وجود لوائح أقوى لجعل الذكاء الاصطناعي أكثر أمانًا.

الفجوة في الثقة في الأسواق العالمية
تشير المعلومات من المملكة المتحدة إلى فجوة مماثلة في الثقة، حيث وجد تقرير KPMG أن 42% فقط من الناس في المملكة المتحدة مستعدون لثقة الذكاء الاصطناعي. بينما يقبل 57% استخدامه، يعتقد 80% أنهم بحاجة إلى لوائح أكثر صرامة لضمان الاستخدام المسؤول.

الدروس المستفادة للقيادة التجارية
يجب أن تثير هذه الأرقام قلق القادة في مجال الأعمال. فـ 78% من الأشخاص في المملكة المتحدة يشعرون بالقلق من العواقب السلبية المحتملة للذكاء الاصطناعي. إن إدخال أداة خدمة عملاء تعتمد على الذكاء الاصطناعي في سوق لا يثق به الناس بالكامل هو مخاطرة كبيرة على سمعة الشركة.

استراتيجيات لبناء الثقة في الذكاء الاصطناعي
لتجاوز هذه المشكلة، يقترح لي قاو، المدير الفني لشركة SleekFlow، ثلاث استراتيجيات رئيسية تتحول فيها استراتيجية الذكاء الاصطناعي من مسألة تقنية إلى مسألة تحكم:

الشفافية في الاستخدام: يجب على الشركات أن تكون صادقة بشأن متى يتم استخدام الذكاء الاصطناعي. إذ يقدر العملاء والموظفون الوضوح، ويجب توضيح متى يتحدث الناس إلى الذكاء الاصطناعي ومتى يتولى إنسان الأمر.

مساعدة الأشخاص وليس استبدالهم: يجب أن يُستخدم الذكاء الاصطناعي لتعزيز قدرة الأفراد داخل الشركة، وليس لاستبدالهم. يزيد ذلك من قبول الناس لاستخدام الذكاء الاصطناعي ويقلل المقاومة.

مراقبة العدالة والنبرة: يجب على القادة مراجعة أداء الذكاء الاصطناعي باستمرار للتأكد من استخدامه بشكل مسؤول. يتضمن ذلك التحقق من النبرة والتحيز وكيفية تعامل الذكاء الاصطناعي مع المشكلات.

بينما أثبتت الإمارات العربية المتحدة أنها قادرة على اعتماد الذكاء الاصطناعي بسرعة، فإن التحدي يكمن في إظهار أن أنظمة الذكاء الاصطناعي ليست قوية فحسب، بل موثوقة وعادلة وشفافة. يجب أن يكون الهدف النهائي هو بناء الثقة، مما يضمن أن الأتمتة تعمل في خدمة الناس وليس فقط لتحقيق مؤشرات الأداء.

هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي.



مشاركة الخبر
أخبار مشابهة