متابعة – أمل علوي
حث سوندار بيتشاي، الرئيس التنفيذي لشركة Alphabet، الناس على عدم “الثقة العمياء” فيما تقوله أدوات الذكاء الاصطناعي. في مقابلة حصرية مع BBC، أشار إلى أن نماذج الذكاء الاصطناعي “معرضة للأخطاء”، ودعا المستخدمين إلى استخدام هذه الأدوات جنبًا إلى جنب مع مصادر معلومات أخرى.
الاعتماد على المعلومات المتنوعة
أوضح بيتشاي أهمية وجود نظام معلومات ثري بدلاً من الاعتماد فقط على التكنولوجيا الذكية. وأشار إلى أن هذا هو السبب وراء استمرار استخدام الناس لمحرك بحث Google ومنتجات أخرى تقدم معلومات دقيقة.
ومع ذلك، يرى بعض الخبراء أنه يجب على الشركات الكبرى مثل Google التركيز على جعل أنظمتها أكثر موثوقية بدلاً من توجيه المستخدمين للتحقق من نتائج أدواتهم. واعتبر بيتشاي أن أدوات الذكاء الاصطناعي مفيدة “إذا كنت تريد كتابة شيء بشكل إبداعي”، ولكنه شدد على ضرورة “تعلم استخدام هذه الأدوات بما يتناسب مع قدرتها، وليس الثقة بكل ما تقدمه.”
تزايد القلق حول الدقة
تظهر الأبحاث أن أدوات الذكاء الاصطناعي، مثل الدردشة الذكية، تميل إلى تقديم معلومات مضللة أو خاطئة، مما يمثل مصدر قلق كبير. وصرحت جينا نيف، أستاذة الذكاء الاصطناعي المسؤول في جامعة كوين ماري في لندن، بأن هذه الأنظمة تقدم إجابات مضللة أحيانًا، وهو ما قد يكون مشكلة كبيرة عند طرح أسئلة حساسة.
ظهور نموذج Gemini 3.0
تترقب صناعة التكنولوجيا إطلاق نموذج Google الجديد للذكاء الاصطناعي، Gemini 3.0، الذي يُرتقب أن يعيد جزءًا من حصة السوق المفقودة من ChatGPT. ويصف Google النموذج بأنه سيطلق “عصرًا جديدًا من الذكاء” في منتجاته مثل محرك البحث.
التوازن بين السرعة والموثوقية
في حديثه، أشار بيتشاي إلى وجود توتر بين سرعة تطوير التكنولوجيا ودمج الإجراءات الوقائية لتقليل التأثيرات الضارة المحتملة. واستجابة لهذه التحديات، قامت Alphabet بزيادة استثماراتها في أمان الذكاء الاصطناعي.
خلال المقابلة، أكد بيتشاي على أهمية التعامل مع التكنولوجيا الجديدة بشكل مسؤول، مشيرًا إلى أن الشركات الكبيرة يجب أن تمد يد العون للمستخدمين لتحديد دقة المعلومات التي تقدمها. مع تحسينات مستمرة، يبقى التحقق من المعلومات أمرًا جوهريًا في استخدام أدوات الذكاء الاصطناعي بفعالية.
تم باستخدام أدوات الذكاء الاصطناعي.









