متابعة – أمل علوي
أثار استخدام مكتب النيابة في إحدى مقاطعات كاليفورنيا الأمريكية للذكاء الاصطناعي في صياغة المستندات القضائية جدلاً واسعاً، بعد أن أسفر ذلك عن تضمين مستند مقدّم للمحكمة أخطاء وحقائق غير دقيقة، فيما يُعرف باسم “هلاوس الذكاء الاصطناعي”، مما دفع إلى سحبه وإعادة فتح ملف الرقابة على استخدام هذه التقنية في المجال القضائي.
تفاصيل الحادثة:
في خطوة هي الأولى من نوعها على الأرجح في الولايات المتحدة، اعترف مكتب مدعي مقاطعة “نيفادا” في شمال كاليفورنيا باستخدامه الذكاء الاصطناعي أثناء إعداد مستند قضائي في قضية جنائية، مما أدى إلى تضمينه “استشهاداً غير دقيق”، وفقاً لبيان صحفي للمدعي العام “جيسي ويلسون”. وأكد ويلسون أنه “تم سحب المستند على الفور” بمجرد اكتشاف الخطأ.
اتساع نطاق المشكلة وتصاعد التحديات القانونية:
بيد أن القضية لم تتوقف عند هذا الحد، حيث يزعم محامو الدفاع ومنظمات حقوقية أن استخدام المكتب للذكاء الاصطناعي لم يقتصر على تلك القضية فقط. وفي تطور كبير، قام محامو المتهم “كايل كجولر” بتقديم التماس إلى المحكمة العليا في كاليفورنيا، محدِّدين ثلاث قضايا يعتقدون أنها تحتوي على أخطاء تنم عن استخدام الذكاء الاصطناعي التوليدي، مثل:
اقتباس أقوال غير موجودة في الواقع.
سوء تفسير أحكام قضائية سابقة.
وشدد محامو “كجولر” في ملفهم على أن “اعتماد النيابة على مراجع قانونية غير دقيقة يمثل تهديداً وجودياً لحقوق المتهمين في محاكمة عادلة وشرعية المحاكم”.
رد مكتب المدعي العام:
في ردّه، اعترف مكتب المدعي العام باستخدام الذكاء الاصطناعي في واحد فقط من ملفاته، مؤكداً أن الأخطاء الأخرى ناتجة عن “خطأ بشري”. وأوضح “ويلسون” أن المحامين يعملون “بجد ونوايا حسنة تحت وطأة أعباء ثقيلة وضغوط زمنية”، داعياً إلى عدم افتراض أن كل خطأ في الاقتباس ناجم عن الذكاء الاصطناعي.
وكشف عن اتخاذ إجراءات تصحيحية شملت:
تذكير جميع المحامين في المكتب بضرورة التحقق من جميع الاقتباسات القانونية بشكل مستقل.
عدم الاعتماد على المواد التي يولدها الذكاء الاصطناعي دون تأكيد من مصادر موثوقة.
إجراء تدريبات جديدة للموظفين وتنفيذ سياسة خاصة لاستخدام الذكاء الاصطناعي.
السياق العالمي والتأثير المحتمل:
على الرغم من أن هذه الحالة قد تكون الأولى التي تتورط فيها نيابة عامة في الولايات المتحدة، إلا أنها ليست الأولى عالمياً. إذ تم تسجيل غرامات على محامين في كندا وأستراليا والمملكة المتحدة والولايات المتحدة لاستخدامهم الذكاء الاصطناعي، بينما تشير قاعدة بيانات بكلية HEC Paris للأعمال إلى وجود حالة واحدة مماثلة سجلت في إسرائيل، كتبها مدعٍ عام.
تبقى هذه الواقعة ناقوس خطر حول المخاطر المترتبة على تبني التقنيات الذكية في المجال القضائي دون ضوابط صارمة، حيث تتعارض “الهلاوس” المحتملة للخوارزميات مع مبادئ العدالة الأساسية المتعلقة بدقة الأدلة والاستشهادات القانونية، مما يستدعي حواراً عاجلاً لوضع أطر رقابية وأخلاقية تحكم هذه الممارسة الناشئة.
هذا المحتوى تم باستخدام أدوات الذكاء الاصطناعي








