الذكاء الاصطناعي يدخل ساحات القضاء.. وخبراء يطالبون بضوابط
شركات متخصصة في الاستشارات القانونية تستخدم خوارزميات الذكاء الاصطناعي لمساعدة المحامين على تجهيز الدفوع القانونية التي تقنع القضاة
يبني المحامون عادة آراءهم حول القاضي الذي سينظر القضية التي يترافعون فيها، استناداً إلى خبرات شخصية أو قصص يسمعونها، ولكن الجديد في أوروبا وأمريكا حالياً هو وجود شركات متخصصة في الاستشارات القانونية تستخدم خوارزميات الذكاء الاصطناعي لمساعدة المحامين على تجهيز الدفوع القانونية التي تقنع القضاة، استناداً إلى تحليل البيانات المتوفرة عن أحكامهم السابقة.
وتثير هذه الشركات حالياً جدلاً كبيراً لم يتم حسمه، هل هذا في صالح العدالة أم لا؟ حيث يراها البعض مفيدة، فيما يرى آخرون أنها ضارة، والشيء الإيجابي أن منطقتنا العربية لم تشهد بعد توظيف الذكاء الاصطناعي في هذا المجال، بما يسمح لنا بمزيد من الوقت لتقييم التجربة قبل أن تنتقل إلينا.
إحدى الشركات الشهيرة في هذا المجال تسمى LexisNexis، وهي شركة أمريكية رائدة تعمل منذ السبعينيات في مجال الأبحاث القانونية، وتستخدم الشركة الملايين من صفحات قواعد المحكمة الفيدرالية لتوليد الأفكار وتقديم تنبؤات كمية يمكن أن يستخدمها المحامون، فهي مثلاً تقدم لهم معلومات حول أنماط اللغة التي يستخدمها القاضي بشكل روتيني، ومعرفة القضايا التي يستشهد بها القاضي بشكل متكرر، بما يمكن أن يساعد المحامين على صياغة الحجج التي من المحتمل أن تقنع القاضي نفسه في القضايا الجديدة.
ويقول مسؤولو الشركة، في تقرير نشره موقع abovethelaw المتخصص في الشؤون القانونية، إنه بدون تحليلات اللغة لن يكون لديك أي سبيل لمعرفة -على سبيل المثال- أن القاضي الذي تتجادل معه قد عبر مراراً عن ازدرائه سلوكاً ما، ومن ثم فإن الحصول على هذه المعلومات يمنحك ميزة على خصومك في المحكمة.
ويرى بعض المتخصصين في الشؤون القضائية أن هذه الإمكانية التي تتيحها تلك الشركات ضارة بالعدالة، إذ تمكن المحامون من صياغة الدفوع التي تقنع القاضي لا التي تتعلق بالحقيقة، إلا أن دانيال إل. تشين، باحث في كليتي الاقتصاد والحقوق بجامعة تولوز بفرنسا، كان له رأي مختلف.
وتمكن تشين في دراسة نشرها في 6 يناير/كانون الثاني الجاري في دورية SSRN، من تصميم برنامج يعتمد على الذكاء الاصطناعي يمكن من خلاله التنبؤ بقرارات القضاة في المحاكم الأمريكية، استناداً إلى البيانات التي جمعها عن القضايا وأحكام القضاة.
ورغم ما يبدو في دراسته بأنه تشجيع على عدم إقحام الذكاء الاصطناعي في مجال القضاء، لكنه ذهب في حوار أجراه قبل يومين مع موقع The Verge إلى القول "العكس هو الصحيح.. فقدرة الذكاء الاصطناعي على التنبؤ بأحكام القضاة يمكن أن يمنحهم الفرصة للنظر بعناية أكبر إلى القضايا".
ويوضح ما يعنيه مضيفاً "في ورقتنا البحثية تمكنا من توظيف الذكاء الاصطناعي للتنبؤ المبكر بقرارات القضاة في قضايا اللجوء، باستخدام المعلومات المتعلقة بهوية القاضي وجنسية طالب اللجوء، وهذا ربما يدفعهم مستقبلاً إلى مزيد من العناية بالحقائق المرتبطة بكل قضية".
وكان الفريق البحثي الذي يقوده تشين تمكن أيضاً في وقت سابق من استخدام الذكاء الاصطناعي للوصول إلى نتيجة أن القضاة يميلون إلى أن يكونوا أكثر تساهلاً في أعياد ميلاد المدعى عليه، وهي حقائق ينبغي استخدامها لتقييم الأداء، كما ذهب الباحث.
تنظيم لا منع
هذا التوظيف الإيجابي للذكاء الاصطناعي الذي يراه تشين، لا يعترض عليه الخبير القانوني المصري الدكتور محمد عبدالمجيد، ولكنه يشدد على ضرورة أن تكون مثل هذه الدراسات في حوزة الجهات التي تراقب أداء القضاة وليست متاحة للعامة.
ويقول الدكتور عبدالمجيد في حديثه لـ"العين الإخبارية" "إتاحة مثل هذه البيانات يعصف بثقة الناس في النظام القضائي، ولكن استخدامها من قبل الجهات الرقابية مفيد جداً، لإعطاء مؤشرات يجب التأكد منها لإثبات أو نفي النتيجة التي أتاحها الذكاء الاصطناعي".
ويقود ذلك الدكتور عبدالمجيد إلى نتيجة أنه مع استخدام تقنيات الذكاء الاصطناعي من قبل الجهات الرقابية، بالضوابط التي تم الإشارة إليها، لكنه في المقابل يرفض استخدامها من قبل الشركات التي تساعد المحامين على معرفة اتجاهات القضاة، كما يحدث في أمريكا.
ويضيف "المفترض أن المحامي يدافع عن الحق، وليس هدفه الوحيد تحقيق مصلحة موكله، سواء كان صاحب حق أم لا".
تعظيم الإيجابيات
ويتفق مع هذه الرؤية الدكتور وائل عبدالله، المدرس بكلية الحقوق جامعة المنوفية، والذي قال في حديثه لـ"العين الإخبارية" "مثل أي أمر له سلبيات وإيجابيات، فإن إقحام الذكاء الاصطناعي في مجال القضاء ينطبق عليه الأمر نفسه".
ويقول الدكتور عبدالله في حديثه لـ"العين الإخبارية" "دورنا ونحن نستخدم هذه التقنيات أن نعمل على توظيفها لتحقيق العدالة، وليس لتحقيق المكاسب دون وجه حق".
وانطلاقاً من ذلك يرى الدكتور عبدالله أن تحليلات الأداء التي يوفرها الذكاء الاصطناعي يمكن أن تكون مفيدة في تقييم الجهات الرقابية لأداء القضاة، لكن السماح للشركات بالعمل في هذا المجال يقوض العدالة، وقد يدفع قضاة، وهم بشر، إلى اتخاذ قرارات مغايرة، لإثبات خطأ الذكاء الاصطناعي، حتى لو كان ما ذهب إليه صحيحاً.