عرب لندن
دعت المحكمة العليا في المملكة المتحدة كبار المحامين إلى التحرك الفوري لمواجهة إساءة استخدام تقنيات الذكاء الاصطناعي في المرافعات القانونية، وذلك عقب تقديم عشرات الاستشهادات الزائفة أمام المحاكم، بعضها مختلق بالكامل وبعضها الآخر تضمن فقرات مفبركة.
ورصدت المحاكم خلال هذا العام حالتين بارزتين استخدم فيهما محامون مراجع قانونية ملفقة، يُرجّح أنها استُخرجت عبر أدوات الذكاء الاصطناعي.
ففي قضية تعويضات بقيمة 89 مليون جنيه إسترليني ضد بنك قطر الوطني، قدّم المدّعون 45 استشهادًا قانونيًا، تبيّن أن 18 منها مختلق، وتضمنت العديد من الاقتباسات الأخرى معلومات وهمية.
وأقرّ المدّعي باستخدام أدوات ذكاء اصطناعي متاحة للعامة، فيما اعترف محاميه بالاستشهاد بمراجع وهمية.
وواجه مركز "هارينغي" للمساعدة القانونية في لندن موقفًا مشابهًا حينما استشهد محامٍ بخمس مراجع قانونية مزعومة خلال دعوى ضد بلدية هارينغي بسبب فشلها في تأمين سكن مؤقت لموكله.
وأثارت الواقعة شكوك محامي الجهة المدعى عليها، الذي لاحظ غياب أي دليل على وجود تلك الأحكام القانونية.
وأسفر الحادث عن دعوى قضائية تتعلق بتكاليف قانونية مهدورة، وخلصت المحكمة إلى أن المركز ومحاميته -وهي متدرّبة قانونية- تصرفا بإهمال.
ونفت المحامية استخدامها الذكاء الاصطناعي في تلك القضية، لكنها أقرّت بإمكانية استخدامها لمحركات بحث مثل "غوغل" أو “سفاري” خلال التحضير لقضية أخرى تضمنّت أيضًا استشهادات وهمية، وقالت إنها ربما استعانت بملخصات أنشأها الذكاء الاصطناعي دون أن تدرك طبيعتها.
وأصدرت القاضية دام فيكتوريا شارب، رئيسة قسم “كنغز بنش” في المحكمة العليا، قرارًا تنظيميًا يوم الجمعة، محذّرة من “تداعيات خطيرة على سير العدالة وثقة الجمهور بالنظام القضائي في حال إساءة استخدام الذكاء الاصطناعي”.
وأكدت أن المحامين الذين يسيئون استخدام هذه الأدوات قد يتعرضون لعقوبات تبدأ بالتوبيخ العلني وقد تصل إلى المحاكمة بتهمة ازدراء المحكمة أو الإحالة إلى الشرطة.
وطالبت شارب مجلس نقابة المحامين وجمعية القانون باتخاذ خطوات عاجلة لاحتواء المشكلة، ودعت رؤساء مكاتب المحاماة إلى ضمان إدراك المحامين الكامل لمسؤولياتهم الأخلاقية والمهنية عند استخدام أدوات الذكاء الاصطناعي.
وكتبت شارب: “تستطيع هذه الأدوات توليد ردود تبدو متماسكة ومنطقية، لكنها قد تكون خاطئة تمامًا. قد تُقدّم ادعاءات لا أساس لها من الصحة، وقد تنسب اقتباسات إلى مصادر حقيقية دون أن تكون موجودة فيها أصلًا”.
من جانبه، أعرب إيان جيفري، الرئيس التنفيذي لجمعية القانون في إنجلترا وويلز، عن تأييده للتحذير القضائي من خلال قوله: "يكشف القرار بوضوح عن المخاطر المرتبطة باستخدام الذكاء الاصطناعي في العمل القانوني"، مضيفًا: "تزداد أدوات الذكاء الاصطناعي شيوعًا في تقديم الخدمات القانونية، لكن احتمال وقوع مخرجات خاطئة يتطلب من المحامين مراجعة وتحقيق صحة كل ما يقدمونه".
ولم تكن هذه الحالات الأولى التي تُبتلى بـ"هلوسات الذكاء الاصطناعي". ففي عام 2023، قدّمت مُستأنِفة أمام محكمة ضرائب في المملكة المتحدة تسع سوابق قضائية زائفة، وذكرت أنها ربما استخدمت (ChatGPT) عبر صديق يعمل في مكتب محاماة.
وفي قضية أخرى في الدنمارك بلغت قيمتها 5.8 مليون يورو هذا العام، كاد المتقاضون يواجهون تهم ازدراء المحكمة لاعتمادهم على حكم مختلق كشفه القاضي.
وفي الولايات المتحدة، شهدت محكمة مقاطعة نيويورك الفيدرالية في 2023 فوضى قضائية بعدما عجز محامٍ عن إثبات صحة سبع قضايا وهمية قدّمها كاستشهادات، واكتُشف أنه طلب من (ChatGPT) تلخيص قضايا مختلقة من صنعه.
ووصف القاضي النتيجة بأنها "هراء" وفرض غرامة قدرها 5 آلاف دولار على المحاميين وشركتهما القانونية.
تُظهر هذه الوقائع الحاجة الماسة إلى يقظة قانونية وتشريعية تُواكب تنامي استخدام أدوات الذكاء الاصطناعي، بما يضمن عدم المساس بمصداقية النظام القضائي أو حقوق المتقاضين.