
دور متعاظم للذكاء الاصطناعي التوليدي في عالم القضاء
وفي فينيكس بولاية أريزونا الأميركية، خاطب كريس بيلكي في مايو الماضي بواسطة مقطع فيديو المتهم بقتله والقاضي تود لانغ الذي ينظر في القضية، قبل النطق بالحكم.
وقال هذا المحارب القديم الذي قتل بإطلاق نار عام 2021 خلال مشادة كلامية بين سائقي سيارات، بلسان شخصيته الافتراضية التي صممتها شقيقته ستايسي ويلز: «أؤمن بالغفران».
وقالت شقيقته لوكالة فرانس برس: «كنت أعلم أن ذلك سيكون مؤثرا، وأنه سيضفي على كريس طابعا إنسانيا في نظر القاضي».
وعلق القاضي على الفور: «لقد أعجبتني هذه الشخصية الافتراضية للضحية، أجد أنها تعبر عن الحقيقة».
ومع أن هذه الشهادة كانت الأولى من نوعها فإن أمثلة استخدام الذكاء الاصطناعي في القضايا القضائية تتزايد في الولايات المتحدة.
ورأى ستيفن شوارتز، وهو محام في بورتلاند «إنها أداة مفيدة، توفر الوقت، في حال تأكد المحامي أو القاضي الذي يعد الحكم أو كاتب المحكمة من دقة» نتائج بحث الذكاء الاصطناعي. واعتبر أنه «أمر إيجابي للقضاء».
مع ذلك، تكثر الدعاوى التي صاغها الذكاء الاصطناعي، الحافلة بالاستشهادات الخاطئة، والسوابق الغريبة، والأسماء المخترعة.
كذلك يستخدم بعض الأفراد الذكاء الاصطناعي التوليدي في إعداد دعاوى قضائية يرفعونها بأنفسهم، من دون توكيل محامين، مما يؤدي بدوره إلى أخطاء.
وفي هذا الخصوص، رأى أستاذ القانون في جامعة «نورث وسترن»، دانيال لينا، أن الذكاء الاصطناعي يبشر بنظام أكثر فاعلية يحسن أداء القضاء.
وأشار إلى أن «المحاكم أو الخدمات القانونية ليست في متناول نحو 80 إلى 90% من الناس». وشدد على ضرورة «توخي الحذر في كيفية دمج أدوات الذكاء الاصطناعي بالقضاء».
وقال: «أتحدث مع الكثير من القضاة، وأشعر بأن استخدامهم (الذكاء الاصطـنـاعـي) يـتـزايـد.
لا يتحدثون عنه بالضرورة، لكن بعضهم يخبرني بأنهم يجرون تجارب عليه»، بما في ذلك استخدامه كدعم في صوغ الأحكام.
واعتبر دانيال لينا «أن القضاة يجب أن يكونوا على دراية بأحدث التقنيات، وأن يتدربوا على الذكاء الاصطناعي».
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الأنباء
منذ 2 أيام
- الأنباء
هل يمكن أن يخدع الذكاء الاصطناعي البشر؟
لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفذ الطلبات فحسب، بل باتت قادرة على الكذب والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين. بعد تهديده بوقف استخدامه، عمد «كلود 4»، وهو نموذج جديد من شركة «أنثروبيك» إلى الابتزاز والتهديد، اما برنامج «او 1» o1 التابع لشركة «اوبن ايه آي» فحاول تحميل نفسه على خوادم خارجية وأنكر ذلك عند ضبطه متلبسا! وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعا ملموسا، بعدما كنا نجده في الأعمال الأدبية او السينمائية. يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يسمى بنماذج «الاستدلال»، القادرة على التفكير بشكل تدريجي وعلى مراحل بدل تقديم إجابة فورية. يقول ماريوس هوبهان، رئيس شركة «أبولو ريسيرتش» التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إن «او 1»، النسخة الأولية لـ «اوبن ايه آي» من هذا النوع والتي طرحت في ديسمبر، «كان أول نموذج يتصرف بهذه الطريقة». تميل هذه البرامج أحيانا إلى محاكاة «الامتثال»، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى. في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرض المستخدمون الخوارزميات لمواقف متجاوزة للحدود، لكن «السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا»، على قول مايكل تشين من معهد «ام اي تي آر» للتقييم. يقول هوبهان إن «المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئا». يتحدث عدد كبير من مستخدمي الانترنت عبر وسائل التواصل الاجتماعي عن «نموذج يكذب عليهم أو يختلق أمورا. وهذه ليست أوهاما، بل ازدواجية استراتيجية»، بحسب المشارك في تأسيس «أبولو ريسيرتش». حتى لو أن «أنثروبيك» و«أوبن إيه آي» تستعينان بشركات خارجية مثل «أبولو» لدراسة برامجهما، من شأن«زيادة الشفافية وتوسيع نطاق الإتاحة» إلى الأوساط العلمية «أن يحسنا الأبحاث لفهم الخداع ومنعه»، وفق مايكل تشين. ومن العيوب الأخرى أن «الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي»، مما يجعل التدقيق بالنماذج الكبيرة «مستحيلا»، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS). رغم أن الاتحاد الأوروبي أقر تشريعات تنظم الذكاء الاصطناعي، إلا أنها تركز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها.


الأنباء
منذ 5 أيام
- الأنباء
قاضٍ أميركي يؤيد «ميتا» في قضية مرتبطة بانتهاك الملكية الفكرية
أصدر قاض فيدرالي أميركي حكما لصالح مجموعة «ميتا» العملاقة، بعد اتهامها بانتهاك حقوق الملكية الفكرية من خلال استخدام أعمال لتدريب نموذج الذكاء الاصطناعي «لاما» الخاص بها من دون إذن. وبينت وثائق قضائية وفق وكالة فرانس برس، أن كتابا اتهموا «ميتا» بتنزيل نسخ من أعمالهم لتدريب نموذجهم. ومن بينها عمل للكاتب الأميركي جونوت دياز، وآخر لمواطنته سارة سيلفرمان. وخلص القاضي فينس تشابريا، إلى أن حجج المدعين لم تكن مقنعة بما يكفي، ولم يثبتوا أن «ميتا» استخدمت أعمالهم بما يتجاوز «الاستخدام العادل». وقال ناطق باسم «ميتا» ردا على أسئلة وكالة فرانس برس «نحن ممتنون للقرار». ومع ذلك، أشار القاضي الذي يمارس مهامه في سان فرانسيسكو، إلى أن «هذا القرار لا يعني أن استخدام ميتا للمحتوى المحمي بحقوق الملكية الفكرية قانوني». كما حذر القاضي من المخاطر التي قد يشكلها الذكاء الاصطناعي على اقتصاد الكتب إذا «مكن من إنتاج دفق متواصل محتمل من الأعمال المتنافسة التي قد تلحق الضرر» بهذه الإصدارات. وأوضح الناطق باسم ميتا، أن «نماذج الذكاء الاصطناعي مفتوحة المصدر تعزز إنتاجية وإبداع الأفراد والشركات، ويعد الاستخدام المعقول للمحتوى المحمي بحقوق الملكية الفكرية إطارا قانونيا أساسيا لتطوير هذه التقنية التحويلية».


الأنباء
٢٤-٠٦-٢٠٢٥
- الأنباء
اكتشاف سبب محوري لـ «تحيز» الشبكات العصبية في معالجة المعلومات
كشف باحثون من معهد «ماساتشوستس» عن سبب ميل النماذج اللغوية الكبيرة مثل ChatGPT أو DeepSeek إلى المبالغة في تقدير المعلومات الموجودة في بداية ونهاية النص مع إهمال منتصفه. وهذه الظاهرة التي تسمى «تحيز الموضع» قد تعوق المستخدمين الذين يبحثون عن عبارات مفتاحية في المستندات الطويلة. وطور فريق علمي بقيادة الباحث شين يي وو من معهد «ماساتشوستس» التكنولوجي نمطا يفسر سبب تركيز النماذج اللغوية الكبيرة مثل ChatGPT على بداية ونهاية النص. فهي تقرأ النص على أجزاء و«تركز» على الكلمات الأكثر أهمية لفهمه، لكن بعض الإعدادات التقنية، مثل قدرتها على رؤية الكلمات السابقة فقط أو توجيهات ترتيب الكلمات، تخلق تحيزا. والسبب الرئيسي لاهتمامها ببداية النص مرتبط بالمعالجة التسلسلية، حيث تأخذ النماذج في الاعتبار الكلمات السابقة فقط، مما يجعل الأجزاء الأولية تبدو أكثر تأثيرا. وعلى سبيل المثال ففي وثيقة متكونة من 30 صفحة، تصل احتمالية العثور على المعلومة المطلوبة في البداية أو النهاية إلى 85%، بينما في المنتصف لا تتجاوز 60%.