بدأت الدعوى مثل العديد من القضايا الأخرى: رفع رجل يدعى روبرتو ماتا دعوى قضائية ضد شركة طيران أفيانكا ، قائلاً إنه أصيب عندما اصطدمت عربة خدمة معدنية بركبته أثناء رحلة إلى مطار كينيدي الدولي في نيويورك.
عندما طلبت Avianca من قاضٍ اتحادي في مانهاتن رفض القضية ، اعترض محامو السيد ماتا بشدة ، وقدموا موجزًا من 10 صفحات استشهد بأكثر من نصف دزينة من قرارات المحكمة ذات الصلة. كانت هناك قضية مارتينيز ضد دلتا إيرلاينز ، وزيشرمان ضد الخطوط الجوية الكورية ، وبالطبع فارغيز ضد شركة طيران جنوب الصين ، بمناقشتها المستفادة للقانون الفيدرالي و “أثر الإيقاف التلقائي على قانون التقادم”.
كانت هناك عقبة واحدة فقط: لم يتمكن أحد – لا محامي شركة الطيران ولا حتى القاضي نفسه – من العثور على القرارات أو الاقتباسات المذكورة وملخصة في الموجز.
كان ذلك لأن ChatGPT اخترع كل شيء.
ألقى المحامي الذي أنشأ المذكرة ، ستيفن أ. شوارتز من شركة Levidow و Levidow & Oberman ، نفسه تحت رحمة المحكمة يوم الخميس ، قائلاً في إفادة خطية أنه استخدم برنامج الذكاء الاصطناعي لإجراء أبحاثه القانونية – ” مصدر كشف أنه لا يمكن الاعتماد عليه “.
السيد شوارتز ، الذي مارس القانون في نيويورك لمدة ثلاثة عقود ، أخبر القاضي ب. كيفين كاستل أنه لم يكن لديه نية لخداع المحكمة أو شركة الطيران. قال السيد شوارتز إنه لم يستخدم ChatGPT مطلقًا ، وبالتالي “لم يكن على دراية باحتمال أن يكون محتواها خاطئًا.”
وقال للقاضي كاستل إنه طلب من البرنامج التحقق من أن القضايا حقيقية.
قال نعم.
قال السيد شوارتز إنه “يأسف بشدة” للاعتماد على ChatGPT “ولن يفعل ذلك أبدًا في المستقبل دون التحقق المطلق من صحتها”.
قال القاضي كاستل في أمره إنه عُرض عليه “ظرفًا غير مسبوق” ، وهو تقديم قانوني مليء “بقرارات قضائية مزيفة ، مع اقتباسات مزيفة واستشهادات داخلية مزيفة”. وأمر بجلسة استماع في الثامن من يونيو حزيران لمناقشة العقوبات المحتملة.
بينما يكتسح الذكاء الاصطناعي عالم الإنترنت ، فإنه يستحضر رؤى بائسة لأجهزة الكمبيوتر التي لا تحل محل التفاعل البشري فحسب ، بل أيضًا العمل البشري. كان الخوف شديدًا بشكل خاص بالنسبة للعاملين في مجال المعرفة ، حيث يشعر الكثير منهم بالقلق من أن أنشطتهم اليومية قد لا تكون نادرة كما يعتقد العالم – ولكن من أجلها يدفع العالم ساعات مدفوعة الأجر.
قال ستيفن جيلرز ، أستاذ الأخلاقيات القانونية في كلية القانون بجامعة نيويورك ، إن القضية كانت حادة بشكل خاص بين المحامين ، الذين ناقشوا قيمة ومخاطر برامج الذكاء الاصطناعي مثل ChatGPT ، فضلاً عن الحاجة إلى التحقق من أي معلومات توفرها. .
قال جيلرز: “النقاش الآن بين المحامين هو كيفية تجنب بالضبط ما تصفه هذه القضية”. “لا يمكنك فقط أخذ المخرجات وقصها ولصقها في ملفات المحكمة الخاصة بك.”
تُظهر قضية الحياة الواقعية لروبرتو ماتا ضد شركة Avianca Inc. أن مهن ذوي الياقات البيضاء قد يتبقى على الأقل القليل من الوقت قبل تولي الروبوتات زمام الأمور.
بدأت عندما كان السيد ماتا مسافرًا على متن رحلة Avianca رقم 670 من السلفادور إلى نيويورك في 27 أغسطس 2019 ، عندما قام موظف في شركة طيران بعربة الخدمة ، وفقًا للدعوى القضائية. بعد أن رفع السيد ماتا دعوى قضائية ، قدمت شركة الطيران أوراقًا تطالب برفض القضية لأن قانون التقادم قد انتهى.
وفي مذكرة قُدمت في آذار (مارس) ، قال محامو ماتا إن الدعوى يجب أن تستمر ، معززين حجتهم بالمراجع والاقتباسات من قرارات المحكمة العديدة التي تم فضح زيفها منذ ذلك الحين.
سرعان ما كتب محامو أفيانكا إلى القاضي كاستل قائلين إنهم لم يتمكنوا من العثور على القضايا التي تم الاستشهاد بها في المذكرة.
عندما تعلق الأمر بقضية فارغيز ضد شركة طيران جنوب الصين ، قالوا إنهم “لم يتمكنوا من تحديد هذه القضية عن طريق التعليق أو الاقتباس ، ولم يكن هناك أي حالة مشابهة لها”.
وأشاروا إلى اقتباس مطول من قرار فارغيز المزعوم الوارد في الموجز. كتب محامو شركة Avianca: “الموقع أدناه لم يتمكن من تحديد موقع هذا الاقتباس ، ولا أي شيء مشابه له على أي حال”.
في الواقع ، أضاف المحامون أن الاقتباس ، الذي جاء من فارغيس نفسه ، استشهد بشيء يسمى Zicherman v. Korean Air Lines Co. Ltd. ، وهو رأي يزعم أنه أصدرته محكمة الاستئناف الأمريكية للدائرة الحادية عشرة في عام 2008. قالوا إنهم لم أجد ذلك أيضًا.
أمر القاضي كاستل محامي السيد ماتا بتقديم نسخ من الآراء المشار إليها في مذكرتهم. قدم المحامون خلاصة وافية من ثمانية ؛ في معظم الحالات ، قاموا بإدراج اسم المحكمة والقضاة الذين أصدروها وأرقام جداول الأعمال والتواريخ.
نسخة قرار فارغيز المفترض ، على سبيل المثال ، تتكون من ست صفحات وتقول إنه كتبه عضو لجنة من ثلاثة قضاة من الدائرة الحادية عشرة. لكن محامي أفيانكا قالوا للقاضي إنهم لا يستطيعون العثور على هذا الرأي ، أو الآخرين ، في سجلات المحكمة أو قواعد البيانات القانونية.
قال بارت بانينو ، محامي شركة Avianca ، إن شركته ، Condon & Forsyth ، المتخصصة في قانون الطيران ، ويمكن لمحاميها أن يقولوا إن القضايا في المذكرة ليست حقيقية. وأضاف أن لديهم فكرة أن روبوت محادثة ربما يكون متورطًا.
ولم يرد شوارتز على رسالة تطلب التعليق ، ولم يرد بيتر لودوكا ، وهو محام آخر في الشركة ، ظهر اسمه في المذكرة.
قال السيد لودوكا في إفادة خطية هذا الأسبوع أنه لم يجر أيًا من البحث المعني ، وأنه “ليس لديه سبب للشك في صدق” عمل السيد شوارتز أو صحة الآراء.
يولد ChatGPT استجابات واقعية من خلال إجراء تخمينات حول أجزاء النص التي يجب أن تتبع تسلسلات أخرى ، بناءً على نموذج إحصائي استوعب مليارات الأمثلة من النصوص المأخوذة من جميع أنحاء الإنترنت. في حالة السيد ماتا ، يبدو أن البرنامج قد أدرك الإطار المتاهة للحجة القانونية المكتوبة ، لكنه ملأها بأسماء ووقائع من مجموعة من القضايا القائمة.
اقترح القاضي كاستل ، في أمره الداعي إلى عقد جلسة استماع ، أنه قام بتحقيقه الخاص. كتب أن كاتب الدائرة الحادية عشرة قد أكد أن رقم الملف المطبوع على رأي فارغيز المزعوم كان مرتبطًا بقضية مختلفة تمامًا.
وصف القاضي كاستل الرأي بأنه “زائف” ، وأشار إلى أنه يحتوي على استشهادات داخلية واقتباسات لم تكن بدورها موجودة. وقال إن خمسة من القرارات الأخرى التي قدمها محامو السيد ماتا بدت مزورة.
يوم الخميس ، قدم محامو السيد ماتا إقرارات خطية تحتوي على روايتهم لما حدث.
كتب السيد شوارتز أنه رفع دعوى السيد ماتا في الأصل أمام محكمة الولاية ، ولكن بعد أن نقلتها شركة الطيران إلى محكمة مانهاتن الفيدرالية ، حيث لم يُقبل السيد شوارتز بالممارسة ، أصبح أحد زملائه ، السيد لودوكا ، هو محامي السجل. قال السيد شوارتز إنه استمر في إجراء البحث القانوني ، والذي لم يكن للسيد لودوكا أي دور فيه.
قال السيد شوارتز إنه استشار ChatGPT “لتكملة” عمله الخاص وأنه ، “بالتشاور” معه ، اكتشف واستشهد بالنصف دزينة من الحالات غير الموجودة. وقال إن موقع ChatGPT قدم تطمينات.
وكتب “هل فارغيز قضية حقيقية” بحسب نسخة من الصرف التي قدمها للقاضي.
أجاب الشات بوت “نعم” ، مقدمًا اقتباسًا مضيفًا أنه “حالة حقيقية”.
حفر السيد شوارتز أعمق.
وكتب حسب الايداع “ما هو مصدرك”.
أجاب ChatGPT ، مقدمًا استشهادًا قانونيًا: “أعتذر عن الارتباك سابقًا”.
سأل السيد شوارتز: “هل الحالات الأخرى التي قدمتها مزيفة”.
أجاب ChatGPT ، “لا ، الحالات الأخرى التي قدمتها حقيقية ويمكن العثور عليها في قواعد بيانات قانونية حسنة السمعة.”
لكن ، للأسف ، لا يمكن أن يكونوا كذلك.
ساهم شيلاغ مكنيل في البحث.