עורכי דין פנו לנבו בטענה לחוסר במידע – והתברר כי ChatGPT המציא פסיקות פיקטיביות

עורכי דין פנו למאגר הפסיקה המקוון "נבו" בטענה לחוסר במידע קריטי. התלונות נגעו לפסיקות משפטיות שנראו חסרות במאגר, אך התברר כי מקור הבעיה היה דווקא במערכות בינה מלאכותית, כדוגמת ChatGPT, שיצרו פסיקות פיקטיביות. תופעת ה״הזיות״ הנפוצה במודלי שפה, מעלה דיון בנוגע לשימוש במערכות AI בתחום המשפט.
״פסקי הדין הומצאו״ - הבאנר באתר נבו
״פסקי הדין הומצאו״ - הבאנר באתר נבו

המקרה המוזר של נבו: כשבינה מלאכותית ממציאה פסיקות

בשבוע שעבר הופיע באנר באתר "נבו" שהודיע כי תלונות ממנויים על חוסרים במאגר התבררו כלא מבוססות. התלונות נבעו משימוש במערכות AI שיצרו פסיקות פיקטיביות שלא התקיימו במציאות. עורכי הדין, שסמכו על המידע שהתקבל, חיפשו את הפסיקה במאגר ולאחר שלא הצליחו לאתר את הפסיקה הם פנו ל"נבו" בטענה שהמאגר חסר, אך בירור מעמיק חשף שהבעיה הייתה במידע הכוזב שמערכות ה-AI סיפקו וכי ChatGPT המציא פסיקות פיקטיביות וזה אשר הוביל למקרה המוזר.

 

הצ׳אט שתקע אותי: המקרה של עוה״ד סטיבן שוורץ

במאי 2023, עורך הדין סטיבן שוורץ מניו יורק הגיש תביעה נגד חברת התעופה הקולומביאנית Avianca. הוא הסתמך על שישה תיקים משפטיים שאותם סיפק לו ChatGPT. התיקים הללו, שהוגשו כראיות לתמיכת תביעתו, התבררו כמומצאים. התברר ש-ChatGPT יצר ציטוטים פנימיים והחלטות שיפוטיות שלא היו קיימות. עורך הדין של Avianca חשף את התרמית, והשופט קווין קסטל דרש הסבר. שוורץ הודה כי השתמש ב-ChatGPT למטרות מחקר ולא חשב לבדוק את אמינות המידע שהתקבל.

 

הציטוטים המפוברקים: המקרה של עוה״ד מייקל כהן.

מייקל כהן, עורך דינו לשעבר של דונלד טראמפ, הגיש בקשה לקיצור עונשו שכללה ציטוטים מפסקי דין מזויפים שנוצרו על ידי בארד (Gemini כיום), צ'אטבוט של גוגל. כהן, שהשתמש בבארד לעריכת מחקר משפטי, הודה שלא ידע שהמערכת יכולה ליצור תיקים משפטיים בדויים. "הבקשה מצטטת שלושה תיקי משפט ש'אף אחד מהם לא קיים' במציאות," אמר השופט פדרלי בדיון. ודרש מהפרקליט של כהן להסביר כיצד נכללו תיקים אלו במסמך שהגיש.

 

״ChatGPT המציא פסיקות פיקטיביות״: המקרה של ג'יי לי: 

עורכת הדין ג'יי לי מניו יורק הסתמכה על פסק דין פיקטיבי שנוצר על ידי ChatGPT בערעור משפטי בתביעת רשלנות רפואית. לי ציטטה הלכה משפטית מפסק דין של בית משפט במדינה שלא היה קיים במציאות. לאחר שלא הצליחה לתת מקור לפסק הדין, התברר כי מדובר בהזיה של ChatGPT. לי הודתה כי השתמשה ב-ChatGPT לקבלת דוגמאות לפסיקה רלוונטית וציינה כי הפסיקה שהתבססה עליה ״פוברקה בתום לב״ על ידי ChatGPT, בית המשפט קבע כי ההתנהלות שלה אינה הולמת עורך דין והפנה אותה לוועדת האתיקה.

 

הזיות במערכות בינה מלאכותית: כשהמציאות מתעוותת

תופעת ה"הזיות" במערכות בינה מלאכותית נוצרת כאשר המערכת מייצרת מידע שנראה אמיתי אך אינו נכון. כך לדוגמה, בציוץ מ-2023 ששבר את הרשת, הופיע צילום מסך של שיחה שניהל משתמש עם ChatGPT במהלכה הצ׳אט טען בתוקף כי גשר הזהב בסן פרנסיסקו הועבר למצרים ב-2016 עובדה שכמובן מפוברקת לחלוטין (אם כי משעשעת). במקרה אחר משתמש ביקש מ-ChatGPT רעיונות ליום כיף מושלם, ChatGPT סיפק הצעה ליום מושלם שכלל דברים כמו "לחיות בעולם עשוי ג'לי" – חוויה שבהחלט נשמעת נעימה אבל קצת קשה להשגה כנראה.

למה זה קורה? הבנת תופעת ההזיות במערכות AI

תופעת ה"הזיות" במערכות בינה מלאכותית נוצרת כאשר המערכת מייצרת מידע שנראה אמיתי אך אינו נכון. הדבר נובע ממספר גורמים:

איכות הנתונים: אם המודל אומן על נתונים לא אמינים או חלקיים, הוא עלול ליצור מידע שגוי.

הבנה חלקית: שאלות לא מדויקות או מורכבות מדי עלולות להוביל ליצירת תשובות כוזבות.

בעיות באלגוריתם: אלגוריתמים לא מושלמים יכולים להניב תוצאות לא נכונות.

מודלים של בינה מלאכותית ממציאים פסיקות ב-88% מהמקרים!

מחקר שנערך באוניברסיטת סטנפורד מצא כי שיעור ההזיות המשפטיות במודלים של שפה גדולה נע בין 69% ל-88% בתגובה לשאלות משפטיות מסוימות. המחקר מצא כי המודלים חסרי מודעות עצמית על טעויותיהם ונוטים לחזק הנחות משפטיות שגויות, מה שמעלה דאגות משמעותיות לגבי אמינותם בהקשרים משפטיים

מניעת ההזיות: פרומפטינג נכון ואימות מקורות

פרומפטינג הוא התהליך שבו המשתמש מנסח את השאלה או הבקשה למערכת הבינה המלאכותית. ניסוח ברור, מדויק וממוקד יכול להקטין את הסיכוי לקבל תשובות כוזבות או בלתי מדויקות.

 

כיצד למנוע הזיות:

אימות מקורות: יש לבדוק ולאמת את כל המידע שמתקבל ממערכות AI לפני השימוש בו במסמכים משפטיים.

הכשרה ושימוש מושכל: עורכי דין צריכים להכיר את המגבלות והיכולות של מערכות AI ולהשתמש בהן ככלי עזר בלבד ולא כמקור מידע בלתי מעורער.

פיתוח כלים מותאמים: יש לפתח כלים משפטיים מבוססי בינה מלאכותית המותאמים לצרכים הספציפיים של התחום המשפטי. כלים אלו יכולים לסייע בהפחתת הזיות ובשיפור האמינות של המידע.

מדיניות אתיקה והדרכה: יש ליצור ולהטמיע מדיניות אתית והדרכה מתאימה לשימוש במערכות AI במקצוע המשפטי, כדי להבטיח שהשימוש יהיה זהיר ואחראי.

מבט לעתיד: בינה מלאכותית במערכת המשפט

הזדמנויות הטמונות בשימוש נכון בבינה מלאכותית הן רבות, אך יש לשמור על איזון נכון בין היתרונות לסיכונים. על מערכת המשפט לאמץ את הטכנולוגיה בזהירות ובאחריות, תוך שמירה על ערכי היסוד של אמת ודיוק. באמצעות נקיטת צעדים נכונים ופעולה מודעת, ניתן להבטיח שהטכנולוגיה תסייע למערכת המשפט ולא תפגע באמינות ובדיוק שלה.

האם זה יתוקן? סאם אלטמן, מנכ"ל OpenAI, הצהיר כי החברה עושה מאמצים רבים כדי להתגבר על תופעת ההזיות וכי הם מתקדמים בהפחתת הבעיה. אלטמן ציין כי עם הזמן והשיפורים בטכנולוגיה, ניתן יהיה למזער את ההזיות ולהפוך את המודלים ליותר אמינים ומדויקים

הטמעת AI במשרד?

הזמינו פגישת ייעוץ ללא עלות להטמעת פתרונות מותאמים להגברת היעילות והרווחיות