דלג לתוכן הראשי
מוטי לב, משרד עורכי דין
ליטיגציה

מלכודת הדבש המשפטית בשימוש הבינה המלאכותית

מעו"ד מוטי לב·
מלכודת הדבש המשפטית בשימוש הבינה המלאכותית

בעידן שבו הטכנולוגיה דוהרת קדימה, אירועים הקשורים לבינה מלאכותית מגיעים חיש מהר גם לאולמות בית המשפט ותחום הליטיגציה, עד אירועים ופסקי דין המהווים את קו פרשת מים, מתגלים ברבות העיתים אירועים קפקאיים של ממש רק  בצורתם המודרנית.

כאשר המפגש המסוכן בין בירוקרטיה נוקשה לבין טכנולוגיה חסרת רסן, עלול הדבר להביא לתוצאות מרחיקות לכת וליצירת "מציאות משפטית אלטרנטיבית" שבה רשות ציבורית או פקיד ציבורי עושה שימוש בבינה מלאכותית כדי להמציא חוקים ופסקי דין שלא היו ולא נבראו, רק כדי לשלול זכויות ואולי אפילו בלא כוונת מכוון אלא פשוט כדי 'לחסוך עבודה'.

החיסכון בזמן עלול להביא להתרשלות רבתי

חובת הזהירות חלה על כל אדם, אך על אחת כמה וכמה על אנשי מקצוע, פקידים הפועלים בשליחות אורגן סטטורי, עורכי דין ורואי חשבון ועוד, כך לדוגמה התברר בהליך משפטי שהסתבך אודות קטין הלומד בחינוך המיוחד, אשר הוריו, המקיימים אחריות הורית משותפת, ביקשו מרשות מקומית לאשר הסעה למוסד הלימודי גם מביתו של האב, שעבר להתגורר בשכונה מרוחקת, כאשר הרשות סירבה, וביססה את סירובה על "חוזר מנכ"ל משרד החינוך" ספציפי ועל שורה של פסקי דין.

כאשר האב ערער על ההחלטה, התגלתה התרמית הטכנולוגית: חוזר המנכ"ל לא קיים, ופסקי הדין היו פרי דמיונה של מכונה. הרשות לא רק הסתמכה על "הזיות" של בינה מלאכותית בתהליך קבלת ההחלטות שלה, אלא חזרה עליהן שוב ושוב בכתבי הטענות שהגישה לבית המשפט המחוזי ואף לבית המשפט העליון.

האבולוציה של הבינה המלאכותית: מהבנה להזיה

כדי להבין כיצד רשות ציבורית נופלת למלכודת כזו, יש להבין את אופי המערכות הללו. מודלי שפה גדולים (LLMs) לא "יודעים" עובדות מוחלטות בהכרח, ולא עורכים ''בקרת סיכונים'' כבדעי בכל מקרה ובעיקר אינם נושאים באחריות בשונה מהגורם האנושי, חלק מהמודלים בנויים על כך שהם "מנבאים" את המילה הבאה במשפט על בסיס סטטיסטיקה.

כך גם הניסיון לרצות את המשתמש: בינה מלאכותית מתוכנתת בחלקה להיות מועילה, כאשר משתמש מבקש ממנה "מצא לי פסק דין שתומך בסירוב להסעה", המערכת עלולה לייצר פלט שנראה משכנע מבחינה צורנית אך עקר מהותית מבחינה תוכנית,  היא "רוצה לרצות" את השאילתה, גם במחיר של המצאת מציאות.

ניתוח ללא בקרה נאותה, כארש המערכת פועלת כקופסה שחורה, היא מסוגלת לעבד מיליארדי נתונים, אך היא חסרה לעיתים את היכולת להבחין בין אמת לשקר, בין מאגרי מידע ואימות מקורות והסתמכויות על הקשרים ומגמות, או בין פסק דין תקף לבין טיוטה שמעולם לא פורסמה, ללא עין אנושית בוחנת, התוצר שלה הוא "רעש" משפטי מסוכן.

קביעות בית המשפט העליון: הריבון אינו יכול להזות

בית המשפט לא חסך בשבט ביקורתו וקבע כי התנהלות הרשות עולה כדי רשלנות חמורה ובכלל שימוש לרעה בהליכי משפט.

בית המשפט הדגיש כי כאשר רשות מנהלית משתמשת ב-AI ללא בקרה, היא מועלת בתפקידה. הרשות מחויבת לפעול על בסיס תשתית עובדתית ומשפטית מוצקה. הסתמכות על "הזיות" טכנולוגיות פוגעת לא רק באזרח הקטן, אלא ביושרתו של ההליך השיפוטי כולו. "הזיה של מכונה אינה יכולה להפוך למציאות של רשות", נרמז בין השורות.

דוקטרינת "החובה המשולשת": לקוח, בית משפט ומקצוע

אחת התרומות המרכזיות של הדיון סביב פסק הדין היא חידוד הגדרת חובת הזהירות המשולשת המוטלת על עורכי דין וגורמי מקצוע המשתמשים ב-AI:

קראו גם: אסטרטגיה משפטית, מניהול סיכונים ועד לחקירה הנגדית | ליטיגציה פנימית: האם אוטוסוגסטיה הופכת עורכי דין לטובים יותר?

 א. החובה כלפי הלקוח

על עורך הדין להבטיח שהייעוץ שהוא נותן מבוסס על נתוני אמת ולתת ללקוח ערך משמעותי, כאשר שימוש ב-AI שהוביל להפסד בתיק בשל "המצאות" חושף את עורך הדין לתביעות רשלנות מקצועית, הלקוח זכאי לייצוג אנושי, תבוני ואחראי, ולא לפלט של מכונה שלא נבדק כראוי.

ב. החובה כלפי בית המשפט (Officer of the Court)

זוהי החובה שנפגעה בצורה הקשה ביותר במקרה של הרשות, מושכלות יסוד הן כי עורך דין מחויב לעזור לבית המשפט להגיע לחקר האמת ולסייע בהליך המשפטי, הגשת כתבי טענות הכוללים פסקי דין מומצאים היא הטעיה (או רשלנית בדרגה גבוהה) של עורך הדין כלפי המערכת השיפוטית, היא מבזבזת זמן שיפוטי יקר, חוטאת לאמת ומערערת את היסודות שעליהם נשענת שיטת התקדים המחייב ומנוגדת לחובה לניהול הליך זהיר, מקצועי וכזה שמקדם את ההכרעה בדרך הנכונה והאמיתית.

 ג. החובה כלפי המקצוע

כל עורך דין שמגיש חומר שגוי, פוגע במוניטין של מקצוע עריכת הדין כולו. האתיקה המקצועית מחייבת שכל מילה שיוצאת תחת ידיו של עורך דין תהיה חתומה באחריותו המלאה, המכונה היא כלי עזר, אך האחריות אינה ניתנת להאצלה.

הסיכונים הטמונים בבינה מלאכותית ללא בקרה

קיימת שרשרת סיכונים קיומיים למערכת המשפט המודרנית, ולמערכות מקצועיות בכלל, בשימוש בלתי זהיר ורשלני בבינה מלאכותית בפרט ביצירת תוכן לא מבוקר:

זיהום מאגרי המידע: המערכות יתחילו "ללמוד" את התכנים הללו, ותיווצר לולאת משוב שבה השקר הופך לאמת מקצועית וכדור שלג שיהפוך מאגרים שלמים ללא אמינים או רלבנטיים.

פגיעה באמינות המערכות ובעיקר באוכלוסיות מוחלשות: חוסר אמון כתוצאה משגיאות, הטיות האמת ותוצאות מעוותות שיובילו לכאוס, תסכול ושיבוש סדר חברתי, פגיעה בבריאות או תשתיות ומערכות טכנולוגיות חברתיות ועוד.

שחיקת שיקול הדעת: קיימת סכנה שפקידי ציבור ואנשי מקצוע יפסיקו להפעיל מחשבה עצמאית ויסתמכו על "מה שהמחשב אמר", ובכך ירוקנו מתוכן את מהות המקצוע, או סמכות המינהל הציבורי ובכלל.

דרך המלך שדרוג יכולות ובקרה אנושית

דומה כי הדרך המאוזנת תהיה שימוש ביכולות ניתוח, מציאת מקורות, חידוד, ניסוח ומבנה ועוד ועוד, אך ללא וויתור על המרכיב האנושי ועל התבונה השולית, שכוללת בקרה ובחינה, הצלבת מידע ובדיקה דקדקנית של פעולות בדגש על מרכיב האחריות.

כאשר המשתמש מבין את גודל האחריות המוטלת על כתפיו, ואינה יכולה להיות מועבר או נודדת לפלט מידע ממוחשב, יהיה עליו לבחון בהקפדה יתירה את התוצאה, את  הדרך ואת המסקנות והביסוסים עליהם הסתמך, שכן טכנולוגיה יכולה לשדרג את איכות החיים והמקצועיות אך בד בבד יש להיוותר עירניים ובעיקר אחראיים ביתר שאת לבל יקום הגולם על יוצרו.

מאמר זה אינו מהווה ייעוץ משפטי או תחליף לייעוץ פרטני

תגיות:בינה מלאכותיתAIליטיגציה ממוחשבת
עו״ד מוטי לב
עו״ד מוטי לב

בוגר LL.B ו-MBA מהקריה האקדמית אונו. מתמחה בליטיגציה אזרחית, דיני חוזים, סכסוכי שכנים, תביעות קבלנים ליקויי בנייה ואיחורי מסירה, עסקאות נדל״ן ותביעות מסחריות בגישה רב תחומית ושילוב ניסיון וידע משפטי עם כלים נוספים עסקיים וניהוליים.

לפרופיל המלא ←

זקוקים לייעוץ משפטי?

פנו אלינו לתיאום שיחת ייעוץ