top of page

בינה מלאכותית כסובייקט משפטי - האם AI צריך לקבל מעמד של יישות משפטית?

ככל שהטכנולוגיה מתקדמת, גוברת האפשרות שחברות ינוהלו ויהיו בבעלות של בינה מלאכותית (AI). אבל מה יקרה אם חברה כזו תיקלע לבעיות משפטיות? האם בינה מלאכותית תוכל לשאת באחריות משפטית כמו בני אדם? להלן סקירה בנושא מעמדה של בינה מלאכותית כסובייקט משפטי

תמונה של נוף עירוני עתידני עם רובוט ומאזניים משפטיים, מבטאת את הקשר בין AI למשפט.
האם בינה מלאכותית צריכה להיחשב כיישות משפטית?

מבוא

בינה מלאכותית (AI) הופכת נפוצה בתחומי חיים רבים, כיום AI כבר משמשת באופן שוטף לביצוע משימות כמו כתיבת טקסטים, מיון קורות חיים, מענה ללקוחות ועוד. חברות טכנולוגיה מובילות משקיעות משאבים רבים בפיתוח מודלים מתקדמים של AI כגון GPT ו-DALL-E של OpenAI או לClaude של חברת אנת׳רופיק, אשר מסוגלים לבצע מטלות מורכבות ברמה גבוהה.


אנליטיקות וחישובים שמערכות בינה מלאכותית מבצעות, מהירות ויציבות בפער מזה של המוח האנושי ולמעשה אלגוריתמים מסוגלים לנהל אופרציות מורכבות במהירות הבזק ויותר טוב מכל מנכ״ל בן אנוש. לא פלא שמומחים רבים טוענים כי שבעתיד AI עשויה אף לנהל חברות באופן עצמאי.


האתגר המשפטי - AI חסרת מעמד במערכת המשפט


עם זאת, מתעוררות שאלות לגבי המעמד המשפטי של AI. מה יקרה אם חברה המופעלת על ידי AI תיקלע להפרת חוק? האם ניתן יהיה להטיל עליה אחריות משפטית?

כיום, המערכת המשפטית מזהה רק בני אדם כסובייקטים בעלי זכויות וחובות. יחס אל בינה מלאכותית כסובייקט משפטי לא מוזכר כיום בפסיקה או בכלל. הסיבה המרכזית - בינה מלאכותית נתפסת ככלי הנשלט על ידי בני אדם ולכן אינה יכולה לשאת באחריות עצמאית. אבל זו בעיה משמעותית, שכן ככל שהאוטונומיה של מערכות AI גדלה, קיים צורך לאפשר מנגנוני פיקוח ואכיפה ישירים על פעולותיהן.


הפתרון המוצע - מתן מעמד משפטי ל-AI


בדו״ח חדש שפורסם בכתב העת Science תחת הכותרת Artificial intelligence and interspecific law חוקרים בולטים בתחום משפט וטכנולוגיה [כמו פרופ' ג'ק בולקום מאוניברסיטת קולומביה], מציעים לראות בינה מלאכותי כסובייקט משפטי עצמאי וקוראים לרגולטורים לראות באינטליגנציה המלאכותית כיישות אוטונומית מבחינת החוק, ולא רק ככלי הנתון לשליטת בני האדם. 


הרעיון נשמע מהפכני, אך הוא משקף את ההבנה שהטכנולוגיה עוברת שינוי מהותי שדורש התאמה של החשיבה המשפטית. אם בעבר המכונה נתפסה ככלי פסיבי הנשלט על ידי האדם, הרי שכיום מדובר בישויות אוטונומיות בעלות יכולות קוגניטיביות מתקדמות.


המחברים טוענים שטרם קביעת רגולציות בנושא צריך לפתח מסגרות משפטיות "בין-מיניות" שבהן בינה מלאכותית תטופל כסובייקט משפטי. שכן כיום המסגרות המשפטיות מתייחסות אך ורק לבני אדם, ואילו ישויות שאינן אנושיות כמו בעלי חיים, מקבלות זכויות משפטיות באמצעות נציגים אנושיים ובד"כ מכוח אפוטרופסות או קניין, במקרים אלה, הזכויות המשפטיות של הסובייקטים שאינם אנושיים מתייחסות למחויבויות אנושיות כלפיהם. אמנם שבארה"ב ובמדינות נוספות תאגידים מוכרים כ"אנשים מלאכותיים" לעניין מערכת המשפט וכלולים בהגדרה של "אדם", אלא שכוחם יפה כל עוד בשרשרת הארגון ישנם בני אנוש שיכולים לשאת באחריות. אך מה יקרה כאשר בינה מלאכותית תפעיל "חברה ללא חברים"?


יישום הרעיון באמצעות "חינוך משפטי" של AI


קצב ההתפתחות המסחרר של טכנולוגיות AI בעידן הקפיטליסטי יחד עם מנעד הסמכויות ההולך וגדל של ה-AI מחייב נקיטת עמדה. "מכיוון שהרעיון להפסיק את פיתוח ה-AI והשימוש בו הוא לא ריאלי, על הרגולטורים להתייחס אל מכונות כנחותות משפטית מהאדם (כך שתמיד יהיה אדם בקצה במקרה של הרמת מסך) או לחלופין לתכנת מערכות AI שיצייתו לחוק, ולהכניס אותן למסגרת משפטית עכשיו לפני שזה יהפוך למסובך מדי לעשות זאת!," קראו המחברים.


כדי ליישם זאת, כותבי המאמר מציעים לאמן מודלי שפה (LLM's) שיכירו את החוק "ככתבו וכרוחו", כך שתפנים את החוקים ואת הנורמות המשפטיות ותדע לציית להם באופן עצמאי. בנוסף, מציעים הכותבים, לתכנת ולהטמיע מנגנון של "הענשה" במקרה של הפרות חוק ע"י מניעת "תגמול". כמו כן, אפשר להשתמש במודלים מתקדמים של בינה מלאכותית כדי לפקח על פעילותה ולוודא שהיא נשארת במסגרת החוק. בדרך זו, הטכנולוגיה תכלול בתוכה מנגנוני ויסות ובקרה שיבטיחו שתמשיך לשרת את האינטרס האנושי והציבורי.


סיכום - המלצות לפיתוח יישום רפורמה הכרחית בחקיקה


הגיעה העת לראות AI כישות משפטית ולא רק ככלי. זוהי רפורמה משפטית הכרחית על מנת לאפשר פיקוח ובקרה נאותים על טכנולוגיות מתקדמות אלה ככל שהן הופכות אוטונומיות יותר.

אנשי אקדמיה רבים קוראים למחוקקים ולרשויות הרגולציה לגבש מדיניות ברורה בנושא, ולפעול להרחבת ההגדרה המשפטית של "אישיות משפטית" כך שתכלול גם ישויות בינה מלאכותית מתקדמות.


כמו כן, יש לעודד מחקר הלכה למעשה בנושא ה"חינוך המשפטי" של AI, ולבחון את הדרכים המיטביות להטמעת ערכים של צדק ומוסר בקרב מערכות אלה. רק באמצעות גישה פרואקטיבית המשלבת חקיקה, אכיפה ותכנון זהיר נוכל להבטיח כי האינטליגנציה המלאכותית תמשיך לשרת את האנושות ולא תהפוך לאיום. הנושא אמנם מורכב ומאתגר, אך ההשלכות של התעלמות ממנו הן מסוכנות. עלינו לפעול עכשיו, לפני שהטכנולוגיה תתפתח מעבר ליכולת הבקרה שלנו.

Comments


bottom of page