top of page

הכלי שמסייע לאמנים במאבק בתופעה של שימוש לרעה של בינה מלאכותית (AI) ביצירות שלהם

חברות טכנולוגיה מובילות מאמצות מדיניות חדשה הנותנת ליוצרים שליטה רבה יותר על השימוש לרעה של בינה מלאכותית ביצירותיהם, ומציעות דרכים לבקש הסרה של תמונות. כלים חדשים מסייעים ליוצרים להיאבק בתופעה של שימוש לרעה ביצירותיהם על ידי ״הרעלה״ וקלקול של מודלי השפה, אלו צוברים פופולאריות בקרב היוצרים הנחושים

התמונה מתארת את המהות של הכתבה על הגנת זכויות היוצרים בעידן הבינה המלאכותית, באמצעות מטאפורות ויזואליות של אמנות, הגנה על זכויות יוצרים, וטכנולוגיית AI.
מאבר היוצרים: האמנים ״הולכים על הראש״ של חברות הטכנולוגיה

חברות המפתחות כלי בינה מלאכותית (AI) אוספות כמויות עצומות של תמונות, טקסטים וקטעי וידאו על מנת לאמן את המודלים שלהן. הכמות האדירה של התכנים עליהם מאומנים המודלים, מאפשרות להם לחולל תמונות מרהיבות עין. אך חלק גדול מהחומרים האלה הם יצירות אמנות של יוצרים שלא בהכרח נתנו אישור לשימוש בהן למטרה זו. 


לדוגמה, האמן מת׳יו באטריק, שידוע בשל סגנון יצירה יחודי של אמנות במזלגות נירוסטה , הגיש תביעה ייצוגית נגד חברת מייקרוסופט ו-OpenAi לאחר שגילה באקראי שיצירותיו משמשות לאימון מודלי AI ליצירת אומנות. באטריק קרא ליוצרים רבים להצטרף למאבק נגד החברות אשר ״מציפות את השוק עם מספר בלתי מוגבל של תמונות שמפרות זכויות יוצרים, ויגרמו לנזק לצמיתות על שוק האומנות", כותבים, אומנים, מתכנתים ויוצרים נוספים, מודאגים מכך שמערכות AI מאומנות על כמויות עצומות של עבודות המוגנות בזכויות יוצרים, ללא הסכמה, מתן קרדיט או פיצוי ליוצרים.


מת׳יו אינו לבד. עם התפתחות כלי ה-AI המבוססים על מודלים של למידה עמוקה (deep learning), המיומנים על מאגרי נתונים עצומים, יוצרים רבים מוצאים את עצמם במצב דומה. אולם לא הכל אבוד – ישנן דרכים שבאמצעותן יוצרים יכולים להילחם בשימוש לרעה זה ולהגן על זכויות היוצרים שלהם.


כיצד יכולים אמנים להתגונן מפני זה?

דרך נפוצה ליוצרים להגן על זכויותיהם היא על ידי הוספת metadata לקובצי המדיה שלהם, הכולל הצהרה שאוסרת על שימוש ביצירות ללא אישור מפורש. זו בעצם דרך להעביר מסר לגבי כוונות היוצר ולהגביל שימושים לא רצויים ביצירותיו.


 דרך נוספת שמציעות חברות מסוימות כמו Stability AI, Adobe ו-OpenAI מאפשרת ליוצרים לבקש באופן אקטיבי שיצירותיהם יוסרו ממאגרי הנתונים לאימון המודלים. זוהי דרך יעילה למנוע שימוש ביצירות ללא רשות, אך התהליך דורש מהיוצרים לאתר ולדווח על כל מקרה בנפרד.


הכלי החדש ש״מרעיל״ את הבינה מלאכותית

נכון להיום, לחברות חובה חוקית לכבד את ההצהרות הללו, אך רבות מהן בוחרות לעשות זאת מתוך אינטרס להימנע מתביעות ולהיראות טוב בעיני העולם. חוקרים מאוניברסיטת סטנפורד מצאו דרך מבריקה כיצד לגרום לחברות ״לא לרצות״ לעשות שימוש לא הוגן ביצירות האנושיות.


במסגרת פרוייקט פיתחו חוקרים מסטנפורד ואחרים את הכלים Glaze ו-Nightshade, כלים אלו מאפשרים "הרעלת נתונים" על ידי שינוי קל של תמונות וטקסטים כך שיהפכו לבלתי שמישים עבור אימון מודלי AI. שינויים אלו בדרך כלל אינם מורגשים לעין האנושית אך משבשים לחלוטין את יכולת הלמידה של המודלים וגורמים להם לייצר פלט משובש ולא הגיוני.


כיצד בדיוק עובדת "הרעלת הנתונים"?

הכלי Glaze, למשל, מוסיף רעש אקראי עדין לתמונות דיגיטליות כך שהן נראות רגילות לבני אדם אך בלתי שמישות עבור AI. טכניקה זו קרויה "רעש אדברסריאלי" – היא משבשת את היכולת של רשת נוירונים ללמוד מתמונות אלו מבלי לפגוע באיכותן החזותית. 


באופן דומה, הכלי Nightshade מיועד לטקסטים ומבצע שינויים קלים ברמת התווים כגון החלפת אותיות באותיות דומות חזותית. שינויים אלו שומרים על קריאות הטקסט עבור בני אדם אך משבשים את יכולת מודלי ה-NLP ללמוד ממנו.


הדרך עוד ארוכה עד לפתרון מושלם

על אף שכלים כאלו ואחרים נותנים כוח בידי היוצרים ומאפשרים להם להגן על זכויותיהם בעידן המודרני, ברור כי המערכה על הגנת זכויות היוצרים בעידן הטכנולוגי רחוקה מסיום. הכלים והמדיניות החדשה של החברות הגדולות הם צעד ראשון חשוב, אך יש צורך ברפורמות מקיפות ואכיפה יעילה יותר כדי להבטיח הגנה אמיתית.


כל עוד קיימים פערים משפטיים וטכנולוגיים, יוצרים ימשיכו להיות חשופים לניצול לרעה של יצירותיהם. על המחוקקים, החברות והיוצרים עצמם להתאחד ולפעול יחד ליצירת מציאות שבה זכויות היוצרים יכובדו ויוגנו באופן הולם גם במאה ה-21.






Comentarios


bottom of page