בשנה האחרונה החל מרוץ חדש, שמוגדר כמרוץ החימוש 2.0, עת ה־ChatGPT חדר לחיינו וגרם למלחמה סביב תחום הבינה המלאכותית. אותו ChatGPT שהפעים את כולם במבט ראשון, גרם, במבט שני, לחששות ברחבי העולם בכל הנוגע לחדירה לפרטיות, פגיעה בזכויות יוצרים ואף יציבות מדינות מבחינה כלכלית, ביטחונית ומדינית.

כמה שנים נותרו לנו עד שהבינה המלאכותית תשמיד אותנו? תשובה מוזרה
"פיתחנו לראשונה טכנולוגיה שאנחנו לא מבינים איך היא עובדת"

המאפיין הראשוני של הבינה המלאכותית הוא צ'אט־בוט, שהפך לשימוש צרכני כמעט בכל בית, עם מיליוני משתמשים בכל חודש, דבר שהוביל להאצת קצב ההשקעות בתחום ולתחרות בין ענקיות הטכנולוגיה על כלי הבינה המלאכותית. מאז השקתו, ChatGPT מעורר שיח שכולל כתיבת מאמרים ויצירות ומצד שני פגיעה בהגנה על מידע אישי. על אלו הגיבו רגולטורים ומחוקקים ברחבי העולם ובקרוב יהיה עליהם להחליט אם להגביל, להאט ואולי אף לאשר את ההתפתחויות השונות בתחום.

הגבלות עולמיות
מעבר לפגיעה בפרטיות, יש הרואים בבינה המלאכותית סוגיה ציבורית וכלכלית שמעוררת עניין גם אצל הרגולטורים, בעיקר באירופה, שם מקפידים להוביל ולהגיב ראשונים. לראיה, באיטליה הופסקה פעילות של חברת OpenAI בהפעלת ChatGP, לאחר שרשות ההגנה על המידע במדינה, Garante, אסרה על השימוש בו ונפתחה חקירה להפרת חוקי הגנת הפרטיות. המהלך הוא אמצעי למניעת הפרות של חוקי פרטיות או דליפת מידע לגורמים עוינים.

בעקבות זאת, הודיעה החברה על מספר שינויים בהתנהלות הצ'אט־בוט והצהירה כי תהיה שקיפות מיטבית לגבי צורת פעולתה. עם זאת, בני 18 ומעלה יהיו רשאים להשתמש בתוכנה כמו בני 13, שיצטרכו לספק אישור הורים לשימוש בשירות - מהלך שמעלה חששות בקרב רגולטור באיטליה, מכיוון שקל לזייף או לסמן אישור מההורים.

נוסף לאיטליה, רשויות ההגנה בספרד, בצרפת, בגרמניה, באירלנד ובעוד מדינות מערביות נוספות חוקרות ובודקות את איסוף המידע והשימוש בו על ידי מערכות הבינה המלאכותית. רק לאחרונה קם גוף המאחד את רשויות הפרטיות של אירופה, The European Data Protection Board, שהקים כוח משימה בנושא ChatGPT, שיבצע חקירות ואכיפה סביב הנושא הבעייתי, מהלך שעשוי להוביל למדיניות משותפת בכל רחבי היבשת.

לאחר מהלכים אלו השירות חזר לפעול, אך עדיין נמצא בבקרה ממושכת. רשויות ההגנה השונות באירופה עדיין מייחלות שהבינה המלאכותית תעמוד בדרישות נוספות לדוגמת אימות גיל בצורה קשיחה יותר, קמפיין הסברה לעיבוד המידע והזכויות של כל אזרח על המידע שברשותו. בין היתר, עלו שאלות על השימוש במידע שנמסר לצ'אט־בוט עצמו והאם ניתן להשתמש בו ללא הסכמה. למרות הניסיונות הרבים לאכוף ולחקור את הנושא, האיחוד האירופי מנסח בתקופה האחרונה סט חוקים שצפוי לעבור בחודשים הקרוב.

מה קורה בארה"ב? שם מתגבשים מספר מהלכים מול הטכנולוגיה החדשה. מטרת הרגולציה והחוקים המתהווים היא למנוע נזק שעשוי להיות אסון עצום מבחינת טכנולוגית למדינה, אך בזמן שמוודאים קדמה צריך לבחון דרך ראויה לפני שמעניקים לידי הציבור כלי בעל יכולות אדירות כמו הבינה המלאכותית. במילים אחרות, האצבע של האח הגדול לא קלה על ההדק כשהיא מעניקה למיליוני משתמשים גישה לפרטים אישיים ולממצאים חשובים. לכן נבחנים לאחרונה מספר מודלים שתפקידם להגן על התכנים שנמצאים בפלטפורמות השונות שמפרסמים כלל המשתמשים. את הפיגור המינורי של האמריקאים הם ודאי יצמצמו מהר, אחרי שיסדירו את המחלוקות הפוליטיות.

"בשימוש בטכנולוגיות של בינה מלאכותית קיימות סכנות רבות ביחס לפרטיות, למידע האישי ולהגנה עליהם. הסכנות לפרטיות יכולות לבוא לידי ביטוי הן בעת השימוש בטכנולוגיה, שבמסגרתה נאספים פרטים על המשתמשים, הן ביחס למידע אליו נחשפים המשתמשים תוך כדי השימוש בטכנולוגיה והן ביחס לאופן השימוש במידע הקיים באמצעות הטכנולוגיה", מסבירה עו"ד גפנית לגזיאל, שותפה וראש תחום הגנת הפרטיות במשרד עו"ד פירון.

עורכת דין ורד זליכה משרד ליפא מאיר (צילום: איה בן עזרי)
עורכת דין ורד זליכה משרד ליפא מאיר (צילום: איה בן עזרי)

מה הסכנות המיידיות?
"הרשות להגנת הפרטיות האיטלקית נסמכה על שתי טענות. המשנית - ChatGPT חושפת קטינים לתשובות שאינן הולמות לרמת ההתפתחות וההבנה שלהם; והעיקרית - שאין בסיס חוקי המצדיק את איסוף המידע המסיבי הכולל מידע אישי למטרת "אימון" האלגוריתמים המהווים פעולת הפלטפורמה".

אבל זמן קצר אחרי שהאיטלקים חסמו את הצ'אט־בוט הם העבירו רשימת ליקויים כדי שייפתח מחדש. "ובתגובה החלה OpenAI ליישם ולהטמיע תיקונים וצפויה לציית לדיני הפרטיות האירופאיים תוך זמן מועט".

גם בישראל?
הבינה המלאכותית היא כנראה אחת ההמצאות הגדולות בימינו אם לא הגדולה שבהן. "כמו כל דבר חדש, יש חשש כי הוא יפגע או ישמיד את היסודות שבבסיס הקיים. יחד עם זאת, לטעמי, לא ניתן למנוע את התקדמות הטכנולוגיה ובאותה נשימה - ולמרות החששות הגדולים ניתן לומר כי סביר שהיא לא תמוטט את הפרטיות".

מה צריך כדי לוודא את זה?
"על החקיקה להתאים את עצמה ולהתפתח בהתאם. לדוגמה, האיחוד האירופי כבר עובד על חקיקה ספציפית להסדרת תחום הבינה המלאכותית, שעתידה לעבור לאישור הפרלמנט האירופי כבר בחודש הקרוב. חשוב לציין שגם החקיקה הקיימת כיום, שמסדירה את היבטי הפרטיות במדינות האיחוד האירופי, ה־GDPR, ובישראל דיני הגנת הפרטיות, מסדירה את מרבית הסוגיות שעולות גם בהקשר של בינה מלאכותית ולו אלו העוסקים בבינה מלאכותית יישמו אותה כדבעי, אזי החשש לפגיעה בפרטיות יירד משמעותית".

מי אחראי לשמור על הפרטיות שלנו?
"החקיקה החדשה לוקחת בחשבון שדיני הפרטיות הקיימים מסדירים מרבית מהסוגיות שנוגעות לבינה מלאכותית ושמנגנוני ההסדרה הנוספים שיאכפו במסגרתה עתידים ליפול בעיקר על שכמם של הבעלים והמפתחים של אותן בינות מלאכותיות ומטרתם לייצר מנגנונים אפריוריים ליצירת בינות מלאכותיות כגון רישום במרשם בינות מלאכותיות, אימון הבינה על מסדי נתונים שאמורים למנוע הטיות ועוד. החקיקה החדשה גם מבדילה בין הסדרה של בינות מלאכותיות שבהן סיכונים מוגברים, לרבות סיכונים הנוגעים להיבטי פרטיות כגון חשש מזליגה או גניבה של מידע פרטי או אישי ואחרים".

עורכת דין גפנית לגזיאל שבבו משרד פירון (צילום: סטודיו תומאס)
עורכת דין גפנית לגזיאל שבבו משרד פירון (צילום: סטודיו תומאס)

מה בנוגע לישראל?
"גם אצלנו, הרשות להגנת הפרטיות  הוציאה עמדה בדבר 'חובת יידוע במסגרת איסוף ושימוש במידע אישי', שבמסגרתה התייחסה לחובת היידוע במערכות מבוססות אלגוריתם או בינה מלאכותית, ולמעשה הבהירה, על בסיס דיני הגנת הפרטיות הקיימים כיום, את האופן שבו יש ליישם אותה על הטכנולוגיה החדשה".

מדוע אין הלימה בין פיתוחי טכנולוגיה לעולם המשפט וכיצד ניתן להביא לחפיפה בין התחומים?
"מאז ומתמיד הטכנולוגיה קדמה למשפט. זו דרכו של עולם. הטכנולוגיה מתפתחת בקצב מהיר והמשפט בדרך כלל מתפתח בעקבותיה. דיני הפרטיות הקיימים כיום הם איתנים ויכולים להסדיר את השימוש במידע על ידי מערכות בינה מלאכותית, ואילו החקיקה החדשה מטרתה בעיקר להסדיר את אופן פיתוח הטכנולוגיה.

"לכן, הדגש העיקרי, לטעמי, ש'ידביק' את הקצב של המשפט לטכנולוגיה יהיה באופן היישום של דיני הפרטיות על הטכנולוגיה. על היישום לבוא לידי ביטוי בשלושה מישורים: הראשון הוא שהחברה המפתחת את הטכנולוגיות הללו תציית לדיני הגנת הפרטיות, בין בישראל ובין באירופה. השני, מתמקד בכך שארגונים וחברות שעושות שימוש בטכנולוגיות הללו, יצייתו לדיני הגנת הפרטיות, ובכלל זה, ישקפו זאת למשתמשים שלהם ויקבלו את הסכמתם לכך. האחרון, מתייחס לכך שהמשתמשים יידעו מה נעשה במידע שנאסף על אודותם, לאיזו מטרה הוא מיועד ויסכימו לכך".

בין חינוך למניעה
התקשורת לא חסכה מלהלעיט את דאגת הציבור כשפרסמה בחודשים האחרונים על אודות חברות אלקטרוניקה ובנקים גדולים שאסרו על עובדיהם לעשות שימוש בטכנולוגיה, מחשש לסיכוני אבטחה, דליפת מידע מסחרי, קניין רוחני ונזק אפשרי. "שימוש של עסקים ולעתים של עובדים שלהם, בין אם על דעת המעסיק ובין אם לא, בטכנולוגיה של בינה מלאכותית, בהיעדר הסכמה מפורשת לכך מאת נושאי המידע, עלול להעמיד את אותו העסק בחשיפה בשל הפרת דיני הפרטיות. לכן מומלץ ביותר שעסקים שעושים שימוש בטכנולוגיות של בינה מלאכותית יעדכנו את מדיניות הפרטיות שלהם כך שתאפשר שימוש בה".

אחד הסיכונים הנוספים והמשמעותיים של הצ'אט־בוט הוא דיסאינפורמציה. "כלומר הפצה נרחבת של מידע שגוי בקרב הציבור, וכפועל יוצא אחד האתגרים ביחס למערכות בינה מלאכותית, הוא סוג הבקרות הנדרשות, והניתנות ליישום, בקשר לדיוק של המערכת ולאמיתות תוצרי המידע שלה", מרחיבה עו"ד ורד זליכה, שותפה וראשת תחום סייבר ובינה מלאכותית במשרד ליפא מאיר ושות'.

"בין הסיכונים נמנים גם סיכוני הסייבר, בשל החשש לניצול לרעה של המערכת ליצירת פגיעויות חדשות או להתפשטות מהירה ונגישה באופן נרחב של כלים זדוניים בסייבר, הסיכון של הגנת הפרטיות, וכן החשש מפגיעה בקניין רוחני, בהינתן שהמערכות מתבססות, בין היתר, על יצירות המהוות קניין רוחני".

הבינה המלאכותית באמת יכולה למוטט את הפרטיות שלנו?
"אתגרים הנוגעים לפרטיות ברשת קיימים כבר היום, והבינה המלאכותית אכן עשויה להעצים אותם משמעותית. כיוון שמערכות הבינה המלאכותית מבוססות על מידע בסדרי גודל נרחבים, ומיועדות בחלקן להתייעלות במתן שירות לאנשים, להערכתי, לצורך הגנת הפרטיות, ימשיכו להתפתח שיטות להתממת מידע, כלומר, הסרת מאפיינים מזהים המשייכים לאדם ספציפי, טרם העלאתו למערכות, והן יהפכו לנפוצות הרבה יותר בקרב ארגונים מכלל המשק.

"בנוסף, יש לזכור כי הדין הקיים חל גם בקשר למערכות בינה מלאכותית, והרגולטור התחיל להתייחס לנושא. הרשות להגנת הפרטיות התייחסה בשנה האחרונה לעניין היידוע של אנשים על אודות השימוש במערכות בינה מלאכותית לאיסוף ולעיבוד מידע אישי, והצורך להסביר לפרט את מטרת השימוש במידע על אודותיו, למי הוא נמסר, וכיצד המערכת קיבלה החלטות לגביו".

האתגר שבפניו עומדים בתי המשפט הולך וגדל ככל שהאדם מגדיל את המכונה. אם בתי המשפט משקפים כיום נורמות חברתיות ומתפתחים בהתאם עם השנים, ניכר שהטכנולוגיות החדשות הן זרז להתפתחות משפטית, לעתים טרם הופעתן.

"עם זאת, יש לזכור, שהדין הכללי הקיים, לדוגמה, דיני פרטיות, דיני הגנת צרכן וכיוצא בזאת, חל ככלל גם בקשר לבינה מלאכותית. לכן לגישתי, היכן שנזהה היבטים ייחודיים המצריכים התייחסות מעודכנת, לאור ההתפתחות הטכנולוגית המואצת והשאיפה לקדם חדשנות לטובת האנושות, ראוי לשקול בשלב ראשון להסתייע בכלים "רכים", כגון מדיניות ואתיקה, מודעות וחינוך הציבור, ולעצב את הרגולציה עקב בצד אגודל היכן שנדרש. גישה כזו תואמת להבנתי גם את הכיוונים שהותוו בטיוטת המדיניות הלאומית שגובשה לפני כשנה בתחום".