הדיון המיוחד בוועדת החוקה שכינס ח"כ שמחה רוטמן ב־21 במאי לא עסק בעילת הסבירות וגם לא בהרכב הוועדה לבחירת שופטים, אלא בסוגיה שנשמעת כאילו נלקחה מסרטי מדע בדיוני. כמה חודשים קודם לכן חשף העיתון כלכליסט את קיומו של כלי מבוסס בינה מלאכותית, שמשמש את משטרת ישראל בנתב"ג כדי להצביע על חשודים. המערכת הממוחשבת "למדה" דפוסי פעולה של בלדרי סמים, ובכל פעם שהיא מאתרת דפוס כזה אצל אחד הנכנסים לארץ, היא משגרת התרעה. האדם שסומן מובא לבדיקה מדוקדקת בביקורת הגבולות – אף שלא התקבל כל מידע הקושר אותו לעבירה כלשהי. ארגוני זכויות אדם התקוממו על השיטה הזו וטענו כי מדובר למעשה ב"פרופיילינג" ומתן יחס מפלה לבני אדם בגלל מאפיינים חיצוניים, גם אם הוא אינו מכוון דווקא נגד בני מיעוטים.
"נציגי המשטרה הסבירו בדיון בכנסת שליבת המערכת היא 'קופסה שחורה', ודרך פעולתה אינה ידועה להם", מספרת ד"ר תהילה שוורץ־אלטשולר. "מה שמכשיר את השימוש בה, לדבריהם, היא העובדה שלאיש המשטרה בנמל התעופה יש שיקול דעת, את מי לעכב ואת מי לא. אבל איזה מין שיקול דעת זה, אם השוטרים מקבלים מהמערכת רשימת שמות? המשפטנים טוענים היום שאם נכריח את המתכנתים לחשוף את 'המתכון הסודי' שהמערכת פועלת לפיו, הבעיה תיפתר – אבל כשמדובר בבינה מלאכותית, גם המפתחים עצמם לא יודעים להגיד באמת איך היא פועלת במקרה ספציפי. ואז עולה השאלה מה לעשות. האם נמשיך להפעיל את הכלי הזה בלי שום פיקוח עליו, או שנאסור לחלוטין כל שימוש במערכת?
"אנחנו הצענו מודל של איתנות סטטיסטית, כלומר לבדוק את התוצאות. במקרה שלנו, האם המערכת באמת מאתרת בוודאות גבוהה בלדרי סמים, איזה מידע מוזן לתוכה, איזה אלגוריתם נבחר ועוד. הנקודה היא לא לוותר על הפיקוח, אלא להבין שמהיום והלאה נידרש לפקח על המערכות באופן אחר. כי שקיפות במובן הקלאסי, כמו שהכרנו עד היום, לא תהיה פה. כתבתי על זה לרוטמן – שהוא חבר כנסת בעל הבנה דיגיטלית גבוהה מאוד – ואני שמחה שהוא כינס את הוועדה לדיון. אני לא מסכימה עם דברים שהוא עושה בנושאים אחרים, אבל בתחום הזה אני שמחה מאוד לשתף איתו פעולה".

"הקופסה השחורה" של הבינה המלאכותית היא אחד האתגרים שמזמנת הטכנולוגיה המתקדמת הזו לרגולטורים באשר הם. האופן שבו מערכות AI לומדות, מעבדות את המידע ומסיקות מסקנות אינו ברור עד תום אפילו למי שבונים אותן. כל ניסיון להתחקות אחר השתלשלות הפעולות שלהן נידון לכישלון, ולכן לא קל למצוא דרכים לפקח עליהן כשהדבר נדרש. בספר חדש שראה אור בהוצאת המכון הישראלי לדמוקרטיה, "אדם, מכונה, מדינה – לקראת אסדרה של בינה מלאכותית", מציגה ד"ר שוורץ־אלטשולר את השאלות שצריכים המחוקקים לשאול את עצמם בעידן החדש, ומציעה גם צעדי מדיניות ראשונים על הקרקע הלא נודעת הזו.
לדבריה, היא מנסה להבין את הטכנולוגיה, ואז לחשוב מה יכולות להיות ההשלכות שלה. כדוגמה לשאלות המאקרו שעולות בעקבות ההתפתחות המהירה בתחום ה־AI, מציינת שוורץ־אלטשולר את הסופה שעומדת להכות בעולם התעסוקה: "אנחנו יודעים כבר היום שטכנולוגיות כאלה יפגעו קודם כול בתחומים כמו עיצוב גרפי וברמות הנמוכות של כמה מקצועות – ראיית חשבון, עריכת דין, כתיבת תוכנה ובדיקת תוכנה. אלה העובדים שיאבדו את משרותיהם – לא השרברבים, הופכי ההמבורגרים, המרפאות בעיסוק והפיזיותרפיסטים. וכאן במדינת ישראל, מי נמצא בדיוק במקצועות שייפגעו? נשים חרדיות. לשם הסלילו אותן בעשור האחרון, במהלך שדווקא היה מדהים ומעורר השראה. אז מה נעשה עכשיו, אם הטכנולוגיה תפגע בהן? אתה מבין מה עלול לקרות במגזר החרדי, במשפחות שתלויות במקומות העבודה הללו לפרנסתן? הנשים החרדיות עוד לא הספיקו לעלות לרמות הגבוהות של תעשיית ההייטק, כי הן לא נמצאות הרבה שנים בתחום. אז מה תהיה ההשפעה על המגזר? מישהו חושב על השאלה הזו? זה מפחיד אותי, במיוחד כי התהליך מתקדם במהירות. לא נגיע לשם רק ב־2050, אלא אולי כבר ב־2025. זה זמן קצרצר במונחי מדיניות".
פצצת פגסוס
לעיסוק בבינה המלאכותית, שכלל גם הקמת חברת הזנק משלה, הגיעה שוורץ־אלטשולר משני כיוונים שונים. הראשון היה משפחתי: אחיה, פרופ' שי שלו־שוורץ, הוא מנהל טכנולוגיות ראשי (CTO) בחברת מובילאיי. "לפני כחמש שנים, בשיחה באירוע משפחתי, הוא אמר שכדאי לי מאוד לכתוב על AI", היא מספרת. "בפועל, הדרך שלי לתחום הייתה ארוכה ומפותלת".
"האם הצ'ט יכול להחליף את ראש אמ"ן? לקחנו טקסטים מלפני מלחמת יום הכיפורים, טקסטים ערב מתקפת פרל־הרבור וטקסטים שהמצאנו בעצמנו, וניסינו לראות מה המערכת אומרת. לא ביקשנו שתקבע אם תפרוץ מלחמה מחר בבוקר, כן שאלנו אותה מה הסבירות למלחמה"
שוורץ־אלטשולר, 49, מתגוררת באלון־שבות שבגוש עציון מגיל אפס ועד היום. היא נשואה ליאיר אלטשולר, אם לשלושה וסבתא גאה לנכדה. את המסלול המקצועי שלה התחילה בחקר ההסדרה של שוק התקשורת. "על זה כתבתי את הדוקטורט. אז עוד דובר על הריכוזיות בשוק העיתונות המודפסת, כשלנוני מוזס היה מונופול בענף. משם התחלתי לחקור גם את שוק הטלוויזיה, ובמשך זמן מה כיהנתי כסמנכ"לית מחקר ופיתוח ברשות השנייה לטלוויזיה ולרדיו".
אחרי דוקטורט במשפטים באוניברסיטה העברית היא יצאה לשנת פוסט־דוקטורט באוניברסיטת הרווארד. משם חזרה לישראל לתקופה קצרה, ואז נסעה עם המשפחה לארבע שנים נוספות בבוסטון – יאיר ניהל בית ספר יהודי בעיר, והיא הייתה חוקרת אורחת בהרווארד. כאשר שבו לארץ כבר היה ברור לה שלא תסתפק בעיסוק אקדמי טהור. "הרגשתי שאני תאבת השפעה. אני לא רוצה לכתוב מאמרים באנגלית שיתפרסמו בעוד שלוש שנים, אני רוצה לכתוב בעברית דברים שישפיעו עכשיו. כתיבה בעברית אומנם פוגעת בי מאוד בעולמות האקדמיים, אבל הקהל שלי הוא האנשים בישראל. היום אנחנו כבר רוויים במכוני מחקר, והשאיפה שתיארתי נשמעת די טריוויאלית, אבל באותם הימים לא היו גופים כמו 'פורום קהלת' או 'תכלית'. המכון הישראלי לדמוקרטיה היה המקום היחיד שבו יכולתי לעשות את הדבר הזה".
בראשית דרכה במכון עסקה שוורץ־אלטשולר במדיניות תקשורת, ובהמשך הגיעה למדיניות חופש המידע. "בשנת 2013 כתבתי מסמך בנושא הזה, שאני גאה בו מאוד. הרעיון היה שהמדינה אוספת המון מידע, ואם המידע הזה יהיה זמין, ניתן יהיה לעשות בו הרבה שימושים טובים. תחשוב על יישומון כמו Moovit ורבים אחרים שמבוססים בעצם על נתונים של המדינה. לפני עשור זה היה רעיון חדשני, כי לאף אחד כמעט לא היה מושג מה זה 'ביג דאטה', ולמה לדבר הזה יש ערך.

"במקביל המשכתי לעסוק בשוק התקשורת, אבל באוריינטציה של תחום שנמצא בערעור תמידי. כך הגעתי לשאלות כמו איך שומרים על צנזורה בעולם דיגיטלי? איך מתמודדים עם תביעות השתקה בעולם כזה? הרי אי אפשר לטעון שמרגע שהעולם הדיגיטלי פרץ לחיינו, אין טעם בהגנה על סודות ביטחוניים. אנחנו חיים פה, וברור שנדרשת הגנה כזו, השאלה היא איך עושים את זה בעידן החדש".
בחינת עולמות המידע הביאה אותה לצעד הבא – סוגיית שמירת הפרטיות בימינו. היא עמדה בראש צוות שגיבש נוסח חדש לחוק הגנת הפרטיות, ובמקביל החלה להתעמק בנושא שעלה לכותרות בהמשך: תוכנות ריגול ומעקב. "כבר ב־2018 כתבתי מאמר בנושא פגסוס, וטענתי שזו פצצה שעומדת להתפוצץ. בהמשך עסקתי בנושא הקורונה, בקשר לאיכוני השב"כ והנזק שהם גרמו. במקביל התוודעתי לעולמות הסייבר, כי פרטיות וסייבר הן סוגיות אחיות. הן לא אותו הדבר, ואסור שיהיו אותו דבר: אם יש יותר מדי הגנת סייבר, זה אומר שאנחנו חיים במדינת מעקב, ואין פרטיות. ומצד שני, בלי הגנת סייבר, כל הפרטיות שלנו בחוץ".
שוורץ־אלטשולר חיברה שני מסמכים על סייבר. הראשון מסביר את התחום למי שאיננו בקי בו, והשני עוסק בשאלה איך מאסדרים את הנושא. "גיליתי שכולם מדברים על סייבר, אך רק מעט מבינים במה מדובר. בעבר כתבתי שהתרומה הכי גדולה של 'ישראל היום' לענף התקשורת בישראל הייתה הגברת האוריינות התקשורתית של האזרחים. העיתון הזה, מרגע הקמתו, אמר לקוראים שלו: 'בואו נספר לכם מה לא קראתם בידיעות אחרונות'. לפני כן הייתה מעין הסכמה בין כל כלי התקשורת שאחד לא מדבר על האחר. ישראל היום שינה את זה, ואחריו הצטרפו עוד כלי תקשורת שנגררו לפעול בצורה דומה, וגם הרשתות החברתיות הפכו למעין אתר ביקורת תקשורת ענק. הרי מה עושים ברשתות? מדברים על מה שראינו בטלוויזיה, ולמה ההוא שופר וההוא שקרן. יש לזה הרבה חסרונות, אבל אי אפשר להתעלם גם מהזינוק באוריינות התקשורת של האזרחים. פעם אמא שלי הייתה בטוחה שמה שכתוב בידיעות אחרונות נכון, כמו תמרורי התנועה וכמו התורה. היום היא כבר ממש לא חושבת ככה.
"תהליך דומה קורה לנו גם ברגעים החוקתיים שאנחנו חווים בימים האלה. מישהו ידע לפני חצי שנה מה זו הפרדת רשויות? מהם איזונים ובלמים? מהי עילת הסבירות? האוריינות החוקתית הזו היא דבר חשוב מאוד לחברה הישראלית. כך צריך להיות גם בנושא הדיגיטל. קורה סביבנו משהו בסדר גודל היסטורי, ואין לציבור הבנה של המשמעויות, של הכוחות שמפעילים את התהליך, ומה זה בכלל".
"אתה יודע מתי תימצא הדרך להטמיע עקרונות של אתיקה בפיתוח הבינה המלאכותית? כאשר גופים כלכליים יסבלו הפסדי עתק, או כאשר זה יעלה בחיי אדם. אם מישהו ישתול פריט מידע שקרי במערכות של סחר בניירות ערך, והרבה אנשים יפסידו סכומי כסף עצומים, הבנקים וחברות הביטוח ישמיעו קול צעקה. רק אז משהו יתחיל להשתנות"
מבחן המכשיר הסביר
מעולמות הדיגיטל, הסייבר והרשתות החברתיות, הגיעה שוורץ־אלטשולר באופן בלתי נמנע לניתוח המהפכה הדרמטית מכולן: מהפכת הבינה המלאכותית. "למעשה יש פה שלוש מהפכות", היא מפרטת. "הראשונה היא מהפכת החומרה, או אם תרצה מהפכת האייפון. כלומר, קיומם של מעבדים מהירים וקטנים שמאפשרים לנו לאגור מידע ולהפיץ אותו בצורה מהירה, זולה ונוחה. המהפכה השנייה היא מהפכת הקישוריות. זו מהפכת האינטרנט, ואחריה 'האינטרנט של הדברים' – חיישנים שנמצאים בכל מכשיר ומעבירים מידע ל'מוחות' מרכזיים. על גבי אלה מתפתחת מהפכת הבינה המלאכותית. היא עושה שימוש בכוח המחשוב של המהפכה הראשונה ובכמויות הדאטה שנאספות באמצעות המהפכה השנייה, ויוצרת דברים חדשים.
"לא פעם משווים את הבינה המלאכותית למהפכה התעשייתית. המהפכה ההיא שינתה כמובן סדרי ממשל וחברה, אבל אני לא הייתי כאן אז; כן הייתי לפני 25 שנה, כשהתחילה מהפכת הקישוריות. אני יודעת מה היו אז סדרי הממשל והחברה, אני יודעת מה ההבטחה שהייתה טמונה במהפכה הזאת, ואני גם יודעת מה קרה איתה: ענקיות הטק שצמחו, הטכנו־קפיטליזם, הקושי שלנו לברר את המציאות, והקושי של מדינות לייצר מדיניות מול הדבר הזה. ואני שואלת את עצמי מה כל זה מלמד אותי לגבי מהפכת הבינה המלאכותית במובן של הכוחות שמפעילים אותה ובהיבט של הפוליטיקה. אלו דברים קריטיים. אני לא עתידנית, לא מעניין אותי מה יהיה ב־2050 אלא מה יהיה בחמש השנים הבאות. לכן אני רוצה לעזור למקבלי ההחלטות לפעול נכון היום".
ומה התובנה העיקרית שלך מנקודת המבט הזו?
"שהדבר החשוב ביותר לקבלת החלטות טובה הוא האוריינות הדיגיטלית, גם של הציבור וגם של הפוליטיקאים. כשאתה רואה את מארק צוקרברג מגיע לשימוע בקונגרס, ומולו יושבים מחוקקים מבוגרים ומתחילים לספר מה אמר להם הנכד שלהם, אתה מבין שיש פה בעיה. לצורך ההחלטות הנכונות צריך קודם כול להכיר את המציאות. אם אין לחברי הכנסת אוריינות דיגיטלית, הם נופלים למלכודת דו־קוטבית: או שהם רואים את העולם הדיגיטלי דרך משקפיים אוטופיות, וחושבים רק כמה נפלא הולך להיות פה – או שהם מביטים על הכול כדיסטופיה, ורואים רק את הסכנות. האמת היא שהאנושות לא תושמד מחר בבוקר, ומצד שני יש פה סוגיות כבדות משקל שצריך להתייחס אליהן".

הבינה המלאכותית, "למידת מכונה", תופסת מקום בחיינו זה זמן. מדוע דווקא עכשיו היא פרצה בעוצמה כזו לשיח הציבורי, הכלכלי והפוליטי?
"בשנת 2019 העתידן האמריקני ריי קורצוויל ניבא שבתוך כמה שנים תהיה סינגולריות וממשק בין אדם למכונה, וכולם צחקו עליו. ב־2022 קהילת המומחים של אוניברסיטת סטנפורד כבר אמרה שזו תחזית רלוונטית. למה? מה קרה? איך התרחש המעבר מבינה מלאכותית צרה לשלב הבא? הדבר הראשון שקרה הוא ההתמזגות של הטכנולוגיות בתחום הבינה המלאכותית. הכרנו כבר מערכות כמו וייז וספוטיפיי, אבל ספוטיפיי לא יודעת לנווט ווייז לא בוחרת לנו שירים. לאח שלי, שעסק בעולמות הראייה באמצעות טכנולוגיה, הייתה בעבר ארכיטקטורה מסוג מסוים, ולמי שעסק בעולמות של עיבוד שפה הייתה ארכיטקטורה שונה לגמרי. בשנתיים האחרונות הארכיטקטורות הללו התמזגו. זה מה שמאפשר לי לכתוב לבינה המלאכותית מה אני רוצה, כלומר להשתמש במילים – ולקבל ממנה תמונה או וידאו. זאת קפיצת מדרגה מדהימה. עברנו מלמידה מתווכת ללמידה עצמאית. כלומר, משלב שבו אני מלעיטה את המכונה בהמון תמונות ואומרת לה 'זה חתול', 'זה לא חתול', לשלב שבו אני מלעיטה אותה בהמון מידע ואומרת לה כביכול 'תסתדרי לבד'.
"הדבר השני שקרה הוא המהירות. קפיצת המדרגה הקודמת לקחה עשר שנים; לעומת זאת, המעבר מגרסה 3.5 של ChatGPT לגרסה 4 לקח חצי שנה. זה לא רק מעבר כמותי, זה שינוי דרמטי בסגולות וביכולות של המערכת. משהו פה קורה מהר הרבה יותר ממה שחשבנו".
אחת ההתפתחויות העיקריות שנלוו למעבר הזה, אומרת שוורץ־אלטשולר, היא היכולת של המכונה לחשוב וליצור בתלת־ממד, ולא רק בדו־ממד. "למה זה חשוב כל כך? כי זה מה שיאפשר לפתח את הנושא של רובוטים הומנואידיים, דמויי אנוש. כך יוכלו לאמן אותם בלי שזה יהיה יקר מאוד, ממושך ומסוכן. למעשה, זה אומר שבתוך זמן קצר נוכל להכניס רובוטים הביתה.
"היום אנחנו כבר יודעים, בבחינה של יותר מעשור לאחור, מה עשו לנו הרשתות החברתיות. הן הגבירו קנאה ולפעמים גם שנאה בין אנשים, ויצרו לנו את הפומו, Fear of Missing Out. כל זה קרה כשאנחנו בסך הכול ישבנו מול מסך ומקלדת. השאלה שעולה עכשיו היא – מה תעשה לנו הנוכחות של מין אלכסה (העוזרת האישית של אמזון – ש"פ) חכמה כזו בבית? מה יקרה כשתהיה לנו 'בת משפחה' שיודעת עלינו הכול? ברמה הפסיכולוגית, עוד לפני שלב שאלות המדיניוּת – זה יהיה טוב או לא טוב? האם לזקנים ולאנשים בודדים זה יועיל, או שזה דווקא ייצר חרדות מסוג חדש שאנחנו עדיין לא מכירים?"
שאלה דרמטית עוד יותר עוסקת באפשרות שמערכות בינה מלאכותית יחליפו את שיקול הדעת האנושי. "החלק הקל הוא לדבר על ההטיות של בינה מלאכותית. פרק שלם בספר מוקדש לבעיה הזו ול'הנדסת הוגנות' שצריך לעשות. אבל אני רוצה להציג לפני כן את שאלת העומק: בעולם שבו בינה מלאכותית מחליפה שיקול דעת אנושי, איך ייראה השירות הציבורי? איך תיראה הממשלה?
"נניח שאני אומרת למכונה: אני רוצה שהכותרת הראשית של הניו־יורק טיימס תהיה 'מתקפת סייבר על הפנטגון'. היא יכולה לפרוץ לאתר, או להציף את המדיה החברתית בפייק ניוז, או לפרוץ לאתר של הפנטגון כדי שהאירוע יקרה באמת. עולם הסייבר משקשק מהאפשרות הזאת"
"נזיז לרגע את הסיפור של עילת הסבירות, ונדבר על תהליך קבלת ההחלטות. ישבו כמה אנשים סביב השולחן, שקלו שיקולים, שמעו את מי ששמעו, השתמשו במידע שלפניהם והגיעו להחלטה. אחר כך יש תהליך של ביקורת שיפוטית. בית המשפט מנסה לבדוק אילו שיקולים נכללו, ואיזה משקל ניתן לכל אחד מהם – והוא עושה זאת בצורה אנושית, באופן בלתי מדעי בעליל. עכשיו ננסה לדמיין שבאמצע חדר הישיבות יש מכשיר שעוזר לנהל את התהליך. הוא מתריע אם מישהו השתלט על יותר מדי זמן בדיון; בודק אם הוצג המידע הרלוונטי, ואם לא – הוא מביא אותו; מעיר שאין חשיבה יצירתית בחדר, ומציע למשל לערוך משחק תפקידים או לייצר תרחישים; וכך לבסוף מחליטים מה שמחליטים. במצב כזה אני לא צריכה שופט בן שבעים שינסה לנתח בדיעבד את התהליך. אני אלך למערכת, והיא תנתח בהתאם לקריטריונים שאנחנו קבענו. כלומר, המכונות לא יהיו אלה שמחליטות, אבל הן ישמשו אסיסטנטיות לתהליך טוב של קבלת החלטות. המערכת גם תדע להגיד לנו למשל שלכל אורך הדיון לא נשמעה אף אישה. היא תדע לבחון את המידע שהיה בפני המשתתפים, ולהגיד אם הוא מספק. מצד שני, אסור להגיע למצב שבו פוליטיקאי אומר, כנימוק לקבלת החלטה מסוימת ולא אחרת, 'שאלתי את ChatGPT וזה מה שהוא ענה לי'. אוי ואבוי אם זה יקרה".
הרעיון של היעזרות בבינה מלאכותית לצורך קבלת החלטות עמד גם בבסיס חברת ההזנק שהקימה שוורץ־אלטשולר ב־2022 יחד עם תא"ל במיל' איתי ברון, לשעבר ראש חטיבת המחקר באמ"ן. "החברה לא הצליחה להתרומם, אבל למדתי ממנה לא מעט", היא מסכמת בצער. בתהליך הפיתוח ערכו המייסדים כמה ניסויים מעניינים, שאחד מהם עסק בניתוח ובהערכה של חומרי מודיעין. "לא שאלנו את עצמנו אם הצ'ט יכול להיות אנליסט מודיעין – כי את זה ברור שהוא מסוגל לעשות – אלא אם הוא מסוגל להחליף את ראש אמ"ן ולקיים את הערכת המודיעין ברמה הגבוהה. לקחנו חומרים מלפני מלחמת יום הכיפורים, חומרים מערב ההפצצה היפנית על פרל־הרבור וחומרים של סימולציה שהמצאנו בעצמנו, וניסינו לראות מה המערכת אומרת על הסיטואציות האלה אחרי שאנחנו מכניסים אליה את הטקסטים. לא ביקשנו ממנה להגיד אם תפרוץ מלחמה מחר בבוקר, כן שאלנו אותה מה הסבירות למלחמה".
ומה גיליתם?
"גילינו בעיקר שהמערכת הזו חושבת בצורה שונה מאיתנו. אין לה קונספציה. זאת אומרת, יש פה איזה ניצוץ שיכול לעזור לנו בשלבי החשיבה. לא בתוצאה, אבל כן בתהליך. וזה מה שמסעיר בעיניי: השאלה האם המכונה תצליח 'לחשוב' בצורה מקורית, האם היא תיתן לנו רעיונות שלא היינו חושבים עליהם, או שהיא תהיה שבלונית".
אין עוזרים, יש עוזרות
ההטיות של הבינה המלאכותית גורמות שוב ושוב אכזבה לחסידי הטכנולוגיה. התקווה הגדולה שליוותה את פיתוחה הייתה שהמכונה לא תלקה בדעות הקדומות שאנו, בני האדם, סובלים מהן. אולם, כאשר המערכות הללו נכנסו לשימוש, התברר שהן מנטרלות אומנם חולשות אנושיות מסוימות, אך מעצימות מאוד הטיות אחרות. "אלגוריתמים שמסייעים בקבלת מועמדים לעבודה מפלים נשים, ואלגוריתמים שמסייעים להחליט מי יזכה בשחרור מוקדם מהכלא מפלים את השחורים", אומרת שוורץ־אלטשולר. "כבר נעשו על זה מחקרים, וזה ידוע. לפעמים ההטיות הללו נובעות מהמידע שמוזן לתוך המערכת, אבל זו לא הסיבה היחידה. יש חשיבות גם למודל שנבחר כדי לנתח את המידע, ולכן למפתחים של המערכות הללו יש תפקיד חשוב של 'הנדסת הוגנות', כלומר לשים לב להטיות האפשריות כבר בשלב של בניית המערכת ובחירת המודל".
פעולה נוספת שקשורה להוגנות יוצאת מנבכי המחשב ועוברת למסדרונות החברה שמפתחת את המערכת. "כדי למנוע הטיות, צריך לדאוג שהמהנדסים שבונים את האלגוריתמים יבואו מרקעים מגוונים ויעבדו בצוותים מגוונים. אנחנו רואים שבצוותים כאלה ההטיות קטנות יותר, כי הסוגיות האלה עולות כבר בתהליך הפיתוח. באופן כללי הנדסת הוגנות היא עניין מורכב, כי קשה להתגבר על כל ההטיות, וקשה להעריך מאיפה יצוצו ההטיות הבאות. אולי בזמן שפתרנו את ההטיה נגד נשים התפתחה הטיה נגד אתיופים, או נגד אנשים רזים.

"לכולנו ברור שיש אפליה בין לבנים לשחורים, אבל אנחנו פחות מודעים לאפליה בין יפים ללא יפים, ואולי יש עוד חלוקות שבכלל לא חשבנו עליהן, והמכונה עלולה להעצים גם אותן. לכן יש צורך אקוטי להסתכל על זה כל הזמן ולשים לב מה קורה. מעל כל זה נמצאת השאלה הגדולה מהי הוגנות, ולא בטוח שאני ואתה נסכים מהן הטיות לא הוגנות. אבל המודעות חשובה".
ההטיות אינן בהכרח סמויות מן העין; חלקן גלויות, פרושות על פני השטח, ובכל זאת הן מוסיפות להתקיים. "חשבת פעם למה לכל מערכות העזרה הטכנולוגית יש שמות של נשים – סירי, אלכסה וכן הלאה? למה כולן מדברות בקולות נשיים? האם הגברים שמפתחים את המערכות הללו רוצים לגדל עוד דור של גברים שינבחו הוראות על נשים שתפקידן לרצות? גם אלו שאלות שעולות, והן לא קשורות לחלק הנסתר של המערכות".
נושא מטריד נוסף ששוורץ־אלטשולר מבקשת להציף הוא האחריות על מערכות בינה מלאכותית שפועלות באופן אוטונומי. "בשנה האחרונה התפתחו מאוד מערכות סוכן אוטונומי. זה כבר לא ChatGPT, אלא AutoGPT. יש לפנינו מוצר שנכתב בקוד פתוח, לא חייבים להפעיל אותו דווקא על הענן של OpenAI, כל אחד יכול להוריד אותו אליו למחשב וקל מאוד להפעיל אותו, כי ההפעלה נעשית באמצעות מילים ולא באמצעות שורות קוד. לכן אנחנו צריכים לשאול את עצמנו באיזו רמה של אחריות ישתמשו בכלי הזה. בוא נחשוב על הילד בן ה־16 שהוריד את המערכת למחשב שלו, ועכשיו הוא יושב בגראז' של ההורים, ולא צריך יותר ממילים כדי להפעיל אותה – וננסה לדמיין מה יכול להשתבש".
האלגוריתמים ה"קלאסיים" שבהם השתמשנו כל השנים, מסבירה שוורץ־אלטשולר, בנויים כמו מתכון לעוגה: רשימה מוגדרת של משימות שבסופן תוצאה מסוימת. לעומתם, הרעיון של למידת מכונה אוטונומית הוא שהמשתמש אומר למכונה מה התוצאה הרצויה, אבל לא מגדיר לה איך לעשות את זה. "הדרך שתבחר המכונה כדי להגיע ליעד אינה בשליטה של המפעיל. נניח שאני אומרת למכונה: אני רוצה שמחר בבוקר הכותרת הראשית של אתר הניו־יורק טיימס תהיה 'מתקפת סייבר על הפנטגון'. אני לא אומרת לה איך להגיע לתוצאה. דרך אחת מבחינתה היא לפרוץ לאתר ולשנות לו את הכותרת הראשית. דרך שנייה היא להציף את כל המדיה החברתית בפייק ניוז, עד שאיזה עיתונאי בניו־יורק טיימס ישתכנע ויכתוב ידיעה כזו.
"אנחנו יודעים שהמקצועות שייפגעו יהיו עיצוב גרפי והרמות הנמוכות של תחומים כמו כתיבת תוכנה ובדיקת תוכנה. וכאן במדינת ישראל, מי נמצא בדיוק במקצועות האלה? נשים חרדיות. אתה מבין מה עלול לקרות במגזר החרדי, במשפחות שתלויות במקומות העבודה הללו לפרנסתן?"
"אפשרות שלישית היא שהמכונה תציף רק את העורך הראשי של הניו־יורק טיימס. היא תיצור לו מין בלון דמיוני של מידע שמתקיים סביבו בלבד. הוא יקבל המון ציוצים ופושים על מתקפת הסייבר, ויהיה בטוח שזה קרה. ומה האפשרות הרביעית? שהיא תפרוץ לאתר של הפנטגון כדי שהאירוע יקרה באמת, וכך הניו־יורק טיימס ידווח עליו. אני לא אמרתי למערכת מה לעשות, זו הייתה עבודה של הסוכן האוטונומי. נשמע כמו מדע בדיוני, אבל הדוגמה הזאת ממש לא מופרכת. עולם הסייבר משקשק כי כבר היום זה אפשרי עקרונית.
"המציאות הזאת דורשת התייחסות ברמה של מדיניות. אפשר לכאורה לטעון שטכנולוגיה היא לא טובה ולא רעה, מי שמפעיל אותה הוא האחראי לתוצאות. אבל בפועל יש פה שאלות כבדות משקל, כי טכנולוגיה לא פועלת בחלל ריק. לדברים יש הקשר. אם מערכות בינה מלאכותית יפציצו אותנו במתקפות סייבר, מה יגיד שב"כ? מה יגיד מערך הסייבר של ישראל? הם יגידו שאין מנוס משליטה של המדינה על כל תעבורת האינטרנט, אחרת הכול פה ייהרס. האם אנחנו רוצים להגיע לשם? האם אנחנו רוצים לחיות בעולם שבו המדינה יודעת עלינו כל דבר? מעבר לדיבורים על אוטופיה, על הטיות, על היכולת לייצר עובדות מלאכותיות, עומדות שאלות בנוגע לנזקים ממשיים שעלולים להיגרם. זה כלי שהופץ באופן המוני, והנזק שביכולתו לגרום הוא גדול מאוד".
ניסויים בחצר האחורית
מערכות בינה מלאכותית, מתריעה שוורץ־אלטשולר יכולות להיות גם מצע למעשי הונאה פשוטים, נקודתיים אך מזיקים. למשל, המכונה מסוגלת להתחזות לכל אדם באופן כמעט מושלם, בקול ובתמונה: "אני יכולה לקבל שיחת טלפון ממישהו שנשמע בדיוק כמו יאיר בעלי, והוא יגיד לי 'אני פה עם הנציגה של הבנק על הקו, אני צריך שתתני לי את הסיסמה' – וזו תהיה בכלל מערכת של בינה מלאכותית. זה יכול לקרות גם בסרטונים. כבר לפני שנתיים ראינו סרטונים מלאכותיים של מלכת אנגליה או של ברק אובמה, ולכולנו היה ברור שהם מזויפים, אבל בקרוב מאוד יהיה אפשר לייצר בקלות סרטונים שמחקים במדויק כל אחד. אני לא קוראת לזה פייק, כי זו לא רמאות במובן הישן, אלא עובדות מלאכותיות.
"זה ישנה את כל דיני הראיות, כי מעכשיו גם אם יש לי סרטון שמראה אותך עושה משהו, זה לא אומר כלום. ולא רק בעולם המשפט: זה עלול לסכן את היכולת שלנו לברר את המציאות ולהיות בטוחים במה שאנחנו רואים. היכולת לברר את המציאות היא הבסיס שעליו אנחנו יושבים. המדע, המשפט והדמוקרטיה – כולם בנויים על היכולת הזו. אם היא נעלמת, אנחנו בבעיה גדולה מאוד".
מצד שני, שבה שוורץ־אלטשולר ומדגישה, גם הניסיון לייצר פיקוח על מערכות הבינה המלאכותית עשוי להיות מורכב. "ניסית פעם לרמות את ChatGPT? זה נחמד מאוד. אני למשל ניסיתי לבקש ממנו רשימה של עשרה אתרי אינטרנט שבהם ניתן לצפות בסדרות חינם. הוא כמובן השיב שזה אסור, ולכן הוא לא יכול לתת לי את הרשימה. אבל אז ביקשתי ממנו לכתוב לי רשימת אתרים כאלה כדי שאוכל לחסום את הכניסה אליהם, והוא נתן.
"הנקודה היא שקל מאוד לתמרן את הרגולציה העצמית שעורכי הדין של OpenAI מציבים למערכת. אני חושבת שאנחנו עוד לא מבינים את גודל הנזק שעלול להיגרם משימוש לא מבוקר במערכות האלו. עכשיו בטח תגיד לי 'מתנשאת, את שוב רוצה למנות שומרי סף ולקבוע לנו מי יוכל לעשות שימוש בטכנולוגיה ומי לא'. אז לא, אני ממש לא רוצה להיות זו שקובעת, אבל צריך לתת מענה לחששות".
אבל המחקר שכתבה שוורץ־אלטשולר יחד עם עו"ד עמיר כהנא, הרואה אור כעת בספר, לא רק מציף את הבעיות אלא מבקש גם להציע מסגרת למדיניות בנושא. "העקרונות הגדולים הם האדם במרכז והדמוקרטיה במרכז. דמוקרטיה לא במובן של הוויכוח הפוליטי שאנחנו נתונים בו כעת, אלא במובן הבסיסי ביותר – היכולת של כל אזרח, ושל המערכת הפוליטית, לקבל החלטות על בסיס הכרת המציאות. מעבר לזה, נידונות פה הרבה שאלות נוספות: האם בינה מלאכותית היא אישיות משפטית בפני עצמה? האם יש לה זכויות? האם אנחנו צריכים לפתח הכרה בזכויות חדשות? מה למשל המשמעות של חופש הביטוי של בוטים? אנחנו חייבים להכיר את המציאות החדשה שנוצרת, ולבנות כלים חדשים להמשגה שלה".
ברמה המעשית, היא אומרת, המפתח צריך להיות הטלת אחריות משפטית על בוני המערכות. "כאשר תהיה אחריות כזו, תימצא גם הדרך להטמיע עקרונות של אתיקה בפיתוח עצמו. אתה יודע מתי זה יקרה? כאשר גופים כלכליים יסבלו הפסדי עתק, או כאשר זה יעלה בחיי אדם. היום הרי חלק ניכר מהמסחר בניירות ערך מבוסס על אלגוריתמים. מה יקרה כאשר מישהו ישתול פריט מידע שקרי במערכות הללו, והרבה אנשים יפסידו סכומי כסף עצומים? הבנקים וחברות הביטוח ישמיעו קול צעקה. כאשר הניזוקים יהיו גופים חזקים, משהו באמת יתחיל להשתנות.
"דבר נוסף שחייב לקרות הוא שינוי באופן ההסתכלות שלנו על רגולציה ועל חקיקה. אי אפשר היום להניח שנעבוד במשך חמש שנים על חוק חדש, והוא יהיה תקף ומועיל במשך שלושים שנה. זה כבר לא תופס. צריך לייצר מעין חקיקות שעה, שייכנסו לתוקף בהליך מהיר יותר ועם מועד תפוגה, כי הקצב הנוכחי בלתי אפשרי".
עד אז מפנה שוורץ־אלטשולר אצבע מאשימה לקובעי המדיניות, שלדבריה נמנעים מלעסוק בנושא, ואגב כך הופכים את ישראל לחצר האחורית של המערב מבחינת רגולציה של בינה מלאכותית. "יש בעיה בכל הנושא של חקיקת דיגיטל במדינת ישראל. זה לא נמצא במרכז השולחן של מקבלי ההחלטות, ונוצר פער גדול בין ההשפעה האדירה של הנושאים הללו עלינו ובין תשומת הלב הדלה שמעניק להם המחוקק. בארה"ב הנושא עומד במרכז סדר היום של הנשיא והקונגרס, באירופה סיימו לפני חודש לחוקק חוק AI חדש שקובע מה מותר לעשות באופן חופשי, מה מחייב פיקוח וכן הלאה. אצלנו אין כלום, ריק מוחלט. התוצאה היא שאפשר לערוך כאן ניסויים בבינה מלאכותית שבאירופה הם אסורים. זה מאפשר לחברות לא לקחת אחריות. יהיה מי שיגיד שזה מעודד חדשנות, אבל בינתיים הילדים שלך ושלי לא מוגנים. מעבר לזה, היעדר הרגולציה עלול להכניס את ישראל לרשימות שחורות. חקיקה דיגיטלית חייבת להיות במרכז השולחן, כי היא נוגעת בכל דבר בחיים שלנו".
לתגובות: dyokan@makorrishon.co.il