החדשות המרעישות פורסמו כמעט כלאחר יד בראשית השבוע: מהנדס גוגל בלייק למוין פוטר מתפקידו. אל תרגישו רע אם השם הזה לא אומר לכם שום דבר – הוא כנראה לא יהיה מוכר לרוב המוחלט של משתמשי הרשת, לא רק בארץ אלא גם בכל העולם. אבל ההודעה על פיטוריו היא סיבה מצוינת לדיון על הסיבה לפיטוריו: למוין האמין ש־LaMDA – מערכת הצ'אט מבוססת בינה מלאכותית של גוגל – הפכה לתבונית. "היא תבונית כי יש לה תחושות, רגשות וחוויה סובייקטיבית של המציאות", הכריז למוין, שעבד בצוות "בינה מלאכותית אחראית" של גוגל, לפני כחודשיים.
מטבע הדברים, הכרזה פומבית על תרחיש דרמטי כל כך, אבל גם צפוי כל כך (אלא אם כן הצלחתם להתעלם מכל פיסת תרבות העוסקת בהפיכתם של רובוטים לתבוניים במאה השנים האחרונות) הכתה גלים בכל העולם. בלוגים, עיתונים וערוצי חדשות מיהרו לחקור את המוצר של גוגל ששבר את הקיר בין מלאכותי למציאותי; מאמרי דעה קראו לפתוח במחקר אחראי על הנושא, ודיברו על זכויות אדם – או, בעצם, זכויות הרובוט. לזמן קצר, למוין הפך לסלב, סוג של הכלאה בין משה רבנו למרטין לותר קינג.
כבר בהתחלה, לפחות בגופי החדשות הרציניים יותר, היו מי שהטילו ספק בכל הרעיון. או אז נזכרו העיתונאים, ואפילו הפוליטיקאים הנמרצים שהחלו להתעניין בהשלכות החוקיות של ההכרזה, לברר מה חושבים מומחים לבינה מלאכותית. ואלו, ובכן, השביתו את השמחה. לא, LaMDA איננה תבונית. היא בסך הכול טובה מאוד בתפקיד המרכזי שניתן לה: להשיב על שאלות במגוון נושאים באופן שאומנם ייקרא כטבעי, אך בפועל הוא מתוכנת לחלוטין. היא לא מסוגלת לחוש או להרגיש ובוודאי שאין לה פרספקטיבה סובייקטיבית על הלקוח ששואל בפעם ה־15 באותו ערב היכן ניתן לרכוש פיצה זולה בטינק, ניו־ג'רזי. במשפט אחד: המאפיינים ה"תבוניים" לכאורה של המערכת לא העידו על קימה לתחייה – אלא על הנדוס מצוין.
האופנסיבה הזו הייתה כה יעילה עד שהיא העלימה את למוין בחזרה למרתפים של גוגל. הוא הושעה מעבודתו לפני חודש וחצי עד לפיטוריו השבוע. ובכל זאת, בהכרזה שלו היה גם אלמנט נבואי. הקביעה שלו כנראה הייתה מנותקת מהמציאות, אבל היא הייתה חשובה הרבה יותר ממה שנדמה לנו כרגע.
איך אפשר להגדיר את התבססותה של מכונה כתבוניות? זו לא שאלה פשוטה, וכנראה מדור הדיגיטל של מוצש הוא לא המקום האידאלי לדון בה (אלא אם נורחב לשבעה־שמונה עמודים), אך היא מעסיקה אתיקנים רבים כבר שנים ארוכות. ה"קוגיטו" של רנה דקארט – "אני חושב, משמע אני קיים" – היה במשך מאות שנים נר לרגליהם של מי שביקשו להגדיר תבוניות, אך האם ניתן להגיד שמחשב "חושב", כשאנחנו תכנתנו אותו לחשוב? ויותר מזה: אם המערכת של גוגל תגיע לרמת תחכום כה גבוהה עד שהיא תוכל לשוחח בדיוק כמו אדם אמיתי, האם ההגדרה הטכנית־פילוסופית בכלל תשנה?
השאלה הזו רק מתחילה כאן. נניח שמדעי הרובוטיקה ימשיכו להתקדם בקצב מהיר, עד שבקרוב תוכל חברה כזו או אחרת לייצר דמות אנושית למופת, המסוגלת לא רק לשוחח כמו בן אדם אלא אף נראית מאוד־מאוד דומה לנו, וזזה באופן מאוד־מאוד דומה לנו. האם נעניק לה זכויות? לכאורה התשובה היא מה פתאום; היא רק נבנתה ככה. אבל בפועל, המוח שלנו לא באמת מספיק מתוחכם כדי לחשב את החילוק התלמודי הזה. אם הוא הולך כמו בן אדם, נראה כמו בן אדם ומדבר כמו בן אדם, יהיה קשה פשוט לזרוק אותו לפח כשהמנוע שלו מתקלקל, לכבות אותו באמצע משפט או לסחור בו כאילו היה חפץ. האסתטיקה משנה.
זה אולי נשמע קצת רחוק כרגע, אבל בפועל זה חשוב הרבה יותר ממה שנדמה לנו. בלייק למוין כנראה צריך לחזק כמה ברגים שם למעלה, אבל הוא הבחין בנקודה נכונה. כדאי שכולנו נתחיל לחשוב עליה.
לתגובות, המלצות, משחקים (ולהרצאות על בינה מלאכותית והקוגיטו) שלחו לנו לטוויטר: ERspeiser או לדוא"ל: digital.makor@gmail.com