ההייפ מצד ראשי חברות בינה מלאכותית גדולות סביב התחזיות כי בינה מלאכותית "חזקה" תהיה בקרוב חכמה יותר מבני האדם, הולך וגדל, אך חוקרים רבים בתחום רואים בכך ספין שיווקי.
האמונה כי אינטליגנציה השווה לזו האנושית – או גבוהה ממנה – המכונה לעיתים "בינה מלאכותית כללית" (AGI), תיווצר מהטכניקות הנוכחיות של למידת מכונה, מזינה תחזיות עתידיות הנעות בין שגשוג חסר תקדים שיביאו איתן המכונות העתידיות, ועד תחזיות על הכחדת המין האנושי. "מערכות שמצביעות על כיוון של AGI מתחילות להופיע", כתב מנכ"ל OpenAI סם אלטמן בפוסט שפרסם בבלוג בחודש שעבר. דאריו אמודיי, מחברת Anthropic, אמר כי רגע הפריצה "עשוי להגיע כבר ב-2026".

תחזיות כאלה מסייעות להצדיק את השקעות העתק של מאות מיליארדי דולרים בתשתיות מחשוב ובאנרגיה הדרושה להפעלתן. אחרים, עם זאת, סקפטיים יותר.
המדען הראשי בתחום הבינה המלאכותית של Meta, יאן לקון, אמר ל-AFP בחודש שעבר: "לא נגיע לרמת אינטליגנציה אנושית רק באמצעות הגדלה של מודלי שפה גדולים" (LLMs) – הטכנולוגיה שמאחורי מערכות כמו ChatGPT או Claude. ההשקפה של לקון זוכה לתמיכה מצד רוב הקהילה האקדמית. מעל שלושה רבעים מהמשיבים לסקר שנערך לאחרונה על ידי האגודה האמריקנית לקידום הבינה המלאכותית (AAAI) הסכימו כי "הגדלת הגישות הקיימות" כנראה לא תוביל ל-AGI.
"השד יצא מהבקבוק"
חלק מהאקדמאים סבורים כי טענות רבות מצד החברות – שלעיתים מלוות באזהרות על סכנת AGI – הן אסטרטגיה למשיכת תשומת לב. "הם ביצעו השקעות גדולות, ועכשיו הם צריכים להראות תמורה", אמר קריסטיאן קרסטינג, חוקר מוביל מהאוניברסיטה הטכנולוגית דרמשטדט בגרמניה ועמית AAAI שזכה להכרה על הישגיו בתחום. "הם פשוט אומרים, 'זה כל כך מסוכן שרק אני יכול להפעיל את זה, בעצם גם אני מפחד, אבל כבר שחררנו את השד מהבקבוק – אז אני הולך להקריב את עצמי למענכם – אבל אז אתם תהיו תלויים בי'".
הסקפטיות בקרב החוקרים באקדמיה אינה מוחלטת – דמויות בולטות כמו הפיזיקאי זוכה נובל ג'פרי הינטון או חתן פרס טיורינג מ-2018 יושוע בנג’יו הזהירו מפני הסכנות של AI חזק. "זה קצת כמו 'שוליית הקוסם' של גתה, יש לך משהו שאתה פתאום לא שולט בו יותר", אמר קרסטינג – בהתייחס לשיר שבו שוליה מכשף מטאטא שיבצע את מטלותיו ומאבד עליו שליטה. דימוי מודרני יותר הוא הניסוי המחשבתי "ממקסם מהדקי נייר".

לפי תרחיש זה, מערכת בינה מלאכותית תתמקד כל-כולה במטרת ייצור מהדקי נייר, עד שתהפוך את כדור הארץ, ולבסוף את היקום כולו, למהדקים או למכונות לייצורם – לאחר שתיפטר תחילה מהאנושות שעלולה להפריע לה בכך שתכבה אותה. אמנם המערכת לא תהיה "רעה" במובן הקלאסי, אך היא תיכשל כישלון קטלני בהגדרת המטרות והערכים שלה כך שייהיו מתואמות עם אלו של האנושות – מה שמכונה בעולם המחקר "alignment".
קרסטינג אמר שהוא "יכול להבין" את הפחדים האלה – אך הוסיף כי "האינטליגנציה האנושית, המגוון והאיכות שלה, יוצאי דופן כל כך שייקח זמן רב, אם בכלל, עד שמכונות ישיגו אותה". הוא הביע דאגה רבה יותר מהנזקים בטווח הקצר שנגרמים מבינה מלאכותית קיימת, כגון אפליה במצבים שבהם היא באה באינטראקציה עם בני אדם.
"הדבר הגדול ביותר אי פעם"
הפער המסתמן בגישות בין אקדמאים למובילי תעשיית הבינה המלאכותית עשוי לשקף את הנטייה האישית של כל אחד בבחירת הקריירה, הציע שון או'הייגארטי, מנהל תוכנית "AI: עתידים ואחריות" באוניברסיטת קיימברידג’ שבבריטניה. "אם אתה מאוד אופטימי לגבי הכוח של הטכניקות הנוכחיות, סביר יותר שתלך לעבוד באחת החברות שמשקיעות הרבה כדי שזה יקרה", אמר.

גם אם אלטמן ואמודיי "אכן מאוד אופטימיים" לגבי לוחות הזמנים, וגם אם AGI תופיע הרבה יותר מאוחר, "אנחנו צריכים לחשוב על זה ברצינות, כי זה יהיה הדבר הכי גדול שאי פעם קרה", הוסיף או'הייגארטי. "אם היה מדובר במשהו אחר… סיכוי שהחייזרים יגיעו עד 2030 או שתהיה מגפה עולמית נוספת – היינו מקדישים זמן להתכונן לכך". האתגר הוא בהעברת המסר הזה לפוליטיקאים ולציבור הרחב. שיח על סופר-AI "יוצר מיד תגובת נגד… זה נשמע כמו מדע בדיוני", אמר או'הייגארטי.