גוגל פרסמה את פיצ'ר החיפוש הניסיוני האחרון שלה ב-Chrome, Firefox ודפדפן Google app למאות מיליוני משתמשים. "סקירות בינה מלאכותיות" (AI Overviews) חוסכות לך לחיצה על קישורים על ידי שימוש בבינה מלאכותית גנרטיבית – אותה טכנולוגיה שמניעה את המוצר המתחרה ChatGPT – כדי לספק סיכומים של תוצאות החיפוש. שאל "איך לשמור על בננות טריות למשך זמן רב יותר" והוא משתמש בבינה מלאכותית כדי ליצור סיכום שימושי של טיפים כגון אחסנתן במקום קריר וחשוך והרחק מפירות אחרים כמו תפוחים.
אבל שאל שאלה בעמודה השמאלית והתוצאות עלולות להיות הרות אסון, או אפילו מסוכנות. גוגל מתאמצת כרגע לתקן את הבעיות הללו אחת לאחת, אבל זה אסון ליחסי הציבור של ענקית החיפוש שמצריך אותה לשחק משחק מתיש של "הכה את החפרפרת".

AI Overviews אומר לך באופן מועיל כי "הכה את החפרפרת" הוא משחק ארקייד קלאסי שבו שחקנים משתמשים בפטיש כדי לפגוע בחפרפרות שצצות באקראי עבור נקודות. המשחק הומצא ביפן ב-1975 על ידי יצרנית השעשועים TOGO ונקרא במקור Mogura Taiji או Mogura Tataki.
אבל AI Overviews גם אומר לך ש"אסטרונאוטים פגשו חתולים על הירח, שיחקו איתם וטיפלו בהם". באופן מדאיג יותר, הוא גם ממליץ "לאכול לפחות אבן קטנה אחת ליום", שכן "סלעים הם מקור חיוני למינרלים וויטמינים", ומציע לשים דבק על הפיצה.
בעיה בסיסית אחת היא שכלי AI גנרטיביים אינם יודעים מה נכון, אלא רק מה פופולרי. לדוגמה, אין הרבה מאמרים באינטרנט על אכילת סלעים מכיוון שמובן מאליו שזה רעיון רע. עם זאת, יש מאמר פופולרי שפורסם באתר הסאטירי "הבצל" על אכילת סלעים. ולכן ה-AI של גוגל ביסס את הסיכום שלו על מה שהיה פופולרי, לא על מה שהיה נכון. בעיה נוספת היא שלכלי AI גנרטיביים אין את הערכים שלנו. הם פשוט מבוססים על המידע שבאינטרנט.

ולמרות שמשתמשים בטכניקות מתוחכמות (שנקראות בשמות אקזוטיים כמו "למידת חיזוק ממשוב אנושי" או RLHF) כדי למחוק את החלקים השקריים, אין זה מפתיע שהן משקפות חלק מההטיות, מתיאוריות הקונספירציה ומהגרוע ביותר שניתן למצוא ברשת. ואכן, אני תמיד נדהם עד כמה צ'טבוטים של AI מנומסים ומתנהגים היטב, בהתחשב במה שהם צורכים.
אם זה באמת העתיד של החיפוש, אז אנחנו צפויים להרפתקה לא פשוטה. גוגל, כמובן, רודפת אחרי OpenAI ו-Microsoft. התמריצים הכספיים שדוחפים את מירוץ הבינה המלאכותית הם עצומים. לכן גוגל פחות זהירה מבעבר בהפצת הטכנולוגיה החדשה לידי המשתמשים.
בשנת 2023, מנכ"ל גוגל, סונדאר פיצ'אי, אמר: "היינו זהירים. יש תחומים שבהם בחרנו לא להיות הראשונים להוציא מוצר. בנינו יסודות טובים ל-AI אחראי. אתם תמשיכו לראות אותנו לוקחים את הזמן שלנו".

זה כבר לא נראה כל כך נכון, מכיוון כאשר גוגל מתמודדת עם ביקורות על כך שהיא הפכה למתחרה גדולה ולא איכפתית. זו אסטרטגיה מסוכנת עבור גוגל. היא מסתכנת באיבוד האמון שיש לציבור בגוגל שמאמין שהיא המקום למצוא תשובות (נכונות) לשאלות.
אבל גוגל גם מסתכנת בערעור המודל העסקי שלה, המגלגל מיליארדי דולרים. אם כבר לא נלחץ על קישורים, ופשוט נקרא את הסיכום שלהם, איך גוגל תמשיך להרוויח כסף?
הסיכונים אינם מוגבלים לגוגל. ישנו חשש ששימוש כזה ב-AI עלול להזיק לחברה באופן רחב יותר. האמת היא כבר רעיון שנוי במחלוקת וקצת נזיל. סביר להניח שטעויות הבינה המלאכותית יחמירו את המצב. בעוד עשור, אנו עשויים להסתכל אחורה על 2024 כתור הזהב של הרשת, כאשר רובו היה תוכן איכותי שנוצר על ידי אדם, לפני שהבוטים השתלטו ומילאו את הרשת בתוכן סינתטי ורדוד יותר ויותר שנוצר על ידי בינה מלאכותית.
הדור השני של תוכנות ה-AI המבוסס על מודלים של שפות גדולות "יתחנך", ככל הנראה ובלא מכוון, על חלק מהתפוקות של הדור הראשון. והרבה חברות סטארט-אפ בתחום בינה מלאכותית מציגות את היתרונות של חינוך על נתונים סינתטיים שנוצרו על ידי בינה מלאכותית.

אבל אימון על גזי הפליטה של דגמי בינה מלאכותית נוכחיים עלול לגרום אפילו להגברת הטיות ושגיאות קטנות. כשם שנשימת אדי פליטה מזיקה לבני אדם, היא מזיקה לבינה מלאכותית.
חששות אלה משתלבים בתמונה הרבה יותר גדולה. ברחבי העולם, יותר מ-400 מיליון דולר מושקעים בבינה מלאכותית מדי יום. וממשלות רק עכשיו מתעוררות לרעיון שאולי נצטרך אמצעי בטיחות ורגולציה כדי להבטיח שימוש אחראי ב-AI, בהתחשב בשטף ההשקעות הזה.
לחברות תרופות אסור לשחרר תרופות מזיקות. גם לא חברות הרכב. אבל עד כה, חברות טכנולוגיה הורשו במידה רבה לעשות מה שהן רוצות.