OpenAI, החברה שפיתחה את ChatGPT, עובדת על מודל בינה מלאכותית מסוג חדש בפרויקט הידוע בשם הקוד "תות" שפרטיו לא דווחו עד כה, והם נשמרים בסוד אפילו בתוך OpenAI.
המסמך מתאר פרויקט שמטרתו לאפשר ל-AI לא רק לייצר תשובות לשאלות, אלא גם לתכנן קדימה ולבצע מחקר מעמיק באופן עצמאי ואמין – דבר שעד כה מודלי AI לא הצליחו לייצר. OpenAI שואפת לשפר את יכולות החשיבה של המודלים שלה בצורה דרמטית. השיטות כוללות התאמות מיוחדות לאחר שלב האימון הראשוני, במטרה להגיע ליכולות גבוהות של חשיבה ותכנון.
שני מקורות שונים מתוך החברה סיפרו לרויטרס כי הם צפו במודל וכי כבר במצבו הנוכחי הוא מסוגל לענות על שאלות מדעיות ומתמטיות מסובכות המצויות מחוץ להישג ידם של הדגמים הזמינים כיום. על פי בלומברג, ביום שלישי האחרון התקיימה פגישה במשרדי OpenAI ובה הודגמו יכולות של פרויקט מחקר שלטענתה הוא בעל כישורי חשיבה חדשים, "דמויי אדם". דובר OpenAI אישר את דבר קיום הפגישה, אך סירב להתייחס לתוכנה. לפי גורם בחברה, פרויקט תות נמצא בשלבי עבודה ולא ניתן לדעת כמה זמן ייקח עד שיהיה זמין לשימוש הציבור.

אותו גורם אמר כי OpenAI מקווה שהחידוש המדובר ישפר באופן דרמטי את יכולות החשיבה של דגמי הבינה המלאכותית שלה והוסיף שהפרויקט נוצר על בסיס מערכי נתונים גדולים מאוד והתאמן עליהם, מה שמאפשר לו להשתמש במודל עיבוד ייחודי ומתקדם. מספר חוקרים אמרו לרויטרס כי זהו המפתח להבאת ה-AI לרמה של אינטליגנציה אנושית ואף על-אנושית.
בעוד מודלי שפה למיניהם מסוגלים כבר היום לסכם טקסטים מורכבים ולהפיק טקסטים במהירות גבוהה בהרבה מבני אדם, הטכנולוגיה נופלת לעתים קרובות בבעיות שהפתרונות אליהן אינטואיטיביים עבורנו. כאשר המודל נתקל בבעיות מסוג זה, הוא לעתים קרובות "הוזה" מידע מזויף. חוקרי בינה מלאכותית אמרו לרויטרס שפיתוח היגיון בבינה מלאכותית כרוך ביצירת מודל המאפשר לה לתכנן מראש, לשקף לה כיצד העולם האמיתי מתפקד וללמד אותה לעבוד בתרחישים שבהם עליה להתמודד עם רצף בעיות שונות בצורה מהימנה.
שיפור החשיבה במודלים של AI נחשב כמפתח לפתיחת היכולת של המודלים לעשות הכל, החל מגילויים מדעיים גדולים ועד לתכנון ובניית יישומי תוכנה חדשים. מנכ"ל OpenAI, סם אלטמן, אמר מוקדם יותר השנה כי "תחומי ההתקדמות החשובים ביותר ב-AI יהיו סביב יכולת החשיבה".
חברות אחרות, כמו גוגל, Meta ומיקרוסופט וכן רוב המעבדות האקדמיות שמבצעות מחקר בתחום, מתנסות גם הן בטכניקות שונות לשיפור החשיבה במודלים של בינה מלאכותית. עם זאת, החוקרים חלוקים ביניהם בשאלה האם מודלי שפה "גדולים" (LLMs), המבוססים על למידת עומק של המודל, מסוגלים לשלב רעיונות ותכנון ארוך טווח באופן שבו הם עושים חיזויים. לדוגמה, אחד מחלוצי הבינה המלאכותית המודרנית, יאן לקון, שעובד ב-Meta, אמר כבר מספר פעמים ש-LLMs אינם מסוגלים להגיב כמו אדם.

המסמך שנחשף ברויטרס מתאר את התוצאה אליה שואף פרויקט תות ואיזו התפתחות הוא מתעתד להשיג במודלי בינה מלאכותית, אבל לא איך. בחודשים האחרונים, OpenAI מאותתת באופן פרטי למפתחים ולגורמים חיצוניים נוספים שהיא על סף שחרור טכנולוגיה עם יכולות חשיבה מתקדמות משמעותית מהמודלים הקיימים בשוק כיום, זאת לפי ארבעה אנשים ששמעו את הפיצ'רים של החברה. הם סירבו להזדהות מכיוון שהם אינם מורשים לדבר על עניינים פרטיים.
הפיתוח של "תות" דומה לשיטה שפותחה בסטנפורד ב-2022 בשם "Self-Taught Reasoner", או בקיצור "STaR", אמר אחד המקורות בעלי הידע בנושא. STaR מאפשרת למודלים של בינה מלאכותית "לאתחל" את עצמם לרמות אינטליגנציה גבוהות יותר באמצעות חזרה על נתוני ההכשרה שלהם, ובתיאוריה יכולים אף לשמש כדי לגרום למודלים של שפה להתעלות מעל אינטליגנציה ברמת האדם, אמר לרויטרס אחד מיוצריה, פרופ' נח גודמן.
"אני חושב שזה מרגש ומפחיד כאחד… אם הדברים ממשיכים בכיוון הזה יש לנו כמה דברים רציניים לחשוב עליהם כבני אדם", אמר גודמן, שאינו מזוהה עם OpenAI ואינו מכיר את פרויקט תות. לפי התיעוד הפנימי של OpenAI, היא יוצרת, מכשירה ומעריכה את המודלים על מה שהחברה מכנה מערך נתונים של "מחקר עמוק" ("deep-research") כדי לאפשר לה לבצע משימות "ארוכות אופק" (LHT), משימות מורכבות הדורשות מודל לתכנון מראש ולבצע סדרה של פעולות על פני פרק זמן ממושך. רויטרס לא הצליחה לקבוע מה כולל מערך הנתונים הזה או כמה זמן בפועל הוא "פרק זמן ממושך".
דובר OpenAI אמר בתגובה לכתבה: "אנו רוצים שהמודלים שלנו יראו ויבינו את העולם כמו שאנחנו עושים. מחקר מתמשך ביכולות AI חדשות הוא נוהג נפוץ בתעשייה, מתוך אמונה משותפת שמערכות אלו ישתפרו ביכולות החשיבה עם הזמן". הוא בחר שלא להתייחס באופן ישיר לפרויקט תות.