OpenAI חשפה ביום שישי כלי שיבוט קולי שהיא מתכננת לשמור תחת פיקוח הדוק עד שיפותחו אמצעי הגנה כדי לסכל זיופי אודיו שנועדו לרמות את המאזינים. מודל שנקרא "Voice Engine" יכול למעשה לשכפל דיבור של מישהו על סמך דגימת אודיו של 15 שניות, על פי הבלוג של OpenAI שפרסם תוצאות של בדיקות בקנה מידה קטן של התוכנה.
"אנו מכירים בכך שיצירת דיבור שדומה לקולות של אנשים היא סיכון רציני, במיוחד בשנת בחירות", נמסר מהחברה שבסיסה בסן פרנסיסקו. "אנחנו בקשר עם קולגות מכל התחומים בארה"ב ובחו"ל: בממשלה, התקשורת, הבידור, החינוך, והחברה האזרחית כדי להבטיח שאנחנו מוצאים פתרונות לסיכונים עוד בזמן הפיתוח של הכלי".

חוקרי דיסאינפורמציה חוששים מהתרחבות השימוש לרעה ביישומים המונעים בינה מלאכותית בשנת בחירות בארה"ב, בגלל התרבות תוכנות המסוגלות לשבט קולות אנושיים, ההופכות להיות זולות, קלות לשימוש וקשות למעקב. מתוך הכרה בבעיות הללו, OpenAI אמרה כי היא "נוקטת גישה זהירה ומושכלת להפצה רחבה יותר (של התוכנה) בשל הפוטנציאל לשימוש לרעה בקול סינתטי".
חשיפת התוכנה התרחשה חודשים ספורים לאחר שיועץ פוליטי שעבד בקמפיין של יריב של ג'ו ביידן מתוך המפלגה הדמוקרטית, הודה כי הוא עומד מאחורי שיחות מזויפות שנוצרו על ידי תוכנה שחיקתה את קולו של מנהיג ארה"ב. השיחה שנוצרה בבינה מלאכותית, פרי יוזמה של פעיל של חבר הקונגרס של מינסוטה, דין פיליפס, כללה מה שנשמע כמו קולו של ביידן שקורא לאנשים לא להצביע בפריימריז בניו המפשייר בינואר.

התקרית עוררה דאגה בקרב מומחים שחוששים ממבול דיסאינפורמציה שנוצרת על ידי בינה מלאכותית שתשתבש את הבחירות לנשיאות השנה, וגם מערכות בחירות אחרות ברחבי העולם.
OpenAI מסרה כי שותפים הבוחנים את Voice Engine הסכימו לכללים הכוללים דרישת הסכמה מפורשת ומודעת של כל אדם שקולו משוכפל באמצעות הכלי. כמו כן, יש להבהיר לקהל השומעים כי הם מאזינים לקולות שנוצרו ע"י בינה מלאכותית, הוסיפה החברה.
"יישמנו סדרה של אמצעי בטיחות, כולל סימון מים כדי להתחקות אחר מקורו של כל אודיו שנוצר על ידי Voice Engine, כמו גם ניטור יזום של אופן השימוש בו", אמרו ב-OpenAI.