חוקרים מאוניברסיטת בן-גוריון גילו פגיעות במסייעי AI מבוססי ענן כמו Chat GTP. הפגיעות, לפי החוקרים, פירושה שהאקרים מסוגלים ליירט ולפענח שיחות בין משתמשים לבין מסייעי AI. החוקרים גילו שצ'אטבוטים כמו Chat-GPT שולחים תגובות באסימונים המחולקים לחלקים קטנים על מנת לזרז את תהליך ההצפנה. אולם על ידי כך, מסוגלים האקרים ליירט את האסימונים: ההאקרים יכולים לנתח את האורך, הגודל והרצף של האסימונים הללו כדי לפענח את התגובות שלהם.
"כרגע, כל אחד יכול לקרוא צ'אטים פרטיים שנשלחו מ- ChatGPT ומשירותים אחרים", אומר ישראל מירסקי – ראש המעבדה למחקר בינה מלאכותית פוגענית ל- ArsTechnica. לדבריו: "הדבר כולל האקרים המשתמשים באותו Wi-Fi או LAN כמו המשתמש במסייע AI (למשל, אותו בית קפה). המתקפה היא פסיבית ויכולה להתרחש ללא OpenAI או ידיעת המשתמש. OpenAI מצפינים את התעבורה שלהם כדי למנוע מתקפות האזנה מהסוג הזה, אך המחקר שלנו מראה שהדרך שבה משתמשת OpenAI בהצפנה הינה לקויה ולכן נחשפת תמסורת ההודעות"; "החקירה שלנו את תעבורת הרשת של מספר שירותי מסייעי בינה מלאכותית בולטים, חשפה את הפגיעות הזו על פני מספר פלטפורמות, כולל Microsoft Bing AI (Copilot) ו- ChatGPT-4 של OpenAI. ערכנו הערכה יסודית של GPT-4 ואימתנו את המתקפה על ידי פענוח מוצלח של תגובות מארבעה שירותים שונים מ- OpenAI ו- Microsoft.
לטענת החוקרים מאוניברסיטת בן-גוריון, קיימים שני פתרונות עיקריים: להפסיק לשלוח אסימונים אחד אחד או להשתמש באסימונים גדולים ככל האפשר על ידי 'ריפוד' שלהם לאורך החבילה הגדולה ביותר האפשרית, מה שלפי הדיווחים יקשה על ניתוח האסימונים הללו.