מיקרוסופט (MSFT) ו- OpenAI פרסמו דוח הטוען כי קבוצות האקרים מסין, איראן, צפון קוריאה ורוסיה בודקות יותר ויותר את השימוש במודלים של בינה מלאכותית של שפות גדולות (LLMs) כדי לשפר את סיכוייהן להצליח במתקפות סייבר. על פי הדוח משתמשות קבוצות ההאקרים הללו בבינה מלאכותית כדי לנצל כנולוגיית לוויין עד פיתוח קוד זדוני, שיכול להתחמק מזיהוי על ידי תוכנת אבטחת סייבר: "קבוצות פשעי סייבר והאקרים בחסות מדינות לאום עוינות, בוחנים ובודקים טכנולוגיות בינה מלאכותית שונות ככל שהן צצות, בניסיון להבין את הערך הפוטנציאלי לפעילות שלהם ואת בקרות האבטחה שהם עשויים להצטרך לעקוף", אמרו מיקרוסופט ו- OpenAI.
מיקרוסופט ו- OpenAI ציינו ארבע קבוצות שונות המשתמשות במודלים של שפות גדולות בשילוב מתקפות הסייבר שלהן: סופת היער של רוסיה, הידועה גם בשם Strontium; גיליון האזמרגד של צפון קוריאה, הידוע גם בשם Thallium; סופת חול הארגמן של איראן, המכונה גם Curium; טייפון הפחם של סין, המכונה Chromium וטייפון הסלמון המכונה Sodium. במקרה של ההאקרים הרוסים טוענות מיקרוסופט ו- OpenAI שהקבוצה משתמשת ב-LLMs כדי להבין יכולות לווייניות כמו גם טכנולוגיות מכ"ם במטרה לקבל סיוע במשימות סקריפטים ובמניפולציה של קבצים. Emerald Sheet מצפון קוריאה השתמשה בבינה מלאכותית כדי להבין טוב יותר פגיעויות תוכנות ציבוריות, משימות סקריפטים, שיפור הנדסה חברתית עבור קמפיינים של דיוג ודיוג חנית וכן, על מנת לאסוף מידע על צוותי חשיבה העוסקים בתוכנית הנשק הגרעיני של צפון קוריאה. Crimson Sandstorm השתמשה בטכנולוגיה גם לקמפיינים של דיוג חנית, פיתוח קוד וניסיון לעקוף תוכנות אנטי וירוס. באשר לטיפון הפחם של סין וטייפון הסלמון טוענת מיקרוסופט שהקבוצות השתמשו ב- LLM ממגוון סיבות, החל מתרגומים וייעול משימות סייבר ועד לאיתור שגיאות קידוד ופיתוח קוד זדוני.
הגיוני שהאקרים ישתמשו בבינה מלאכותית וב- LLM במטרה להפעיל מתקפות סייבר. ארגונים כאלו מחפשים תמיד אחר אמצעים לשיפור סיכוייהם לחדור לרשתות מחשוב של קורבנות ובינה מלאכותית היא רק עוד אמצעי לעשות כן.