דלף מידע מ- ChatGPT מעלה שאלות אבטחת מידע

כאשר ChatGPT וצ'אטבוטים דומים הפכו לראשונה לזמינים באופן נרחב, התעורר חשש בעולם אבטחת הסייבר כיצד ניתן להשתמש בטכנולוגיית בינה מלאכותית להפעלת מתקפות סייבר. למעשה, לא לקח הרבה זמן עד ששהבינו פושעי סייבר כיצד לעקוף את בדיקות האבטחה כדי להשתמש ב- ChatGPT כדי לכתוב נוזקות. כעת נראה כי במקום שפושעי סייבר ישתמשו ב- ChatGPT כדי לגרום לאירועי סייבר, הם הפעילו כעת את הטכנולוגיה עצמה: OpenAI, שפיתחה את הצ'אטבוט, אישרה דלף מידע במערכת שנגרם מפגיעות אבטחה בספריית הקוד הפתוח של האפליקציה. דלף המידע גרם להשבתת השירות עד לתיקון הפרצה.

הפופולריות של ChatGPT באה לידי ביטוי כבר משחרורו בסוף 2022. מכותבים ועד מפתחי תוכנה רצו להתנסות בצ'אטבוט. למרות התגובות הלא מושלמות של ChatGPT, הוא הפך במהירות לאפליקציית הצרכנים הצומחת ביותר בהיסטוריה והגיע ליותר מ- 100 מיליון משתמשים חודשיים עד ינואר 2023. כ- 13 מיליון אנשים השתמשו בטכנולוגיית הבינה המלאכותית מדי יום תוך חודש משחרורו. בהשוואה לאפליקציה פופולרית מאוד אחרת – TikTok אשר לקח לה תשעה חודשים להגיע למספרי משתמשים דומים. אנליסט אבטחת סייבר השווה את ChatGPT לאולר שוויצרי ואמר שהמגוון הרחב של היישומים השימושיים של הטכנולוגיה הוא סיבה גדולה לפופולריות המוקדמת והמהירה שלה.

עבור כל אפליקציה או טכנולוגיה פופולרית, זה רק עניין של זמן עד שפושעי סייבר יתמקדו בה. במקרה של ChatGPT, הגיעה המתקפה דרך פגיעות אבטחה בספריית הקוד הפתוח של Redis. הדבר אפשר למשתמשים לראות את היסטוריית הצ'אט של משתמשים פעילים אחרים. ספריות קוד פתוח משמשות לפיתוח ממשקים דינמיים על ידי אחסון רוטינות ומשאבים נגישים בשימוש תכוף כגון מחלקות, נתוני תצורה, תיעוד, נתוני עזרה, תבניות הודעות, קוד ותתי-רוטינות, מפרטים וערכים. לפי הגדרה של OpenAI משמשת Redis לשמירת מידע משתמש במטמון לצורך אחזור וגישה מהירים יותר. מכיוון שאלפי תורמים מפתחים קוד פתוח וניגשים אליו, קל לפגיעויות אבטחה להיפתח ולהיעלם מעיניהם. פושעי סייבר יודעים זאת וזו הסיבה שהמתקפות על ספריות קוד פתוח גדלו ב- 742% מאז 2019. המתקפה על ChatGPT הייתה מינורית ו- OpenAI תיקנו את הבאג תוך ימים מרגע הגילוי. אבל גם אירוע סייבר קל עלול ליצור נזק רב. עם זאת, ככל שהחוקרים מ- OpenAI התעמקו יותר, הם גילו שאותה פגיעות אבטחה אחראית ככל הנראה לנראות של פרטי תשלום במשך מספר שעות לפני ש- ChatGPT הוצא למצב לא מקוון: "פגיעות האבטחה איפשרה לחלק מהמשתמשים לראות את השם הפרטי והמשפחה של משתמש פעיל אחר, כתובת דואר אלקטרוני, כתובת תשלום, ארבע הספרות האחרונות (בלבד) של מספר כרטיס אשראי ותאריך תפוגה של כרטיס האשראי. מספרי כרטיסי אשראי מלאים לא נחשפו בכל עת", אמרו OpenAI בהודעה על התקרית.

דלף המידע ב- ChatGPT טופל במהירות עם נזק קטן ככל הנראה, כאשר מנויים משלמים שנפגעו מהווים פחות מ- 1% מהמשתמשים. עם זאת, התקרית עשויה לבשר על הסיכונים שעלולים להשפיע על צ'אטבוטים ומשתמשים בעתיד. כבר עכשיו יש חששות לפרטיות סביב השימוש בצ'אטבוטים. מארק מקרירי – יו"ר משותף של פרקטיקת הפרטיות ואבטחת המידע בחברת עורכי הדין פוקס רוטשילד LLP, אמר ל- CNN ש- ChatGPT וצ'אטבוטים הם כמו הקופסה השחורה במטוס. טכנולוגיית הבינה המלאכותית אוגרת כמויות עצומות של נתונים ולאחר מכן משתמשת במידע זה כדי ליצור תשובות לשאלות והנחיות וכל דבר בזיכרון של הצ'אטבוט, נפתח עבור משתמשים אחרים. לדוגמה, צ'אטבוטים יכולים להקליט הערות של משתמש בודד על כל נושא ולאחר מכן לסכם את המידע הזה או לחפש פרטים נוספים. אבל אם הערות אלו כוללות נתונים רגישים – קניין רוחני של ארגון או מידע רגיש של לקוחות למשל, הם נכנסים לספריית הצ'אטבוטים. למשתמש אין יותר שליטה על המידע.

בגלל חששות לפרטיות, JPMorgan Chase למשל, הגביל את השימוש של העובדים ב- ChatGPT בגלל הבקרות של החברה סביב תוכנות ויישומים של צד שלישי, אבל קיימות גם חששות סביב אבטחת המידע הפיננסי אם יוכנס לצ'אטבוט. איטליה ציטטה את פרטיות הנתונים של אזרחיה בהחלטתה לחסום זמנית את האפליקציה ברחבי המדינה. החשש, אמרו גורמים רשמיים, נובע מציות ל- GDPR.

מומחים מצפים גם שפושעי סייבר ישתמשו ב- ChatGPT כדי ליצור מיילים מתוחכמים ומציאותיים לדיוג. הדקדוק העלוב וניסוח המשפטים המוזר שהיו סימן מובהק להונאת דיוג – יעלמו. כעת יחקו צ'אטבוטים דוברים שפת אם עם מסרים ממוקדים. טקטיקה מסוכנת באופן דומה היא השימוש ב- AI ליצירת קמפיינים של דיסאינפורמציה וקונספירציה. ההשלכות של שימוש זה עשויות לעלות מעבר לסיכוני סייבר. חוקרים השתמשו ב- ChatGPT כדי לכתוב מאמר והתוצאה הייתה דומה לכל דבר שנמצא ב- InfoWars או באתרי אינטרנט ידועים אחרים העוסקים בתיאוריות קונספירציה.

כל התפתחות של צ'אטבוטים תיצור איומי סייבר חדשים, בין אם באמצעות יכולות השפה המתוחכמות יותר או באמצעות הפופולריות שלהם. הדבר הופך את הטכנולוגיה למטרה עיקרית בתור וקטור התקפה. לשם כך נוקטת OpenAI בצעדים למניעת פרצות מידע עתידיות בתוך האפליקציה. היא מציעה פרס באג של עד $20,000 לכל מי שמגלה נקודות תורפה שלא דווחו. עם זאת, דיווח אתר Hacker News: "התוכנית אינה מכסה בעיות אבטחה שבהן הצ'אטבוט מתבקש ליצור קוד זדוני או פלטים פגומים אחרים, אז זה נשמע כאילו OpenAI רוצים להקשיח את הטכנולוגיה מפני מתקפות סייבר חיצוניות אבל עושה מעט כדי למנוע מהצ'אטבוט להיות המקור להתקפות סייבר".

למקור הידיעה ולקריאה נוספת

דלף מידע מ- ChatGPT מעלה שאלות אבטחת מידע
דילוג לתוכן