בינה מלאכותית, פעם חלום עתידני, היא כיום מציאות. אולם עם הטכנולוגיה החזקה הזו מגיעים גם סיכונים חדשים: מערכות בינה מלאכותית, כמו כל מערכת מחשוב, חשופות למתקפות סייבר. דוח שנערך לאחרונה על ידי חברת אבטחת הסייבר MyCena חשף מגמה מדאיגה: כ- 80% מהארגונים חוו פרצת אבטחת AI בשנתיים האחרונות. עובדה זו מדגישה את הצורך הדחוף באמצעי אבטחה חזקים של AI, מכיוון ששיטות אבטחה מסורתיות כמו סיסמאות ואימות רב-גורמי, אינן מספיקות כדי להגן על מערכות בינה מלאכותית. חשוב להבין כי האקרים מפתחים דרכים חדשות לנצל פגיעויות ספציפיות ל- AI.
להלן שלוש נקודות תורפה קריטיות של AI:
- הרעלת נתונים: כאשר בינה מלאכותית לומדת לשקר. מערכות AI לומדות מכמויות אדירות של נתונים. אבל מה אם הנתונים הללו עברו מניפולציות? מצב זה נקרא הרעלת נתונים ויכולות להיות לכך השלכות חמורות. דוגמא אחת היא מכונית בנהיגה עצמית שאומנה על בסיס נתונים מורעלים. מצב הרסני זה עלול לפרש לא נכון שלטי תנועה או סימוני כביש ולהוביל לתאונות. דוגמא נוספת היא למשל בינה מלאכותית רפואית אשר קיבלה מידע לא מדויק. התוצאה – אבחון חולים בצורה שגויה ופוטנציאל לתוצאות קטלניות.
- ניצול API: הדלת האחורית ל- AI. ממשקי API (ממשקי תכנות יישומים) הינם השליחים של עולם הבינה המלאכותית, המאפשרים למערכות שונות לתקשר זו עם זו. עם זאת, ממשקי API המאובטחים בצורה לא טובה עלולים להיות מנוצלים על ידי האקרים, מה שיכול להעניק להם גישה למידע רגיש ושליטה במערכות מחשוב קריטיות. לדוגמה, האקרים יכולים לנצל ממשק API כדי להשיג שליטה על מערכת בית חכם, לכבות את האורות, לפתוח את הדלתות או אפילו להשבית את מערכת האבטחה. או שהם עלולים לחדור לקו ייצור המופעל על ידי AI של מפעל ולגרום לתקלות או לשבש את הפעילות.
- הנדסה חברתית מונעת בינה מלאכותית: העידן החדש של הונאה. AI לא רק פגיע למתקפות סייבר. AI יכול לשמש גם כנשק על ידי האקרים. הנדסה חברתית מונעת בינה מלאכותית משתמשת בבינה מלאכותית כדי לבצע אוטומציה ולשפר טקטיקות של הנדסה חברתית, מה שהופך אותן למתוחכמות יותר וקשות יותר לזיהוי. למשל, דוא"ל דיוג שהוא כל כך מותאם אישית עד שזה נראה כאילו הוא מגיע מהחבר הכי טוב שלך. זה נראה אמיתי ודחוף והוא מבקש את פרטי הבנק שלך. מה אתה עושה? או מה לגבי סרטון Deep Fake של מנכ"ל המכריז על החלטה של חברה גדולה – החלטה אשר גורמת לצניחת מחירי המניות?
מומחי סייבר נחושים בדעתם שהעלייה במתקפות סייבר הקשורות לבינה מלאכותית היא קריאת השכמה לארגונים ברחבי העולם. עתיד הבינה המלאכותית תלוי ביכולת שלנו להגן על המערכות הללו מפני אלו שינצלו אותן למטרות זדוניות. חובה להשקיע בפתרונות אבטחה חזקים של AI, להכשיר את העובדים לזהות ולהגיב לאיומים ספציפיים הנוגעים ל- AI ולטפח תרבות ארגונית של מודעות אבטחת סייבר.