עובדי סמסונג הדליפו נתונים סודיים בזמן השימוש ב- ChatGPT

לאחר שסמסונג סמיקונדקטור אפשרה למהנדסי המותג שלה להשתמש ב- ChatGPT לסיוע, הם החלו להשתמש בו כדי לתקן במהירות שגיאות בקוד המקור שלהם, תוך הדלפת מידע סודי כמו הערות מפגישות פנימיות ונתונים הקשורים לביצועים ותפוקות. עד כה רשמה סמסונג סמיקונדקטור שלושה מקרים של שימוש ב- ChatGPT שהובילו לדליפות נתונים. אמנם שלושה מקרים אולי לא נראים כמו הרבה, אולם כולם קרו במהלך 20 ימים…

במקרה אחד הגיש עובד סמסונג סמיקונדקטור קוד מקור של תוכנית קניינית ל- ChatGPT כדי לתקן שגיאות, ולמעשה חשף את הקוד של אפליקציה סודית ביותר לבינה מלאכותית המנוהלת על ידי חברה חיצונית. המקרה השני היה אפילו מדאיג עוד יותר, כאשר עובד אחר נכנס לדפוסי בדיקה שנועדו לזהות שבבים פגומים וביקש אופטימיזציה. רצפי בדיקה שנועדו לזהות פגמים הם חסויים לחלוטין. עובד אחר השתמש באפליקציית Naver Clova כדי להמיר הקלטת פגישה למסמך, ואז הגיש אותה ל- ChatGPT כדי להכין מצגת.

פעולות אלו מסכנות בבירור מידע סודי, מה שגרם לסמסונג להזהיר את עובדיה מפני הסכנות שבשימוש ב- ChatGPT. סמסונג הודיעה למנהליה ולעובדיה שהנתונים המוכנסים ל- ChatGPT מועברים ומאוחסנים בשרתים חיצוניים, מה שגורם לכך שזה יהיה בלתי אפשרי לאחזר את המידע שהוכנס ל- ChatGPT ומגדיל באופן ניכר את הסיכונים לדליפת מידע סודי. יש לציין כי בעוד ש- ChatGPT הוא כלי רב עוצמה, תכונת נתוני הלמידה הפתוחה שלו יכולה לחשוף מידע רגיש לצדדים שלישיים, דבר שאינו מקובל בתעשיית המוליכים למחצה התחרותית ביותר.

סמסונג מכינה בימים אלו אמצעי מיגון למניעת תאונות דומות בעתיד. אם תתרחש תקרית נוספת, גם לאחר יישום אמצעי הגנה על מידע, עשויה הגישה ל- ChatGPT להיחסם ברשת החברה. יחד עם זאת, ברור שאמצעים כמו בינה מלאכותית גנרית וכלי אוטומציה אלקטרוניים תומכי בינה מלאכותית, הינם היבט חשוב של עתיד תעשיית ייצור השבבים.

כשנשאל על אירוע דליפת המידע, סירב דובר סמסונג לאשר או להכחיש את המידע בטענה שמדובר בעניין פנימי.

למקור הידיעה ולקריאה נוספת

עובדי סמסונג הדליפו נתונים סודיים בזמן השימוש ב- ChatGPT
דילוג לתוכן