לאחרונה נחשפה פרשה מדאיגה בחברת דיסני, במסגרתה מידע רגיש הכולל תסריטים, קטעי וידאו ומסמכים מסווגים הודלפו, ולפי הדיווחים – ייתכן שהמקור לכך הוא אפליקציית AI תמימה שהותקנה ביוזמת אחד העובדים.
האפליקציה, ששווקה ככלי חדשני ליצירה של תמונות, אבל בפועל, כללה בתוכה קוד המאפשר לקבל גישה למידע מסווג של החברה. התוצאה: דליפה שעלולה לגרום לנזק כלכלי ותדמיתי משמעותי לאחת החברות הגדולות בעולם הבידור.
המקרה הזה הוא תמרור אזהרה – לא רק לחברות ענק כמו דיסני, אלא לכל מי שעובד עם מידע ארגוני, מערכות מידע או אפליקציות מבוססות AI.
הסיכון המקצועי
כלי AI חדשים צצים באינטרנט כמעט מדי שבוע. חלקם מציעים תרגום מידי של קבצים, חלקם מציירים מצגות אוטומטיות, וחלקם מבטיחים לחולל ניסים עם כל סוג של דאטה. אבל ברבים מהמקרים – המשתמש כלל לא מבין אילו הרשאות הוא נותן לאפליקציה, מה נשלח לשרתים חיצוניים, ואיפה כל זה נשמר.
אפליקציה חינמית אחת שנראית לא מזיקה במיוחד, חוסר זהירות של עובד – ופרויקט של מאות מיליונים עלול לדלוף ולהיחשף.
אז איך מתמודדים עם הסיכון?
המקרה של דיסני מדגים כיצד טעות אחת קטנה, לכאורה תמימה, יכולה להוביל לנזק משמעותי וממחיש את האחריות הקריטית שמוטלת על כל עובד בארגון.
עובדים בעלי תפקידי מפתח כמו אנשי סייבר ודאטה אנליסט חיוניים בניהול סיכוני מידע. הם אלו שצריכים לנסח מדיניות, לעקוב אחרי זרימת נתונים, ולוודא שכלים חיצוניים לא הופכים לגישה נוחה לתוך המידע הארגוני.
אנשי סייבר ואבטחת מידע אמונים על יצירת מערכת הגנה טכנולוגית ואנושית נגד חדירה, זליגה או שימוש לא מבוקר במידע. במקרה של כלים מבוססי AI, תפקידם כולל:
-
הגדרת מדיניות שימוש ברורה: אילו אפליקציות וכלים מותר להתקין, ובאילו תנאים.
-
בניית מערכות ניטור והרשאות: לוודא שגישה לקבצים רגישים לא ניתנת לכל תוכנה או משתמש.
- תגובה מהירה לאירועים: במקרה של זיהוי פעילות חשודה (כמו גישה נרחבת של אפליקציה חדשה לקבצים), צוות הסייבר הוא זה שצריך לעצור את זה בזמן.
לצד העבודה של אנשי הסייבר שמונעים גישה בלתי מורשית, אנשי הדאטה אחראים לטיפול בנושאים הבאים:
-
הבנת רגישות המידע: לא כל דאטה שווה – אנליסט טוב יודע לזהות אילו מאגרי מידע דורשים התייחסות מיוחדת (למשל, מידע לקוחות, חומרים אסטרטגיים, או תכנים בפיתוח).
-
תכנון תהליכי עבודה בטוחים: אם אנליסט שולח קובץ לכלי AI לצורך ניתוח – עליו לדעת בדיוק אילו שדות רגישים עליו להסתיר או להסוות.
-
סיוע לארגון להבין השלכות שימוש לא נכון בדאטה: אנליסטים הם גם אלו שיכולים לצפות מראש מה יקרה אם מידע יזלוג – ולהתריע לפני שזה קורה.
שיתוף פעולה בין אנשי המקצוע בתחומים הללו יכול באמת להבטיח שימוש אחראי ובטוח בטכנולוגיות השונות, מבלי לפגוע באבטחת מידע או בערך העסקי של הנתונים.
מה אפשר ללמוד מהמקרה של דיסני?
אפשר ללמוד המון מהמקרה של דיסני, ריכזנו עבורכם כמה נקודות מרכזיות:
-
מדיניות ארגונית ברורה לשימוש ב-AI:
אילו כלים מאושרים, מה אסור, ומה קורה אם עובד מפר את הנהלים. -
הדרכה והסברה לעובדים:
לחבר את העובדים לחשיבות של שמירה על המידע של הארגון ולהסביר להם את הסיכונים. -
בקרה על הרשאות:
לוודא שיש בקרה על ההרשאות של כל עובד בהתאם לתפקידו. -
מעקב אחרי כלים טרנדיים:
כלי חדש שכולם מדברים עליו? קודם לבדוק את תנאי השימוש והפרטיות – ורק אחר כך להוריד.
לסיכום, הבינה המלאכותית מביאה איתה חדשנות מרתקת, אבל גם סיכונים ממשיים – במיוחד כשמדובר בכלים לא מבוקרים שמקבלים גישה למידע רגיש.
עבור אנשי סייבר, דאטה אנליסטים וכל מי שעובד בסביבת עבודה דיגיטלית – זה לא רק עניין של טכנולוגיה, אלא של אחריות מקצועית.
בעידן שבו כלי AI הופכים לחלק בלתי נפרד מהעבודה בארגונים, הידע הטכנולוגי כבר לא מספיק לבדו.
הצורך באנשי מקצוע שמבינים גם במערכות הגנה, גם את המשמעות של שמירה על המידע הרגיש וגם את גבולות השימוש הנכון הולך וגדל.
במסלולי ההכשרה של מכללת ג’ון ברייס, ישנו דגש לא רק על החומר הלימודי, אלא גם על החשיבות הארגונית, החשיבה הביקורתית, האחריות שנלווית לעבודה עם מערכות רגישות והתמודדות עם הסיכונים הקיימים בכל תחום.