החולייה החלשה: אנחנו
בעידן ה-GenAI חל זינוק באיכות ובכמות התקיפות של הנדסה חברתית, שמנצלות חולשות אנוש. עם טכנולוגיית דיפ פייק, קל להפיל אותנו בפח יותר מאי פעם, והפושעים חוגגים. כך למשל, במחצית השנייה של 2024 חל זינוק של 442% במתקפות פישינג קולי (vishing), שעושות שימוש בקולות אמיתיים. כשזה מצליח, זה יכול כואב במיוחד. לאחרונה עובד בחברה פיננסית בהונג קונג העביר 25.5 מיליון דולר לתוקפים בעקבות שיחת וידאו מזויפת עם סמנכ"ל הכספים. אז מה עושים? מחזקים הגנות!
בשנת 2024 נרשמה עלייה דרמטית בהיקף המתקפות מסוג הנדסה החברתית – שבה תוקפים מנצלים פסיכולוגיה אנושית כדי לגרום לאנשים לחשוף מידע רגיש, ללחוץ על קישורים זדוניים, או להעביר כספים לחשבונות מזויפים. בניגוד לפריצות טכנולוגיות קלאסיות, המיקוד כאן הוא באדם ולא במחשב: ההאקר אינו עוקף את מערכת האבטחה, אלא את שיקול הדעת של הקורבן.
החדשות המדאיגות הן שמהפכת הבינה המלאכותית הגנרטיבית העניקה לתוקפים מרחב חדש עם פוטנציאל עשיר לפעילות. היא מאפשרת לתוקפים להרחיב את מעגלי התקיפה, כמו גם להעלות את מידת התחכום של התקיפות. על פי מחקר של חברת SlashNext מאז תחילת התפשטותן של פלטפורמות GenAI ב-2022 ועד סוף 2024, חלה עלייה של 1,265% בהתקפות פישינג זדוניות באמצעות דוא"ל, ועלייה של 967% בניסיונות פישינג לגניבת אישורי כניסה בפרט!
הבינה המלאכותית הפכה את פשיעת הסייבר לנגישה ומושכת יותר מאי פעם
קל להבין זאת, כשחושבים כמה קל היום לנסח אימיילים רהוטים, ללא שגיאות כתיב ובשפות שונות, ואף לשלב בהם פרטי מידע אישיים המבוססים על עמודים של המטרות ברשתות החברתיות. באמצעות ChatGPT לא רק שיותר אנשים יכולים ליצור אימיילים כאלה, ניתן גם לשכפל אותם באינסוף גרסאות, וכאמור, לחבר אותם לעקבות ברשת של היעדים למתקפה.
הבינה המלאכותית לא בהכרח יוצרת פושעים חדשים, אלא מאפשרת לאנשים שכבר מעורבים בפשעים מסוגים אחרים לעבור לפשיעת סייבר. כנופיות פשיעה קטנות, שבעבר נרתעו מהמורכבות הטכנית, מאמצות כעת טקטיקות מבוססות בינה מלאכותית. זה מאפשר לאנשים בעלי ידע טכנולוגי מוגבל להקים קמפיינים משכנעים של דיוג או ליצור קוד זדוני במאמץ מינימלי. הבינה המלאכותית הפכה את פשיעת הסייבר לנגישה ומושכת יותר מאי פעם – בשל הסיכון והעלות הנמוכים יחסית לעומת עבירות פליליות מסורתיות. ועל הכוונת כולנו, אנשים פרטיים, כמו גם ארגונים.
על פי דוח של הפורום הכלכלי העולמי בשיתוף עם Accenture שפורסם בינואר 2025, כ־72% מהארגונים מדווחים על עלייה בסיכוני הסייבר, כאשר תוכנות כופר ממשיכות להוות דאגה מרכזית. כמעט 47% מהארגונים מציינים את ההתקדמות מצד גורמים עוינים, המונעת על ידי בינה מלאכותית גנרטיבית, כחשש העיקרי שלהם.
עם טכנולוגיית דיפ פייק, כיום קל יותר מאי פעם להפיל אותנו בפח
טכנולוגיית דיפ פייק מאפשרת לשנות תוכן של סאונד, תמונות וסרטונים, וכך להתחזות לאדם אחר. בעבר היא הייתה מורכבת ויקרה, אבל כיום נגישה הרבה יותר. פושעים יכולים לשכפל קולות באמצעות שעה אחת בלבד של הקלטות מיוטיוב ומנוי של 11 דולר, לא במקרה רואים זינוק בהונאות טלפוניות. לדוגמה, במחצית השנייה של 2024 חל זינוק של 442% במתקפות פישינג קולי (vishing), כאשר נעשה שימוש בבינה מלאכותית כדי לשכפל קולות אמיתיים, ולחקות קולות של מנהלים, בני משפחה או אנשי תמיכה טכנית, וכך לרמות קורבנות.
צוות ה-DFIR של חברת 2BSecure מבית מטריקס, הוזמן לחקור מקרה כזה. במסגרתו, הופל בפח עובד של גוף פיננסי גדול. הכול התחיל במבול של הודעות ספאם שהציפו את תיבת האימייל של איש מכירות בארגון. באופן טבעי, הוא פנה למחלקת ה-IT, וביקש עזרה בטיפול בבעיה. יום לאחר מכן, קיבל טלפון מאדם שהציג את עצמו כאיש IT והציע לו לתקן את בעיית הספאם. כאשר איש צוות ה-IT האמיתי יצר אתו קשר מאוחר יותר, הוא ענה לו: "הכול כבר מסודר, תודה בכל מקרה." החקירה העלתה כי המשתמש הוריד קובץ בשםspam_filter.txt שקיבל מהתוקף, והפעיל אותו דרךPowerShell . פעולה זו אפשרה לתוקפים להשתלט על המחשב, מה שבקלות יכול היה להתגלגל למתקפת כופר כפולה, ולגרום לנזק חמור לארגון. אפשר לקרוא עוד על המקרה פה.
בנוסף, התפשט השימוש בסרטוני "דיפ פייק" – קטעי וידאו מזויפים שמציגים דמויות מוכרות (כגון אילון מאסק או נשיאים לשעבר) מדקלמים טקסטים שמעולם לא אמרו. סרטונים כאלה שימשו להונאות השקעה, גיוס תרומות פיקטיביות, והפצת מידע כוזב בעל השלכות פוליטיות וחברתיות. במקרה חמור שנחשף בפברואר השנה, תוקפים זייפו פגישת וידאו שלמה, בהשתתפות ה-CFO ועובדים נוספים של חברת פיננסים בהונג קונג, וכך שכנעו את עובד החברה לבצע העברה בנקאית דחופה של 25.5 מיליון דולר.
השילוב בין טכנולוגיה מתקדמת לבין מניפולציות רגשיות הופך את ההגנה לאתגר מורכב. ככל שהבינה המלאכותית משתפרת, כך גדלה היכולת לייצר תקשורת מזויפת אך משכנעת להפליא – מיילים, שיחות טלפון, הודעות טקסט וסרטונים שנראים אמיתיים לחלוטין. מומחי סייבר מדגישים את הצורך בהעלאת מודעות, פיתוח כלי זיהוי חדשים, והכשרה ייעודית לעובדים – כדי לבלום את הגל הבא של מתקפות ההנדסה החברתית.
אז מה עושים? מפתחים חוסן אנושי וטכנולוגי גם יחד
חשוב לשלב בין אמצעים טכנולוגיים לבין מודעות ונהלים ארגוניים ברורים. ראשית, יש להטמיע תהליכי אימות מרובה שלבים (Multi-Factor Authentication) ולוודא שכל בקשה חריגה להעברת כספים, גם אם היא מגיעה ממקור בכיר, נבדקת באפיק תקשורת נפרד ומאומת – כמו שיחת טלפון או פגישה פנים אל פנים. חשוב להבין שגם שיחת וידאו אינה בהכרח הוכחה לזהות הדובר, בעידן שבו ניתן לזייף פנים וקול באופן משכנע.
בנוסף, חיונית השקעה בהכשרת עובדים לזיהוי סימנים מחשידים: שפה שאינה אופיינית לשולח, לחץ לזירוז תהליך, או בקשות סודיות שאינן תואמות נהלים מוכרים. לצד זאת, יש לאמץ פתרונות טכנולוגיים שמסייעים בזיהוי תוכן מזויף – כגון כלים לאיתור דיפ פייק, ניתוח התנהגות חריגה, ומערכות לזיהוי אנומליות בתקשורת הארגונית. אצלנו במטריקס קיים צוות ייעודי CyberShield_AI, שמפתח אוטומציות לחיזוק קו ההגנה הראשון של הארגון. כמו-כן, צוות DFIR יסייע לכם בייעוץ להגנה, כמו גם זמין לכם.ן במקרה של חשד בפריצה פה. כדאי לזכור, שגם בעידן הבינה המלאכותית – ערנות אנושית היא קו ההגנה הראשון
כותבת: נעמי בורנשטיין, מטריקס
מלאו פרטים ונחזור אליכם בהקדם
כל השדות המסומנים ב * הינם שדות חובה