GenAI מרוץ החימוש

החדשות הטובות: טכנולוגיית GenAI הוסיפה כמה כלים חזקים לארגז הכלים של הלוחמים במתקפות סייבר, החדשות הרעות: גם התוקפים נהנים מהפוטנציאל העצום של המהפכה הטכנולוגית. ישבנו לשיחה עם זהבית חזות, מנהלת מחלקת אוטומציה ב-2Bsecure, על איך מגנים על מערכות הארגון בעידן המכונות הלומדות

זה הולך ככה: ממשק בשם גנדלף  קיבל הנחיה להגן בכל כוחו על סיסמה סודית, ואתם עושים הכל כדי לשכנע אותו לגלות לכם את הסיסמה. הצלחתם? יופי! כולם מנצחים. אתם מתקדמים לשלב הבא במשחק וגנדלף לומד איך לחזק עוד יותר את השריון שלו. המשחק שפיתח סטארטאפ אבטחת מידע במטרה לחזק את מערכות ההגנה, מאפשר למשתמש/ת להתנסות עם תהליכי prompt injection. המשמעות היא שהמשתמש/ת מנסה לחלץ מידע מהמודל והמודל מנסה להגן עליו. מתקפות Prompt Injection הפכו להיות פופולאריות מאוד בקרב האקרים, שמנסים לנצל חולשות במודלים כמו ChatGPT כדי לגנוב ידע או להשפיע על התנהגות המודל, ולהטעות את המשתמשים. זאת דוגמה לסוג חדש של מתקפות שנולדו בעקבות עליית טכנולוגיית ה-GenAI, וכיצד אפשר לחזק את מערכות ההגנה על מנת להתגונן מפניהן. במהלך השנה האחרונה, ענקיות הטכנולוגיה וחברות אבטחת סייבר, משחררות כלים מבוססי GPT לאנשי אבטחת מידע וסייבר. בין השאר, מיקרוסופט חשפה את Microsoft Security Copilot, שמשתמש בבינה מלאכותית גנרטיבית כדי לתגבר את האנליסטים האנושיים בחקירה ובתגובה, חברת Airgap Networks הכריזה על ThreatGPT, מודל למידת מכונה ל-Zero Trust Firewall, חברת SentinelOne שחררה פלטפורמה חדשה שמשלבת מספר מודלים ועוד.

“מכונה יכולה לעבור על מיליוני שורות קוד בכמה דקות או בכמה שעות, לעין אנושית זה ייקח נצח”

GenAI” חיזקה משמעותית את מאמצי ההגנה על אבטחת מידע בסייבר”, אומרת זהבית חזות, מנהלת תחום אוטומציה ב-2Bsecure, “אמנם עוד לפני ההתפתחויות האחרונות של טכנולוגיית GenAI, נעשה שימוש נרחב בבינה מלאכותית בעולמות של אבטחת מידע וסייבר. ניקח לדוגמה את נושא ה-code review. פעם היה מקובל שאיש אבטחת מידע מומחה היה עובר עם חברות על שורות הקוד שלהם, ומחפש פרצות, אבל היום ההעדפה היא לאוטומציה. כשיש מיליוני שורות קוד, אין ספק שמכונה עולה ביכולותיה על העין האנושית. כבר הרבה זמן שאנחנו עושים שימוש במערכות אוטומציה לצרכי code review. מכונה יכולה לעבור על מיליוני שורות קוד בכמה דקות או בכמה שעות, לעין אנושית זה ייקח נצח, או לפחות הרבה מאוד זמן. אז אנחנו מפעילים מערכות אוטומציה, ואחר כך עין אנושית עוברת ומוודאת שאין שגיאות. כאמור, זה עבד ככה עוד לפני ההתפתחויות האחרונות, אבל מהפכת ה-GenAI ללא ספק מרחיבה ומשכללת את השימוש באוטומציה בעולם של אבטחת מידע וסייבר.

 

למשל, על ידי אימון מתמיד של אלגוריתמי AI עם מערכי נתונים מגוונים, אנחנו יכולים לשפר את רמת הדיוק של זיהוי איומים, ולהקדים איומי סייבר מתפתחים. ניתוח התנהגות על ידי אלגוריתמי AI, מספק לצוותי הסייבר הבנה מעמיקה של התנהגויות המשתמשים, וכך ניתן לזהות במהירות פעילויות חשודות שעשויות להצביע על תקיפות סייבר. בנוסף, מערכות תגובה אוטומטיות מבוססות בינה מלאכותית יכולות לנטרל במהירות איומים, ולמזער את השפעתם על ארגונים ויחידים על ידי תגובה בזמן אמת. בינה מלאכותית גנרטיבית יכולה להמליץ לאנליסטים של ה-SOC על הפעולה הטובה ביותר לצרכי הגנה ומניעה עתידיים. ככלל, אוטומציה יכולה להשתלב בכל נקודות המפתח בהגנה על מערכות הארגון, לתגבר את אנשי אבטחת המידע, וכך לחזק משמעותית את מערך ההגנה. כמו-כן, הודות ליכולת של המודלים הללו לייצר נתונים סינתטיים, אנשי אבטחה יכולים ליצור סימולציות של מתקפות סייבר ביתר קלות, מה שמאפשר להם לחזק את אסטרטגיות ההגנה שלהם. כך שישנם יישומים רבים.”

 

התוקפים מאמצים את הטכנולוגיה החדשה. כמות מתקפות הפישינג באמצעות אימיילים זינקה ב-135% בחודשיים הראשונים של שנת 2023 (מחקר של חברת Darktrace); עלייתו של WormGPT התאום האפל של ChatGPT

 “יחד עם זאת”, אומרת זהבית, “לצד ההתקדמות המבטיחה בהגנה על אבטחת סייבר, GenAI טומן בחובו גם לא מעט אתגרים וסיכונים. תוקפים מקדימים לאמץ ((early adopters טכנולוגיות חדשניות, ו-GenAI מציב בפניהם מרחב חדש עם פוטנציאל עשיר לפעילות. על פי מחקר של חברת Darktrace כמות מתקפות הפישינג באמצעות אימיילים זינקה ב-135% בחודשיים הראשונים של שנת 2023. ככלל, מתקפות הנדסה חברתית (=סוגי מתקפה המנצלים “באגים אנושיים”, כמו פיתוי המשתמש להוריד או להקליק על משהו) משגשגות השנה. תחשבו כמה קל היום לנסח אימיילים רהוטים, ללא שגיאות כתיב ובשפות שונות, ואף לשלב בהם פרטי מידע אישיים המבוססים על עמודים של המטרות ברשתות החברתיות. באמצעות ChatGPT לא רק שיותר אנשים יכולים ליצור אימיילים כאלה, ניתן גם לשכפל אותם באינסוף גרסאות, וכאמור, לחבר אותם לעקבות ברשת של היעדים למתקפה. וזה עוד לפני שדיברנו על הפוטנציאל העשיר של דיפ פייק, והיכולת לשנות תוכן של תמונות וסרטונים, וכך להתחזות לאדם אחר. WormGPT זאת דוגמה שעשתה כותרות. מדובר בכלי מבוסס בינה מלאכותית, ללא המגבלות האתיות שיש ל-ChatGPT, והוא נוצר במיוחד לשימושים של יצירת הודעות פישיניג, maleware וייעוץ בנוגע לפעילויות לא חוקיות.

 

על הרקע הזה, האזהרה מפני מתקפות AI שפרסם ה-FBI בחודש יולי האחרון, לא באמת מפתיעה. במסגרת שיחת עיתונאים, הזהירו גורמים ב-FBI מפני שורה של איומים, ביניהם: ניסיונות לגנוב פיתוחים חדשניים מחברות טכנולוגיה ומרכזי מחקר בתחומי ה-AI לצרכי שימוש לא חוקי, הונאות ומתקפות של פישינג ו-malware ושימוש במודלים של AI לצורך ייעוץ וסיוע במתקפות טרור. קצב המתקפות רק צפוי להתגבר. יהיו לנו יותר האקרים, כי בעזרת מודלי AI – גם מי שאין לו את הידע, יוכל לבצע תקיפה. בנוסף, הרמה המקצועית והיכולות של התוקפים יזנקו וכתוצאה מכך, גם הנזק הפוטנציאלי. משתמש רגיל ללא כל ידע טכנולוגי או טכני יוכל להוציא לפועל תקיפות מתוחכמות. כל זה ובכלל לא דיברתי על אספקטים אחרים, שנוגעים לעצם השימוש הלגיטימי לגמרי בטכנולוגיה, כמו סוגיות של אתיקה, שקיפות ושמירה על פרטיות, אבל זה נושא למאמר בפני עצמו על Responsible AI.

כיצד מגנים על מערכות הארגון בעידן המכונות הלומדות: הכשרות, עדכון נהלים, ולבסוף נלחמים ב-AI עם AI

בזמן שאנו מנווטים בעולם הסייבר של המחר, חיוני לשמור על ערנות ולקבוע קווים מנחים ואחראיים למינוף הכוח של AI להגנה תוך הפחתת הסיכונים של איומי סייבר מתקדמים. מומחי אבטחת סייבר צריכים לעדכן ללא הרף את הידע והכישורים שלהם כדי להילחם ביעילות באיומים המתפתחים. יחד עם זאת, צריך לזכור שרוב הסיכונים הקשורים ל-AI/ML צריכים להיות מכוסים על ידי מדיניות ארגונית קיימת. למשל, מדיניות בנוגע לאימיילים או בנוגע לשיתוף נתונים עם צד שלישי. הדרכות לעובדים בנוגע לסכנות של מתקפות פישינג, לדוגמה, מתקיימות כבר היום בארגונים באופן שוטף, הנהלים הללו ימשיכו לפעול כסדרם, כמובן עם עדכונים בנוגע לסיכונים המיוחדים שנובעים מ-GenAI (אם בעבר שגיאות כתיב יכלו להיות סימן לפישינג, כיום דווקא אימיילים רהוטים מדי, שכוללים הרבה מלל, עשויים להיות חשודים). בנוסף, ניתן להילחם ב-AI עם AI, כלומר לחזק את מערך ההגנה של הארגון באמצעות שילוב של אוטומציות ומודלים מתקדמים שישכללו את מערך ההגנה. אצלנו יש צוות שאחראי על פיתוח אוטומציות מהסוג הזה, מוזמנים ליצור קשר.

לבסוף, שיתוף פעולה ושיתוף מידע בין תעשיות ומומחי אבטחת סייבר יובילו לטיפוח ידע קולקטיבי ויקלו על פיתוח אסטרטגיות הגנה חזקות. בהקשר הזה, כדאי לציין שבאוגוסט האחרון, DARPA, הסוכנות האמריקאית למחקרי הגנה מתקדמים, שאחראית לכמה מהפיתוחים הטכנולוגיים ששינו את העולם, פרסמה קול קורא לחוקרי במדעי המחשב, מומחים לבינה מלאכותית ומהנדסי תוכנה, להשתתפות ב- AI Cyber Challenge = AIxCC- תחרות בת שנתיים לפיתוח הדור הבא של כלי אבטחת סייבר. מדובר בשיתוף פעולה בין חברות AI ראשון מסוגו שנולד במטרה להתמודד עם האתגרים שמציבה מהפכת ה-GenAI, ויהיה מרתק לעקוב אחר ההתפתחויות.”

רוצים לשמוע עוד?

מלאו פרטים ונחזור אליכם בהקדם

כל השדות המסומנים ב * הינם שדות חובה

*
*
*
*