Responsible AI – כשפילוסופיה הופכת לחלק מהביזנס

עידן בר, מנהל מרכז התמחות AI במטריקס ו-CTO AI ב-matrix Defense

בימים אלה משתולל מאבק ענקים שכולנו עדים לו בין Google, OpenAI, אוניברסיטאות והתאגדויות ב-Open Source – שממשיך לתחזק ואף מגביר את הבאזז סביב ChatGPT ו-Generative AI אחד מהנושאים הבוערים שצפו מהשיח, והוא אחד מהמעניינים ביותר בעיניי, הוא לא נושא טכנולוגי מובהק אלא דווקא הומני – אחריות.

השיח סביב שימוש אחראי בטכנולוגיה בכלל, ולא רק בטכנולוגיית הבינה המלאכותית, קיים כבר שנים רבות. ספרים וסרטים רבים  הציגו לנו את המציאות העגומה אליה אנחנו עלולים להתדרדר עקב שימוש לא אחראי בטכנולוגיה בדמות עולם אפוקליפטי וכאוטי, ו/או תחת משטרים קיצוניים. עוד ב-1921 פרסם קארל צ’אפק את יצירתו “הרובוטים האוניברסאליים של רוסום”, בה מתוארים אנשים מלאכותיים שנוצרו על מנת לשרת אותנו, בני אדם, ולתפוש את מקומנו במטלות מסוכנות או משעממות, בסיפור שמתגלגל לעימות אלים וקטלני. מאז ועד היום, הדוגמאות רבות: 1984  The Terminator, Eagle Eye ואולי המוכר ביותר- The Matrix. למרות זאת, העיסוק המקצועי והציבורי בנושא עדיין היה יחסית שולי.  אבל כל זה השתנה עם צאתו של ChatGPT לעולם. כמו עם הרבה דברים אחרים, ChatGPT שינה את תפיסת האחריות הטכנולוגית בהקשרי AI, או בשמה המקצועי- Responsible AI וכעת זה כבר לא נושא צדדי, שיכול להישאר בבחינת מס שפתיים ונוצות להתהדר בהן, אלא חייב להיות חלק בלתי נפרד מהפרקטיס של כל ארגון שמתכנן להשתמש בטכנולוגיה.

מי אחראי למה? בטח לא תופתעו לשמוע שגם ChatGPT יודע להתנער מאחריות

אם תשאלו את ChatGPT מה זה Responsible AI הוא יגיד לכם שמדובר ב”פיתוח, פריסה ושימוש במערכות בינה מלאכותית באופן המקיים עקרונות אתיים, תוך כיבוד ערכים וזכויות אדם והתחשבות בהשפעה הפוטנציאלית על יחידים ועל החברה כולה”. הגדרה יפה כשלוקחים בחשבון שמדובר במנוע סטטיסטי לחיזוי מילה במשפט. המינוח Responsible AI יכול להטעות אתכם לחשוב שהאחריות היא של ה-AI, אך הכוונה היא שהשימוש של האדם הוא שצריך להיות אחראי.

אם חיפשנו הוכחה נוספת שבינה מלאכותית בכלל ו-ChatGPT בפרט הם מראה לאנושות, קיבלנו אותה בדמות התשובה לשאלה – האם הבינה המלאכותית היא האחראית. ChatGPT התחיל בהכחשה: “בתור בינה מלאכותית, אין לי אחריות אישית כמו בני אדם”, עבר להעברת אחריות: “המפתחים, המשתמשים והארגונים שמאחורי היצירה והפריסה של מערכות בינה מלאכותיות נושאים באחריות לתכנון, יישום ושימוש בהן”, וסיים בהטפה: “בסופו של דבר, זה באחריות בבני אדם להשתמש בבינה מלאכותית בצורה אחראית ואתית”. ממש תגובה אנושית טיפוסית. בלית ברירה כדור האחריות מתגלגל בחזרה אלינו.

כדור האחריות אצלנו. זה הזמן לבחון באיזה מישורים עלינו לקחת אחריות, ואיך עושים את זה?

האחריות באה לידי ביטוי במספר מישורים.

המישור המוכר והוותיק מכולם הוא הוגנות ומניעת הטיות (Fairness & Bias). מישור זה עוסק בייצוג ראוי של מגדרים, צבעי עור, שפות, לאומים ועוד בחומרי האימון של מנועי בינה מלאכותית ובמניעת אפליה. כפי ש-ChatGPT מעיד על עצמו למשל, אם בחומרי האימון שלו יש יותר שיחות בין גברים לבנים מאשר בין נשים שחורות, המודל כנראה ייצר תגובות שמותאמות יותר לשיח גברי. מדובר בהטיה שלא קיימת רק ב-ChatGPT כמובן. ראינו ביטויים שלה גם במנועי זיהוי פנים ששוגים יותר בצורה משמעותית בזיהוי פניהן של נשים שחורות מאשר של גברים לבנים או במנוע סיווג קורות חיים שלא קיבל נשים לעבודה.

עולם הלמידה העמוקה, Deep  Learning, הציף את מישור השקיפות (Transparency). מדובר באלגוריתמים לומדים בעלי כמות גדולה מאוד של פרמטרים, שלא מאפשרת למשתמש לדעת מדוע המודל קיבל החלטה כזו או אחרת. בעולם שבו בינה מלאכותית הופכת לכלי שמקבל החלטות באופן אוטומטי, היכולת להבין מדוע התקבלה החלטה בדיעבד ולתחקר אותה, קריטית.

מישור נוסף, שעל פניו מובן מאליו שצריך להתקיים, הוא האחריות בפועל (Accountability). ארגון צריך להבין שכשהוא בונה מנוע מבוסס בינה מלאכותית, הוא האחראי לבעיות אתיות שעשויות לנבוע משימוש לא תקין בו, גם אם לא מבוצע על ידו. כמובן שהאחריות תקפה גם במידה והוא המשתמש ולא היוצר.

מנועי בינה מלאכותית מאומנים על מידע. חלק ניכר מהמידע מכיל נתונים פרטיים ולכן מישור הפרטיות וניהול הנתונים (Privacy & Data Governance) הינו מישור משמעותי מאוד. חשיפת מידע אישי שמירה לקויה על מידע פרטי בסביבה הארגונית, עלולים לפגוע בצורה קשה בזכויות הפרט.

אם בעבר אלגוריתמים היו מקבלים ביטוי בעיקר בעולם הדיגיטלי, כיום יותר ויותר מנועי בינה מלאכותית מקבלים גם ביטוי פיזי. נהיגה והטסה אוטונומיים, הנעת רובוטים וכדומה, דורשים שתתקיים אבטחה פיזית (Physical Security) שתמנע פגישה פיזית בבני אדם. כמו כן, אבטחת סייבר (Cyber Security) חיונית למניעת ניצול לרעה של המנועים לטובת הכנסת נוזקות לארגון או הדלפת מידע. אמנם ארגונים מודעים לניסיונותיהם של גורמים לחדור דרך המייל הארגוני לדוגמה, ומשקיעות משאבים רבים כדי להגדיל את המודעות ולתרגל את העובדים כדי למנוע זאת, אך לא מרסנות כמעט כלל שימוש מסוכן בבינה מלאכותית ומאפשרות את יצירתם של “חורים אבטחתיים” בארגון. מספיק לבחון את המקרה בו מפתחים בחברת Samsung השתמשו ב-ChatGPT לבקרת איכות ומציאת “באגים” בקוד של מוצרי החברה, ולדליפתו למרחבי האינטרנט של מידע רגיש, כדי להבין שהסכנה קיימת בכל ארגון, לא משנה כמה טכנולוגי.

המישור האחרון מתייחס למידה בה הבינה המלאכותית תורמת לשיתוף הפעולה או ההשפעה החברתית (Collaboration & Social Impact). הרצת מנועי בינה מלאכותית דורשת כוח מחשוב יקר ומשמעותי. שימוש סתמי בבינה מלאכותית, שאינו מייצר ערך אמיתי לחברה האנושית ולחברים בה, מבזבז משאבי טבע. הבינה המלאכותית צריכה לעזור בצמצום פערים, בניצול נכון ויעיל יותר של משאבים ובאופן כללי להיטיב עם האנושות.

עד כה, ניתן היה להשליך את האתגרים על כמעט כל מנוע בינה מלאכותית. Generative AI הוסיפה ממד נוסף של סיבוכיות- המידע שנוצר לאחר התהליך. נמצא שחלקים לא מבוטלים מהקוד שמיוצר ע”י מנועי Gen-AI נלקח בשלמותו ממקורות פתוחים. המשתמש לא יכול לדעת האם הקוד שנוצר ע”י המנוע מוגן בזכויות יוצרים או מה הרישוי שמגדיר את השימוש בו. בנוסף, יצירה של מסמכים או עבודות על בסיס מנועים אלו עלולה לכלול ציטוטים מדויקים ממאמרים שאם לא יצוטטו נכון בעבודה, יפגעו בקניין הרוחני של כותביהם.

עד כה התרגלנו, בתור חוקרי AI, לטפל בסוג אחד או שנים של בעיות אתיות בכלי או מודל לכל היותר. ChatGPT הציג בעייתיות בכל תחום ומישור ואילץ אותנו להסתכל על האתיקה ברמה הגבוהה יותר שלה. אין יותר אפשרות לתקן חורים נקודתיים ב-patch זמני, אלא להתייחס אליה בצורה משמעותית יותר.

כמובן שקיים קונצנזוס שחייבים להתייחס לאחריות בשימוש בבינה מלאכותית ול-Responsible AI באופן כללי, אך קיימות דעות שונות לגבי הדרך. מצד אחד, קיימים גורמים שתומכים ברגולציה וחקיקה שתגביל או תחייב לבצע בדיקות מסוימות שיבטיחו את בטיחות הטכנולוגיה. חלק ניכר מהם חתמו לאחרונה על עצומה שקוראת לעצור לרגע את המרוץ הטכנולוגי ולעסוק בהשלכות. לעומתם, יש גורמים שלא תומכים ברגולציה על המחקר והפיתוח אלא רק על המוצרים. בעולם של קוד פתוח שכולם נגישים אליו ויכולים לפרוס אותו בעצמם, נשאלת שאלה לגבי מה הוא מוצר בכלל.

בכל החושך האתי הזה יש נקודת אור משמעותית והיא שיש הרבה מה לעשות! ובפילוסופיה, כמו בפילוסופיה, הכול מתחיל בלדעת לשאול

קודם כל, לשאול שאלות. המפתח לשימוש וצריכה נכונים נעוץ ביכולת שלנו להבין את המגבלות והאתגרים של הבינה המלאכותית. צריך הכשרה מתאימה על מנת לא ליפול בטעויות של בינה מלאכותית. על איזה מידע המנוע התאמן? האם המנוע שומר את המידע או משתמש בו בצורה שלא מקובלת עלי? מי בנה את המנוע? האם קיים מקור מידע אמין שיכול לספק לי מידע על איך הוא עובד? האם קיים מבחן בלתי תלוי שמעיד על הביצועים שלו? האם קוד המקור זמין עבורי? ועוד.

אם עדיין לא מבינים מספיק לעומק או שלא קיים מספיק מידע כדי להעריך את הסיכונים והיתרונות, כדאי להתייעץ עם מומחים ועדיף להגדיל ולמצוא ארגון שיעזור וילווה ברמה האסטרטגית את התהליך. צריך לזכור, בינה מלאכותית היא לא רק מודל, היא תפיסה שלמה של ניהול ואבטחת מידע, הטמעה נכונה, שימוש נכון ועדכון אינסופי.

ולבסוף, כל ארגון חייב לאמץ את התפיסה של “כבדהו וחשדהו”. אני מאוד בעד דמוקרטיזציה של בינה מלאכותית. זה יכול לייעל את היום יום שלנו בצורה משמעותית ולהגדיל את הערך שאנחנו פוגשים בשירותים שונים. עם זאת, אנחנו חייבים להיות ביקורתיים ולהבין לעומק מה זו החיה הזאת שאנחנו מכניסים הביתה. ממש כמו ריאיון שאנחנו עושים לעובדים פוטנציאליים.

“עם כוח גדול באה אחריות גדולה” אמר וולטר ובעקבותיו ספיידרמן. כולנו מבינים כמה בינה מלאכותית היא עוצמתית. אנחנו “רק” צריכים להיות אחראיים באותה עוצמה.

רוצים לשמוע עוד?

מלאו פרטים ונחזור אליכם בהקדם

כל השדות המסומנים ב * הינם שדות חובה

*
*
*
*