ChatGPT: בינה, אבל עדיין מלאכותית

עידן בר, מנהל תחום OCR ו-NLP ומרכז התמחות AI

אם לא שמעת עד עכשיו על ChatGPT, כנראה שחיית מתחת לסלע בחודשיים האחרונים;

ChatGPT הוא מודל שפה שפותח על ידי OpenAI ונועד ליצור טקסט בצורה המדמה אינטראקציה מול אדם אמיתי. יש למודל שימושים רבים, כמו יצירת תשובות לפניות לקוחות, כתיבת מאמרים, טקסטים חופשיים, קוד ועוד.

באופן כללי מדובר במודל שקידד את האינטרנט שהיה נגיש לו. ממש כך – מודל שפה עצום עם מיליארדי פרמטרים, שיודע לענות על שאלות לפי המידע שהיה זמין עבורו עד שנת 2021.

עבור חוקרים בתחומי הלמידה העמוקה, שחרור מודלים לאוויר העולם הפסיק להיות אירוע משמעותי; קהילת החוקרים בארץ ובעולם עדה לפרסום מודלים ומנועים שאומנו כדי להתמודד עם בעיות ומשימות שונות כמעט ברמה היומית. השיח עליהם, לרוב, מבוצע בפורומים מקצועיים שתואמים את סוג המודל או הבעיה שבא לפתור. אז מה קרה הפעם שמודל שפה שפורסם, עושה כל כך הרבה רעש?

בניגוד לפרסומים קודמים של מודלי שפה ענקיים, מוצלחים לא פחות מבחינה מדעית ומחקרית, הפרסום של ChatGPT הרקיע שחקים. אני לא חושב שהיה אדם אחד בסביבתי הקרובה שלא קרא, התנסה, שמע, כתב שיר, שיפץ את קורות החיים או סתם העביר את הזמן בשיחה חביבה בעזרת ובאמצעות ChatGPT. הנגשת המודל לציבור הרחב בצורה כל כך נוחה ומזמינה, גרמה לאנשים ממקצועות ורקעים שונים – לא טכנולוגיים בהכרח, להתנסות בו ולייצר סביבו באזז.

זהו חידוש מלהיב, בעיקר בגלל חוסר המודעות הכללי לשימוש במודלים עמוקים בחיי היומיום שלנו. הרבה אנשים שפותחים את נעילת הפלאפון בעזרת הפנים, לא יודעים שמדובר במודל לומד, ובטח לא יודעים להסביר איך הוא עובד. כנ”ל לגבי תהליך ה-Optical Character Recognition ובדיקת החתימה שמתבצע לאחר שליחת צילום צ’ק לבנק, או מסמך לביטוח. הפעם, לא רק שאנשים מודעים לעובדה שמדובר במודל לומד, אלא שהם גם יודעים להשתמש במונחים מהתחום כדי לעשות בו שימוש; מונחים כמו מודל שפה, פרמטרים ו-Tokenization (מה?!) נזרקים לחלל האוויר, והתחושה הכללית היא טכנולוגית מאי פעם!

אולם, יש צד נוסף למטבע…

פרסום המודל ChatGPT לציבור הרחב העלה בעיה משמעותית. הכרת מושגים מעולמות הלמידה העמוקה היא דבר אחד, אבל הבנת ההטיות והבעיות שעלולות לנבוע משימוש לא נכון בלמידה עמוקה, היא משהו אחר לגמרי. בעוד שלחוקר בתחום יש את סט הכלים שמאפשר לו לבחון את המודל ואת התשובות שהוא מקבל בצורה ביקורתית, למשתמש שאינו מהתחום אין את היכולת לשפוט את המודל ולתהות האם התשובה שקיבל מתבססת על ידע אמיתי, שגיאה סטטיסטית או הטיה שנובעת מחומר אימון מזוהם. פשוט כי הוא לא יודע לשאול את השאלות הנכונות.

אתן כמה דוגמאות למחשבה:
אחת מהבעיות המשמעותיות שנובעות משימוש ב-ChatGPT היא שהוא מאומן על מאגר גדול של שיחות אנושיות, ולכן עשוי לשקף את ההטיות הקיימות במאגר הזה. לדוגמה, אם המאגר מכיל יותר שיחות בין גברים מאשר בין נשים, ייתכן ש-ChatGPT ייצור תגובות האופייניות לשיחות ממוקדות גברים. באופן דומה, אם המאגר מכיל יותר שיחות באנגלית מאשר בשפות אחרות, ייתכן ש-ChatGPT ייצור תגובות האופייניות לשיחות באנגלית.

בעיה פוטנציאלית נוספת ב-ChatGPT היא שהוא נועד ליצור טקסט דמוי אדם, אך הוא אינו מסוגל להבין את ההקשר או המשמעות של המילים בהן הוא משתמש. משמעות הדבר היא שהוא עשוי ליצור תגובות שאינן הולמות או פוגעניות בהקשרים מסוימים, או שפשוט אינן הגיוניות.

מאין הבאתי את הדוגמאות האלה? ChatGPT כתב לי אותן בעצמו!

מודלים ג’נרטיביים, כמו ChatGPT, DALL-E 2 ו- Point-E, ימשיכו ללוות אותנו בשנים הקרובות. לפני שהספקנו להתרגל ל-ChatGPT3, כבר עומד בפתח שחרורו של מודל חדש – מבוסס רשת גדולה אף יותר, בשם ChatGPT4. המרחב הציבורי צפוי להתמלא במידע שנוצר ע”י מנועי בינה מלאכותית, והמגע בין המודלים למשתמשים יגדל בצורה משמעותית. אין ספק שמדובר בפלא טכנולוגי – ChatGPT הוא המודל הקרוב ביותר לבינה מלאכותית אמיתית שהיה כאן אי פעם. עם זאת, חשוב לזכור לא לקחת את הדברים שהוא אומר כפשוטם, ולהתייחס לתוצרים שהמודלים הג’נרטיביים מייצרים בספקנות ובביקורת ולא רק בפליאה.

כשזה מגיע למכונות, אנחנו נוטים לתת להן הרבה קרדיט; הרי מחשב תמיד עושה את אותו החישוב באותה הצורה אז אין סיבה שהוא יטעה, נכון? אז בבואך אל ד”ר GPT, שאל/י את עצמך: אם היה מגיע אליך אדם ועונה לך על שאלה, בלי לדעת מי הוא, מה הוא למד, על מה הוא מתבסס ומי שלח אותו מלכתחילה לענות לך עליה, היית פשוט מאמינ/ה לו?

בתמונה: עידן (שלבקשתנו שיחק עם עוד פלטפורמת AI) על רקע עתידני שיצר ב- midjourney

רוצים לשמוע עוד מעידן? בקרו בעמוד Deep Learning Research

 

 

רוצים לשמוע עוד?

מלאו פרטים ונחזור אליכם בהקדם

כל השדות המסומנים ב * הינם שדות חובה

*
*
*
*