כל מי שעובד בשגרה עם מודלי שפה גדולים LLM כמו ChatGPT מכיר את התופעה של ״חירטוט בביטחון״. המכונה כותבת משפטים שנראים לגמרי מתקבלים על הדעת תחבירית, אבל העובדות והמידע הכללי המופיע בהן רחוק מהאמת או מטורלל לגמרי.
כבר בנובמבר 2022, ראינו איך הזיות המכונה יכול להיות מקור לבדיחות אך גם לבלבול ואי דיוקים.
לדוגמה, המקרה בו ChatGPT ענה תשובה הכוללת עובדות שגויות על הטלסקופ החלל ג'יימס ווב. לשאלה ״על איזה תגליות חדשות מטלסקופ החלל ג'יימס ווב אני יכול לספר לילד שלי בן ה-9?״ התקבלו ממנו מספר תשובות. ביניהן סופקה התשובה השגויה- ״באמצעות הטלסקופ צולמה התמונה הראשונה של כוכב מחוץ למערכת השמש״ (בעוד שהתמונה הראשונה של כוכב מחוץ למערכת השמש בוצעה ע״י הטלסקופ האירופי VLT ב-2004). מי שמבין כיצד המודלים הללו עובדים אינו מופתע.
הפוטנציאל להזיות לעולם לא יוכל להתבטל לחלוטין משום שהמכונות מספקות מידע באמצעות הפעלת מודלים סטטיסטיים שהתאמנו על מידע מסוים.
במקרים בהם השאלה מבקשת מידע שלא התאמנו עליו, המודלים הללו עדיין מנסים לייצר תשובה מהמידע הנגיש להם.
כמשתמשים המנסחים שאלות בעברית, עלינו לזכור שאין למכונות הללו גישה למאגרים בעברית בהיקף הנדרש ולכן עלינו להעדיף את האנגלית ככל שאנחנו רוצים דיוק וסיוע מהמודלים הללו לצרכי עבודה. מחקר[i] משנת 2023 בחן מה היקף ההזיות של ChatGPT ומצא שמדובר בהיקף של 19.5% מהתשובות לשאלות על נושאים ספציפיים.
לכן, אם יש דבר שכדאי לנו לזכור כמשתמשים הוא- בדיקת תשובות המכונה היא אינה רק המלצה אלא חובה.
כאשר Google הציגה את הצ'אט המתחרה Bard, השקעות שגויות בבדיקת עובדות הובילו לירידה חדה במניית החברה, מה שמדגים את חשיבות האמינות והדיוק.
בחינוך, חשוב אפילו יותר שנקח את הדיוק והאמינות בחשבון.
המכונות נועדו לסייע לנו אך הן עדיין חייבות הנחייה אנושית.
עקרון "Human in the Loop" ממליץ שאנו, כמורים ומחנכים, נהיה חלק מהתהליך, נשגיח ונוודא את איכות התוצאה הסופית.
בין אם זה למטרות יצירתיות או למידה של עובדות, חשוב לשמור על קשר זהיר ומודע עם הטכנולוגיה החדשה.
הזיות של מכונה בשירות היצירתיות.
לעיתים חיסרון בשדה אחד יכול להיות יתרון בשדה אחר. אני מתייחסת לצורך שלנו בהעשרת מאגר החומרים היצירתיים בעבודתנו- יוצרים, ממציאים, אמנים, מעצבים, מורים ועוד. ניתן בכמה מודלים לשנות את ה״טמפרטורה״ של התשובה שאנו מקבלים ולבקש במכוון יותר הזיות פשוט על-ידי הניסוח של הפרומפט שלנו.
קיימים גם כלים שתוכננו לתת תוצרים יותר פרועים. לדוגמה, אני אוהבת להשתעשע בתמונות שיוצר עבורי GPTs בשם HOT MODE שנשען על תוכנת Dall-E3 ומספק לי בעבור פרומפט פשוט אינסוף יצירות פרועות שכייף לשתף בהן חברים. יצרתי באמצעותו תמונות כריכים מסוגים שונים כדי להדגים את עיקרון Human in the Loop באופן ויזואלי בעבודה עם מודל בינה מלאכותית ליצירת תוצרים טקסטואליים, תמונות ותכני וידאו.
טיפ: נסו מדי פעם לבקש תשובות יצירתיות יותר והשוו את התוצאות שקיבלתם.
בעידן בו בינה מלאכותית (AI) הופכת לחלק בלתי נפרד מהתהליכים החינוכיים והיצירתיים, חשוב להכיר את הסיכונים והאתגרים שבשילובה במערכת החינוך. מודלי שפה גדולים כמו ChatGPT מציעים פוטנציאל עצום לחידוש וליצירתיות, אך גם מציבים אתגרים בטיפול במידע לא מדויק שהם עלולים ליצור, מה שנקרא "תופעת כדור השלג".
מהי תופעת כדור השלג?
תופעת כדור השלג בהקשר של בינה מלאכותית מתרחשת כאשר מידע שגוי או הזוי שנוצר על ידי המודל בתגובה ראשונה משמש בסיס לתגובות נוספות, וכך השגיאה מתרחבת ומצטברת לאורך זמן.
לדוגמה, אם המודל יוצר פרט שגוי על אירוע היסטורי ושאלות המעקב מתבססות על הפרט הלא נכון הזה, השגיאות עלולות להתרבות ולהוביל למידע שהוא רחוק מהמציאות.
5 עצות להתמודד עם תופעת כדור השלג ולשמור על שימוש אחראי ב-AI בחינוך
בדיקת עובדות קפדנית: תמיד בדקו את המידע שהמודלים מפיקים. אל תסתמכו על תשובה אחת ובדקו אותה במקורות נוספים אמינים. השתמשו במערכות בדיקת עובדות או עיינו במאמרים וספרים מוכרים. פרומפט: " הצג את כל המקורות עליהם הסתמכת בתשובתך" השתמשו במודל שפה גדול שנותן מקורות כגון: Perplexity, Gimini.
הגבלת הסתמכות על תשובות אוטומטיות: כשאתם משתמשים במודלי AI לפעילויות חינוכיות, הקפידו לא להסתמך על תשובה אחת בלבד. הפעילו ביקורת עצמית והערכה של התשובות שהמודל נותן. פרומפט: "אתה מומחה בתחום המידע. הערך כל אחת מהתשובות שסיפקת בסולם אמינות של 1-5. ספק מקורות"
שימוש במודלים עם משוב עצמי: עודדו תלמידים לשאול שאלות המאפשרות למודל להעריך את עצמו ולתקן שגיאות אם נדרש. זה יעזור למנוע צבירת שגיאות ולשפר את המידע הניתן. פרומפט: "הצג רשימה של כל העובדות מהטקסט שסיפקת כדי שאוכל לבדוק אותן"
הכשרה והדרכה רלוונטית: הקדישו זמן להכשיר ולהדריך מורים ותלמידים על אופן השימוש הנכון במודלי AI. הסבירו על המגבלות והפוטנציאל של הטכנולוגיה.
חדשנות במידה: נצלו את ההזדמנויות ליצירתיות שה-AI מציעה, אך שמרו על גישה ביקורתית. לעיתים, ניתן להשתמש ב"הזיות" ליצירת תרחישים ורעיונות חדשים בצורה שמעשירה את הלמידה ואת ההוראה.
בסופו של דבר, שילוב של בינה מלאכותית בחינוך יכול להביא לתוצאות מרהיבות אם נעשה בצורה מושכלת וביקורתית. ככל שנלמד להכיר טוב יותר את הכלים הללו ולהבין את מגבלותיהם, נוכל להפוך אותם לשותפים חכמים ומועילים בתהליך החינוכי.
כמורים, עלינו לדעת להבחין בין תוכן שימושי לבין זה שדורש בדיקה נוספת. חשוב לחנך את תלמידינו להיות בעלי חשיבה ביקורתית, לשאול שאלות ולבדוק עובדות, מהלכים אשר ישרתו אותם לא רק בכיתה אלא גם בחיים.
אהבתם את הפוסט - הזיות של מכונה: 5 עצות לצמצום תופעת כדור השלג? שתפו.
ניתן להזמין קורס בנושא בינה מלאכותית לבית-הספר שלכם וגם לבחור מבין מגוון סדנאות לחדרי מורים וכן לקבל הצעות לימי למידה מקוונים וסיורי למידה. למידע נוסף-
צרו קשר באמצעות הטלפון או המייל לקבלת הצעת מחיר.
אשמח מאוד אם תרשמו לאתר לקבלת הודעות וכן בצעו הרשמה לחברות Log In באתר כדי להיות מנויים לאתר ולהשתתף בשיח בנושאים שעולים כאן.
בנוסף, זכרו שניתן ללמוד קורס מקוון בקצב אישי כאן באתר -״בינה בכיתה״.
בהצלחה מורי המאה ה-21.
[i] (2023). HaluEval: A Large-Scale Hallucination Evaluation Benchmark for Large Language Models.
doi: 10.48550/arxiv.2305.11747
Commentaires