הזיה (Hallucination)
תופעה שבה מודל שפה ממציא עובדות שנשמעות הגיוניות אבל אינן נכונות. הסיכון המרכזי בהפעלת AI בייצור.
מה זה הזיה (Hallucination)
הזיה במונחי AI היא מצב שבו מודל שפה מייצר תשובה שנשמעת בטוחה ומקצועית — אבל היא שגויה במציאות. המודל "ממציא" עובדה, מקור, ציטוט או אפילו פונקציה ב-API שלא קיימת.
זוהי תכונה אינהרנטית של איך LLMs עובדים: הם מתאימים דפוסים, לא בודקים אמת. אם הדפוס הסטטיסטי "אומר" שצריך להיות פה משהו, המודל ייצר משהו שמתאים — גם אם אין לו ידע אמיתי.
דוגמאות נפוצות
- ציטוטים שאינם קיימים — "המחקר של Smith ו-Lee מ-2022 מראה ש-..." (אין מחקר כזה)
- API calls שגויים — המצאת פונקציה ש"נראית" כמו של הספרייה אבל לא קיימת
- פסקי דין — עורך דין שהשתמש ב-ChatGPT שילב במסמך פסיקה מומצאת והוטל עליו קנס
- נתוני הכנסות / מחירים — סכומים שלא מבוססים על שום מקור
- חוקים ותקנות — "לפי תיקון 13 לחוק הגנת הפרטיות..." (פרשנות שגויה)
מתי הסיכון גבוה
- משימות שדורשות דיוק עובדתי (משפטי, רפואי, פיננסי)
- תחומים ניש שלא היו מספיק בנתוני האימון
- ציטוט מקורות — המודל ייצר citation מומצא במקום להגיד "אין לי"
- חישובים מורכבים — אריתמטיקה ארוכה
- תאריכים ושמות — דברים ספציפיים שקל לטעות בהם
איך מצמצמים
- RAG — במקום שהמודל יסמוך על זיכרון, צרפו את המידע הרלוונטי ב-context וביקש לענות מתוכו בלבד
- Grounding constraints — "אם אתה לא בטוח, אמור 'אני לא יודע'. אסור להמציא"
- Citation requirements — בקשו מהמודל לציין מאיזה מקור באו הפרטים, ובדקו
- Verification step — שלב שני שבודק את התשובה (אם קיימים מספרים — לחשב אותם, אם יש URL — לבדוק שהוא קיים)
- Human-in-the-loop — בתחומים רגישים, אדם מאשר לפני פעולה
- Temperature נמוך — 0 או 0.1 לתשובות עובדתיות
ב-2026 — שיפור משמעותי
מודלים מודרניים (Claude Opus 4.7, GPT-5.4) הקטינו דרמטית את שיעור ההזיות בעבודה רגילה. תכונות חדשות:
- Reasoning chains מובנים — המודל "חושב" ובודק עצמו
- Refusal training — מוכן יותר להגיד "אני לא יודע"
- Web search integration — בדיקת עובדות בזמן אמת
עדיין: לעולם לא להפעיל סוכן AI בייצור בלי בדיקות לתפיסת הזיות. זה ה-#1 גורם לכשלים יקרים.