דלג לתוכן הראשי
יחידה 16 מתוך 2255 דקות קריאהמתקדם

סוכני AI — מהאוטומציה לאוטונומיה

מה הם AI Agents, איך הם עובדים, כלים מרכזיים (Claude Code, LangGraph, CrewAI, MCP), ויישומים ממשלתיים

מנהלים טכנולוגיים ומפתחים5 תרגילים

1. למה זה חשוב לממשלה

עד היום, AI בממשלה אומר בעיקר: "שאל שאלה, קבל תשובה." מנהל ממשלתי מבקש סיכום, AI מייצר. פקיד מבקש ניסוח, AI כותב. זה Chat AI.

AI Agent הוא משהו שונה לגמרי. במקום לחכות לשאלה, Agent פועל: מתכנן, מריץ כלים, בודק תוצאות, ומסיים משימה מורכבת — מתחילתה ועד סופה.

דוגמה ממשלתית מוחשית: במקום שפקיד יבקש "תסכם את הדוח הזה" ויקבל טקסט — Agent לביטוח לאומי יוכל:

  1. לקבל בקשת זכאות חדשה
  2. לחפש אוטומטית את הנהלים הרלוונטיים במאגר
  3. לבדוק את מסמכי המבקש
  4. לסווג את הבקשה לקטגוריה הנכונה
  5. לנסח המלצה מנומקת — ולהעביר לבדיקת פקיד

כל זה בלי שאדם יגע בכפתור. זו האוטומציה של הדור הבא.

איפה אנחנו בשנת 2025-2026?

  • ממשלת בריטניה: Agent לטיפול בבקשות FOIA (חופש המידע) — קיצר זמן טיפול מ-20 יום ל-4 ימים
  • סינגפור: Agent לניתוח פניות ציבור ב-CPF (ביטוח לאומי סינגפורי) — 60% קיצור בעומס
  • ישראל: ניסויים בעיריות לתגובה אוטומטית לבקשות 311

2. מושגי מפתח

  • Agent — מערכת AI אוטונומית שמתכננת, פועלת ומשתמשת בכלים להשגת מטרה, ללא צורך בהנחיה בכל שלב
  • Tool Use — יכולת ה-AI לקרוא לפונקציות חיצוניות: חיפוש במסד נתונים, שליחת מייל, קריאת קבצים, הרצת חישובים
  • MCP (Model Context Protocol) — פרוטוקול פתוח שפיתחה Anthropic לחיבור סטנדרטי בין מודלי AI לכלים וסביבות חיצוניות
  • ReAct — תבנית Reasoning + Acting: ה-AI חושב בקול ("צריך לחפש X"), פועל (מפעיל כלי), מתבונן בתוצאה, וממשיך — בלולאה
  • Guardrails — מנגנוני בקרה שמונעים מ-Agent לבצע פעולות מסוכנות, לא מורשות, או מחוץ לתחום
  • Human-in-the-Loop (HITL) — נקודות עצירה מוגדרות בתהליך שבהן אדם חייב לאשר לפני שה-Agent ממשיך לשלב הבא
  • Multi-Agent — ארכיטקטורה שבה מספר סוכנים מתמחים עובדים בתיאום: Orchestrator מחלק משימות, SubAgents מבצעים

3. הבדל בין Chat AI לבין AI Agent

| תכונה | Chat AI (ChatGPT, Claude) | AI Agent | |--------|--------------------------|----------| | אופן פעולה | עונה לשאלה בודדת | מבצע רצף פעולות לעמידה במטרה | | יוזמה | מחכה להנחיה בכל שלב | תכנן ופועל אוטונומית | | כלים | בדרך כלל ללא גישה למערכות | כלים חיצוניים: APIs, DBs, קבצים | | זיכרון | בדרך כלל אין בין שיחות | יכול לשמור מצב ולהמשיך | | מאמץ אנושי | אדם מנחה כל שלב | אדם מגדיר מטרה, Agent מבצע | | שגיאות | שגיאה = תשובה לא מדויקת | שגיאה יכולה לגרום לפעולה שגויה | | מתאים ל | שאלות, כתיבה, ניתוח חד-פעמי | תהליכים חוזרים, עיבוד מסמכים, אוטומציה |


4. ארכיטקטורת Agent — איך זה עובד בפנים

Agent מודרני פועל בלולאה של 4 שלבים:

[1] PLANNING — קריאת המטרה וחלוקה לתת-משימות
     ↓
[2] TOOL USE — הפעלת כלי (API call, DB query, code run)
     ↓
[3] OBSERVATION — קריאת תוצאת הכלי, הבנת מה קרה
     ↓
[4] REFLECTION — "האם הגעתי למטרה? מה הצעד הבא?"
     ↓ (חוזר ל-PLANNING אם צריך)
[5] OUTPUT — תוצאה סופית + דיווח לאדם

דוגמה: Agent לטיפול בפנייה ציבורית

קלט: "אבי לוי פנה — שאל מדוע לא קיבל קצבת ילדים לחודש ינואר"

ריצת Agent:

  1. PLAN: אצטרך לבדוק: (א) האם הבקשה מאושרת? (ב) האם הייתה בעיה טכנית? (ג) מה הסיבה?
  2. TOOL: search_beneficiary(id="A.LEVI") → מחזיר: זכאי, תשלום מינואר לא בוצע
  3. OBSERVE: יש אי-תשלום — צריך לבדוק סיבה
  4. TOOL: get_payment_log(month="2025-01") → שגיאה בנתוני חשבון בנק
  5. OBSERVE: הבנקbmבנק לא עודכן
  6. REFLECT: יש פתרון ברור — לנסח תשובה ולהעביר לאישור פקיד
  7. OUTPUT: "הפנייה טופלה. סיבה: שגיאה בנתוני חשבון בנק. פעולה נדרשת: פקיד לאשר עדכון נתונים."

זמן: 4 שניות. בלי שאיש נגע בתיק.


5. סוגי Agents

ReAct Agent (הנפוץ ביותר)

Reasoning + Acting — חושב, פועל, מתבונן, בלולאה.

  • מתאים לרוב המשימות: מחקר, עיבוד מסמכים, מענה לשאלות
  • קל ליישם עם LangChain, LangGraph, Claude API

Chain-of-Thought Agent

  • פורט את כל שלבי החשיבה לפני שפועל
  • מתאים להחלטות מורכבות עם נימוקים
  • יתרון: שקיפות ואפשרות ביקורת

Multi-Agent Systems

  • Orchestrator Agent: מקבל מטרה גדולה, מחלק למשימות
  • SubAgents מתמחים: כל אחד מומחה בתחום (מחקר / כתיבה / בדיקות / אישור)
  • דוגמה ממשלתית: Orchestrator מקבל "הכן דוח רבעוני" → מפעיל: SubAgent נתונים, SubAgent כתיבה, SubAgent עיצוב

6. כלים מרכזיים

השוואה מעשית

| כלי | מה הוא עושה | מתאים ל | עלות | |-----|------------|---------|------| | Claude Code | Agent שכותב, מריץ ומתקן קוד בטרמינל | צוותי IT, מפתחים | API usage | | Kiro (AWS) | IDE עם Agent מובנה — specs, steering, hooks | פיתוח ב-AWS, אינטגרציה ענן | חינם (preview) | | Cursor | VS Code עם Agent AI מלא | פיתוח תוכנה יומיומי | $20-40/חודש | | Windsurf | IDE AI-first מ-Codeium | פיתוח, אוטומציה | $10-20/חודש | | OpenAI Assistants API | בניית Agent מותאם עם tools | אינטגרציה ב-OpenAI | Pay-per-use | | LangChain / LangGraph | Framework Python לבניית Agents | Developers מנוסים | חינם + LLM costs | | CrewAI | Multi-Agent orchestration | צוותי agents מורכבים | חינם + LLM costs | | n8n / Make + AI | אוטומציה ויזואלית עם AI nodes | מנהלי תהליכים | $20-50/חודש |

איזה כלי לממשלה?

לצוות IT ממשלתי ללא מפתח ייעודי: n8n עם AI nodes — בניה ויזואלית, ללא קוד, אינטגרציה עם מערכות קיימות.

לצוות מפתחים: LangGraph (Python) + Claude API — גמישות מלאה, תמיכה ב-Human-in-the-Loop מובנית.

לניסוי מהיר: Claude Code ב-CLI — הגדר מטרה בעברית, תראה מה קורה.


7. MCP — Model Context Protocol

מה זה?

MCP הוא פרוטוקול פתוח שפיתחה Anthropic (ספטמבר 2024). הוא מגדיר שפה סטנדרטית לחיבור בין:

  • מודל AI (Claude, GPT, Gemini)
  • כלים חיצוניים (מסדי נתונים, APIs, מערכות קבצים)

לפני MCP: כל מפתח היה צריך לכתוב את האינטגרציה בעצמו. אחרי MCP: כתוב שרת MCP אחד — כל מודל שמכיר MCP יוכל להשתמש בו.

ארכיטקטורת MCP

[מודל AI] ←→ [MCP Client] ←→ [MCP Server] ←→ [מערכת חיצונית]

דוגמאות לשרתי MCP:
- mcp-server-postgres → גישה ל-DB
- mcp-server-filesystem → קריאה/כתיבה לקבצים
- mcp-server-github → ניהול קוד
- mcp-server-government-db → גישה למסד נהלים (ניתן לפתח)

למה זה חשוב לממשלה?

כל משרד יכול לפתח שרת MCP לחיבור המודל למאגרי הידע שלו — מבלי לחשוף את הנתונים לענן ציבורי. השרת פועל בתשתית הפנים-ארגונית, ה-Model מקבל גישה מוגבלת ומפוקחת.

דוגמה: שרת MCP לחיבור Claude לבסיס נהלי ביטוח לאומי. Claude יוכל לענות על שאלות זכאות בדיוק — ממסד הנתונים הרשמי — בלי להמציא.


8. יישומים ממשלתיים — 4 תרחישים

תרחיש 1: Agent לשאלות זכאות (RAG + Agent)

הבעיה: אזרחים שואלים שאלות מורכבות על זכאויות. כל שאלה לוקחת לפקיד 15-20 דקות.

הפתרון: Agent עם גישה למאגר הנהלים (RAG) שיכול:

  • לחפש בנהלים הרלוונטיים
  • לשלב מידע ממספר מקורות
  • לנסח תשובה מדויקת ומנומקת
  • לסמן אם נדרשת בדיקה אנושית

תוצאה צפויה: 70% מהשאלות — ניתנות לטיפול אוטומטי.

תרחיש 2: Agent לסיווג ועיבוד פניות ציבור

הזרימה:

פנייה נכנסת → Agent מסווג קטגוריה →
Agent בודק מסמכים מצורפים →
Agent בודק היסטוריית מבקש →
Agent מנסח המלצה →
פקיד מאשר/דוחה

Human-in-the-Loop: פקיד מאשר כל המלצה לפני שנשלחת. Agent לא שולח שום דבר ישירות.

תרחיש 3: Agent לסיכום ישיבות

קלט: קובץ תמלול ישיבה (Teams, Zoom, יומן)

ה-Agent:

  1. מנתח את התמלול
  2. מזהה: החלטות שהתקבלו, משימות שהוטלו, אחראים, תאריכי יעד
  3. מייצר: פרוטוקול מובנה + רשימת action items עם שמות ותאריכים
  4. שולח לאישור לכותב הפרוטוקול

חיסכון: מ-45 דקות לפרוטוקול ל-3 דקות בדיקה.

תרחיש 4: Agent לבדיקת עמידה ברגולציה

מה הוא עושה: בודק מסמכי מדיניות/נהלים מול רשימת דרישות רגולטוריות ומייצר: "סעיפים שמולאו ✓ / סעיפים חסרים ✗ / סעיפים שדורשים בדיקה ?"

יתרון ממשלתי: ביקורת פנימית אוטומטית לפני ביקורת חיצונית.


9. סיכונים ובקרות

הסיכונים הייחודיים ל-Agents

1. הגברת שגיאות (Amplification)

  • ב-Chat AI: שגיאה = תשובה לא מדויקת
  • ב-Agent: שגיאה בשלב 2 גורמת לשגיאות בשלבים 3, 4, 5
  • פתרון: Checkpoints — Agent מדווח ומבקש אישור בנקודות קריטיות

2. פעולות בלתי הפיכות

  • Agent שמוחק קבצים, שולח מיילים, מעדכן DB — לא ניתן לבטל
  • פתרון: "Dry Run Mode" — Agent מתאר מה הוא עומד לעשות, לפני שעושה

3. Scope Creep

  • Agent שפועל מחוץ לתחום המוגדר
  • פתרון: Guardrails — רשימה מפורשת של מה Agent מותר ואסור לו לעשות

4. הסתמכות עיוורת

  • משתמשים שמאשרים המלצות של Agent בלי לקרוא
  • פתרון: הדרכה + ממשק שמדגיש "זו המלצה AI — אנושי אחראי"

מסגרת ממשלתית לפריסת Agents

| שלב | פעולה | אחראי | |-----|--------|-------| | הגדרה | מה Agent עושה ומה לא | מנהל תהליך | | Guardrails | מה מחייב אישור אנושי | צוות IT + ייעוץ משפטי | | Pilot | 50 מקרים עם מעקב צמוד | צוות מעורב | | Audit Trail | לוג של כל פעולת Agent | IT | | הערכה | דיוק, זמן, שביעות רצון | מנהל | | Scale | הרחבה אחרי אישור | הנהלה |


10. תרגילים מעשיים

תרגיל 1: הגדרת Agent לתהליך שלך

חשבו על תהליך חוזר ביחידה שלכם (עיבוד טפסים, מענה לשאלות, הכנת דוחות).

תרגיל 1: הגדרת משימת Agent
אני רוצה לבנות AI Agent שיטפל ב: [תאר את התהליך בכמה משפטים]

בבקשה עזור לי להגדיר:
1. מה בדיוק ה-Agent עושה (Input → Output)
2. אילו כלים ה-Agent יצטרך (מסד נתונים? API? קבצים?)
3. איפה צריך Human-in-the-Loop (מה ה-Agent לא יאשר לבד?)
4. מה הסיכונים העיקריים ואיך להגן מפניהם
5. איך מודדים הצלחה

הקשר: אני עובד ב[שם יחידה/משרד], התהליך מוכר לי ולוקח כ-[זמן] לכל מקרה.

תרגיל 2: הכנת System Prompt ל-Agent ממשלתי

תרגיל 2: System Prompt לAgent
כתוב System Prompt ל-AI Agent שעובד ביחידת [שם יחידה].

ה-Agent עוזר ב: [תאר את תפקידו]

הנחיות שחייבות להיות ב-System Prompt:
1. תחום פעולה: מה Agent מותר/אסור לעשות
2. Human-in-the-Loop: מתי לעצור ולבקש אישור
3. טון ושפה: רשמי, בעברית, ללא ז'רגון
4. מה לעשות כשאין מידע: להגיד "אינני יודע" במקום להמציא
5. פרטיות: לא לחשוף נתוני אזרחים ב-logs

בנה לי את ה-System Prompt המלא.

תרגיל 3: סיווג מקרים לטיפול Agent vs. אנושי

תרגיל 3: מתי Agent, מתי אדם?
אני מנהל [שם תהליך] ב[שם יחידה].
הנה 10 סוגי פניות/מקרים שאנחנו מטפלים [רשום 5-10 דוגמאות]:

1. [סוג פנייה ראשון]
2. [סוג פנייה שני]
...

בבקשה סווג כל סוג לאחד מ-3 קטגוריות:
- ✅ מתאים ל-Agent: חוזר, ברור, מובנה, סיכון נמוך
- ⚠️ Agent + HITL: Agent מנסח, אדם מאשר לפני שליחה
- ❌ רק אדם: מורכב, רגיש, שיקול דעת נדרש

עבור כל סיווג — הסבר למה.

תרגיל 4: ניתוח תרחיש כישלון

תרגיל 4: מה יכול להשתבש?
תאר תרחיש Agent ממשלתי:
- Agent: מטפל ב[סוג משימה]
- כלים: [רשימת כלים שיש לו גישה אליהם]
- תהליך: [תיאור קצר של הלוגיקה]

עכשיו בצע ניתוח סיכונים:
1. מה יכול להשתבש בכל שלב?
2. מה ההשפעה אם הוא מקבל מידע שגוי מ-DB?
3. מה ההשפעה אם הוא מבצע פעולה על הרשומה הלא-נכונה?
4. מה ה-Guardrails שאתה ממליץ?
5. מה ה-Audit Trail המינימלי שחייב להיות?

תרגיל 5: פיתוח Mini-Agent עם Claude

תרגיל 5: הרץ Agent בסיסי ב-Claude
אני רוצה שתפעל כ-Agent שמטפל בשאלות על זכאות לקצבת ילדים.

כלים שיש לך:
- search_policy(query): מחזיר קטעים רלוונטיים מנהלי ביטוח לאומי [הדמיה]
- check_eligibility(age, income, children): מחזיר האם זכאי [הדמיה]

המשימה: ענה על השאלה הבאה תוך שימוש בכלים.
פרמט כל שלב כך:
THINK: [מה אתה צריך לבדוק]
ACTION: [קריאה לכלי]
OBSERVE: [מה הכלי מחזיר]
ANSWER: [תשובה סופית]

שאלה: "אני הורה יחידני לשני ילדים, עובד חצי משרה, מרוויח 6,000 שקל בחודש. האם אני זכאי לקצבת ילדים?"

11. שאלות בדיקה

מה ההבדל המהותי ביותר בין Chat AI לבין AI Agent?

מה זה MCP (Model Context Protocol)?

מה זה Human-in-the-Loop ב-AI Agent?

איזה מסוגי ה-Agents הכי מתאים לעיבוד פניות ציבור חוזרות ונשנות?


12. מה הלאה?

נתיב למי שרוצה להמשיך

שלב 1: הבנה (עכשיו)

  • קרא את יחידה 11 (RAG) — כי רוב ה-Agents הממשלתיים משלבים RAG
  • נסה את Claude Code בפרויקט קטן

שלב 2: ניסוי (חודש הבא)

  • בחר תהליך אחד ביחידה שלך — מועמד ל-Agent
  • הגדר: Input, Output, כלים, Guardrails
  • שתף עם צוות IT את ההגדרה

שלב 3: פיילוט (רבעון הבא)

  • צור שיתוף פעולה עם צוות IT/תמ"מ
  • בנה Proof of Concept עם 20-50 מקרים
  • מדוד: דיוק, זמן, שביעות רצון

משאבים להמשך

  • Claude API Docs — arn.be (agent documentation, tool use)
  • LangGraph — langchain-ai.github.io/langgraph — הפריימוורק המוביל לבניית Agents
  • MCP Specification — modelcontextprotocol.io — הפרוטוקול הפתוח
  • AI Agents in Government — OECD AI Policy Observatory

💡 סיימת? שתף עם הקולגות שלך