1. למה זה חשוב לממשלה
קבלת החלטות ממשלתית מבוססת על מחקר — סקירות מדיניות, השוואות בינלאומיות, ניתוח חקיקה, בדיקת עובדות. הבעיה: מחקר מקצועי לוקח ימים עד שבועות.
AI מקצר את התהליך דרמטית — אבל רק אם יודעים להשתמש בו נכון. מחקר עם AI שלא כולל אימות מקורות הוא מסוכן יותר ממחקר בלי AI, כי הוא נותן תחושת ביטחון מזויפת.
ביחידה זו תלמדו: שיטת מחקר מלאה — מאיסוף מקורות ואימותם, דרך ניתוח והשוואה, ועד לכתיבת מסמך רקע מקצועי. עם דגש כבד על אמינות.
2. מושג הליבה: שיטת מחקר ב-5 שלבים
- מחקר שולחני (Desk Research) — איסוף וניתוח מידע ממקורות קיימים, בלי מחקר שדה
- סקירת ספרות (Literature Review) — סקירה שיטתית של מה שנכתב על נושא מסוים
- השוואה בינלאומית (Benchmarking) — השוואת מדיניות או ביצועים בין מדינות
- אימות מקורות (Source Verification) — בדיקה שהמקור אמיתי, עדכני ואמין
- מסמך רקע (Background Paper) — מסמך שמסכם את המידע הרלוונטי לקראת דיון או החלטה
- Perplexity — מנוע חיפוש AI שמציג מקורות מצוטטים — מצוין למחקר. כלים דומים: ChatGPT עם חיפוש אינטרנט, Gemini (עם גישה ל-Google Search), Copilot של Microsoft
5 שלבי המחקר
| שלב | מה עושים | כלי | זמן משוער | |------|----------|------|-----------| | 1. הגדרה | מה בדיוק חוקרים? מה השאלות? | אתם | 15 דקות | | 2. איסוף | חיפוש מקורות ומידע | Perplexity / Gemini / ChatGPT עם חיפוש | 30 דקות | | 3. אימות | בדיקת מקורות — אמיתיים? עדכניים? | ידני + כלי חיפוש AI | 20 דקות | | 4. ניתוח | קריאה מעמיקה, השוואה, סינתזה | Claude / ChatGPT / Gemini | 30 דקות | | 5. כתיבה | מסמך רקע / סיכום ממצאים | כל כלי AI | 20 דקות |
סה"כ: מחקר שלקח 3 ימים → 2 שעות. אבל רק אם שלב 3 (אימות) נעשה ביסודיות.
3. איך הטכנולוגיה עובדת — AI ומחקר
Perplexity — איך זה עובד?
Perplexity לא מודל שפה רגיל. הוא משלב:
- חיפוש אינטרנט — מחפש מקורות בזמן אמת
- מודל שפה — מסכם ומנתח את מה שמצא
- ציטוט — מציג מספרי מקורות ליד כל טענה
השאלה שלכם
↓
Perplexity מחפש באינטרנט
↓
מוצא 10-20 מקורות רלוונטיים
↓
מסכם את המידע
↓
מציג תשובה עם מספרי מקורות [1] [2] [3]
↓
אתם לוחצים על המקור ובודקים
טכניקת "הדבק ושאל" — מחקר במסמכים שלכם
כשיש לכם מסמך (דוח, חוק, נוהל) — אל תשאלו AI שאלות כלליות. הדביקו את המסמך ושאלו שאלות ממוקדות:
הנה דוח מבקר המדינה על [נושא]: [הדביקו את הדוח] שאלות: 1. מה הממצאים העיקריים? 2. מה הליקויים החמורים ביותר? 3. מה ההמלצות המרכזיות? 4. האם יש ממצאים שחוזרים מדוחות קודמים?
טכניקת השוואת מסמכים עם XML
כשצריך להשוות שני מסמכים — השתמשו בתגיות XML:
השווה בין שני המסמכים הבאים: <document_a> [הדביקו מסמך ראשון] </document_a> <document_b> [הדביקו מסמך שני] </document_b> צור טבלת השוואה: | נושא | מסמך א | מסמך ב | הבדל מהותי? | ציין: מה זהה, מה שונה, מה חדש, מה הושמט.
4. מקרה בוחן: הכנת סקירה בינלאומית על רגולציית AI בממשלה
הקשר
רשות החדשנות מכינה המלצות לממשלה בנושא רגולציית AI. הצוות נדרש לסקירה בינלאומית: מה עושות מדינות מובילות? מה עובד? מה לא? מה רלוונטי לישראל?
המשימה
סקירה של 5 מדינות (EU, ארה"ב, בריטניה, סינגפור, קנדה) — גישה רגולטורית, חקיקה, יישום, ולקחים.
שימוש ב-AI
שלב 1: איסוף ב-Perplexity
מהי הגישה הרגולטורית של האיחוד האירופי ל-AI נכון ל-2024? כלול: 1. שם החקיקה המרכזית 2. עקרונות מרכזיים 3. לוח זמנים ליישום 4. ביקורת עיקרית מקורות: רשמיים או אקדמיים בלבד.
שלב 2: אימות
הצוות בדק כל מקור:
- ✅ EU AI Act — מקור רשמי, עדכני
- ✅ NIST AI Framework — מקור רשמי אמריקאי
- ❌ "Singapore AI Governance Act 2024" — לא קיים. Perplexity המציא שם חקיקה
- ⚠️ מאמר אקדמי — preprint שלא עבר ביקורת עמיתים
שלב 3: ניתוח בכלי AI (Claude, ChatGPT או Gemini)
תפקיד: אנליסט מדיניות בכיר ברשות החדשנות. משימה: נתח והשווה את הגישות הרגולטוריות ל-AI ב-5 מדינות. [הדביקו את המידע שנאסף ואומת] מבנה: 1. טבלת השוואה: מדינה | גישה | חקיקה | סטטוס | חוזקות | חולשות 2. 3 מודלים רגולטוריים שונים שזוהו 3. רלוונטיות לישראל — מה מתאים ומה לא 4. 3 המלצות מנומקות אילוצים: התבסס רק על המידע שסופק. אל תוסיף מידע שלא אומת.
סיכונים שזוהו
- מקור בדוי: Perplexity "המציא" שם חקיקה בסינגפור — נתפס בשלב האימות
- מידע לא עדכני: חלק מהמידע על ה-EU AI Act היה מלפני ההצבעה הסופית — עודכן
- הטיה גיאוגרפית: רוב המקורות היו אנגלו-סקסיים — הצוות הוסיף מקורות מאסיה
פיקוח אנושי
- כל מקור נבדק ידנית (קיים? עדכני? אמין?)
- ההמלצות נבדקו על ידי יועץ משפטי
- הסקירה עברה עריכה מקצועית
תוצאה: סקירה מקצועית תוך יום וחצי במקום שבוע. אבל שלב האימות (4 שעות) היה קריטי.
5. תרגילים מעשיים — מחקר ממשלתי עם AI
תרגיל 1: מחקר מדיניות ב-Perplexity
חפשו ב-Perplexity: "מהן המדינות המובילות בשימוש ב-AI בשירותי רווחה ממשלתיים?" לכל מדינה בדקו: 1. האם המקור אמיתי? (לחצו על הקישור) 2. האם המידע עדכני? (בדקו תאריך) 3. האם המקור אמין? (ממשלתי/אקדמי/בלוג?) סמנו: ✅ אמין | ⚠️ דורש בדיקה | ❌ לא אמין
תרגיל 2: הדבק ושאל — ניתוח מסמך
משימה: קחו מסמך ממשלתי פומבי (דוח מבקר, החלטת ממשלה, נוהל) והדביקו בכלי ה-AI שלכם (Claude, ChatGPT, Gemini ועוד).
תפקיד: עוזר מחקר בכיר. משימה: נתח את המסמך הבא. [הדביקו מסמך פומבי] שאלות: 1. מה הנושא המרכזי? 2. מה הממצאים העיקריים? (5 נקודות) 3. מה ההמלצות? 4. מה חסר במסמך? 5. מה השאלות שהמסמך לא עונה עליהן?
תרגיל 3: השוואה בינלאומית
בצעו מחקר בשלבים: שלב 1 (Perplexity): חפשו "מדיניות [נושא שמעניין אתכם] ב-3 מדינות" שלב 2 (אימות): בדקו שכל מקור אמיתי ועדכני שלב 3 (כלי AI — Claude, ChatGPT או Gemini): הדביקו את המידע המאומת ובקשו: "צור טבלת השוואה בין 3 המדינות: | מדינה | גישה | חקיקה | תוצאות | רלוונטיות לישראל | הוסף 2 המלצות מנומקות." שלב 4: בדקו — האם ההמלצות הגיוניות? האם חסר מידע?
תרגיל 4: הכנת מסמך רקע
תפקיד: עוזר מחקר בכיר. משימה: הכן מסמך רקע של עמוד אחד לקראת דיון בנושא [X]. מבנה: 1. רקע (3 שורות) — מה הנושא ולמה הוא על הפרק 2. מצב קיים (5 שורות) — מה המצב בישראל 3. מה עושים במקומות אחרים (5 שורות) — 2-3 מדינות 4. אתגרים (3 נקודות) 5. חלופות (2-3 אפשרויות עם יתרונות וחסרונות) 6. המלצה (2 שורות) אילוצים: התבסס רק על מידע שסופק. ציין כשאתה מניח הנחות. [הדביקו חומר רקע שאספתם]
תרגיל 5: אימות עובדות
בקשו מכלי ה-AI שלכם (Claude, ChatGPT, Gemini ועוד): "מהם 5 העובדות המרכזיות על [נושא ממשלתי שמעניין אתכם]?" קחו את התשובה ובדקו כל עובדה: 1. חפשו ב-Perplexity — האם יש מקור? 2. חפשו באתר הרשמי — האם המידע נכון? 3. בדקו תאריך — האם המידע עדכני? סמנו: ✅ מאומת | ❌ שגוי | ⚠️ חלקי | 🔍 לא ניתן לאמת
6. ספריית פרומפטים — תבניות למחקר
<role>אנליסט מדיניות בכיר</role> <task>סקירת מדיניות בנושא [X]</task> <scope>[מדינות / תקופה / היקף]</scope> <format> 1. רקע ומצב קיים 2. טבלת השוואה בינלאומית 3. מגמות עיקריות 4. רלוונטיות לישראל 5. המלצות </format> <sources>התבסס רק על מידע שסופק. ציין מקורות.</sources>
<role>עוזר מחקר</role> <task>מסמך רקע לישיבה בנושא [X]</task> <audience>[מי ישתתף בישיבה]</audience> <format> 1. רקע (3 שורות) 2. מצב קיים + נתונים 3. אתגרים (3 נקודות) 4. חלופות (2-3 עם יתרונות/חסרונות) 5. המלצה </format> <length>עמוד אחד</length>
<role>יועץ משפטי</role> <task>השוואת חקיקה בנושא [X]</task> <countries>[מדינות להשוואה]</countries> <format> טבלה: מדינה | חוק | שנת חקיקה | עקרונות | יישום | ביקורת + ניתוח: דמיון, שוני, פערים + המלצות לישראל </format> <constraints>ציין מקורות. אם חוק לא אומת — ציין.</constraints>
7. כש-AI נכשל — שגיאות במחקר
כשל 1: מקורות בדויים
מה קורה: AI מציג מקור אקדמי שנראה אמין — שם מחבר, שם כתב עת, שנה — אבל המאמר לא קיים.
למה: AI מייצר טקסט שנראה כמו ציטוט אקדמי. הוא "יודע" איך ציטוט נראה, אבל לא בודק אם הוא קיים.
דוגמה: "לפי מחקר של Smith & Johnson (2023) ב-Journal of Public Policy..." — מחבר, כתב עת ומאמר שלא קיימים.
איך למנוע: בדקו כל מקור. חפשו את שם המאמר ב-Google Scholar. אם לא מוצאים — זה בדוי.
כשל 2: מידע לא עדכני
מה קורה: AI מספק מידע על חקיקה שהשתנתה, נתונים שעודכנו, או מדיניות שבוטלה.
למה: ידע המודל מוגבל לתאריך האימון. מה שהיה נכון ב-2023 לא בהכרח נכון ב-2025.
איך למנוע: לנתונים עדכניים — Perplexity (מחפש בזמן אמת). תמיד שאלו: "מתי המידע הזה עדכני?"
כשל 3: הטיה במקורות
מה קורה: AI מציג בעיקר מקורות אנגלו-סקסיים — ארה"ב, בריטניה, אוסטרליה — ומתעלם ממדינות אחרות.
למה: רוב נתוני האימון באנגלית. מדינות שמפרסמות באנגלית מיוצגות יותר.
איך למנוע: בקשו במפורש: "כלול מדינות מאסיה, אירופה ודרום אמריקה. לא רק מדינות אנגלו-סקסיות."
כשל 4: סינתזה שטחית
מה קורה: AI מסכם 5 מקורות אבל לא באמת משווה ביניהם — פשוט מציג כל אחד בנפרד.
למה: סינתזה (שילוב מקורות למסקנה אחת) היא משימה קשה. AI נוטה לסכם במקום לנתח.
איך למנוע: בקשו במפורש: "אל תסכם כל מקור בנפרד. השווה ביניהם: מה משותף? מה שונה? מה המסקנה?"
8. בדקו את עצמכם — תרחישי החלטה
Perplexity הציג מקור אקדמי: 'Smith & Johnson (2023), Journal of Public Policy'. מה הצעד הראשון?
צריך להכין סקירה בינלאומית. מה הסדר הנכון?
AI כתב בסקירה: 'סינגפור חוקקה את AI Governance Act ב-2024'. לא מצאתם את החוק הזה. מה עושים?
מה היתרון של טכניקת 'הדבק ושאל' על פני שאלה כללית?
הכנתם מסמך רקע עם AI. מה הבדיקה האחרונה לפני הגשה?
💎 סיכום — 5 עקרונות למחקר עם AI
- 5 שלבים: הגדרה → איסוף → אימות → ניתוח → כתיבה. אל תדלגו על אימות
- כלי חיפוש AI לאיסוף, כלי שיחה לניתוח — Perplexity/Gemini לאיסוף מקורות, Claude/ChatGPT/Gemini לניתוח מעמיק
- אמתו כל מקור — AI ממציא מקורות אקדמיים, שמות חקיקה, ונתונים. בדקו הכל
- הדבק ושאל — עדיף להדביק מסמך ולשאול עליו מאשר לשאול שאלה כללית
- בקשו סינתזה, לא סיכום — "השווה ביניהם" עדיף על "סכם כל אחד"
