דלג לתוכן הראשי
יחידה 6 מתוך 2235 דקות קריאהיישומי

חיפוש ומחקר עם AI

שימוש ב-AI לחיפוש מידע, סקירת ספרות ומחקר מדיניות

חוקרים ומנהלי מדיניות3 תרגילים

1. למה זה חשוב לממשלה

קבלת החלטות ממשלתית מבוססת על מחקר — סקירות מדיניות, השוואות בינלאומיות, ניתוח חקיקה, בדיקת עובדות. הבעיה: מחקר מקצועי לוקח ימים עד שבועות.

AI מקצר את התהליך דרמטית — אבל רק אם יודעים להשתמש בו נכון. מחקר עם AI שלא כולל אימות מקורות הוא מסוכן יותר ממחקר בלי AI, כי הוא נותן תחושת ביטחון מזויפת.

ביחידה זו תלמדו: שיטת מחקר מלאה — מאיסוף מקורות ואימותם, דרך ניתוח והשוואה, ועד לכתיבת מסמך רקע מקצועי. עם דגש כבד על אמינות.


2. מושג הליבה: שיטת מחקר ב-5 שלבים

  • מחקר שולחני (Desk Research) — איסוף וניתוח מידע ממקורות קיימים, בלי מחקר שדה
  • סקירת ספרות (Literature Review) — סקירה שיטתית של מה שנכתב על נושא מסוים
  • השוואה בינלאומית (Benchmarking) — השוואת מדיניות או ביצועים בין מדינות
  • אימות מקורות (Source Verification) — בדיקה שהמקור אמיתי, עדכני ואמין
  • מסמך רקע (Background Paper) — מסמך שמסכם את המידע הרלוונטי לקראת דיון או החלטה
  • Perplexity — מנוע חיפוש AI שמציג מקורות מצוטטים — מצוין למחקר. כלים דומים: ChatGPT עם חיפוש אינטרנט, Gemini (עם גישה ל-Google Search), Copilot של Microsoft

5 שלבי המחקר

| שלב | מה עושים | כלי | זמן משוער | |------|----------|------|-----------| | 1. הגדרה | מה בדיוק חוקרים? מה השאלות? | אתם | 15 דקות | | 2. איסוף | חיפוש מקורות ומידע | Perplexity / Gemini / ChatGPT עם חיפוש | 30 דקות | | 3. אימות | בדיקת מקורות — אמיתיים? עדכניים? | ידני + כלי חיפוש AI | 20 דקות | | 4. ניתוח | קריאה מעמיקה, השוואה, סינתזה | Claude / ChatGPT / Gemini | 30 דקות | | 5. כתיבה | מסמך רקע / סיכום ממצאים | כל כלי AI | 20 דקות |

סה"כ: מחקר שלקח 3 ימים → 2 שעות. אבל רק אם שלב 3 (אימות) נעשה ביסודיות.


3. איך הטכנולוגיה עובדת — AI ומחקר

Perplexity — איך זה עובד?

Perplexity לא מודל שפה רגיל. הוא משלב:

  1. חיפוש אינטרנט — מחפש מקורות בזמן אמת
  2. מודל שפה — מסכם ומנתח את מה שמצא
  3. ציטוט — מציג מספרי מקורות ליד כל טענה
השאלה שלכם
    ↓
Perplexity מחפש באינטרנט
    ↓
מוצא 10-20 מקורות רלוונטיים
    ↓
מסכם את המידע
    ↓
מציג תשובה עם מספרי מקורות [1] [2] [3]
    ↓
אתם לוחצים על המקור ובודקים

טכניקת "הדבק ושאל" — מחקר במסמכים שלכם

כשיש לכם מסמך (דוח, חוק, נוהל) — אל תשאלו AI שאלות כלליות. הדביקו את המסמך ושאלו שאלות ממוקדות:

הדבק ושאל — בסיסי
הנה דוח מבקר המדינה על [נושא]:
[הדביקו את הדוח]

שאלות:
1. מה הממצאים העיקריים?
2. מה הליקויים החמורים ביותר?
3. מה ההמלצות המרכזיות?
4. האם יש ממצאים שחוזרים מדוחות קודמים?

טכניקת השוואת מסמכים עם XML

כשצריך להשוות שני מסמכים — השתמשו בתגיות XML:

השוואת מסמכים
השווה בין שני המסמכים הבאים:

<document_a>
[הדביקו מסמך ראשון]
</document_a>

<document_b>
[הדביקו מסמך שני]
</document_b>

צור טבלת השוואה:
| נושא | מסמך א | מסמך ב | הבדל מהותי? |

ציין: מה זהה, מה שונה, מה חדש, מה הושמט.

4. מקרה בוחן: הכנת סקירה בינלאומית על רגולציית AI בממשלה

הקשר

רשות החדשנות מכינה המלצות לממשלה בנושא רגולציית AI. הצוות נדרש לסקירה בינלאומית: מה עושות מדינות מובילות? מה עובד? מה לא? מה רלוונטי לישראל?

המשימה

סקירה של 5 מדינות (EU, ארה"ב, בריטניה, סינגפור, קנדה) — גישה רגולטורית, חקיקה, יישום, ולקחים.

שימוש ב-AI

שלב 1: איסוף ב-Perplexity

איסוף — Perplexity
מהי הגישה הרגולטורית של האיחוד האירופי ל-AI נכון ל-2024?
כלול:
1. שם החקיקה המרכזית
2. עקרונות מרכזיים
3. לוח זמנים ליישום
4. ביקורת עיקרית
מקורות: רשמיים או אקדמיים בלבד.

שלב 2: אימות

הצוות בדק כל מקור:

  • ✅ EU AI Act — מקור רשמי, עדכני
  • ✅ NIST AI Framework — מקור רשמי אמריקאי
  • ❌ "Singapore AI Governance Act 2024" — לא קיים. Perplexity המציא שם חקיקה
  • ⚠️ מאמר אקדמי — preprint שלא עבר ביקורת עמיתים

שלב 3: ניתוח בכלי AI (Claude, ChatGPT או Gemini)

ניתוח השוואתי
תפקיד: אנליסט מדיניות בכיר ברשות החדשנות.
משימה: נתח והשווה את הגישות הרגולטוריות ל-AI ב-5 מדינות.

[הדביקו את המידע שנאסף ואומת]

מבנה:
1. טבלת השוואה: מדינה | גישה | חקיקה | סטטוס | חוזקות | חולשות
2. 3 מודלים רגולטוריים שונים שזוהו
3. רלוונטיות לישראל — מה מתאים ומה לא
4. 3 המלצות מנומקות

אילוצים: התבסס רק על המידע שסופק. אל תוסיף מידע שלא אומת.

סיכונים שזוהו

  • מקור בדוי: Perplexity "המציא" שם חקיקה בסינגפור — נתפס בשלב האימות
  • מידע לא עדכני: חלק מהמידע על ה-EU AI Act היה מלפני ההצבעה הסופית — עודכן
  • הטיה גיאוגרפית: רוב המקורות היו אנגלו-סקסיים — הצוות הוסיף מקורות מאסיה

פיקוח אנושי

  • כל מקור נבדק ידנית (קיים? עדכני? אמין?)
  • ההמלצות נבדקו על ידי יועץ משפטי
  • הסקירה עברה עריכה מקצועית

תוצאה: סקירה מקצועית תוך יום וחצי במקום שבוע. אבל שלב האימות (4 שעות) היה קריטי.


5. תרגילים מעשיים — מחקר ממשלתי עם AI

תרגיל 1: מחקר מדיניות ב-Perplexity

תרגיל 1 — מחקר מדיניות
חפשו ב-Perplexity:
"מהן המדינות המובילות בשימוש ב-AI בשירותי רווחה ממשלתיים?"

לכל מדינה בדקו:
1. האם המקור אמיתי? (לחצו על הקישור)
2. האם המידע עדכני? (בדקו תאריך)
3. האם המקור אמין? (ממשלתי/אקדמי/בלוג?)

סמנו: ✅ אמין | ⚠️ דורש בדיקה | ❌ לא אמין

תרגיל 2: הדבק ושאל — ניתוח מסמך

משימה: קחו מסמך ממשלתי פומבי (דוח מבקר, החלטת ממשלה, נוהל) והדביקו בכלי ה-AI שלכם (Claude, ChatGPT, Gemini ועוד).

תרגיל 2 — ניתוח מסמך
תפקיד: עוזר מחקר בכיר.
משימה: נתח את המסמך הבא.

[הדביקו מסמך פומבי]

שאלות:
1. מה הנושא המרכזי?
2. מה הממצאים העיקריים? (5 נקודות)
3. מה ההמלצות?
4. מה חסר במסמך?
5. מה השאלות שהמסמך לא עונה עליהן?

תרגיל 3: השוואה בינלאומית

תרגיל 3 — השוואה בינלאומית
בצעו מחקר בשלבים:

שלב 1 (Perplexity): חפשו "מדיניות [נושא שמעניין אתכם] ב-3 מדינות"
שלב 2 (אימות): בדקו שכל מקור אמיתי ועדכני
שלב 3 (כלי AI — Claude, ChatGPT או Gemini): הדביקו את המידע המאומת ובקשו:

"צור טבלת השוואה בין 3 המדינות:
| מדינה | גישה | חקיקה | תוצאות | רלוונטיות לישראל |

הוסף 2 המלצות מנומקות."

שלב 4: בדקו — האם ההמלצות הגיוניות? האם חסר מידע?

תרגיל 4: הכנת מסמך רקע

תרגיל 4 — מסמך רקע
תפקיד: עוזר מחקר בכיר.
משימה: הכן מסמך רקע של עמוד אחד לקראת דיון בנושא [X].

מבנה:
1. רקע (3 שורות) — מה הנושא ולמה הוא על הפרק
2. מצב קיים (5 שורות) — מה המצב בישראל
3. מה עושים במקומות אחרים (5 שורות) — 2-3 מדינות
4. אתגרים (3 נקודות)
5. חלופות (2-3 אפשרויות עם יתרונות וחסרונות)
6. המלצה (2 שורות)

אילוצים: התבסס רק על מידע שסופק. ציין כשאתה מניח הנחות.

[הדביקו חומר רקע שאספתם]

תרגיל 5: אימות עובדות

תרגיל 5 — אימות
בקשו מכלי ה-AI שלכם (Claude, ChatGPT, Gemini ועוד):
"מהם 5 העובדות המרכזיות על [נושא ממשלתי שמעניין אתכם]?"

קחו את התשובה ובדקו כל עובדה:
1. חפשו ב-Perplexity — האם יש מקור?
2. חפשו באתר הרשמי — האם המידע נכון?
3. בדקו תאריך — האם המידע עדכני?

סמנו:
✅ מאומת | ❌ שגוי | ⚠️ חלקי | 🔍 לא ניתן לאמת

6. ספריית פרומפטים — תבניות למחקר

תבנית — סקירת מדיניות
<role>אנליסט מדיניות בכיר</role>
<task>סקירת מדיניות בנושא [X]</task>
<scope>[מדינות / תקופה / היקף]</scope>
<format>
1. רקע ומצב קיים
2. טבלת השוואה בינלאומית
3. מגמות עיקריות
4. רלוונטיות לישראל
5. המלצות
</format>
<sources>התבסס רק על מידע שסופק. ציין מקורות.</sources>
תבנית — מסמך רקע לישיבה
<role>עוזר מחקר</role>
<task>מסמך רקע לישיבה בנושא [X]</task>
<audience>[מי ישתתף בישיבה]</audience>
<format>
1. רקע (3 שורות)
2. מצב קיים + נתונים
3. אתגרים (3 נקודות)
4. חלופות (2-3 עם יתרונות/חסרונות)
5. המלצה
</format>
<length>עמוד אחד</length>
תבנית — השוואת חקיקה
<role>יועץ משפטי</role>
<task>השוואת חקיקה בנושא [X]</task>
<countries>[מדינות להשוואה]</countries>
<format>
טבלה: מדינה | חוק | שנת חקיקה | עקרונות | יישום | ביקורת
+ ניתוח: דמיון, שוני, פערים
+ המלצות לישראל
</format>
<constraints>ציין מקורות. אם חוק לא אומת — ציין.</constraints>

7. כש-AI נכשל — שגיאות במחקר

כשל 1: מקורות בדויים

מה קורה: AI מציג מקור אקדמי שנראה אמין — שם מחבר, שם כתב עת, שנה — אבל המאמר לא קיים.

למה: AI מייצר טקסט שנראה כמו ציטוט אקדמי. הוא "יודע" איך ציטוט נראה, אבל לא בודק אם הוא קיים.

דוגמה: "לפי מחקר של Smith & Johnson (2023) ב-Journal of Public Policy..." — מחבר, כתב עת ומאמר שלא קיימים.

איך למנוע: בדקו כל מקור. חפשו את שם המאמר ב-Google Scholar. אם לא מוצאים — זה בדוי.

כשל 2: מידע לא עדכני

מה קורה: AI מספק מידע על חקיקה שהשתנתה, נתונים שעודכנו, או מדיניות שבוטלה.

למה: ידע המודל מוגבל לתאריך האימון. מה שהיה נכון ב-2023 לא בהכרח נכון ב-2025.

איך למנוע: לנתונים עדכניים — Perplexity (מחפש בזמן אמת). תמיד שאלו: "מתי המידע הזה עדכני?"

כשל 3: הטיה במקורות

מה קורה: AI מציג בעיקר מקורות אנגלו-סקסיים — ארה"ב, בריטניה, אוסטרליה — ומתעלם ממדינות אחרות.

למה: רוב נתוני האימון באנגלית. מדינות שמפרסמות באנגלית מיוצגות יותר.

איך למנוע: בקשו במפורש: "כלול מדינות מאסיה, אירופה ודרום אמריקה. לא רק מדינות אנגלו-סקסיות."

כשל 4: סינתזה שטחית

מה קורה: AI מסכם 5 מקורות אבל לא באמת משווה ביניהם — פשוט מציג כל אחד בנפרד.

למה: סינתזה (שילוב מקורות למסקנה אחת) היא משימה קשה. AI נוטה לסכם במקום לנתח.

איך למנוע: בקשו במפורש: "אל תסכם כל מקור בנפרד. השווה ביניהם: מה משותף? מה שונה? מה המסקנה?"


8. בדקו את עצמכם — תרחישי החלטה

Perplexity הציג מקור אקדמי: 'Smith & Johnson (2023), Journal of Public Policy'. מה הצעד הראשון?

צריך להכין סקירה בינלאומית. מה הסדר הנכון?

AI כתב בסקירה: 'סינגפור חוקקה את AI Governance Act ב-2024'. לא מצאתם את החוק הזה. מה עושים?

מה היתרון של טכניקת 'הדבק ושאל' על פני שאלה כללית?

הכנתם מסמך רקע עם AI. מה הבדיקה האחרונה לפני הגשה?


💎 סיכום — 5 עקרונות למחקר עם AI

  1. 5 שלבים: הגדרה → איסוף → אימות → ניתוח → כתיבה. אל תדלגו על אימות
  2. כלי חיפוש AI לאיסוף, כלי שיחה לניתוח — Perplexity/Gemini לאיסוף מקורות, Claude/ChatGPT/Gemini לניתוח מעמיק
  3. אמתו כל מקור — AI ממציא מקורות אקדמיים, שמות חקיקה, ונתונים. בדקו הכל
  4. הדבק ושאל — עדיף להדביק מסמך ולשאול עליו מאשר לשאול שאלה כללית
  5. בקשו סינתזה, לא סיכום — "השווה ביניהם" עדיף על "סכם כל אחד"

💡 סיימת? שתף עם הקולגות שלך