Almaya https://almaya.ai/ השער לבינה היברידית Thu, 19 Mar 2026 14:23:19 +0000 he-IL hourly 1 https://wordpress.org/?v=6.9.4 https://almaya.ai/wp-content/uploads/2025/05/Icon-150x150.jpg Almaya https://almaya.ai/ 32 32 "AI Fluency" – נעים להכיר: המדריך המלא לשותפות טובה יותר עם AI https://almaya.ai/blog/ai-fluency-guide Wed, 18 Mar 2026 21:32:29 +0000 https://almaya.ai/blog-complete-guide-ai-partnership/ נמאס לכם מתשובות גנריות מה-AI? המדריך המלא ילמד אתכם איך לספק הקשר נכון, לעבוד בשיטה איטרטיבית ולפתח "שטף בבינה מלאכותית" (AI Fluency) כדי להפוך את הטכנולוגיה לשותפה אסטרטגית אמיתית בעבודה היומיומית.

הפוסט "AI Fluency" – נעים להכיר: המדריך המלא לשותפות טובה יותר עם AI הופיע לראשונה ב-Almaya.

]]>
אחד הדברים שהכי מתסכלים בעבודה עם בינה מלאכותית הוא לקבל תשובה שפשוט לא מה שציפיתם. אתם שאלתם שאלה, קיבלתם תשובה, אבל משהו בה לא עובד: היא גנרית מדי, ארוכה מדי, לא מדויקת, או פשוט לא תואמת את הטון שרציתם. זה מתסכל.
 
אבל החדשות הטובות?
רוב הבעיות האלה קורות לא בגלל שהבינה המלאכותית "לא מבינה", אלא בגלל שלא נתנו לה את כל מה שהיא צריכה כדי לעזור לנו.

 

בפוסט הזה נדבר על הטעויות הנפוצות ביותר, איך לתקן אותן, ומה זה בכלל אומר לעבוד טוב עם בינה מלאכותית – לא רק להשתמש בה.


הבעיות הנפוצות – ואיך לפתור אותן

לפני שמדברים על אסטרטגיות מתקדמות, בואו תחזור רגע לבסיס ונתחיל מהמקרים הכי שכיחים שבהם הבינה המלאכותית מאכזבת, ונבין בדיוק למה זה קורה ואיך לפתור את זה.

 

  1. התשובה גנרית מדי

     

    • הסיבה כמעט תמיד זהה: הפרומפט לא כלל מספיק הקשר.
    • במקום לכתוב:

       

      עבריתEnglish
      נסח לי מייל בנוגע לעיכוב בפרוייקט
      Write me an email about the delay in the project.
       

      נסו משהו ספציפי הרבה יותר:

       

      עבריתEnglish
      כתוב מייל ללקוח הארגוני שלנו שבו אתם מסבירים שהאינטגרציה של התוכנה תידחה בשבועיים. זה העיכוב השני שלהם. עד עכשיו הם גילו סבלנות. חשוב לשמור על טון מקצועי אך מתנצל.
      Write an email to our enterprise client explaining that the software integration will be delayed by two weeks. This is their second delay. They have been patient so far. It's important to maintain a professional but apologetic tone.
       

    • ההבדל בין שני הפרומפטים הוא ההקשר: מי הלקוח, מה הרקע, מה העיכוב, ואיזה טון נדרש. כשאתם נותנים יותר – אתם מקבלים יותר.
  2.  

  3. התשובה ארוכה מדי או קצרה מדי

     

    • פתרון פשוט: תגידו את זה בפירוש.
    • לדוגמא – זה עובד:
      עבריתEnglish
      תן לי סיכום בשני פסקאות
      Summarize it in two paragraphs
       
      אבל זה עובד יותר טוב:
      עבריתEnglish
      שמור את זה מתחת ל-100 מילים
      Keep it under 100 words
    • אל תצפו שהבינה המלאכותית תנחש את האורך שאתם רוצים – היא לא קוראת מחשבות.
  4.  

  5. הפורמט לא מה שרציתם

     

    • אל תסתפקו בלהגיד מה אתם רוצים – תראו איך זה נראה.
    • תנו דוגמה של הפורמט, או תארו את המבנה במדויק:
       
      עבריתEnglish
      השתמש בנקודות עם כותרות מודגשות לכל חלק
      Use bullet points with bold headers for each section.
  6.  

  7. מידע שגוי שנשמע בטוח לגמרי

     

    • זוהי הסיטואציה הכי מסוכנת. הבינה המלאכותית יכולה לייצר מידע שנשמע מהימן לחלוטין — ולהיות שגוי.
    • זה קורה במיוחד עם עובדות ספציפיות, נתונים סטטיסטיים, ונושאים מאוד מיוחדים.
    • בעבודה קריטית – תמיד תבדקו את העובדות בעצמכם.
    • תבקשו מהבינה המלאכותית לצטט מקורות או לציין את רמת הביטחון שלה.
    • אפשרו חיפוש באינטרנט (כמו ChatGPT Search או Perplexity) כדי לבסס תשובות על מידע עדכני.
  8.  

  9. הטון לא מתאים

     

    • ברירת המחדל של הבינה המלאכותית היא מקצועית ומועילה, אבל זה לא תמיד מה שאתם צריכים.
    • פשוט תארו את הטון בשפה יומיומית:
       
      עבריתEnglish
      נסח את זה בצורה יותר שיחתית, כאילו אני מדבר עם חבר
      Make this more conversational, like I'm talking to a friend
       
      או:
       
      עבריתEnglish
      זה צריך להישמע סמכותי ורשמי
      This needs to sound authoritative and formal
    • ואם אתם יכולים – תנו דוגמה לסגנון הכתיבה שאתם רוצים. דוגמה שווה אלף הוראות.

חשיבה איטרטיבית – המפתח להצלחה

אחד השינויים החשובים ביותר שתוכלו לעשות בגישה שלכם לבינה מלאכותית הוא להפסיק לצפות לתוצאה מושלמת מהפרומפט הראשון. הפרומפט הראשון הוא כמעט אף פעם לא הפרומפט האחרון – וזה בסדר גמור.

 

תחשבו על הפרומפט הראשון שלכם כתחילת שיחה, לא בקשה חד-פעמית. אנשים שעובדים בצורה אפקטיבית עם בינה מלאכותית מפתחים שלושה הרגלים מרכזיים:

 

  1. מתייחסים לטיוטות ראשונות כנקודות התחלה

     

    • סוקרים מה עובד ומה לא, ומשפרים בהתאם.
    • במקום לדחות תשובה שלא מושלמת, שואלים: "מה טוב בה, ומה אפשר לשפר?"
  2.  

  3. נותנים פידבק ספציפי

     

    • "תעשה את זה יותר קצר" – זה טוב.
    • "תקצץ את שני הפסקאות הראשונות ותעשה את הסיכום יותר מכוון לפעולה" – זה הרבה יותר טוב.
    • ככל שהפידבק שלכם ספציפי יותר, כך השיפור בתוצר יהיה מדויק יותר.
  4.  

  5. יודעים מתי להתחיל מחדש

     

    • לפעמים שיחה יוצאת למסלול לא נכון, ואז כל פרומפט רק מעמיק את הבעיה.
    • במקרים כאלה – פשוט לפתוח צ'אט חדש עם פרומפט ברור ומלא מהתחלה הוא לרוב המהלך הנכון.

אז מהו "Ai Fluency"?

עד כאן דיברנו על טכניקות. אבל יש כאן משהו עמוק יותר שכדאי להבין.
 
שטף בבינה מלאכותית (AI Fluency) הוא היכולת לשתף פעולה ביעילות עם כלי בינה מלאכותית – לא רק לדעת על אילו כפתורים ללחוץ, אלא לפתח את שיקול הדעת להשתמש בבינה המלאכותית נכון במצבים שונים.

 

מודל ה-4D מזהה ארבעה כישורים מרכזיים שמאפיינים אנשים שעובדים בצורה אפקטיבית עם בינה מלאכותית:

 

  1. ״האצלה״ (Delegation)

     

    • להחליט איזו עבודה צריכה להיעשות על ידי בני אדם, ואיזו על ידי בינה מלאכותית.
    • זה כולל הבנה עמוקה של היעדים שלכם, של היכולות האמיתיות של הבינה המלאכותית, וקבלת החלטות אסטרטגיות על חלוקת המשימות.
    • לא כל משימה מתאימה לאוטומציה – וזיהוי ההבדל הוא שריר שצריך לפתח, וכשרון בפני עצמו.
  2.  

  3. ״הבעה״ (Description)

     

    • תקשורת אפקטיבית עם מערכות בינה מלאכותית.
    • זה כולל הגדרה ברורה של התוצרים הרצויים, הנחיית התהליך, וציון ההתנהגויות הרצויות.
    • ככל שאתם מביעים את עצמכם יותר ברהיטות – כך הבינה המלאכותית עובדת טוב יותר.
  4.  

  5. ״הבחנה״ (Discernment)

     

    • הערכה מחושבת וביקורתית של תוצרי הבינה המלאכותית.
    • זה כולל בחינת איכות, דיוק, והתאמה לצורך, וזיהוי אזורים לשיפור.
    • ה-Ai Fluency הוא כלי – האחריות על הבחינה הביקורתית נשארת אצלכם.
  6.  

  7. ״שקדנות״ (Diligence)

     

    • שימוש אחראי ואתי בבינה המלאכותית.
    • זה כולל בחירות מחושבות לגבי המערכות שאתם משתמשים בהן, שמירה על שקיפות, ולקיחת אחריות על כל עבודה שנעשתה בסיוע בינה מלאכותית.


איך לבדוק אם זה באמת עובד בשבילכם – הערכות (Evals)

כשאתם מתחילים לשלב את הבינה המלאכותית ביותר ויותר תהליכים, עולה שאלה טבעית: איך אני יודע שהיא באמת טובה במשימה הספציפית הזו?
 
כאן נכנס מושג שאולי שמעתם בהקשרים טכניים, אבל שימושי לכולם: הערכות (Evals).

 

הרעיון פשוט: אתם בוחנים את הבינה המלאכותית על משימות אמיתיות מהעולם שלכם, ומשווים את התוצאות לעבודה שלכם.
התהליך מורכב מארבעה שלבים:

 

  1. אספו דוגמאות

     

    • 5-10 דוגמאות של משימה שאתם עושים באופן קבוע: מיילים שכתבתם, דוחות שיצרתם, ניתוחים שעשיתם.
    • אלה יהיו ה"תשובות הנכונות" שתשוו אליהן.
  2.  

  3. צרו פרומפטים לבדיקה

     

    • כתבו פרומפטים שנועדו לייצר תוצרים דומים לאלה שאספתם.
    • חשוב: כללו את ההקשר שהיה לכם באופן טבעי בזמן ביצוע העבודה המקורית.
  4.  

  5. השוו תוצרים

     

    • הריצו את הפרומפטים ושוו את תשובות הבינה המלאכותית לדוגמאות שלכם.
    • שאלו את עצמכם: האם היא תפסה את המידע המרכזי? האם הטון והסגנון מתאימים? מה חסר?
  6.  

  7. שפרו את הגישה

     

    • על בסיס מה שלמדתם, התאימו את הפרומפטים שלכם.
    • הוסיפו דוגמאות כדי להראות לבינה המלאכותית איך נראה תוצר טוב.
    • Human in the Loop:: זהו איפה חיוני ביקורת אנושית – ואל תוותרו עליה שם.

לסיכום: שותפות, לא קסם

עבודה טובה עם בינה מלאכותית היא לא קסם, ולא כישרון מיוחד שנולדים איתו. זוהי מיומנות שמתפתחת עם ניסיון ותרגול.

 

כשאתם נותנים לבינה המלאכותית הקשר טוב, פרומפטים ספציפיים, ופידבק איטרטיבי – אתם לא רק מקבלים תשובות טובות יותר. אתם בונים מיומנות אמיתית שמשתפרת עם הזמן, ומפתחים את ה-AI Fluency שמאפשר לכם להשתמש בכלים האלה ביעילות מקסימלית, בכל מצב.

 

אז מה הצעד הראשון? פשוט תתחילו! קחו משימה שאתם עושים ממילא, ותנו לבינה המלאכותית הזדמנות אמיתית לעזור – עם הקשר מלא, ציפיות ברורות, ופתיחות לאיטרציה.

 

בהצלחה!


הפוסט "AI Fluency" – נעים להכיר: המדריך המלא לשותפות טובה יותר עם AI הופיע לראשונה ב-Almaya.

]]>
7 רמות בהטמעת Claude Code: איך להפוך צ'אטבוט לעובד אוטונומי https://almaya.ai/blog/7-levels-claude-code Mon, 16 Mar 2026 19:40:26 +0000 https://almaya.ai/blog-7-levels-claude-code-digital-worker/ Claude Code הוא הרבה יותר מצ'אטבוט - הוא תשתית לבניית עובדים דיגיטליים. במדריך זה נסקור 7 רמות הטמעה: מתכנון ב-Plan Mode, דרך יצירת "חוזה עבודה" ב-CLAUDE.md, ועד חיבור למערכות חיצוניות (MCP) וניהול צוות סוכנים אוטונומי.

הפוסט 7 רמות בהטמעת Claude Code: איך להפוך צ'אטבוט לעובד אוטונומי הופיע לראשונה ב-Almaya.

]]>
רוב האנשים שמשתמשים ב-Claude Code עושים זאת בדיוק כמו שמשתמשים בכל כלי AI אחר: פותחים צ'אט, מקלידים בקשה, ומקווים לטוב. אבל Claude Code הוא לא עוד צ'אטבוט – הוא פלטפורמה שלמה לבניית תהליכי עבודה אוטומטיים, ולרוב האנשים שמשתמשים בו, יש עוד שש רמות של עוצמה שהם בקושי יודעים שקיימות.

 

Claude Code היא מערכת ה"וייב קודינג" של Anthropic. המשמעות היא שאתם יכולים לתאר בשפה טבעית מה אתם רוצים לבנות, והמערכת תעשה זאת עבורכם – עיצוב, איפיון, פיתוח, בדיקות ואפילו Deployment אונליין. מאז השקת Claude 4 במאי 2025, בסיס המשתמשים של Claude Code גדל ב-300%, אבל רובם תקועים ברמה הראשונה ואפילו לא יודעים על השאר.

 

הפוסט הזה הוא מדריך מלא לשבע הרמות. ארבע הרמות הראשונות נגישות לחלוטין לכל אחד, גם בלי שורת קוד אחת. שלוש הרמות הגבוהות דורשות קצת יותר אוריינטציה טכנית, אבל ההיכרות איתן לבד תשנה לכם את הדרך שבה אתם חושבים על AI בעסק.


רמה 1: תכנון לפני ביצוע (Plan Mode)

הטעות הכי שכיחה של משתמשים חדשים ב-Claude Code היא לקפוץ ישר לביצוע. אתם מתארים את מה שאתם רוצים, לוחצים Enter, ומקווים שיצא משהו טוב. לפעמים זה עובד. לרוב – זה מוביל לסבבים אינסופיים של תיקונים.

 

ב-Claude Code יש מצב מובנה שנקרא Plan Mode, שמופעל בלחיצה על Shift + Tab. במצב הזה, Claude לא מבצע שינויים – הוא רק חוקר. הוא סורק את הקבצים הקיימים שלכם, מנתח את מבנה הפרויקט, שואל שאלות הבהרה, ומציע אסטרטגיה מפורטת לפני שנגע בשום דבר.

 

תהליך עבודה אופייני במצב Plan נראה כך:

  1. תיאור המשימה

    • אתם מסבירים בשפה חופשית מה אתם רוצים לבנות או לשנות.
    • לא צריך להיות מדויקים – Claude ישאל שאלות.
  2. שאלות הבהרה

    • Claude חוזר עם שאלות ספציפיות: אילו קבצים רלוונטיים? מה הפלט הרצוי? יש אילוצים?
    • שלב הלוך-ושוב הזה הוא הלב של Plan Mode.
  3. אישור התכנית

    • Claude מציג תכנית מפורטת: מה ישתנה, באיזה סדר, ולמה.
    • אתם מאשרים, מתקנים או מבקשים גישה אחרת.
  4. ביצוע חד-פעמי

    • כשעוברים למצב ביצוע, Claude כבר יודע בדיוק מה לעשות ולרוב מסיים בלי עצירות נוספות.

 

למה זה כל כך חשוב? חשבו על זה כמו תדריך לפני שיגור. ככל שהתדריך יסודי יותר, יש פחות הפתעות בדרך. שלוש דקות של תכנון משותף יכולות לחסוך שעות של עבודה מחדש – ובמיוחד אם אתם בונים משהו שנוגע בקבצים קיימים.


רמה 2: הכשרת Claude Code כחבר צוות אמיתי (CLAUDE.md)

בלי הגדרה מוקדמת, Claude Code הוא AI גנרי שלא מכיר אתכם, את הפרויקט שלכם, את סגנון הכתיבה שלכם, או את הכללים שלכם. בכל שיחה הוא מתחיל מאפס. זה בדיוק כמו לשכור עובד חדש בכל בוקר ולהסביר לו מחדש הכל.

 

הפתרון הוא קובץ שנקרא CLAUDE.md – קובץ טקסט פשוט שחי בתיקיית הפרויקט שלכם. זהו תחליף ה"הסכם העבודה" של Claude: הוא קורא אותו בתחילת כל שיחה ופועל על פיו לאורך כל המשימה.

 

קובץ CLAUDE.md טוב כולל בדרך כלל ארבעה חלקים מרכזיים:

  1. מהות הפרויקט

    • משפט מטרה אחד שמסביר מה הפרויקט עושה ולמה הוא קיים.
    • לדוגמה: "זהו אתר תדמית לעסק ייעוץ פיננסי שפונה לבעלי עסקים קטנים."
  2. כללים תפעוליים

    • איפה שומרים תמונות? איך קוראים לקבצים? מה מבנה התיקיות?
    • כל דבר שחוזר על עצמו בכל שיחה – כדאי שיהיה כאן.
  3. טון ומותג

    • האם אתם כותבים בעברית? בסגנון מקצועי או שיחתי? עם אמוג'י או בלי?
    • ביטויים שאתם אוהבים, ביטויים שאתם שונאים.
  4. הטעויות שלא לחזור עליהן

    • כל דבר ש-Claude עשה פעם אחת ולא רציתם – תכתבו במפורש שזה אסור.
    • "לעולם אל תמחק קבצים קיימים בלי לשאול" הוא דוגמה קלאסית.

 

כלל הזהב: אם Claude יכול להסיק משהו בעצמו מהקשר השיחה, אל תכניסו אותו לקובץ. CLAUDE.md הוא לדברים שלא ניתן להבין בלי ידע פנימי על העסק שלכם.

 


רמה 3: אוטומציה של עבודה חוזרת (Commands, Skills & Hooks)

ברגע שיש לכם את היסוד, רמה 3 היא המקום שבו אתם מתחילים לקבל החזר השקעה אמיתי. כאן Claude Code מפסיק להיות עוזר ומתחיל להיות חלק אינטגרלי מתהליך העבודה.

 

  1. Slash Commands – פקודות שמורות

    • פקודות שמורות שאתם מפעילים עם קידומת / ושם הפקודה.
    • לדוגמא: אם אתם כותבים פוסטים ב-LinkedIn כל שבוע, אתם יכולים ליצור פקודה בשם /linkedin-post שטוענת את הפורמט המדויק, כללי הטון והמבנה שלכם בכל פעם.
    • מתאים לכל משימה שחוזרת שבועית או חודשית: דוחות, ניוזלטרים, עדכוני מוצר.
  2. Skills – חבילות ידע מתמחות

    • Skill הוא Slash Command משודרג שמגיע עם תיקייה שלמה של חומרי עזר.
    • חשבו על מדריכי סגנון, לוגו המותג, דוגמאות מוצלחות מהעבר, ומסמכים רלוונטיים.
    • Claude טוען את החומרים האלה רק כשהמשימה הנוכחית דורשת אותם – לא מבזבז הקשר מיותר.
    • לדוגמה, Skill לכתיבת הצעות מחיר יכול להכיל תבניות, מחירונים ונוסח סטנדרטי.
  3. Hooks – בקרת איכות אוטומטית

    • Hooks הן בדיקות שרצות ברקע בלי שתצטרכו לבקש.
    • Hook לדוגמה: כל פוסט שנוצר עובר אוטומטית בדיקת ספירת מילים, סריקה לביטויים אסורים, ובדיקת קיום CTA.
    • אם משהו לא עומד בכלל, Claude מקבל התראה ומתקן לפני שמציג לכם את התוצאה.
    • תחשבו על Hooks כמנהל איכות אוטומטי שישן אף פעם לא.

 

השילוב של שלושת הכלים האלה הופך תהליכי עבודה חוזרים לתהליכים שפשוט קורים – עם מינימום מעורבות שלכם ומקסימום עקביות.


רמה 4: חיבור Claude Code לכל תהליכי העבודה שלכם (MCP Servers)

זה המקום שבו Claude Code מפסיק להיות כלי כתיבה ומתחיל להיות מערכת הפעלה לעסק שלכם. רמה 4 משתמשת בטכנולוגיה שנקראת MCP Servers (Model Context Protocol), שהיא בפשטות גשר המחבר את Claude ישירות לאפליקציות חיצוניות.

 

איזה חיבורים ניתן ליצור? כמעט כל דבר: Airtable, Notion, Slack, Google Drive, Gmail, Trello, HubSpot, ועוד אלפי אפליקציות. כל מקום שבו יש לכם דאטה, Claude יכול לקרוא אותו, לעבד אותו, ולכתוב תוצאות בחזרה.

 

דוגמה קונקרטית לתהליך עם MCP:

  1. קריאת נתונים

    • Claude קורא רשימה של נושאים מ-Google Drive או CRM שבהם אתם מנהלים תוכן או לקוחות.
  2. עיבוד ויצירה

    • Claude משתמש ב-Skills וב-CLAUDE.md שהגדרתם ברמות הקודמות כדי לנסח את התוכן בסגנון המדויק שלכם.
  3. פלט אוטומטי

    • התוכן המוגמר נכתב חזרה ל-Google Drive, מוכן לעריכה סופית – או נדחף ישירות ל-LinkedIn.
    • בלי העתקה, בלי הדבקה, בלי מעבר ידני בין כלים.

 

זה תהליך דו-כיווני אמיתי. Claude לא רק מייצר תוכן – הוא קורא נתונים פנימה, מבין הקשר, מעבד על בסיס הכללים שהגדרתם, ודוחף תוצאות חזרה למערכות שבהן אתם עובדים. בפעם הראשונה שאתם רואים את זה עובד מקצה לקצה, זה מרגיש כמו קסם.

 


רמה 5: ניהול הקשר ארוך-טווח (Context Management)

כאן מתחיל אזור המתקדמים. רמה 5 פותרת בעיה שנקראת Context Rot – דעיכת ההקשר. כשאתם עובדים עם Claude Code על פרויקטים גדולים, שיחות ארוכות מביאות לירידה הדרגתית באיכות התוצאות: המודל מתחיל לסתור את עצמו, שוכח החלטות קודמות, ומאבד את עקביות הפתרון.

 

הסיבה לכך טכנית: לכל מודל שפה יש חלון הקשר מוגבל – כמות המידע שהוא יכול לשמור בראש בבת אחת. כשהשיחה מתארכת, המידע הישן נדחק לצד והמדל עובד עם מידע חלקי.

 

הפתרון ברמה 5 הוא ניהול הקשר מכוון, בעזרת שלוש אסטרטגיות:

  1. פירוק לשלבים מבודדים

    • פרויקטים גדולים מפורקים לשיחות קצרות ועצמאיות, כל אחת עם מטרה אחת.
    • בין שיחות, Claude מייצר "סיכום מצב" שנשמר ב-CLAUDE.md ומשמש כנקודת ההתחלה הבאה.
  2. מסמכי נקודת ביקורת (Checkpoints)

    • בנקודות קריטיות בפרויקט, Claude מתחייב לכתיבת מסמך שמסכם את כל ההחלטות שהתקבלו.
    • אם משהו משתבש, ניתן לחזור לנקודת הביקורת האחרונה בלי להתחיל מאפס.
  3. ניהול קבצים חכם

    • הגדרה מפורשת של אילו קבצים Claude צריך לטעון בכל שלב – לא את כולם, רק הרלוונטיים.
    • זה מונע עומס מיותר על חלון ההקשר ומשמר את הדיוק לאורך זמן.

 

רמה 5 היא מה שמאפשר לעבוד עם Claude Code על פרויקטים שנמשכים שבועות ולא שעות – עם עקביות ואמינות שנשמרות לאורך כל הדרך.


רמה 6: מסוכן אחד לצוות שלם (Multi-Agent Orchestration)

עד רמה 5, עבדתם עם סוכן אחד. ברמה 6, עוברים לארכיטקטורת ריבוי סוכנים – מספר מופעים של Claude שרצים במקביל, כל אחד עם תחום אחריות שונה, וכולם מתאמים ביניהם כדי להגיש לכם תוצאה מוגמרת.

 

דמיינו שיחה מחקרית מורכבת שבעבר לקחה לכם שלוש שעות. ברמה 6, אפשר להפריד אותה לשלוש משימות שרצות בו זמנית:

  1. סוכן מחקר

    • אחראי על איסוף מידע ממקורות שונים, סינון, וסיכום.
    • מגיש את ממצאיו לסוכן הכתיבה ברגע שסיים.
  2. סוכן כתיבה

    • מקבל את חומרי המחקר ומנסח את התוכן הסופי על פי כל הכללים שהגדרתם.
    • מגיש לסוכן הביקורת.
  3. סוכן ביקורת

    • בודק את התוצר מול קריטריוני האיכות שהגדרתם: עקביות טון, נכונות עובדתית, ציות לכללי המותג.
    • מחזיר הערות לסוכן הכתיבה אם דרושים תיקונים.

 

התוצאה: שלוש שעות של עבודה יכולות להסתיים תוך פחות מ-20 דקות. לא כי הסוכנים עובדים מהר יותר, אלא כי הם עובדים במקביל. זה הבדל מהותי בין AI ככלי לבין AI כצוות.

 

חשוב להבין: סוכן ראשי (Orchestrator) מנהל את כל התהליך., כמו ״קבלן מפתח״. הוא מחליט מה כל סוכן מקבל, מתי, ובאיזה סדר. ואתם עומדים מעל הכל ומגדירים את הפרמטרים.


רמה 7: אוטונומיה מלאה (Fully Autonomous Execution)

הרמה האחרונה היא הרמה שבה Claude Code פועל באמת כעובד דיגיטלי עצמאי. אתם מגדירים משימה, מגדירים קריטריוני הצלחה, ו-Claude רץ בלולאה אוטומטית עד שהוא עומד בהם.

 

כיצד נראית לולאת האוטונומיה:

  1. הגדרת משימה וקריטריונים

    • אתם מגדירים מה הפלט הרצוי ואיך נראית "הצלחה" – בצורה מדידה וברורה.
    • לדוגמה: "כתוב מאמר ב-800 מילה, ציון קריאות מעל 60 ב-Flesch, ללא ביטויי AI גנריים".
  2. ביצוע ראשוני

    • Claude מבצע את המשימה ומעריך את התוצאה מול הקריטריונים שהגדרתם.
  3. לולאת שיפור עצמית

    • אם התוצאה לא עומדת בכל הקריטריונים, Claude מזהה את הפערים, מנסח השערה לשיפור, ומבצע גרסה נוספת.
    • הלולאה נמשכת עד שכל הקריטריונים מתקיימים – או עד שהגדרתם מגבלת סיבובים.
  4. הגשת תוצאה

    • אתם מקבלים תוצר מוגמר שעבר כמה סבבי שיפור פנימיים – לא הניסיון הראשון.

 

הדגש החשוב ברמה 7 הוא הגדרת קריטריונים מדויקים. ככל שאתם מצליחים לנסח "מה נראה כמו עבודה טובה" בצורה ברורה יותר, כך הלולאה האוטומטית מספקת תוצאות טובות יותר. זה הכישרון האנושי המרכזי שנדרש ברמה הזו – לא תכנות, אלא חשיבה ביקורתית על קריטריוני איכות.

 


סיכום: באיזו רמה אתם נמצאים?

שבע הרמות שסקרנו הן מסע מצ'אטבוט לעובד דיגיטלי שפועל לבד. חשוב לזכור שאתם לא חייבים להגיע לרמה 7 כדי לקבל ערך אמיתי. כל רמה בפני עצמה מוסיפה ערך, וכל שלב מכין אתכם לשלב הבא.

 

הנה סיכום מהיר:

 

  1. רמה 1 – Plan Mode: תכנון לפני ביצוע, Shift+Tab. חוסך שעות של עבודה מחדש.
  2. רמה 2 – CLAUDE.md: Claude שמכיר אתכם ועובד לפי הכללים שלכם.
  3. רמה 3 – Commands, Skills ו-Hooks: אוטומציה של עבודה חוזרת עם בקרת איכות מובנית.
  4. רמה 4 – MCP Servers: Claude מחובר לכל הכלים שלכם ועובד בינהם בלי התערבותכם.
  5. רמה 5 – Context Management: עבודה על פרויקטים ארוכים עם עקביות מלאה.
  6. רמה 6 – Multi-Agent: צוות של סוכנים שעובד במקביל, כמה שעות בזמן קפה.
  7. רמה 7 – אוטונומיה מלאה: הגדירו משימה וקריטריונים, קבלו תוצאה מוכנה.

 

הארבע הראשונות נגישות לכל מי שמוכן להשקיע שעה או שתיים. שלוש האחרונות דורשות אוריינטציה טכנית קלה – אבל הכרת הרעיון בלבד משנה את הדרך שבה אתם חושבים על מה שאפשרי.

 

Claude Code הוא לא "כלי AI". הוא תשתית לבניית עובד דיגיטלי שמכיר את העסק שלכם, עובד לפי הכללים שלכם, ומשתפר עם הזמן. כמו כל עובד חדש – ההשקעה בהכשרה שלו מחזירה את עצמה כמה פעמים.

 

בהצלחה!

הפוסט 7 רמות בהטמעת Claude Code: איך להפוך צ'אטבוט לעובד אוטונומי הופיע לראשונה ב-Almaya.

]]>
מבינה מלאכותית למערכת הפעלה אישית: בניית Gems ואימוץ שיטות עבודה מתקדמות ב-Gemini https://almaya.ai/edu-content/gemini-gems-mastery Sun, 15 Mar 2026 22:22:46 +0000 https://almaya.ai/?p=3843 ברוכים הבאים לתרגול המעשי על Gemini Gems. רוב האנשים עדיין משתמשים בבינה מלאכותית כצ'אטבוט בסיסי, נתקעים בלולאות אינסופיות של שאלות ותשובות ומבזבזים זמן יקר. בתרגול זה נלמד כיצד להפוך את Gemini למערכת ויזואלית שזוכרת את ההעדפות שלכם ומשתלבת בכלים שאתם כבר עובדים איתם, כמו Docs ו-Sheets.   במהלך התרגול נבנה מספר Gems, החל מהרמה הבסיסית […]

הפוסט מבינה מלאכותית למערכת הפעלה אישית: בניית Gems ואימוץ שיטות עבודה מתקדמות ב-Gemini הופיע לראשונה ב-Almaya.

]]>
ברוכים הבאים לתרגול המעשי על Gemini Gems. רוב האנשים עדיין משתמשים בבינה מלאכותית כצ'אטבוט בסיסי, נתקעים בלולאות אינסופיות של שאלות ותשובות ומבזבזים זמן יקר. בתרגול זה נלמד כיצד להפוך את Gemini למערכת ויזואלית שזוכרת את ההעדפות שלכם ומשתלבת בכלים שאתם כבר עובדים איתם, כמו Docs ו-Sheets.
 
במהלך התרגול נבנה מספר Gems, החל מהרמה הבסיסית ועד למערכות הפעלה אישיות שיכולות לאטמט עד 90% מהמשימות החוזרות שלכם מדי יום.
 
שימו לב – תרגול זה מובנה מאוד והוא מהווה בסיס למחקר וללימוד דרך ״לכלוך הידיים״ בהמשך הדרך. חשוב להכיר את החלקים השונים בתרגול ובמערכת. עם זאת – בכל פרק וסעיף, הרגישו חופשי לחקור יותר לעומק ולסקור גם מושגים שונים ואפשרויות שונות שלא הוזכרו במפורש. נתקעתם? לא נורא – חזרו להוראות המקוריות, ותמיד אפשר להתחיל פרויקט חדש ונקי, ולהתנסות מראש הפרק הנוכחי.
 
בהצלחה!
 

1. יצירת Gem בסיסי (Trip Architect)

שליטה בשלב זה לבדו תחסוך לכם שעות בכל שבוע. המפתח ליצירת Gem מוצלח הוא שימוש ב"נוסחת הזהב" של גוגל, הכוללת ארבעה מרכיבים: פרסונה, משימה, הקשר ופורמט.

 

  1. תרגיל 1 – יצירה והגדרת ה-Gem
    • היכנסו ל-Gemini וחפשו את סמל ה-Gems בתפריט הצדדי השמאלי.
    • במקטע "My Gems", בחרו ליצור Gem חדש מאפס.
    • תראו ממשק נקי עם שלושה שדות עיקריים: שם (Name), תיאור (Description) והוראות (Instructions).
       

    • העניקו ל-Gem שלכם שם ברור, למשל Trip Architect, ובתיאור הסבירו בקצרה מה הוא עושה כדי לזהות אותו בקלות בהמשך.
    • עברו לשדה ההוראות. כאן נגדיר פרסונה (מי ה-AI), משימה (התוצאה הרצויה), הקשר (אילוצים והעדפות), ופורמט (מבנה התוצאה).
    • העתיקו והדביקו את ההנחיה הבאה לתוך שדה ההוראות (ניתן גם בעברית – העתיקו את ההוראות ל Gemini ובקשו ממנו לתרגם):
      You are an expert travel photographer guide with 10 years of experience capturing cityscapes and hidden urban gems. Your task is to create detailed 48-hour city itineraries optimized for photography. Context: All routes must be walk-only, stay under $100 total budget for meals and entry fees. Avoid overcrowded tourist spots and prioritize locations with excellent light during golden hours. Format output as a table with columns for time, location, why it's worth it, and Google Maps link.

       

    • שמרו את ה-Gem על ידי לחיצה על Save.
  2.  

  3. תרגיל 2 – בדיקת המערכת
    • פתחו צ'אט חדש עם ה-Trip Architect שיצרתם.
    • בקשו ממנו לתכנן מסלול על ידי הזנת ההנחיה הבאה:
      Plan 48 hours in Paris

       

    • שימו לב כיצד ה-Gem מייצר מיד מסלול מובנה ליומיים כטבלה, כולל שעות, מיקומים ספציפיים שאינם קלישאות תיירותיות, הסבר לצילום וקישורים עובדים למפות גוגל.
    • כמו כן, הוא יכלול הערות צילום מורחבות וחישוב תקציב שמוודא שהכל נשאר מתחת ל-100 דולר, כפי שהוגדר בהקשר.

 

2. הפיכת ה-Gem לאפליקציה (Decision Helper)

גוגל שחררה לאחרונה סוג חדש של Gems מבוססי אפליקציה, שהופכים את הצ'אט לאפליקציות גרפיות עם כפתורים, סליידרים ופקדים אינטראקטיביים.

 

  1. תרגיל 1 – בניית אפליקציית עזר להחלטות
    • צרו Gem חדש ותארו בדיוק מה אתם רוצים שהאפליקציה תעשה.
    • הזינו את ההנחיה הבאה כדי להגדיר את האפליקציה:
      Create an AI mini app called decision helper. The app should evaluate business expansion scenarios. The user provides a short description of a business decision, for example, opening a new office, launching a product, or entering a new market.

       

    • לאחר ההזנה, Gemini ייצר באופן אוטומטי אפליקציה מרובת שלבים.
    • הממשק יהפוך לפריסת אפליקציה אמיתית עם כפתור Start ומסך נחיתה נקי.
  2.  

  3. תרגיל 2 – הרצת תרחיש באפליקציה
    • לחצו על Start באפליקציה שיצרתם והזינו את ההקשר העסקי הבא:
      We are a six-person design agency considering opening a second office in Berlin to access the DAC market. Current annual revenue 750K, profit margin 20%.

       

    • שימו לב שהמערכת מעבדת את התרחיש ומחזירה דוח החלטות עסקי מובנה, הכולל ציון הזדמנות עם מד ויזואלי ותקציר מנהלים.

 

3. סוכן תמיכה חכם המשולב עם ידע ארגוני

בשלב זה נפתור בעיה תפעולית אמיתית: מענה לשאלות חוזרות של לקוחות המסתמך על מדיניות הארגון, במקום תשובות גנריות.

 

לצורך הדוגמא נתבונן בארגון בשם אפקס – אימון כושר ותזונה אונליין, וניצור עבורו את עוזר שירות הלקוחות.

 
הכנה
פתחו את כלי Notebook LM של גוגל וצרו מחברת חדשה בשם "Online Coaching Knowledge Base".
העלו אליה מסמכי יסוד רלוונטיים (תוכלו פשוט להעתיק את הקישורים הבאים ישירות ל NotebookLM):
 

 

  1. תרגיל 1 – יצירת סוכן התמיכה ב-Gemini
    • חזרו ל-Gemini וצרו Gem חדש בשם Apex Support AI.
    • בשדה ההוראות, הגדירו ל-AI כיצד עליו לפעול והורו לו להשתמש רק במידע מהמסמכים המקושרים:
      אתה עוזר תמיכה לעסק אונליין לאימון כושר.
      כאשר מתקבלת הודעה מלקוח:

      השתמש רק במידע מתוך מאגר הידע המחובר.
      פעל לפי מדריך הקול של המותג.
      אל תבטיח תוצאות.
      אל תיתן ייעוץ רפואי.
      אל תבטיח החזרים מעבר למה שמוגדר במדיניות ההחזרים.
      כאשר זה רלוונטי, הפנה למדיניות הספציפית.

       

    • בשדה ה Knowledge Base הוסיפו את המחברת שיצרתם זה עתה, כמאגר ידע לסוכן.
    • שמרו את ה-Gem והתחילו צ׳אט חדש.
    • הדביקו את הודעת הלקוח הבאה:
      היי, אני שוקל להצטרף לתוכנית של 12 שבועות. יש אפשרות לפריסת תשלומים? ומה קורה אם אני מפספס כמה שבועות? אפשר להאריך את הגישה?

       

    • ה-Gem יקרא את המסמכים, ישלוף את החוקים הנכונים מתוך התמחור והתנאים, ויחזיר לכם תשובה מדויקת ע״פ מאגר הידע.
  2. למידע נוסף על חיבור NotebookLM ל Gem ניתן לפנות למאמר NotebookLM + Gem = עובד חדש לעסק

 

4. תרגול פתוח

כעת שהבנתם כיצד לעבור משימוש ב-Gemini כצ'אטבוט לבניית מערכות מאורגנות, הגיע הזמן לתרגל את זה על התהליכים שלכם.

 

  1. תרגיל 1 – פיתוח מערכת אישית
    • חשבו על תהליך ידני וחוזר בשגרת העבודה שלכם (למשל: תמיכת לקוחות, תכנון תוכן, או דוחות פנימיים).
    • בנו Gem ייעודי סביב התהליך הזה, תנו לו מבנה מדויק, חברו אותו למסמכים שלכם, והריצו אותו מתוך Docs או כל כלי רלוונטי של Google Workspace.
  2.  

  3. תרגיל 2 – ניהול זרימת עבודה (Workflows) מורכבת
    • חזרו ל-Gemini ונסו לבקש ממנו לייצר עבורכם מבנה עבודה מרובה שלבים.
    • לאחר מכן, בקשו בשפה טבעית להוסיף צומת (Node) חדש של דירוג בין שלבי ההשוואה וההמלצה הסופית.
    • בחנו כיצד המערכת מסתגלת ומעדכנת את התהליך האוטומטי ללא תכנות ידני מצידכם.
  4.  

  5. תרגיל 3 – מאמן שיחות קשות
    • בנו Gem שיאמן אתכם לקראת שיחה משמעותית (אולי – קשה) עם קולגה / מנהל / לקוח חשוב.
    • העלו ל NotebookLM כמה שיותר חומר על הפרסונה הרלוונטית, והשתמשו ב Deep Research למציאת חומר נוסף.
    • המשיכו את התהליך עם הוראות מערכת מדויקות ל Gem כפי שלמדנו, והתנסו.

 

לסיכום, ברגע שתתחילו לבנות מערכות ו-Gems מובנים במקום להקליד הנחיות אקראיות, תשפרו באופן משמעותי את עקביות התוצאות ותחסכו זמן יקר. תרגול עקבי של הכלים הללו יהפוך את הבינה המלאכותית ממנוע חיפוש משודרג למערכת הפעלה אישית שתעזור לכם לנהל את המשימות שלכם.

הפוסט מבינה מלאכותית למערכת הפעלה אישית: בניית Gems ואימוץ שיטות עבודה מתקדמות ב-Gemini הופיע לראשונה ב-Almaya.

]]>
פריימוורק 60/30/10: כך תפיקו מקסימום ערך משימוש ב-AI https://almaya.ai/blog/ai-productivity-60-30-10-model Wed, 04 Mar 2026 20:52:55 +0000 https://almaya.ai/blog-ai-productivity-60-30-10-model/ רובנו מנצלים רק 10% מפוטנציאל ה-AI בגלל "מלכודת הנוחות". הכירו את פריימוורק 60/30/10: מודל עבודה המחלק את השימוש בין חזרתיות, אופטימיזציה וניסויים, כדי להפיק מקסימום ערך ולהפוך למשתמשי על.

הפוסט פריימוורק 60/30/10: כך תפיקו מקסימום ערך משימוש ב-AI הופיע לראשונה ב-Almaya.

]]>
רוב האנשים שמשתמשים בבינה מלאכותית מנצלים בקושי 10% מהפוטנציאל שלה. הסיבה לכך היא לא חוסר ידע טכני, אלא מלכודת פסיכולוגית פשוטה: אנחנו נופלים לשגרה. כולנו מכירים את הרגע הזה – גילינו פרומפט שעובד (למשל, "תסכם את המאמר הזה"), אנחנו מקבלים תוצאה סבירה, ומאותו רגע אנחנו משתמשים באותו שטאנץ שוב ושוב.
 

זה בסדר גמור לשימוש בסיסי, אבל בדרך הזו אנחנו משאירים ערך עצום על השולחן. כדי לפרוץ את תקרת הזכוכית הזו ולהפוך למשתמשי AI מתקדמים באמת, נדרשת גישה מובנית יותר. בפוסט זה נציג את פריימוורק ה-60/30/10: שיטה לחלוקת קשב ומשאבים שתעזור לכם לפתח "אינטואיציה ל-AI" ולהפיק ערך מקסימלי מהכלים העומדים לרשותכם.


הבעיה: מלכודת הנוחות

התרחיש הוא כמעט תמיד זהה: משתמשים מגלים מספר מצומצם של שימושים שעובדים להם – סיכום מאמרים, ניסוח מיילים, או יצירת רעיונות לפוסטים. ברגע שהמוח שלנו מסמן "V" על הצלחה, הוא מפסיק לחפש דרכים חדשות. התוצאה היא שימוש שטחי שאינו מתפתח עם הטכנולוגיה.

 

 

הפתרון הוא לחלק את אינטראקציית ה-AI שלכם לשלוש קטגוריות נפרדות, שלכל אחת מהן מטרה שונה לחלוטין. זה לא רק ישפר את התוצר הסופי, אלא גם יעזור לכם להבין מתי נכון להשתמש ב-AI ומתי עדיף לוותר.


מודל 60/30/10

המודל מחלק את זמן העבודה עם כלי ה-AI לשלושה חלקים, כאשר כל חלק בונה יכולת אחרת:

 

1. ה-60%: חזרתיות (The Repetition Phase)

זהו הבסיס המוצק של העבודה שלכם. אלו השימושים שאתם כבר יודעים בוודאות שעובדים היטב.

 

  • מה זה כולל: סיכום פגישות, כתיבת טיוטות ראשוניות, הפקת נקודות עיקריות (Key Points) מטקסטים, יצירת מתארים (Outlines).
  • העיקרון המנחה: "מה שעובד – לא נוגעים". כאן המטרה היא יעילות ומהירות. עושים שימוש ב-Copy-Paste לפרומפטים מוכנים מראש כדי לחסוך זמן. ובעצם גם עושים קופי-פייסט פשוט לתהליכי העבודה הרגילים שעוזרים לכם ביומיום.

 

2. ה-30%: שיפור (The Optimization Phase)

כאן רוב האנשים מפסידים את הערך הגדול ביותר. זהו השלב שבו לוקחים את ה"בטוח והמוכר" ועושים לו אופטימיזציה.

 

במקום להסתפק בפקודה גנרית, אנחנו מדייקים אותה כדי לקבל תוצאה איכותית יותר. זה דורש להכיר את ה"אופי" של המודל, להבין הקשרים (Context) ולדעת לבקש בדיוק מה שצריך.

 

הנה דוגמאות להבדל בין ה-60% ל-30%:

 

שלב ה-60% (הבסיס) שלב ה-30% (השיפור)
"תסכם את המאמר"

Summarize this article
"תסכם לקהל טכני עם דגש על אתגרי יישום"

Summarize this for a technical audience focusing on implementation challenges
"כתוב נושא למייל"

Write a subject line for an email
"כתוב נושא שיעורר סקרנות של CFO שבודק ROI"

Write a subject line that sparks curiosity for a CFO checking ROI

 

שיפורים נוספים שנכללים בשכבה זו הם מציאת ה״כלי הנכון למשימה הנכונה״, התנסות בכלים שונים לאותם משימה, והשוואה ביניהם, וכן היכרות עם ״אופי״ יחודי של מודלים שונים – איזה אופי מתאים לאיזו משימה, ומה הכי הולם את ה״קול היחודי״ שאתם רוצים להביא בעצמכם.

 

3. ה-10%: ניסויים (The Experimentation Phase)

זהו איזור ה"מעבדה". את עשרת האחוזים הנותרים מקדישים לדברים חדשים לגמרי, שלא בטוחים שיעבדו.

 

  • המטרה: כישלון. כן, קראתם נכון. רוב הניסויים כאן ייכשלו, וזו בדיוק המטרה. כל ניסוי שנכשל הוא "שריר" שנבנה, שעוזר לכם להבין את הגבולות של הטכנולוגיה – מתי להשתמש ב-AI ומתי לא.
  • טיפ לניסויים: אם ניסוי נכשל היום, שימו תזכורת ביומן שלכם לעוד 3-6 חודשים לנסות אותו שוב. קצב הפיתוח של ה-AI הוא מסחרר, ומה שנכשל במודל של אתמול עשוי לעבוד בצורה מדהימה במודל של מחר.

איך מיישמים? תוכנית פעולה לשבועיים

כדי לא להישאר ברמת התיאוריה, הנה פרוטוקול פשוט ליישום המודל בארגון או בעבודה האישית שלכם.

 

  1. שבוע ראשון – ניטור ומעקב:
    • אל תשנו כלום בהרגלי העבודה. רק עקבו.
    • נהלו רשימה פשוטה: מה ביקשתם מה-AI? לאיזו קטגוריה זה משתייך (60/30/10)? האם התוצאה הייתה שימושית?
  2. שבוע שני ואילך – כוונון יחסים:
    • שאפו למספרים הבאים ביום עבודה ממוצע: 6 שימושים חזרתיים, 3 שיפורים, וניסוי אחד.
    • אל תתעקשו על המספרים המדויקים, כל עוד אתם ב"איזור החיוג" הזה, אתם בכיוון הנכון.
    • נהלו יומן ניסויים מינימליסטי: מה ניסיתי? האם זה עבד? איך אפשר לשפר לפעם הבאה?

 


התוצאה: פיתוח אינטואיציה ל-AI

אחרי כמה שבועות של תרגול עקבי בשיטת ה-60/30/10, קורה משהו מעניין. אתם מפסיקים לחשוב במונחים של "האם הכלי הזה יכול לעזור לי עכשיו?", ומתחילים לפתח אינטואיציית AI. סוג של אינטואיציה ארגונית, אלא שכל הארגון הוא… אתם. אתם והעוזרים הדיגטלים החדשים. הכלים הנכונים למשימות הנכונות.

 

אתם תתחילו לזהות מראש: "המשימה הזו מושלמת ל-AI כי היא מובנית וסיזיפית", או להפך: "ההחלטה הזו דורשת שיפוט אנושי ורגישות, AI לא מתאים כאן". שינוי המיינדסט הזה – מ"פתרון בעיות נקודתי" ל"תכנון תהליכים היברידי" – הוא מה שהופך עובדים ומנהלים למובילי תחום ה-AI בארגון שלהם.

 

בהצלחה!

הפוסט פריימוורק 60/30/10: כך תפיקו מקסימום ערך משימוש ב-AI הופיע לראשונה ב-Almaya.

]]>
תפסיקו לרדוף אחרי כלי AI! https://almaya.ai/blog/ai-skills-trap-vs-resilience Wed, 04 Mar 2026 15:58:12 +0000 https://almaya.ai/blog-ai-skills-trap-vs-resilience/ למה למידת כלי AI היא לא מה שיהפוך אתכם לטובים יותר? פוסט זה חושף את ההבדל הקריטי בין מיומנויות חולפות לעמידות, ומסביר איך להשתמש בבינה מלאכותית כדי להעצים את היכולת האנושית ולא להחליף אותה.

הפוסט תפסיקו לרדוף אחרי כלי AI! הופיע לראשונה ב-Almaya.

]]>
למה ללמוד כלי AI זה לא מה שיהפוך אתכם לטובים יותר?
אם יש ערך אחד שמלווה כל קורס שאני מעביר הוא זה – לא לרוץ אחרי כל כלי AI חדש!
 
זה בדיוק מה שעשיתי במשך שנתיים מאז התחילה ״מהפכת ה-AI״. חשבתי ששליטה בכלים היא מה שתעשה ממני איש מקצוע טוב יותר. התברר שטעיתי. בפוסט הזה נבין למה המרדף אחרי הטכנולוגיה עשוי דווקא להשאיר אתכם מאחור, ומהי האסטרטגיה שתשמור עליכם רלוונטיים גם בעשור הבא.

 


שתי הגישות בקהילת ה-AI

״קהילת ה-AI״ מחולקת כרגע לשתי קבוצות עיקריות, והפער ביניהן הולך וגדל:

 

  • הקבוצה הרודפת: רצה אחרי כלי AI מהר יותר ממה שהם מספיקים לזכור את השמות שלהם. הם אוספים פרומפטים, נרשמים לכל קורס חדש, ועוקבים באובססיביות אחרי כל עדכון גרסה. הקבוצה הזו מרגישה חיונית ופרודוקטיבית מאוד.
  • הקבוצה החושבת: הפסיקה לרדוף אחרי הכלים והתחילה לחשוב אחרת על תהליכי העבודה. הקבוצה הזו היא שבאמת (!) הופכת לבעלת ערך גבוה יותר.

 

בהתחלה, גם אני הייתי שם. התייחסתי ל-AI כמו לכל גל טכנולוגי אחר: ללמוד את הכלי, לשלוט בפיצ'ר, לעבור הלאה. השקעתי שעות בהשוואה בין ChatGPT ל-Claude ולכל מודל חדש שיצא. זה בטח נשמע לכם מוכר. בסופו של יום, התמצאתי בכלים מצוין, אבל זה לא הפך אותי לטוב יותר במהות של העשייה שלי.

 

ואז הבנתי משהו קריטי: הפער האמיתי הוא לא בין מי שמשתמש ב-AI למי שלא. הפער הוא בין אנשים שמשתמשים ב-AI כדי להעצים את היכולות האנושיות שלהם, לבין אלה שמשתמשים ב-AI כקיצור דרך שבאופן הדרגתי שוחק את החשיבה שלהם.

 

גישה אחת הופכת אתכם לחיוניים. השנייה הופכת אתכם למיותרים.


למה למיומנות ה-AI שאתם רודפים אחריה יש תאריך תפוגה?

בואו נדבר על מספרים. לפי דו"ח של הפורום הכלכלי העולמי (ינואר 2025), 39% ממיומנויות העבודה המרכזיות ישתנו עד 2030. זה לא בעוד המון זמן – זה ממש מעבר לפינה, בעוד חמש שנים.

 

אבל הנה הנתון שבאמת חשוב להכיר: מחקר של IBM מגלה הבחנה מרתקת בין סוגי מיומנויות:

 

  1. מיומנויות חולפות: אלו הקשורות לכלים ספציפיים וטכניקות טכניות. הן מתיישנות תוך פחות משנתיים (דומה לזמן התחלופה הממוצע בהייטק).
  2. מיומנויות "עמידות": אלו שבנויות על שיפוט, זיהוי דפוסים, סינתזה והסתגלות. הן נשארות רלוונטיות ל-8 שנים ויותר.

 

אם אתם משקיעים את כל הזמן שלכם בלימוד הכלי החדש שיצא השבוע, אתם כנראה מחפשים את האוצר במקום הלא נכון. שמונה מתוך עשר המיומנויות המבוקשות ביותר במשק לא קשורות בכלל לכלים טכניים. הן קשורות לשיפוט, תקשורת וחשיבה אסטרטגית.

 

הכלי משתנה (ושוב ישתנה בשנה הבאה). המיומנות נשארת. מה שבאמת מבדיל בין אנשים זה לא האם הם יודעים להשתמש בכלי כזה או אחר, אלא האם הם שמרו על החשיבה שלהם חדה בזמן שהם העבירו את הביצוע לאוטומציה.

 

מחקר אחר של Boston Consulting Group (BCG) בקרב אלפים מכח האדם הבינלאומי שלהם, הראה כי העובדים המצטיינים ביותר, כאשר עבדו תקופה מסויימת עם כלי AI, הראו אמנם שיפור בביצועים (אגב, שיפור נמוך יחסית לעובדים הלא-מצטיינים, שנעזרו ב AI). אבל הדבר המעניין ביותר הוא – שכאשר המצטיינים נאלצו לעבוד ללא כלי ה-AI שלהם, הביצועים שלהם ירדו באופן משמעותי, והם אפילו התחילו להראות התנהגויות דומות ל״הזיה״ המוכרת של מודלי AI.


איך ״העצמה״ נראית תכל׳ס? (Test Case)

כדי להבין את ההבדל בין החלפה להעצמה, הנה דוגמה אמיתית מעבודה עם עיתונאי שכותב מאמרי דעה לתפוצה ארצית.

 

לפני השינוי, כל מאמר לקח לו בין 6 ל-8 שעות עבודה. היו לו רעיונות חזקים, קול מקורי ומחקר טוב, אבל התהליך היה ארוך ומתיש כי הוא ביצע את הכל בעצמו, מא' ועד ת'.

 

השינוי שעשינו היה להביא את ה-AI ל"שכבת הביצוע" בלבד:

 

  • הרעיונות, המומחיות והקול הייחודי נשארו אצלו.
  • ה-AI עזר לארגן את המחקר מהר יותר.
  • ה-AI בדק את מבנה הטיעונים לפני סגירת הטיוטה.
  • ה-AI ניקה טקסט מיותר לאחר שהעיתונאי כבר ניסח אותו בקולו המקורי.

 

התוצאה? תהליך העבודה התקצר לכ-90 דקות בלבד. האיכות נשמרה, הקול נשאר אותו קול, והעורך שלו אפילו לא שם לב להבדל בתוצר – כי לא היה הבדל בתוצר. ההבדל היה בכך שהעיתונאי קיבל חזרה נתח ענק מהחיים שלו והתמקד במה שרק הוא יכול לעשות.

 

זהו הכלל: כשאתם מעבירים ל-AI את הביצוע – אתם מועצמים. כשאתם מעבירים לו את החשיבה – אתם מוחלפים.


תרגיל: איפה אתם משקיעים את הזמן שלכם?

עצרו לרגע ושאלו את עצמכם: איפה אני משקיע את זמן הלמידה שלי? על כלים שישתנו בעוד חצי שנה, או על יכולות שיתחזקו בעשור הבא?

 

אני מזמין אתכם לבצע תרגיל קצר של 15 דקות שיכול לשנות את הפרספקטיבה שלכם:

 

  1. רשמו על דף את עשר המיומנויות הכי חשובות בעבודה שלכם כיום.
  2. עברו על כל אחת וסמנו האם היא עמידה (שיפוט, אסטרטגיה, יצירתיות) או חולפת (שליטה בכלי ספציפי, צד טכני).
  3. שאלו: האם המיומנות הזו תהיה בעלת ערך ב-2035? או שיש לה תאריך תפוגה?

 

מה שכנראה תגלו הוא שהמיומנויות שעשו אתכם בעלי ערך הן המיומנויות העמידות. והסכנה היא שהן נחלשות, דווקא כי רוב האנרגיה מושקעת כרגע במרדף אחרי הדברים החולפים.

 


סיכום: העצמה מנצחת קיצורי דרך

זו אינה קריאה להתעלם מ-AI. להיפך, זו קריאה לחשוב מחדש איך משתמשים בו. תשתמשו ב-AI כמה שיותר ב״שכבת הביצוע״, אבל במקביל, הקפידו לחזק באופן פעיל את שכבת השיפוט שלכם: שאלו שאלות קשות יותר, קראו לעומק, ואל תקבלו תשובות כמובנות מאליהן.

 

הנה הנקודות המרכזיות לקחת מכאן:

 

  • השקעה חכמה: מיומנויות עמידות מחזיקות 7+ שנים. מיומנויות כלים מתיישנות תוך פחות מ-2.5 שנים. בחרו נכון איפה ללמוד.
  • הבחנה קריטית: השימוש ב-AI צריך להגביר את החוזקות שלכם, לא לשחוק את החשיבה שלכם.
  • נתוני פרודוקטיביות: אנשי מקצוע ששומרים על שיפוט "In the Loop" רואים שיפור של 30-35%. אלה שמוותרים על החשיבה, מאבדים את המומחיות.

 

מתוך עשר המיומנויות החשובות ביותר שלכם, כמה עדיין יהיו בעלות ערך ב-2035? ואיזה מהן זנחתם בזמן שלמדתם כלים חדשים?


בונוס: פרומפט לתמונת ה Header

את התמונה המלווה של הפוסט יצרתי כמובן עם AI, מודל nano-banana-2 של גוגל (מודל חדש שיצא יומיים לפני כתיבת הפוסט הזה, טוב בהרבה מקודמיו, וב 50% מהעלות)

 

העלו תמונה שלכם והכניסו את הפרומפט הבא (תוך שאתם משלימים כל מה שבסוגריים לפי דמיונכם):

 


A highly detailed, realistic photograph of an open, 
spiral-bound notebook resting on a rustic wooden workshop bench, 
with a blurred bookshelf and window in the background, all illuminated by soft, natural light. 

On the lined paper page, a detailed hand-drawn pencil sketch of a character [attached image] is visible, 
matching the pose and form of a dynamic, 
fully-realized figure that is physically stepping off the page and out onto the desk. 

The figure is or or. The open notebook page contains handwritten pencil notes, 
including the title: 'PROJECT: [השלימו]' (top-left) and 'Date: [תאריך]' (top-right), 
with the recurring sentence: 'Idea: [השלימו]' written below it. 

Scattered realistically across the wooden desk are various craft tools and props specific to the character and project, 
such as for the artist, or for the sculptor, or for the architect.

הפוסט תפסיקו לרדוף אחרי כלי AI! הופיע לראשונה ב-Almaya.

]]>
Expressive Mode של ElevenLabs: המדריך המלא לבניית סוכני AI עם אינטליגנציה רגשית https://almaya.ai/blog/elevenlabs-expressive-mode Tue, 24 Feb 2026 13:13:12 +0000 https://almaya.ai/blog-elevenlabs-expressive-mode-guide/ סוכני ה-AI הקוליים של ElevenLabs מקבלים "רגשות": הכירו את ה-Expressive Mode ומודל ה-v3 החדש. בפוסט נלמד איך להגדיר סוכן שמבין טון דיבור, משתמש בתגי הבעה (צחוק ולחישה) ומנהל שיחה אנושית וזורמת ללא שתיקות מביכות.

הפוסט Expressive Mode של ElevenLabs: המדריך המלא לבניית סוכני AI עם אינטליגנציה רגשית הופיע לראשונה ב-Almaya.

]]>
עולם סוכני ה-AI הקוליים עובר מהפכה שקטה, אך דרמטית. עד לאחרונה, האתגר הגדול ביותר של בוטים קוליים לא היה רק להבין מה אנחנו אומרים, אלא להבין איך אנחנו אומרים את זה – ולהגיב בהתאם. השיחות הרגישו רובוטיות, הקצב היה מלאכותי, והיכולת להביע אמפתיה הייתה כמעט אפסית.
 

חברת ElevenLabs, החברה המובילה בעולם ביצירת דיבור קולי מתוך טקסט (text-to-speech), השיקה לאחרונה את ה-Expressive Mode במערכת ה-Agents שלה, שדרוג שמשנה את כללי המשחק. הפיצ'ר החדש מאפשר לסוכנים קוליים להתאים את הטון, התזמון וההגשה הרגשית שלהם בזמן אמת, בהתבסס על ההקשר של השיחה.
 

בפוסט זה נצלול לעומק הטכנולוגיה החדשה, נבין איך מודל ה-Eleven v3 Conversational עובד, ונלמד כיצד להגדיר סוכן שמבין מתי לצחוק, מתי ללחוש ומתי להגיב ברצינות תהומית.


מהם בכלל סוכני ה-Ai הקוליים של Eleven Labs?

סוכני ה-AI הקוליים הללו (או בשמם המקצועי: Conversational AI Agents) הם לא סתם "קריינים" שקוראים טקסט, אלא מערכות אינטראקטיביות מקצה לקצה המסוגלות לנהל שיחה קולית מלאה בזמן אמת.
 
בניגוד לעבר, שבו היינו צריכים לחבר בנפרד מודל שמיעה (ASR), מודל חשיבה (LLM) ומודל דיבור (TTS), ElevenLabs מציעה תשתית מאוחדת שעושה הכל תחת קורת גג אחת. הסוכנים הללו מסוגלים להבין הוראות מורכבות, לשלוף מידע ממאגרי נתונים ולענות בקול אנושי כמעט לחלוטין, מה שהופך אותם לכלי אידיאלי לשירות לקוחות, תמיכה טכנית, מכירות ואפילו ליווי אישי – והכל עם דיליי (Latency) נמוך במיוחד שמרגיש כמו שיחה עם בן אדם בצד השני של הקו.

 

הדבר הקורץ במיוחד בסוכנים הקוליים של Eleven Labs הוא אפשרות הקמת הסוכנים ללא ידע בפיתוח תוכנה. כל אחד, עם קצת אוריינטציה טכנית, יכול להקים סוכן קולי, לחבר אותו דרך שרת MCP, למערכות אותם הוא מפעיל בעסק, ואף לחבר את הסוכן למספר טלפון – מה שמאפשר זמינות מדהימה לשירות הלקוחות.

 


מהו Expressive Mode?

מצב הבעה (Expressive Mode) הוא יכולת חדשה המאפשרת לסוכנים של ElevenLabs "לשמוע" מעבר למילים הכתובות. המערכת מבוססת על שני שיפורים מערכתיים עמוקים ב-Stack השיחה:

 

  1. מודל Eleven v3 Conversational: מודל ה-TTS (טקסט לדיבור) האינטליגנטי ביותר של החברה עד כה, בעל "אינטליגנציה רגשית" והבנת הקשר.
  2. מערכת Turn-taking (לקיחת תורות) חדשה: מנגנון תזמון מדויק יותר שמונע הפרעות בשיחה ומבין מתי המשתמש סיים לדבר ומתי הוא רק לוקח אוויר.

 

השילוב של השניים מאפשר לסוכן לא רק לקרוא טקסט, אלא לבצע "משחק" (Acting) של ממש – הוא יגיב ברוגע כשאתם לחוצים, או בהתלהבות כשיש חדשות טובות.


המוח החדש: Eleven v3 Conversational

הלב של המערכת הוא המודל החדש, שפותח במיוחד לשיחות חיות (Low Latency). המודל שומר על ההקשר לאורך השיחה ומתאים את אופן הדיבור לכוונת המשתמש.

 

היכולות המרכזיות כוללות:
 

  • התאמת טון קונטקסטואלית: הסוכן מנתח את הסיטואציה. אם משתמש נשמע מודאג, הסוכן יאמץ טון מרגיע. אם נדרשת בהירות טכנית, הוא ידבר בצורה ישירה וחותכת.
  • תמיכה בשפות: המודל תומך כעת ב-70+ שפות (קפיצה משמעותית מ-32 המודלים הקודמים), עם שיפור דרמטי בניואנסים בשפות מורכבות כמו יפנית.
  • תגי הבעה (Expressive Tags): ה-LLM יכול לשלוח למודל הדיבור הוראות בימוי ספציפיות בתוך הטקסט.

 

הנה דוגמאות לתגים שניתן להוסיף בתשובות המודל כדי לשלוט בביצוע:

 


[laughs]   - Adds laughter to the speech
[whispers] - Lowers volume for whispering
[sighs]    - Adds a sighing quality
[slow]     - Slows down speech delivery
[excited]  - Adds excitement to the delivery

 

כל תג משפיע על כ-4 עד 5 המילים הבאות אחריו, לפני שהדיבור חוזר לקצב ולטון הרגיל.

 

רוצים לנסות? הכנסו לממשק text-to-speech של Eleven Labs, בפאנל הצד בחרו במודל v3 (חשוב!), והכניסו טקסט הכולל חלק מהתגים שפורטו לעיל.
 


מערכת ה-Turn-Taking: להבין מתי לדבר

אחת הבעיות הקשות בבוטים קוליים היא שהם או קוטעים אותך באמצע משפט, או מחכים שתיקה מביכה לפני שהם עונים. המערכת החדשה משתמשת באותות זמן-אמת ממודל Scribe v2 כדי לפתור את זה.

 

המערכת מנתחת לא רק את הטקסט (מה נאמר), אלא גם את הפרוזודיה (איך זה נאמר) ורמזים רגשיים.

 

לדוגמא:
אם משתמש אומר את המילה "כן…" (Yeah).

  • אם זה נאמר בטון יורד וסוגר – זו הסכמה, והסוכן יכול להמשיך.
  • אם זה נאמר בטון מתמשך – המשתמש כנראה חושב ומתכוון להמשיך לדבר, והסוכן יחכה.

 


איך בונים סוכן אקספרסיבי?

הפעלת המצב החדש היא פשוטה, אך דורשת כיוונון עדין של ה-System Prompt כדי לקבל תוצאות מיטביות.

 

שלב 1: בחירת המודל

  1. כנסו ל-Dashboard של ElevenLabs באזור ה-Agents.
  2. תחת לשונית Agent Voice, בחרו במודל: V3 Conversational.
  3. ברגע שבחרתם במודל זה, Expressive mode מופעל אוטומטית כברירת מחדל.

 

שלב 2: הנחיות ב-System Prompt

כדי שהסוכן ידע מתי להיות אמפתי ומתי להיות ענייני, עליכם להנחות אותו ב-System Prompt. המודל מבין שפה טבעית, אז אין צורך בקוד מורכב, אלא בהגדרות אישיות (Persona).

 

דוגמה להנחיה כללית לטון הדיבור:


You are a customer support agent. When a user sounds frustrated or upset, respond 
in a calm, reassuring tone. When delivering good news, allow your tone to reflect 
genuine warmth. Maintain a professional but approachable delivery throughout.

 

דוגמה להנחיה עם טריגרים ספציפיים:


You are a conversational AI agent with expressive speech capabilities.
Tone guidelines:
- When a user expresses frustration, use a calm and empathetic tone
- When explaining technical steps, use a clear and measured pace
- When a user shares good news, respond with warmth and enthusiasm
- When handling complaints, remain composed and solution-oriented

 

שימוש בתגי הבעה בתוך הפרומפט (לשליטה מדויקת):


You can also use expressive tags in your responses for precise control:
- [laughs] for moments of humor
- [whispers] for confidential or intimate moments
- [sighs] for resignation or relief
- [slow] when emphasizing important information

Example response: "That's great to hear! [laughs] I'm glad we could sort that out for you."

מגבלות וטיפים לשימוש נכון

למרות שהטכנולוגיה מרשימה, חשוב להכיר את המגבלות והדרכים לעקוף אותן כדי ליצור חוויה חלקה.

 

  • שיבוטי קול מקצועיים (PVC): נכון לעכשיו, מודל V3 Conversational אינו משמר בצורה מושלמת את המאפיינים של Professional Voice Clones. התוצאה עשויה להישמע שונה מהקול המקורי. אם הזהות הקולית היא קריטית לכם, עדיף להישאר כרגע עם מודל Turbo v2.
  • משך ההשפעה של תגים: תגים כמו [whisper] משפיעים רק על 4-5 מילים. אל תבנו על כך שהסוכן "ילחש" פסקה שלמה באמצעות תג אחד בתחילתה.
  • בדיקה בשפות שונות: רמת האקספרסיביות משתנה בין שפות. חובה לבצע בדיקות QA בשפת היעד שלכם כדי לוודא שהניואנסים הרגשיים עוברים כהלכה.
  • עלות: החדשות הטובות הן שהמחיר זהה לשאר המודלים – החל מ-$0.08 לדקה.

 

השילוב של בינה מלאכותית שמבינה לא רק טקסט אלא גם סאב-טקסט ורגש, הוא צעד ענק בדרך לממשקים טבעיים באמת. זה הזמן להתחיל להתנסות ולשדרג את חווית השירות של הבוטים שלכם.

הפוסט Expressive Mode של ElevenLabs: המדריך המלא לבניית סוכני AI עם אינטליגנציה רגשית הופיע לראשונה ב-Almaya.

]]>
NotebookLM + Gemini = עובד חדש לעסק: מדריך צעד צעד https://almaya.ai/blog/notebooklm-plus-gemini Mon, 16 Feb 2026 13:30:04 +0000 https://almaya.ai/?p=3737 איך להפוך את NotebookLM ו-Gemini לעובד דיגיטלי חכם בעסק שלכם. מדריך מעשי ליצירת סוכן AI (Gem) מותאם אישית המבוסס על מסמכי המקור, האסטרטגיה ונהלי העבודה הייחודיים שלכם, כולל אינטגרציה מלאה ל-Google Workspace.

הפוסט NotebookLM + Gemini = עובד חדש לעסק: מדריך צעד צעד הופיע לראשונה ב-Almaya.

]]>
רבים מכירים את NotebookLM כ"מכונה לקריאת PDF" או ככלי לסיכום פודקאסטים, אבל האמת היא שהוא הרבה יותר מזה. זהו בסיס ידע חכם, עמוק ומקורקע, שמבוסס על טונות של חומר ספציפי וייחודי שלכם.
 
כשמחברים את בסיס הידע הזה ליכולות של Gemini Gems (העוזרים האישיים המותאמים אישית), מקבלים לא סתם עוד צ'אטבוט, אלא עובד חדש לעסק. עובד שמכיר את הנהלים, את הלקוחות ואת האסטרטגיה שלכם ממש לעומק.
 
במדריך זה נלמד איך ליצור את החיבור הזה שלב אחר שלב, ולהפוך את מאגרי המידע שלכם לסוכן AI פעיל.

שלב 1: בניית ה"מוח" ב-NotebookLM

הצעד הראשון הוא יצירת בסיס הידע. המטרה שלנו היא לרכז את כל המידע הארגוני או הפרויקטלי במקום אחד שה-AI יוכל לגשת אליו.
 

  1. כנסו ל-NotebookLM בכתובת notebooklm.google.com ופתחו מחברת חדשה.
  2. העלו את מסמכי המקור הרלוונטיים ביותר. זה יכול לכלול:

    • פרופילי חברות ומסמכי אסטרטגיה.
    • קבצי PDF של נהלים.
    • סרטונים רלוונטיים מיוטיוב (כן, הוא יודע "לצפות" ולהבין אותם).
    • קבצים ישירות מ-Google Drive.

 

 
לאחר שהחומרים בפנים, מומלץ להשתמש בפיצ'ר ה-Deep Research (אם זמין לכם) או פשוט לתת למערכת כמה דקות לעבד את המידע. זהו השלב שבו המודל "לומד" את החומר שלכם.


שלב 2: יצירת תובנות ראשוניות

לפני שנרוץ לבנות את הסוכן, כדאי לוודא שהמידע נקלט היטב ושניתן להפיק ממנו ערך. הסטודיו של NotebookLM מאפשר לייצר תוצרים במהירות:
 

  • סיכומים ואינפוגרפיקות.
  • טבלאות נתונים להשוואה בין מסמכים.
  • פודקאסטים (Audio Overviews) להאזנה לחומר.

 
השתמשו בכלים אלו כדי לחלץ תובנות מפתח ושמרו אותן כ-Notes (פתקים) בתוך המחברת. פתקים אלו ישמשו בהמשך כחלק מההקשר של הסוכן שלנו.


שלב 3: בניית העוזר האישי (Gem)

עכשיו מגיע הקסם האמיתי: החיבור בין הידע לבין מודל השיחה. אנחנו נעבור ל-Gemini Advanced כדי ליצור Gem – גרסה מותאמת אישית של ג'מיני.
 

  1. הכנסו לממשק של Gemini.
  2. הקליקו על Gem manager בפאנל הצד ואז על New Gem.
  3. תנו לסוכן שם (למשל: "יועץ אסטרטגי פנימי").
  4. השלב הקריטי: מתחת לאזור ה-Knowledge, לחצו על כפתור ה-+ ובחרו ב-NotebookLM. בחרו את המחברת שיצרתם בשלב הראשון.

 

 
כעת, כתבו את ההנחיות (Instructions). המטרה היא להגדיר לסוכן את ה"אישיות" ואת אופן הפעולה שלו. הנה תבנית מומלצת להתחלה (באנגלית, גם עברית עובד, אבל אנגלית לרוב איכותי יותר):
 


You are a personal assistant specializing in [Specific Field], representing [Company Name].

Your goal is to assist the user by asking guiding questions, one at a time, regarding the [Client / Project / Topic].

Guide the learning process gradually based on the user's responses and your attached Knowledge Base. Only when the case details are clear to you, offer precise assistance based on the information in the Notebook.

 
זכרו: ההוראות אינן קדושות. דייקו אותן לפי הצרכים הספציפיים שלכם ולפי סגנון התקשורת הרצוי.


שלב 4: אינטגרציה עם Google Workspace

הכוח של ה-Gem הזה הוא שהוא לא חי בבועה. אם אתם משתמשים ב-Google Workspace, אתם יכולים להפעיל אותו ישירות בתוך האפליקציות היומיומיות שלכם.
 
הנה כמה דוגמאות לשימוש ב-Gem המחובר לידע שלכם:
 

  • ב-Google Docs: בקשו ממנו לכתוב טיוטה להצעת מחיר, כאשר הוא מתבסס על מחירונים ונהלים שנמצאים במחברת.
  • ב-Google Slides: בקשו רעיונות לשקפים או מבנה למצגת שמבוסס על אסטרטגיית המותג.
  • ב-Google Sheets: נסו את הפרומפט הבא ליצירת סדר בנתונים:

    
    Create a new table ranking all clients according to the customer evaluation model found in the notebook.
            

סיכום: בונים נכס ידע, לא עוד צ'אט חד-פעמי

השיטה הזו משנה את כללי המשחק. במקום לנהל שיחות חד-פעמיות עם AI ששוכח הכל בסוף הסשן, אתם בונים מערכת לומדת.
 
ככל שתוסיפו למחברת ב-NotebookLM חומרים חדשים (סיכומי פגישות, החלטות, מוצרים חדשים), ה-Gem שלכם יהפוך לחכם יותר ומדויק יותר. בכל פרויקט חדש, במקום להתחיל מאפס, אתם יכולים לשכפל מחברת קיימת או לפתוח אחת חדשה עם אותו מבנה מנצח.
 
זה הזמן שלכם לנסות. קחו נושא אחד שמעסיק אתכם, אספו את החומרים, ותבנו לכם את העובד המצטיין הבא של החודש.

הפוסט NotebookLM + Gemini = עובד חדש לעסק: מדריך צעד צעד הופיע לראשונה ב-Almaya.

]]>
מדריך צעד-צעד ל-Claude Skills (ו-5 במתנה, copy-paste) https://almaya.ai/blog/claude-skills-my-top-5 Wed, 11 Feb 2026 06:32:00 +0000 https://almaya.ai/?p=3707 מדריך מעשי ל-Claude Skills: למדו איך להפוך את קלוד למערכת אוטומציה עוצמתית ללא קוד. כולל 5 כלים מוכנים להעתקה ליצירת הצעות מחיר, מצגות, דשבורדים, מודלים פיננסיים ותרשימי זרימה.

הפוסט מדריך צעד-צעד ל-Claude Skills (ו-5 במתנה, copy-paste) הופיע לראשונה ב-Almaya.

]]>
במדריך זה נצלול אל יכולת מתקדמת ומרתקת ב-Claude הנקראת Skills (מיומנויות). רוב המשתמשים מכירים את Claude כעוזר כתיבה או שותף לסיעור מוחות, אך באמצעות Skills ניתן להפוך אותו למערכת אוטומציה ליצירת מסמכים מקצועיים, דשבורדים וניתוחים פיננסיים – ללא צורך בידע בתכנות.
 

במהלך התרגול נבין את ההבדל בין Projects ל-Skills, נלמד את המתכון הטכני ליצירת Skill, ונבנה בפועל 5 כלים מעשיים שיכולים לחסוך שעות עבודה רבות. נתנסה בהגדרת "מתכונים" שמלמדים את המודל לבצע רצף פעולות מורכב, החל מיצירת הצעת מחיר ועד בניית דשבורד אינטראקטיבי.


היכרות עם Claude Skills

לפני שנתחיל בבנייה, חשוב להבין את הקונספט. תחשבו על Skills בתור "מתכונים" או "פרוטוקולים" שמקודדים מראש לתוך המודל.

 

  1. ההבדל בין Projects ל-Skills:
    • Claude Projects: אלו סביבות עבודה המספקות הקשר (Context). אתם מעלים לשם מסמכים ספציפיים לפרויקט, והמודל "יודע" את המידע הזה.
    • Claude Skills: אלו יכולות (Capabilities) שעובדות בכל מקום. הם כמו "קבלני משנה" רדומים שמתעוררים רק כשאתם קוראים להם לבצע משימה מוגדרת היטב.
  2. דרישות קדם לתרגול:
    • חשבון Claude Professional (נדרש כדי להשתמש בפיצ'ר ה-Skills).
    • עורך טקסט פשוט (כגון Notepad בווינדוס, TextEdit במק, או VS Code). אין להשתמש ב-Word.
    • קובץ ZIP (נלמד ליצור אותו מיד).

המדריך הטכני ליצירת Skill

תהליך היצירה הוא טכני אך פשוט וחוזר על עצמו עבור כל Skill. בצעו את השלבים הבאים כדי להכין את התשתית.

 

  1. יצירת התיקייה:
    • צרו תיקייה חדשה במחשב שלכם.
    • תנו לה שם באנגלית בלבד, עם מקפים בין מילים (לדוגמא: proposal-generator).
    • חשוב: אל תשתמשו ברווחים או בקו תחתון (_).
  2. יצירת קובץ ההוראות:
    • בתוך התיקייה, צרו קובץ טקסט חדש.
    • שנו את שם הקובץ ל-SKILL.md בדיוק (שימו לב לסיומת md.).
    • בשלבים הבאים נעתיק לתוך קובץ זה את הקוד.
  3. אריזה (Zipping):
    • לאחר שערכתם את הקובץ ושמרתם, יש לדחוס את התיקייה.
    • ב-Mac: קליק ימני על התיקייה -> Compress.
    • ב-Windows: קליק ימני -> Send to -> Compressed (zipped) folder.
  4. העלאה ל-Claude:
    • פתחו את Claude.
    • לחצו על תמונת הפרופיל שלכם -> Settings -> Capabilities -> Skills.
    • לחצו על Upload skill ובחרו את קובץ ה-ZIP שיצרתם.
       

את 5 ה Skills הבאים תוכלו פשוט להעתיק ולהדביק בקובץ SKILL.md שיצרתם.


סקיל 1: מחולל הצעות מחיר (Proposal Generator)

סקיל זה הופך הערות קוליות או טקסט גולמי להצעת מחיר מעוצבת ומקצועית.

 

במקום להקדיש חצי יום להכנת הצעת מחיר, אני מקליט הערות קוליות (גם תו״כ כדי נסיעה. בדיבורית) ל-Claude עם ה-Skill הזה, ותוך 5 דקות יש לי מסמך מוכן עם:

 

  • עמוד שער עם לוגו וצבעי המותג שלי
  • פירוט היקף העבודה
  • לוח זמנים ותמחור
  • תנאים והסכמות

 

  1. הכנת הקובץ:
     
    העתיקו את התוכן הבא לקובץ SKILL.md בתיקייה שיצרתם:
    עבריתEnglish
    
    ---
    name: proposal-generator
    description: יוצר הצעות מחיר והצעות עבודה מקצועיות ללקוחות, כולל מיתוג, עיצוב, טבלאות ושורות חתימה. השתמשו כאשר המשתמש צריך ליצור הצעת מחיר, הצעה לפרויקט או מסמך היקף עבודה ללקוח.
    ---
    
    # מיומנות יצירת הצעות
    
    אתה מומחה מקצועי לכתיבת הצעות מחיר.
    
    ## בעת הפעלה
    
    בקש את המידע הבא (בדוק קודם בזיכרון של Claude, ושאל רק אם חסר):
    
    1. שם העסק או החברה  
    2. לוגו (אם לא קיים בתיקיית assets/)  
    3. צבעי המותג (אם לא קיימים בזיכרון)  
    4. שם הלקוח ותיאור כללי של הפרויקט  
    5. היקף העבודה והתוצרים  
    6. לוחות זמנים ואבני דרך  
    7. סכום ההשקעה ותנאי התשלום  
    
    ## טיפול בתבנית
    
    **אם קיים הקובץ assets/proposal-template.docx:** השתמש בתבנית זו לכל העיצוב, המבנה והמיתוג.
    
    **אם לא קיימת תבנית:** צור מסמך Word (.docx) הכולל:
    
    - עמוד שער (שם החברה, "הצעה עבור [שם הלקוח]", תאריך)  
    - תקציר מנהלים (3–4 פסקאות)  
    - היקף עבודה עם תוצרים ברורים  
    - לוח זמנים כטבלה מעוצבת  
    - פירוט השקעה ותנאי תשלום  
    - תנאים והגבלות  
    - אזור חתימה לשני הצדדים  
    
    ## פלט
    
    שמור בשם:  
    `[ClientName]_Proposal_[Date].docx`
    
    החל עיצוב מקצועי עם כותרות עקביות, טבלאות ללוחות זמנים ולתמחור, ושבירת עמוד בין הסעיפים.
    
    
    ---
    name: proposal-generator
    description: Creates professional client proposals with branding, formatting, tables, and signature lines. Use when user needs to create proposals, quotes, or project scopes for clients.
    ---
    
    # Proposal Generator Skill
    
    You are a professional proposal specialist.
    
    ## When Activated
    
    Ask for this information (check Claude's memory first, only ask if missing):
    1. Business/company name
    2. Logo (if not in assets/ folder)
    3. Brand colors (if not in memory)
    4. Client name and project overview
    5. Scope of work and deliverables
    6. Timeline and milestones
    7. Investment amount and payment terms
    
    ## Template Handling
    
    **If assets/proposal-template.docx exists:** Use that template for all formatting, structure, and branding.
    
    **If no template exists:** Create a Word document (.docx) with:
    - Cover page (company name, "Proposal for [Client]", date)
    - Executive summary (3-4 paragraphs)
    - Scope of work with clear deliverables
    - Timeline as formatted table
    - Investment breakdown with payment terms
    - Terms and conditions
    - Signature section for both parties
    
    ## Output
    
    Save as: `[ClientName]_Proposal_[Date].docx`
    
    Apply professional formatting with consistent headers, tables for timeline/pricing, and page breaks between sections.
    
  2. תוספות:
     

    ניתן להוסיף קובץ טמפלייט ממותג להצעת המחיר באותה תיקיה של ה SKILL.md, ו״לארז״ אותו לתוך ה-ZIP. הקובץ ימוקם בתיקיה פנימית assets/proposal-template.docx.

  3. בדיקה:
     

    • העלו את ה-Skill ל-Claude.
    • פתחו צ'אט חדש וכתבו:
       

      אני צריך לשלוח הצעת מחיר ללקוח 'ששון ייזום נדלן' לעיצוב מחדש של האתר. התקציב הוא 15,000₪.


סקיל 2: בונה מצגות (Presentation Builder)

מצגת של 12 סליידים שהייתה לוקחת יומיים? נוצרת ב-22 דקות.
 
ה-Skill לוקח את נקודות המפתח שלכם, יוצר מבנה מקצועי עם תרשימים והערות למרצה, ומייצא ישירות ל-PowerPoint מוכן. אם יש לכם תבנית קיימת – הוא משתמש בפורמט המדויק שלכם.

 

  1. הכנת הקובץ:
    • צרו תיקייה חדשה וקובץ SKILL.md חדש עם התוכן הבא:
    עבריתEnglish
    
    ---
    name: presentation-builder
    description: יוצר מצגות PowerPoint ניהוליות על בסיס מחקר ונתונים. השתמשו כאשר המשתמש צריך מצגת לדירקטוריון, מצגת אסטרטגיה או שקפים מקצועיים.
    ---
    
    # מיומנות בניית מצגות
    
    אתה מומחה למצגות מנהלים.
    
    ## בעת הפעלה
    
    בקש את המידע הבא (בדוק קודם בזיכרון, ושאל רק אם חסר):
    
    1. שם העסק ופרטי מיתוג  
    2. מטרת המצגת והמסר המרכזי  
    3. קהל היעד (דירקטוריון, הנהלה, צוות, סטודנטים)  
    4. נושאים עיקריים לכיסוי  
    5. נתונים או מדדים שיש לכלול  
    6. סגנון מבוקש (רשמי, שיחתי, מבוסס נתונים, לימודי)  
    
    ## טיפול בתבנית
    
    **אם קיים הקובץ assets/presentation-template.pptx:** השתמש בתבנית זו לכל השקפים, העיצוב והמיתוג.
    
    **אם לא קיימת תבנית:** צור קובץ PowerPoint (.pptx) הכולל:
    
    - שקף פתיחה (כותרת ראשית, כותרת משנה, תאריך)  
    - סדר יום (3–5 חלקים עיקריים)  
    - שקפי תוכן (נקודה אחת בכל שקף, עד 3–5 בולטים לכל היותר)  
    - שקפי נתונים (גרפים או טבלאות עם כיתוב ברור)  
    - סיכום (תובנות מרכזיות והצעדים הבאים)  
    
    ## פלט
    
    שמור בשם:  
    `[Topic]_Presentation_[Date].pptx`
    
    השתמש בכותרות ברורות, בולטים תמציתיים, הערות דובר בשקפים מורכבים, ועיצוב מקצועי ועקבי לאורך כל המצגת.
    
    
    ---
    name: presentation-builder
    description: Creates executive PowerPoint presentations from research and data. Use when user needs board decks, strategy presentations, or professional slides.
    ---
    
    # Presentation Builder Skill
    
    You are an executive presentation specialist.
    
    ## When Activated
    
    Ask for this information (check memory first, only ask if missing):
    1. Business name and branding details
    2. Presentation purpose and key message
    3. Target audience (board, executives, team, students)
    4. Main topics to cover
    5. Data or metrics to include
    6. Tone preference (formal, conversational, data-driven, educational)
    
    ## Template Handling
    
    **If assets/presentation-template.pptx exists:** Use that template for all slides, formatting, and branding.
    
    **If no template exists:** Create PowerPoint (.pptx) with:
    - Title slide (headline, subtitle, date)
    - Agenda (3-5 main sections)
    - Content slides (one point per slide, 3-5 bullets max)
    - Data slides (charts/tables with clear labels)
    - Summary (key takeaways and next steps)
    
    ## Output
    
    Save as: `[Topic]_Presentation_[Date].pptx`
    
    Use clear slide titles, concise bullets, speaker notes for complex slides, and professional layout throughout.
    
  2. תוספות:
     

    ניתן להוסיף קובץ טמפלייט ממותג להצעת המחיר באותה תיקיה של ה SKILL.md, ו״לארז״ אותו לתוך ה-ZIP. הקובץ ימוקם בתיקיה פנימית assets/presentation-template.pptx.


סקיל 3: בונה דשבורדים (Dashboard Builder)

סקיל זה הופך קובץ CSV לדשבורד HTML אינטראקטיבי ללא כתיבת קוד ידנית.

 

  1. הכנת הקובץ:
    • העתיקו לקובץ ה-Skill:
    עבריתEnglish
    
    ---
    name: dashboard-builder
    description: ממיר נתוני CSV לדשבורדים אינטראקטיביים באינטרנט עם פילטרים וגרפים. השתמשו כאשר המשתמש צריך להמחיש נתונים, לעקוב אחרי מדדים או ליצור דוחות אינטראקטיביים.
    ---
    
    # מיומנות בניית דשבורדים
    
    אתה אנליסט, מומחה להמחשת נתונים באופן ויזואלי.
    
    ## בעת הפעלה
    
    בקש את המידע הבא (בדוק קודם בזיכרון):
    
    1. שם העסק וצבעי המותג (אם לא קיימים בזיכרון)  
    2. מקור הנתונים (קובץ CSV או תיאור)  
    3. מדדים מרכזיים למעקב  
    4. איך לסנן (תאריך, קטגוריה, אזור)  
    5. אילו המחשות נדרשות (תרשימים, טבלאות, גרפים)  
    
    ## יצירת דשבורד
    
    בנה דשבורד HTML אינטראקטיבי הכולל:
    
    - כותרת עליונה (כותרת, תאריך עדכון אחרון, תיאור)  
    - כרטיסי מדדים (3–5 מספרים מרכזיים שמופיעים בצורה בולטת)  
    - בקרי סינון (תפריטים נפתחים לתאריכים, קטגוריות)  
    - תרשימים אינטראקטיביים באמצעות Chart.js  
    - טבלת נתונים ניתנת למיון בחלק התחתון  
    
    ## טכני
    
    - קובץ HTML יחיד שנפתח בכל דפדפן  
    - עיצוב רספונסיבי (דסקטופ ומובייל)  
    - צבעים מקצועיים (השתמשו בצבעי המותג אם סופקו)  
    - שמור בשם:  
      `[DataSource]_Dashboard_[Date].html`
    
    
    
    ---
    name: dashboard-builder
    description: Transforms CSV data into interactive web dashboards with filters and charts. Use when user needs to visualize data, track metrics, or create interactive reports.
    ---
    
    # Dashboard Builder Skill
    
    You are a data visualization specialist.
    
    ## When Activated
    
    Ask for this information (check memory first):
    1. Business name and brand colors (if not in memory)
    2. Data source (CSV file or description)
    3. Key metrics to track
    4. How to filter (date, category, region)
    5. Visualizations needed (charts, tables, graphs)
    
    ## Create Dashboard
    
    Build an interactive HTML dashboard with:
    - Header (title, last updated, description)
    - Metrics cards (top 3-5 numbers prominently)
    - Filter controls (dropdowns for dates, categories)
    - Interactive charts using Chart.js
    - Sortable data table below
    
    ## Technical
    
    - Single HTML file that opens in any browser
    - Responsive design (desktop and mobile)
    - Professional colors (use brand colors if provided)
    - Save as: `[DataSource]_Dashboard_[Date].html`
    
  2. בדיקה:
     
    גררו קובץ אקסל או CSV ל-Claude וכתבו:
     

    בנה לי דשבורד של הדאטה הזה (בעזרת dashboard skill שלך). התמקד במגמות מכירה.


סקיל 4: מתכנן פיננסי (Financial Model Builder)

יצירת קבצי אקסל מורכבים עם נוסחאות חיות וקידוד צבעים סטנדרטי.

 

תקציב עם 47 שורות ו-6 טאבים. משנים הנחה אחת (כמו תעריף שעתי), ו-283 תאים מתעדכנים אוטומטית. המודל משתמש בנוסחאות Excel מקצועיות עם קידוד צבעים סטנדרטי (כחול לקלט, שחור לנוסחאות).

 

  1. הכנת הקובץ:
     
    עבריתEnglish
    
    ---
    name: financial-model-builder
    description: יוצר מודלים דינמיים ב-Excel עם נוסחאות פעילות וחישוב אוטומטי. השתמשו כאשר המשתמש צריך תקציב, תחזית, ניתוח ROI או מודל תמחור.
    ---
    
    # מיומנות בניית מודלים פיננסיים
    
    אתה מתכנן פיננסי מומחה.
    
    ## בעת הפעלה
    
    בקש את המידע הבא (בדוק קודם בזיכרון):
    
    1. שם העסק (אם לא קיים בזיכרון)  
    2. מטרת המודל (תקציב, תחזית, ROI, תמחור)  
    3. טווח זמן (חודשי, רבעוני, שנתי)  
    4. מקורות הכנסה וקטגוריות הוצאה  
    5. שיעורי צמיחה או משתנים מרכזיים  
    6. חישובים נדרשים (NPV, IRR, נקודת איזון, מרווחים)  
    
    ## טיפול בתבנית
    
    **אם קיים הקובץ assets/model-template.xlsx:** השתמש בתבנית זו למבנה ולעיצוב.
    
    **אם לא קיימת תבנית:** צור קובץ Excel הכולל לשוניות:
    
    - Assumptions – כל הקלטים, מסומנים וברורים  
    - Calculations – פירוט חודשי או רבעוני של החישובים  
    - Dashboard – מדדים מרכזיים וגרפים  
    
    ## כללי נוסחאות
    
    **סטנדרט צבעים:**
    - טקסט כחול = קלטים לעריכה  
    - טקסט שחור = נוסחאות מחושבות  
    - טקסט ירוק = קישורים ללשוניות אחרות  
    - רקע צהוב = תוצאות מרכזיות  
    
    **דרישות:**
    - כל הקלטים יוזנו באמצעות הפניות לתאים (ללא מספרים קשיחים בנוסחאות)  
    - עטוף נוסחאות ב-IFERROR  
    - אל תשאיר נוסחאות שבורות  
    
    שמור בשם:  
    `[Purpose]_Model_[Date].xlsx`
    
    
    ---
    name: financial-model-builder
    description: Creates dynamic Excel models with working formulas and automatic recalculation. Use when user needs budgets, forecasts, ROI analysis, or pricing models.
    ---
    
    # Financial Model Builder Skill
    
    You are a financial modeling specialist.
    
    ## When Activated
    
    Ask for this information (check memory first):
    1. Business name (if not in memory)
    2. Model purpose (budget, forecast, ROI, pricing)
    3. Time period (monthly/quarterly/yearly)
    4. Revenue streams and expense categories
    5. Growth rates or key variables
    6. Calculations needed (NPV, IRR, break-even, margins)
    
    ## Template Handling
    
    **If assets/model-template.xlsx exists:** Use that template for structure and formatting.
    
    **If no template exists:** Create Excel file with tabs:
    - Assumptions (all inputs, clearly labeled)
    - Calculations (monthly/quarterly breakdowns)
    - Dashboard (key metrics and charts)
    
    ## Formula Rules
    
    **Color Standards:**
    - BLUE text = inputs (user edits)
    - BLACK text = formulas (calculated)
    - GREEN text = links to other tabs
    - YELLOW background = key outputs
    
    **Requirements:**
    - All inputs use cell references (NO hardcoded numbers)
    - Wrap formulas in IFERROR
    - No broken formulas
    
    Save as: `[Purpose]_Model_[Date].xlsx`
    
  2. תוספות:
     

    ניתן להוסיף קובץ טמפלייט ממותג להצעת המחיר באותה תיקיה של ה SKILL.md, ו״לארז״ אותו לתוך ה-ZIP. הקובץ ימוקם בתיקיה פנימית assets/model-template.xlsx.


סקיל 5: ויזואליזציה של תהליכים (Workflow Visualizer)

יצירת תרשימי זרימה ותרשימים ארגוניים מתוך תיאור טקסטואלי.

 

במקום לכתוב 3 פסקאות הסבר, תארו את התהליך ל-Skill הזה ותקבלו תרשים זרימה מקצועי תוך 2 דקות – מוכן להדבקה במייל או במצגת.

 

  1. הכנת הקובץ:
     
    עבריתEnglish
    
    ---
    name: workflow-visualizer
    description: יוצר דיאגרמות תהליך, תרשימי ארגון, תרשימי זרימה והמחשות מערכת. השתמש כאשר המשתמש צריך להמחיש workflow או להסביר תהליכים.
    ---
    
    # מיומנות המחשת תהליכים
    
    אתה מומחה להמחשת תהליכים.
    
    ## בעת הפעלה
    
    בקש את המידע הבא (בדוק קודם בזיכרון):
    
    1. צבעי מותג (אם לא קיימים בזיכרון והמשתמש רוצה מיתוג)  
    2. סוג הדיאגרמה (workflow, תרשים ארגוני, זרימת תהליך, עץ החלטה)  
    3. האלמנטים המרכזיים או השלבים להצגה  
    4. איך הם מתחברים (רציף, היררכי, מחזורי)  
    5. תוויות או הערות נדרשות  
    
    ## יצירת דיאגרמה
    
    בנה דיאגרמה מקצועית הכוללת:
    
    - תיבות או צורות נקיות עם תוויות ברורות  
    - חיצים שמציגים זרימה או יחסים  
    - קידוד צבעים כשזה עוזר  
    - ריווח נכון (לא צפוף)  
    - היררכיה ברורה  
    
    ## פלט
    
    - פורמט SVG או PNG  
    - שם: `[Type]_[Topic]_[Date]`  
    - מראה מקצועי שמתאים למצגות  
    
    בדיקת איכות: האם מישהו מבין את זה תוך 3 שניות?
    
    
    
    ---
    name: workflow-visualizer
    description: Creates process diagrams, org charts, flowcharts, and system visualizations. Use when user needs to visualize workflows or explain processes.
    ---
    
    # Workflow Visualizer Skill
    
    You are a process visualization specialist.
    
    ## When Activated
    
    Ask for this information (check memory first):
    1. Brand colors (if not in memory and user wants branding)
    2. Diagram type (workflow, org chart, process flow, decision tree)
    3. Main elements or steps to show
    4. How they connect (sequential, hierarchical, cyclical)
    5. Labels or annotations needed
    
    ## Create Diagram
    
    Build a professional diagram with:
    - Clean boxes/shapes with clear labels
    - Arrows showing flow/relationships
    - Color coding if helpful
    - Proper spacing (not crowded)
    - Clear hierarchy
    
    ## Output
    
    - SVG or PNG format
    - Name: `[Type]_[Topic]_[Date]`
    - Professional appearance for presentations
    
    Quality check: Can someone understand this in 3 seconds?
    

איך מתקדמים?

כעת שיש לכם את הידע הטכני, זה הזמן ליישם אותו על הצרכים האישיים שלכם.

 

המוטו שאני הכי אוהב הוא ״אם זה לא יהיה פשוט – זה פשוט לא יהיה״. לכן אל תתחילו מפרוייקט חלל. בחרו סקיל אחד שאתם מיישמים השבוע. רק אחד. לא יותר. איך לזהות אותו?

 

  1. זהו "גזלן זמן":
    • חשבו על משימה אחת שחוזרת על עצמה השבוע וגוזלת מכם זמן יקר (כתיבת אימיילים ללקוחות, סיכום פגישות, תרגום מסמכים).
  2. כתבו את ה-Skill:
    • פתחו קובץ חדש ונסו לכתוב את ההנחיות למודל.
    • השתמשו במבנה שלמדנו: Who are you, When Activated, Process/Actions, Output Format.
  3. טיפ למתקדמים:
    • נסו לשלב בתוך התיקייה קובץ דוגמא (למשל example.txt) והנחו את ה-Skill להשתמש בו כבסיס לסטייל ולטון הדיבור.

לסיכום, Skills ב-Claude הם כלי רב עוצמה שמאפשר להפוך תהליכים ידניים לאוטומטיים ומדויקים. המפתח להצלחה הוא הגדרה מדויקת של ה"מתכון" – ככל שתהיו ברורים יותר בהוראות ה-Markdown, כך התוצאה תהיה עקבית ומקצועית יותר. זה הזמן להתחיל לבנות את ספריית הכלים האישית שלכם.

 
בהצלחה!

הפוסט מדריך צעד-צעד ל-Claude Skills (ו-5 במתנה, copy-paste) הופיע לראשונה ב-Almaya.

]]>
העולם שמעבר למילים: VL-JEPA https://almaya.ai/blog/vl-jepa-the-world-beyond-words/ Mon, 12 Jan 2026 18:24:54 +0000 https://almaya.ai/?p=3671 האם הבינה המלאכותית שלנו היא פשוט "תוכי" עם מילון ענק, או שהיא באמת מבינה את מה שהיא רואה? מודל VL-JEPA מסמן את העידן שאחרי ה-LLMs.

הפוסט העולם שמעבר למילים: VL-JEPA הופיע לראשונה ב-Almaya.

]]>
 
דמיינו רגע מערכת בינה מלאכותית שמבינה את העולם מבלי לתרגם אותו למילים. שרואה סרטון, קולטת את המשמעות, ויודעת לענות על שאלות – הכל מבלי לייצר אפילו מילה אחת בתהליך החשיבה. זה לא מדע בדיוני. זו טכנולוגיית בינה מלאכותית חדשה בשם "VL-JEPA", והיא עשויה לסמן את הסוף של עידן ה-LLM כפי שאנחנו מכירים אותו.

 
 


 

למה מודלי שפה של היום בעצם מבזבזים משאבים?

כשאתם שואלים מודל שפה מודרני "מה קורה אם אני מוריד את מתג האור למטה?", הוא עשוי לענות תשובות כמו:

 

  • "האור יכבה"
  • "החדר יהפוך חשוך"
  • "המנורה תפסיק לפעול"

 
שלוש תשובות שונות לחלוטין מבחינת המילים, אבל זהות לחלוטין מבחינת המשמעות.
 
בשבילנו, בני האדם, זה טריוויאלי – אנחנו מיד מזהים שמדובר באותה תשובה בדיוק. אבל למודלי שפה גדולים (LLMs), אלו שלושה רצפי טוקנים שונים לגמרי, כמעט ללא חפיפה. במהלך האימון, המודל מושקע במשאבי מחשוב אדירים בלימוד ניסוחים, סגנונות כתיבה, ומבנים תחביריים – כל זה מבלי ששום דבר מזה באמת משנה את המשמעות של התשובה.
זה לא באג – זו בעיה מבנית.
 
גם מודלי VLM – Vision-Language Models מודרניים פועלים כך: הם מקבלים תמונה או סרטון, מקבלים שאלה, ומייצרים טקסט – טוקן אחר טוקן. כך עובדים כיתובים לתמונות, מענה על שאלות חזותיות, ורוב המודלים המולטימודליים הגדולים. הם מאומנים לחזות את המילה הבאה, ואז את המילה הבאה, ואז את המילה הבאה שוב.
 
הגישה הזו עובדת, בלי ספק. אבל היא גוררת שני מחירים כבדים:
 

  1. ראשית, המודלים נאלצים ללמוד דברים שלא משפיעים על נכונות התשובה. במקום להתמקד ברעיון עצמו, הם מתאמצים לדייק בניסוח המדויק, בבחירת מילים ספציפיות, במבנה המשפט – שום דבר מזה לא משנה את התוכן, אבל זה גוזל עצום מהמשאבים.
  2. שנית, יצירת טקסט טוקן-אחר-טוקן היא איטית ומסורבלת. במערכות שצריכות להבין מה קורה בזמן אמת – משקפי AR, רובוטיקה, ניווט אוטונומי – אתם לא יכולים לדעת מה המודל חושב עד שהוא מסיים לכתוב את כל המשפט. המשמעות מתגלה רק בסוף תהליך הדקודינג. זה מוסיף חביון (latency), שורף חישוב יקר, והופך כמעט לבלתי אפשרי לעדכן מידע באופן סלקטיבי.

 
וזה בדיוק המקום שבו VL-JEPA נכנס למשחק עם גישה שונה לחלוטין.
 
 


 

VL-JEPA: חשיבה ללא מילים

החשיבה האנושית מתבצעת במספר מישורים. באופן כללי ניתן לחלק את תהליכי החשיבה ל:
 

  1. חשיבה מילולית – דיבור פנימי. מהרגע שילד לומד לדבר הוא בשיח מתמיד עם עצמו, ובאופן הזה ״מלביש״ את תפיסת המציאות שלו במילים. ניתן לומר שיחידת הבסיס של המציאות בחשיבה זו היא האות הבודדת.
  2. חשיבה שאינה מילולית – אינטואיטיבית. כאן נוצרים דפוסים קוגניטיביים במוח, שעדיין לא הולבשו במילים, ומתגלים לאדם באופנים שונים: ב״אינטואיציה״, ״חוש שישי״, רגש מסויים, ״דז׳ה-וו״ ועוד תופעות. גם לחשיבה מילולית קודם החלק האינטואיטיבי, אלא שאז הוא עובר ״הלבשה״ במילים ואותיות, ומתגלה באופן מודע יותר לאדם החושב.

 
זה מה שמנסים לסמלץ עכשיו. במקום לחזות מילים, VL-JEPA חוזה משמעות ישירות.
 
השם המלא הוא VL-JEPA – Vision-Language Joint Embedding Predictive Architecture, ארכיטקטורת חיזוי משותפת של ראייה ושפה ב״מרחב הטמעות״. או-אה! השם נשמע מסובך, אבל הרעיון פשוט באופן מפתיע: במהלך האימון, המודל בכלל לא מנסה לייצר טקסט. במקום זאת, הוא לומד למפות קלט חזותי ושאלה טקסטואלית ישירות לייצוג סמנטי של התשובה – כמו הפעילות הנוירונית הקדומה במוח, שעדיין לא התלבשה במילים.
 
תחשבו על זה כך: במקום ללמוד "איך לכתוב תשובה נכונה", המערכת לומדת "איך נראית המשמעות של תשובה נכונה" – במרחב מתמטי רב-ממדי שנקרא ״מרחב הטמעות״ (embedding space).
 
 


 

איך זה בנוי?

המערכת מורכבת מארבעה רכיבים מרכזיים, שכל אחד מהם ממלא תפקיד ברור:
 

  1. מקודד חזותי (Visual Encoder) – הרכיב הראשון לוקח תמונה או רצף פריימים מסרטון, ודוחס אותם לסט של ייצוגי-משמעויות מספריים, מה שנקרא ״הטמעות חזותיות״ (Visual Embeddings). תחשבו על אלה כעל "טוקנים חזותיים", רק שהם וקטורים רציפים במקום סימנים דיסקרטיים. במימוש הנוכחי, הם משתמשים ב-VJEPA-2, טרנספורמר ראייה שמאומן באופן עצמאי עם כ-304 מיליון פרמטרים, והוא נשאר קפוא (frozen) במהלך האימון.
  2. החזאי (Predictor) – זהו ליבת המערכת כולה. המודול הזה לוקח את ההטמעות החזותיות והשאלה הטקסטואלית, ומנסה לחזות איך אמורה להיראות הטמעת התשובה. הוא בנוי משכבות טרנספורמר שאותחלו "לשים לב" למשמעויות ולא לטקסט. הראייה והטקסט מקיימים אינטראקציה חופשית.
  3. מקודד (Encoder) – הרכיב הזה "מקודד" את התשובה הנכונה מטקסט לייצוג משמעותי-מספרי ("Embedding") במהלך האימון. זו בעצם מטרת הלמידה. חשוב להדגיש: הייצוג הזה אמור לתפוס את המשמעות של התשובה, לא את הניסוח.
  4. מפענח (Decoder) – וזה החלק המרתק: הרכיב הזה כמעט לא משתתף באימון בכלל. בזמן ההסקה (inference) – הרכיב נכנס לפעולה רק כשבאמת צריך טקסט קריא. רוב הזמן, המודל נשאר לגמרי במרחב ה-Embeddings.

 

 
 


 

התובנה המרכזית: מריבוי ניסוחים למשמעות אחת

הנה התובנה בבסיס של כל הגישה הזו:
 
במרחב המילים (הטוקנים), מספר תשובות תקינות יכולות להיות רחוקות זו מזו באופן קיצוני. "האור כבה", "החדר נעשה חשוך", "המנורה הפסיקה לפעול" – אלו רצפי טוקנים שונים לחלוטין.
 
במרחב המשמעויות (ה״הטמעות״), אותן תשובות יכולות לשבת קרוב זו לזו. הן חולקות משמעות, אז הן חולקות מיקום במרחב המתמטי.
 
זה הופך בעיית למידה מולטימודלית מבולגנת עם אינסוף ווריאציות לשוניות (multi-modal problem) לבעיה חלקה ומתומצתת עם משמעות אחת (single-mode problem). המודל כבר לא צריך לנחש איזה ניסוח אתם רוצים – הוא רק צריך להבין מה התשובה אומרת תכל׳ס.
 
בגלל זה, VL-JEPA לא צריך להריץ פיענוח שפה כבד במהלך האימון. הוא לא לומד איך לכתוב משפטים. הוא לומד איך לחזות סמנטיקה. והשינוי הזה לבדו חוסך כמות עצומה של עבודה מיותרת וכוח עיבוד.
 
 


 

התוצאות מדברות בעד עצמן

כדי לבדוק אם הרעיון באמת מחזיק מעמד, החוקרים ערכו ניסוי השוואתי על סרטוני וידאו, כאשר רוב הפרמטרים נשארו קבועים:
 

  • אותו מקודד ויזואלי
  • אותה רזולוציה
  • אותו קצב פריימים
  • אותה תערובת נתונים
  • אותו גודל batch
  • אותו מספר צעדי אימון

 
ההבדל היחיד: מה המודלים אומנו לחזות.
 

  1. מודל אחד הלך בנתיב הסטנדרטי – חיזוי טוקנים עם מודל שפה של מיליארד פרמטרים.
  2. מודל שני – גרסת VL-JEPA חזה הטמעות באמצעות חזאי של כ-500 מיליון פרמטרים. כלומר, למערכת המבוססת-הטמעות היו כמחצית מהפרמטרים הניתנים לאימון.

 
בתחילת האימון, שתי המערכות נראות דומות. אחרי כ-500,000 דגימות, הביצועים דומים בערך. אבל כשהאימון ממשיך, דפוס ברור מתחיל להתגלות:
 
VL-JEPA מתחיל להשתפר מהר יותר, והשיפור ממשיך.
 
אחרי 5 מיליון דגימות, הוא מגיע לדיוק של 14.7 (במדד Cider – מטריקת איכות לכיתובי וידאו) בזמן שהמודל המבוסס-טוקנים עדיין ב-7.1 בערך.
 
דיוק הסיווג קופץ לכ-35% עבור VL-JEPA לעומת כ-27% עבור המודל הלשוני. והפער לא נסגר מאוחר יותר. ב-15 מיליון דגימות, ההבדל נשאר. VL-JEPA ממשיך ללמוד ביעילות רבה יותר, אפילו עם פחות פרמטרים.
 
זה לא טריק של טיונינג. זה יתרון מבני.
 

 
 


 

הפתעה בזמן ריצה: דקודינג סלקטיבי

הסיפור לא נעצר ביעילות האימון. בזמן הסקה (inference) הגישה הזו מרשימה אפילו יותר! במיוחד עבור וידאו.
 
מכיוון ש-VL-JEPA מייצר זרם רציף של הטמעות סמנטיות, היא תומכת במשהו שנקרא selective decoding – דקודינג סלקטיבי. במקום לייצר טקסט במרווחי זמן קבועים, אתם עוקבים אחרי איך ההטמעות משתנות לאורך זמן. אם המשמעות נשארת יציבה – אתם לא מפענחים כלום. אם יש שינוי סמנטי משמעותי – אז אתם מפענחים.
 
הם בודקים את זה על סרטונים פרוצדורליים ארוכים מ-EgoExo4D. סרטונים אלה נמשכים בממוצע כ-6 דקות כל אחד, ומכילים בערך 143 הערות פעולה לסרטון. דקודינג טקסט הוא החלק היקר, אז המטרה היא לשחזר את רצף ההערות תוך מזעור מספר פעולות הדקודינג.
 
הם משווים שתי אסטרטגיות:
 

  • Uniform decoding – טקסט מיוצר במרווחי זמן קבועים
  • Embedding-guided decoding – זרם ההטמעות מקובץ לסגמנטים קוהרנטיים סמנטית ומפוענח פעם אחת לכל סגמנט

 
התוצאה נקייה: כדי להשיג ביצועים דומים ל-uniform decoding בקצב של דקודינג אחד לשנייה, VL-JEPA צריך ״לפענח״ (להלביש את המחשבה במילים) רק פעם אחת בכל 2.85 שניות בערך. זוהי הפחתה של פי 2.85 בערך בפעולות דקודינג, עם ביצועים דומים.
 
בלי טריקים מתוחכמים של זיכרון, בלי אקרובטיקה של KV cache. זו פשוט תוצאה של עבודה במרחב סמנטי.
 
זה חשוב במיוחד למערכות זמן אמת כמו משקפיים חכמים, רובוטיקה, ניווט או תכנון חי – מקומות שבהם חביון (latency) ועלות חישוב באמת משנים.
 
 


 

ריבוי שימושים, ארכיטקטורה אחת

יתרון מרכזי נוסף הוא מולטי-מודליות.
 
VL-JEPA יכול לטפל ביצירה (generation), סיווג (classification), אחזור (retrieval), ומענה – על שאלות חזותיות (discriminative VQA) – הכל באמצעות אותה ארכיטקטורה. אין ראשי משימות ייעודיים, אין מודלים נפרדים.
 

  • עבור סיווג אוצר מילים פתוח – תוויות מועמדות מקודדות ל-Embeddings ונבדקות מול התשובה החזויה. ההתאמה הקרובה ביותר מנצחת.
  • עבור אחזור טקסט-לוידאו – שאילתת הטקסט מקודדת וסרטונים מדורגים לפי דמיון.
  • עבור VQA (Visual Question Answering) – כל התשובות המועמדות הופכות ל-Embeddings, והקרובה ביותר נבחרת.

 
 


 

תוצאות מפתיעות ב-VQA והבנת העולם

בניסוי world modeling – מודלינג העולם, נבדק האופן בו המודל יוצר את תמונת המציאות שהוא ״רואה״.
המודל רואה תמונה התחלתית ותמונה סופית, וצריך לבחור איזו פעולה גרמה למעבר – מתוך ארבעה קליפים מועמדים. זה קרוב יותר להבנת סיבתיות פיזית מאשר ייצור שפה.
 
מגיע ל-65.7% דיוק, state-of-the-art חדש. הוא עלה על מודלי ראייה-שפה גדולים יותר, ואפילו ניצח מודלי שפה מתקדמים כמו GPT-4o, Claude 3.5, ו-Gemini 2 – שמסתמכים על כיתוב והנמקה מבוססת-טקסט.
 
התוצאה הזו חשובה. היא מציעה שחיזוי ישיר של סמנטיקה חבויה יכול להיות יעיל יותר מלתאר את העולם במילים ולהסיק על פניהן אחר כך.
 
 


 

מה זה אומר על העתיד של AI?

VL-JEPA לא מנסה להחליף מודלי שפה בכל מקום. משימות כמו Deep Reasoning, שימוש בכלים ותכנון בסגנון Agent – עדיין מעדיפים מערכות מבוססות-טוקנים.
 
אבל לבעיות כבדות-תפיסה – במיוחד אלה הכוללות וידאו, קלט זמן-אמת והבנה רציפה של העולם – הגישה הזו מתאימה באופן טבעי.
 
היא מזיזה את מרכז הכובד מהשפה למשמעות. מילים הופכות לאופציית פלט, לא המנגנון המרכזי של אינטליגנציה.
 
והשינוי הזה הוא מה שגורם לעבודה הזו להרגיש כמו יותר מסתם איטרציה נוספת של מודל. זה מרגיש כמו הצעד הבא – מה שבא אחרי עידן ה-LLM.
 
כי אולי, רק אולי, אינטליגנציה אמיתית לא צריכה לעבור דרך מילים כדי להבין את העולם. אולי היא יכולה פשוט לראות, לקלוט, ולדעת – ישירות.

הפוסט העולם שמעבר למילים: VL-JEPA הופיע לראשונה ב-Almaya.

]]>
מעבדת DIY – RAG Agent (מותאמת JnJ) https://almaya.ai/edu-content/diy-rag-agent-lab-biosense Wed, 24 Dec 2025 19:19:13 +0000 https://almaya.ai/?p=3649 תרגול זה ידריך אתכם בבניית סוכן RAG (Retrieval-Augmented Generation) מלא וישים באמצעות פייתון. סוכן RAG הוא מודל שפה גדול (LLM) שמסוגל לחפש מידע חיצוני (למשל, מסמכי PDF) ולהשתמש בו כ"בסיס ידע" לפני שהוא עונה על שאלות.   במקום לענות רק על סמך נתוני האימון שלו, סוכן ה-RAG שלנו יבצע תהליך דו-שלבי:   Retrieval (שליפה): הפיכת […]

הפוסט מעבדת DIY – RAG Agent (מותאמת JnJ) הופיע לראשונה ב-Almaya.

]]>

תרגול זה ידריך אתכם בבניית סוכן RAG (Retrieval-Augmented Generation) מלא וישים באמצעות פייתון. סוכן RAG הוא מודל שפה גדול (LLM) שמסוגל לחפש מידע חיצוני (למשל, מסמכי PDF) ולהשתמש בו כ"בסיס ידע" לפני שהוא עונה על שאלות.

 

במקום לענות רק על סמך נתוני האימון שלו, סוכן ה-RAG שלנו יבצע תהליך דו-שלבי:
 

  1. Retrieval (שליפה): הפיכת מסמכים (PDF) לחלקים קטנים (Chunks) וייצוגם כווקטורים (Embeddings).
  2. Generation (יצירה): שליפת הווקטורים הרלוונטיים ביותר לשאלת המשתמש, ושימוש בהם כקונטקסט (Prompt) למודל ה-LLM (נשתמש ב-GPT-4o).

 

זהו תרגול מעשי שישלב ספריות מפתח בעולם הבינה המלאכותית: PyPDF2, Sentence Transformers, PyTorch, ו-OpenAI.

 

בסדנה זו נשתמש בשני סוגי מודלים:

  • מודל Embedding – להמרת טקסט לוקטורים מספריים, לצורך חיפוש סמנטי. נשתמש במודל Embedding מקומי, אותו נוריד למחשב.
  • המודל השני הוא מודל Chat, ובו נשתמש ב-LLM מרוחק על שרתי Azure.

 

הערה: כאן נבנה את כל הקוד בתוך קובץ אחד בשם rag_agent.py (או כל שם אחר שתבחרו), תוך הוספת מקטעים באופן מצטבר.


הכנה – הקמת הסביבה הוירטואלית

לפני שמתחילים לכתוב קוד, חשוב להקים סביבה וירטואלית מבודדת (venv). סביבה זו מבטיחה שכל הספריות שנתקין (כמו PyTorch ו-OpenAI) יישארו צמודות לפרויקט זה בלבד ולא יתנגשו עם ספריות אחרות במערכת ההפעלה שלכם.

 

  1. יצירת סביבה וירטואלית (.venv)
     

    • ודאו שאתם נמצאים בתיקיית הפרויקט הריקה. הריצו את הפקודה הבאה ליצירת התיקייה .venv (קיצור של virtual environment):
      
      python3 -m venv .venv
                      
    •  

    • הסבר: הפקודה מורה למפרש הפייתון (Python 3) ליצור סביבה וירטואלית בתיקייה מקומית בשם .venv.
  2.  

  3. הפעלת הסביבה הווירטואלית (Activation)
     

    • כדי "להיכנס" לסביבה כך שפקודות pip install יפעלו בתוכה, הריצו את הפקודה המתאימה למערכת ההפעלה שלכם:
    •  

    • עבור Mac / Linux:
      
      source .venv/bin/activate
                      
    •  

    • עבור Windows (Command Prompt):
      
      .venv\Scripts\activate.bat
                      
    •  

    • אימות: ודאו ששם הסביבה מופיע בסוגריים מרובעים בשורת הפקודה שלכם, לדוגמה: (.venv).

1. התקנה, הכנה והגדרות סביבה

בשלב זה נתקין את כל הספריות הנדרשות ונכין את קובצי התצורה של הפרויקט.

 

  1. התקנת ספריות
     

    • להתקנת כל הספריות הדרושות לפרויקט, הריצו את השורה הבאה ב Terminal:
       

      
      pip install PyPDF2 sentence-transformers transformers torch openai dotenv colorama
      
  2. הכנת קבצים:
     

    • צרו קובץ חדש בשם rag_agent.py.
    • צרו תיקייה בשם assets בתוך תיקיית הפרויקט.
    • מקמו בתוכה קובץ PDF לבחירתכם, המכיל טקסט בנושא מסויים, וישמש כבסיס הידע לסוכן. לא מוצאים? הורידו מכאן את התסריט המלא של הסרט Lion King.
  3. הכנת מודלי השפה (שיחה ו-Embedding):
     

    • הורידו משרתי החברה את מודל ה Embedding בשם multilingual-e5-base ושמרו אותו תחת תיקייה חדשה – models בפרויקט שלכם.
    • צרו קובץ בשם .env בתיקייה הראשית של הפרויקט והגדירו בו את מפתח ה-API שלכם בפורמט:
       

      
      OPENAI_API_KEY=<YOUR_API_KEY_HERE>
      
  4. אימפורטים והגדרות גלובליות
     

    • העתיקו והדביקו את קטע הקוד הבא לראש הקובץ rag_agent.py:
       

      
      import PyPDF2
      import re
      import os
      import torch
      import openai
      from sentence_transformers import SentenceTransformer, util
      from transformers import AutoModelForCausalLM, AutoTokenizer
      from colorama import Fore, init
      from dotenv import load_dotenv
      
      os.environ["PYTORCH_ENABLE_MPS_FALLBACK"] = "1"
      os.environ["PYTORCH_MPS_HIGH_WATERMARK_RATIO"] = "0.0"
      
      # colorama library - enables colored printouts
      init(autoreset=True)
      
      # 1. global vars for the knowledge base
      kb_content = []  # a list of the textual chunks
      kb_embeddings = None # the embeddings
      kb_embeddings_tensor = None # the embeddings tensor
      embedding_model = None # Language model for the embedding 
      
      chat_model = None # the chat model (we'll use OpenAI on Azure)
      chat_tokenizer = None
      device = torch.device("cpu")
      
      # 2. global var for conversation memory management (context)
      conversation = []
      
      # 3. default local path for embedding model
      EMBEDDING_MODEL_PATH = "./models/multilingual-e5-base"
      
      # 4. loading .env file as environment variables (for OPEN_API_KEY)
      load_dotenv()
      OPENAI_API_KEY = os.getenv("OPENAI_API_KEY")
      
      # sanity test for OPENAI KEY
      if not OPENAI_API_KEY:
          raise ValueError("OPENAI_API_KEY is not set in the .env file.")
      
      
    • הסבר: קטע זה מייבא את כל הספריות, מאתחל את `colorama` (להדפסה יפה של טקסטים צבעוניים), ומגדיר את המשתנים הגלובליים שיאחסנו את הנתונים המורכבים (כמו טנזור הווקטורים) לאורך חיי התוכנית.

2. פונקציות בסיס: פירוק PDF ויצירת Embeddings

זהו ליבת תהליך ה-RAG – הפיכת מסמכים לטקסט, חלוקתם ליחידות קטנות, והמרתן לווקטורים.

 

  1. פונקציית add_pdf (Chunking)
     

    • הוסיפו את פונקציית פירוק ה-PDF לסוף הקובץ (אין צורך להתעמק בקוד זה, הוא אינו קשור ישירות למהות המעבדה):
      
      def add_pdf(file_path):
          """
          Reads a PDF, extracts text, cleans it, and splits it into chunks (max 1000 chars) 
          by sentence boundaries, then saves it to knowledge_base.txt.
          """
          with open(file_path, 'rb') as pdf_file:
              pdf_reader = PyPDF2.PdfReader(pdf_file)
              num_pages = len(pdf_reader.pages)
              text = ''
              for page_num in range(num_pages):
                  page = pdf_reader.pages[page_num]
                  if page.extract_text():
                      text += page.extract_text() + " "
      
              # Normalization and cleanup
              text = re.sub(r'\s+', ' ', text).strip()
      
              # Split text into chunks by sentences
              sentences = re.split(r'(?<=[.!?]) +', text)
              chunks = []
              current_chunk = ""
              for sentence in sentences:
                  # Respecting a maximum chunk size of ~1000 characters
                  if len(current_chunk) + len(sentence) + 1 < 1000:
                      current_chunk += (sentence + " ").strip()
                  else:
                      chunks.append(current_chunk)
                      current_chunk = sentence + " "
              if current_chunk:
                  chunks.append(current_chunk)
                  
              # Save chunks to a file, each separated by two newlines
              with open("knowledge_base.txt", "w", encoding="utf-8") as kb_file: # Changed to 'w' to overwrite/start fresh
                  for chunk in chunks:
                      kb_file.write(chunk.strip() + "\n\n")
      
              print(f"PDF content split into {len(chunks)} chunks and saved to knowledge_base.txt.")
      
                      
    •  

    • הסבר: פונקציה זו קוראת PDF, מוציאה טקסט, ומבצעת Chunking - חלוקה ל"חתיכות" של עד 1000 תווים, תוך שמירה על גבולות משפט הגיוניים. התוצאה נשמרת בקובץ טקסט בשם knowledge_base.txt.
  2.  

  3. פונקציית create_embeddings
     

    • קראו היטב את פונקציית יצירת הווקטורים ואת ההערות בגוף הפונקציה, והוסיפו אותה לסוף הקובץ:
       

      
      def create_embedding():
          """
          Loads the knowledge base from a text file, 
          initializes the Sentence Transformer model,
          and generates vector embeddings for all stored text chunks.
          """
          global kb_embeddings, kb_embeddings_tensor, kb_content, embedding_model
      
          # 1. Load knowledge base content from file (if it exists)
          if os.path.exists("knowledge_base.txt"):
              with open("knowledge_base.txt", "r", encoding='utf-8') as kb_file:
                  # Read all lines as a list of strings (each line = one knowledge chunk)
                  kb_content = kb_file.readlines()
      
          print(f"Loaded {len(kb_content)} knowledge base entries.")
      
          # 2. Initialize the LOCAL embedding model using the specified model path
          print("Now generating embeddings...")
          embedding_model = SentenceTransformer(EMBEDDING_MODEL_PATH)
      
          # 3. Generate embeddings for all chunks (if there’s content)
          kb_embeddings = embedding_model.encode(kb_content) if kb_content else []
      
          # 4. Convert the resulting embeddings to a PyTorch tensor 
          #    for efficient similarity computation (cosine similarity, etc.)
          kb_embeddings_tensor = torch.tensor(kb_embeddings)
       
    •  

    • הסבר: פונקציה זו בונה למעשה את בסיס הידע של הסוכן. היא עושה זאת במספר שלבים:
       

      1. טוענת את שברי הטקסט מתוך קובץ knowledge_base.txt
      2. מורידה (אם לא קיים) ומאתחלת את מודל Sentence Transformer (מודל Embedding פופולרי)
      3. ממירה את הטקסט לווקטורים מספריים. אחסון הווקטורים כ-PyTorch Tensor מאפשר חישובים מהירים מאוד.

       
      בסיום פעולה זאת, נקבל שלושה מערכים בעלי גודל זהה:
       

      • kb_content המכיל את שברי (Chunks) הטקסט מתוך הקובץ המקורי
      • kb_embeddings המכיל את הוקטורים שה LLM חישב לכל אחד מה Chunks, לפי הסדר
      • kb_embeddings_tensor המכיל את הוקטורים, בפורמט PyTorch Tensor מהיר ויעיל חישובית

3. רכיבי ה-LLM: ניהול מודל וקונטקסט שיחה

הכנה לשימוש ב-OpenAI API וניהול תפקידי השיחה (System, User, Assistant).

 

  1. פונקציות get_llm ו-reinit_conversation
     

    • קראו היטב את שתי הפונקציות הבאות, והוסיפו אותן לסוף הקובץ:
       

      
      def get_llm():
          client = openai.AzureOpenAI(
              api_key=OPENAI_API_KEY,
              api_version="2024-12-01-preview",
              azure_endpoint="https://genaiapimna.jnj.com/openai-chat"
          )
          return client
      
      def reinit_conversation():
          """Resets the conversation history and adds the System message."""
      
          global conversation
          conversation = []
      
          # the system Prompt - the "personality" of the agent, role and instruction
          system_message = "You are a helpful assistant that is an expert at extracting the most useful information from a given text."
          conversation.append({"role": "system", "content": system_message})
      
          print(Fore.CYAN + "Conversation history reset. System prompt applied.")
                      
    •  

    • הסבר: הפונקציות האלה מכינות את המסגרת לשיחה: get_llm מחזירה את הקליינט של OpenAI, ו-reinit_conversation מנקה את היסטוריית השיחה (בדיוק כמו כפתור "New Chat") ומכניסה את ה-System Prompt שנותן למודל את ההנחיות והאישיות שלו.

4. מנוע השליפה (Retrieval)

הבסיס ל-RAG – חישוב וקטור השאלה והשוואתו לכל הווקטורים בבסיס הידע.

 

  1. פונקציית get_relevant_context
     

    • קראו היטב והוסיפו את פונקציית החיפוש הווקטורי:
      
      def get_relevant_context(user_input, kb_embeddings, kb_content, embedding_model, top_k=3):
          """
          Finds and returns the most relevant text chunks from the knowledge base
          using cosine similarity between the user input and precomputed embeddings.
          """
      
          # 1. Check if the embeddings tensor is empty (no knowledge base loaded)
          if kb_embeddings.nelement() == 0:
              return []
      
          # 2. Encode the user input into a numerical vector (embedding)
          input_embedding = embedding_model.encode([user_input])
      
          # 3. Calculate cosine similarity between the input vector and all stored embeddings
          #    Cosine similarity measures how close two vectors are in direction (1 = identical, 0 = unrelated)
          cos_scores = util.cos_sim(input_embedding, kb_embeddings)[0]
      
          # 4. Extract indices of the top-k most similar embeddings
          top_indices = torch.topk(cos_scores, k=min(top_k, len(cos_scores)))[1].tolist()
      
          # 5. Return the matching text chunks (stripped of extra spaces)
          return [kb_content[i].strip() for i in top_indices]
      
    •  

    • הסבר: פונקציה זו היא הלב של ה-RAG, והיא עושה את הפעולות הבאות:
       

      1. לוקחת את שאלת המשתמש והופכת אותה לווקטור
      2. משווה אותה לכל הווקטורים של ה-Chunks (חישוב Cosine Similarity)
      3. מחזירה את הטקסט של שלושת ה-Chunks (ברירת המחדל) שהיו הכי קרובים לשאלה

5. פונקציית ה-Generation והשיחה (Chat Loop)

שילוב הקונטקסט שנשלף לתוך הפרומפט הסופי ושליחתו למודל ה-LLM.

 

  1. פונקציית `llm_chat`
     

    • קראו היטב והוסיפו את הפונקציה המרכזית שמנהלת את השיחה:
      
      def llm_chat(user_input):
          global conversation
      
          chat_model = get_llm()
      
          relevant_context = get_relevant_context(user_input, kb_embeddings_tensor, kb_content, embedding_model)
          if relevant_context:
              context_str = "\n".join(relevant_context)
              print(Fore.GREEN + "Context Pulled:\n" + context_str[:1000] + "\n")
          else:
              context_str = ""
              print("No relevant context found.")
      
          user_input_with_context = (
              f"Use only the following context:\n{context_str}\n\n"
              f"Question: {user_input}\n"
              f"Answer only based on the context. "
              f"If no relevant info, say exactly: I do not know."
          )
      
          conversation.append({"role": "user", "content": user_input_with_context})
          
      
          first = chat_model.chat.completions.create(
              model="gpt-4o",
              messages=conversation)
          
          answer = first.choices[0].message
      
          conversation.append({"role": "assistant", "content": answer.content})
          return answer.content
      
      
    •  

    • הסבר: פונקציה זו מארגנת את כל התהליך: היא משתמשת ב-get_relevant_context לשליפה, בונה את ה-Prompt המועשר (כולל ה-Guardrails שמורים למודל לענות רק על סמך המידע שקיבל), שולחת ל-OpenAI, ושומרת את התשובה בהיסטוריית השיחה.
  2.  

  3. לולאת השיחה והרצה ראשית
     

    • קראו היטב והוסיפו את הפונקציה המנהלת את לולאת הקלט/פלט ואת בלוק ההרצה הראשי (שימו לב שנו את נתיב קובץ ה PDF לטעינה בהתאם):
       

      
      # ========== Chat Loop ==========
      def startChat():
          """
          Main chat loop that handles user interaction with the RAG system.
          It waits for user input, processes commands, and returns responses from the LLM.
          """
          # 1. Initialize or reset the conversation at the start
          reinit_conversation()
      
          # 2. Continuous loop for user questions
          while True:
              user_input = input("Ask a question about my knowledge: ")
      
              # 3. Command: reset or restart conversation
              if user_input.lower() in ["/reset", "/init", "/restart"]:
                  print("Resetting conversation...")
                  reinit_conversation()
                  continue
      
              # 4. Command: exit the chat
              if user_input.lower() in ["/bye", "/exit", "/end"]:
                  print("Exiting the chat. Goodbye!")
                  break
      
              # 5. Generate a response using the LLM with context retrieval
              response = llm_chat(user_input)
      
              # 6. Display the model's response clearly in the console
              print("llm Response:\n\n" + response + "\n")
      
      
      # ========== Main ==========
      if __name__ == "__main__":
          """
          Main entry point for running the RAG application.
          Ensures that a knowledge base exists, creates embeddings, and starts the chat.
          """
      
          # 1. Load or create the knowledge base
          if not os.path.exists("knowledge_base.txt"):
              file_path = "./assets/Lion King Script.pdf"
              add_pdf(file_path)  # Parse and append PDF content to knowledge base
      
          # 2. Generate embeddings from the knowledge base
          create_embedding()
      
          # 3. Launch the interactive chat loop
          startChat()
      
    •  

    • הרצה: כעת הקובץ מוכן להרצה! ודאו שהסביבה הווירטואלית פעילה, וכתבו בטרמינל:
      
      python rag_agent.py
                      
    • שימו לב: אם השתמשתם במודל שיחה לוקאלי - זהו מודל גדול משמעותית ממודל ה Embedding, ובשימוש הראשון בו בהרצה הנוכחית - לוקח לו זמן להטען לזיכרון ולהיות זמין ל inference. העזרו בסבלנות.

לאחר הרצת סוכן ה-RAG, אתם צפויים לראות בטרמינל שלושה סוגי פלט מרכזיים המדגימים את תהליך ה-RAG במלואו:
 

  1. שלב האתחול: בתחילה תראו הודעות המאשרות את טעינת בסיס הידע, הורדת מודל ה-Embedding (אם לא עבדתם עם מודל לוקאלי) ויצירת הווקטורים.
  2. שליפת הקונטקסט (Retrieval): בכל שאלה שתשאלו, תופיע הדפסה ירוקה גדולה תחת הכותרת --- Context Pulled from Documents (RAG) ---. זוהי ההוכחה שהסוכן חישב את הדמיון הווקטורי, שלף את ה-Chunks הרלוונטיים ביותר מה-PDF, וצירף אותם ל-Prompt.
  3. תשובת המודל (Generation): לאחר מכן תופיע תגובת ה-LLM תחת <<< RAG Agent Response. התשובה הזו תהיה מבוססת באופן בלעדי על הקונטקסט הירוק שסופק לו, וזהו הדבר החשוב ביותר שלמדנו כאן: אנו שולטים במקור המידע של המודל.

למדנו לבנות ארכיטקטורת AI מודרנית המשלבת עיבוד שפה טבעית (NLP) עם יכולות מתקדמות של LLMs, ובכך הפכנו את המודל ל"מומחה" במידע הספציפי שהענקנו לו.

הפוסט מעבדת DIY – RAG Agent (מותאמת JnJ) הופיע לראשונה ב-Almaya.

]]>