Almaya https://almaya.ai/ השער לבינה היברידית Fri, 17 Oct 2025 13:50:26 +0000 he-IL hourly 1 https://wordpress.org/?v=6.8.3 https://almaya.ai/wp-content/uploads/2025/05/Icon-150x150.jpg Almaya https://almaya.ai/ 32 32 Github Copilot Testing – מעבדת מבוא בבדיקות תוכנה https://almaya.ai/edu-content/copilot-testing-essentials/ Fri, 17 Oct 2025 11:51:31 +0000 https://almaya.ai/?p=2311 אחד השימושים היעילים והחזקים ביותר עבור GitHub Copilot הוא בתחום הבדיקות. כתיבת בדיקות, בין אם בדיקות יחידה (Unit Tests) או בדיקות אינטגרציה, היא לעתים קרובות משימה שחוזרת על עצמה ודורשת יצירת נתונים, כיסוי מקרי קצה והבנה של תבניות קוד קבועות. Copilot מצטיין בכל אלה ויכול להאיץ את תהליך הפיתוח באופן משמעותי על ידי הפיכת כתיבת […]

הפוסט Github Copilot Testing – מעבדת מבוא בבדיקות תוכנה הופיע לראשונה ב-Almaya.

]]>
אחד השימושים היעילים והחזקים ביותר עבור GitHub Copilot הוא בתחום הבדיקות. כתיבת בדיקות, בין אם בדיקות יחידה (Unit Tests) או בדיקות אינטגרציה, היא לעתים קרובות משימה שחוזרת על עצמה ודורשת יצירת נתונים, כיסוי מקרי קצה והבנה של תבניות קוד קבועות. Copilot מצטיין בכל אלה ויכול להאיץ את תהליך הפיתוח באופן משמעותי על ידי הפיכת כתיבת הבדיקות למשימה מהירה ואינטואיטיבית יותר.
 
במקום לכתוב כל בדיקה מאפס, תוכלו להשתמש ב-Copilot כדי להציע גופי בדיקות מלאים, לייצר נתוני בדיקה (Mock Data) מורכבים, לזהות מקרי קצה שאולי פספסתם, ואפילו להסביר או לשפר בדיקות קיימות. היכולת שלו להבין את ההקשר של הקוד שלכם מאפשרת לו לייצר בדיקות רלוונטיות ומדויקות, המותאמות לפונקציות ולמחלקות שבניתם.
 
בתרגול זה נתמקד בשימוש ב-Copilot וב-Copilot Chat כדי לייצר, להבין ולשפר בדיקות יחידה. נלמד כיצד לבקש ממנו לכתוב בדיקות לפונקציה קיימת, לייצר נתונים מגוונים, ולחקור את יכולותיו בהבנת קוד קיים. 
 
הדוגמאות בתרגול הזה מופיעות ב-Python, אך הן אגנוסטיות לחלוטין לשפת הפיתוח. אם אתם מעדיפים לעבוד בשפה אחרת – ניתן להשתמש ב Chat Ask (או כל Chat app חיצוני) על מנת לתרגם כל קטע קוד בקלות לשפת הנדרשת.

 

שימו לב – תרגול זה מובנה מאוד והוא מהווה בסיס למחקר וללימוד דרך ״לכלוך הידיים״ בהמשך הדרך. חשוב להכיר את החלקים השונים בתרגול ובמערכת. עם זאת – בכל פרק וסעיף, הרגישו חופשי לחקור יותר לעומק ולסקור גם מושגים שונים ואפשרויות שונות שלא הוזכרו במפורש. נתקעתם? לא נורא – חזרו להוראות המקוריות, ותמיד אפשר להתחיל פרויקט חדש ונקי, ולהתנסות מראש הפרק הנוכחי.

 

בהצלחה!


1. יצירת בדיקות יחידה (Unit Tests)

בפרק זה ניקח פונקציה פשוטה ונשתמש ב-Copilot Chat כדי לייצר עבורה סט של בדיקות יחידה.

 

  • הכנה:
    • צרו קובץ חדש בשפת התכנות המועדפת עליכם (לדוגמה, `utils.py` עבור פייתון או `utils.js` עבור JavaScript).
    • הדביקו בקובץ את הפונקציה הבאה:
    
    def calculate_average_grade(students):
        if not students:
            return 0
        
        total_grade = 0
        valid_students = 0
        
        for student in students:
            if "grade" in student and isinstance(student["grade"], (int, float)):
                total_grade += student["grade"]
                valid_students += 1
                
        if valid_students == 0:
            return 0
            
        return total_grade / valid_students
            

     

  • תרגיל 1 – יצירת בדיקות בסיסיות:
    • סמנו את כל קוד הפונקציה שיצרתם.
    • פתחו את Copilot Chat או Inline.
    • בחלון הצ'אט שנפתח, הקלידו את הבקשה הבאה ולחצו Enter:
      /tests Generate unit tests for the selected code

       

    • בחנו את הבדיקות ש-Copilot הציע. שימו לב כיצד הוא מזהה את מבנה הנתונים (מערך של אובייקטים) ומייצר בדיקה שתואמת לו.
    • צרו קובץ בדיקות חדש (למשל `test_utils.py`) והדביקו בו את הקוד ש-Copilot יצר.
  • תרגיל 2 – בקשה למקרי קצה (Edge Cases):
    • לאחר שקיבלתם את הבדיקות הראשוניות, בקשו מ-Copilot Chat להוסיף בדיקות למקרי קצה.
    • הקלידו בחלון הצ'אט את הבקשה הבאה:
      Now, add more tests for edge cases, such as an empty list, a list with students without a grade, and a list where all grades are invalid.

       

    • התבוננו כיצד Copilot מייצר בדיקות שמכסות את המקרים שבהם הפונקציה עלולה להיכשל או להחזיר תוצאות לא צפויות.
    • שלבו את הבדיקות החדשות בקובץ הבדיקות שלכם.

2. יצירת נתוני בדיקה (Mock Data)

לעתים קרובות, חלק מייגע בכתיבת בדיקות הוא יצירת נתונים מגוונים ומציאותיים. Copilot יכול לעזור לנו לייצר כמויות גדולות של נתונים בקלות.
 

  • תרגיל 1 – יצירת מערך נתונים פשוט:
    • בקובץ הבדיקות שיצרתם, פתחו שורה חדשה.
    • כתבו הערה המתארת את הנתונים שאתם רוצים לייצר.
    • לדוגמה, בפייתון, כתבו את ההערה הבאה והמתינו להשלמה האוטומטית של Copilot:
      
      # Create a list of 10 student objects. Each student should have a name, an ID, and a grade between 40 and 100.
                      
    • אשרו את הצעת ההשלמה של Copilot (באמצעות מקש Tab) ובדקו את המערך שהוא יצר עבורכם.
  • תרגיל 2 – יצירת נתונים מורכבים באמצעות הצ'אט:
    • נניח שאנחנו צריכים נתונים מורכבים יותר עבור בדיקה אחרת.
    • פתחו את Copilot Chat וכתבו את הבקשה הבאה:
      Generate a JSON array of 5 user objects. Each object must have a UUID for 'id', a 'firstName', a 'lastName', a 'joinDate' within the last year, and an 'isActive' boolean property.

       

    • העתיקו את הנתונים שנוצרו והשתמשו בהם לפי הצורך בבדיקות שלכם. שימו לב לרמת הדיוק של הנתונים שנוצרו בהתאם לבקשה.

3. תרגול פתוח

כעת, לאחר שהתנסיתם ביצירת בדיקות ונתונים, הגיע הזמן "ללכלך את הידיים" ולהתנסות באופן חופשי.
 

  • שיפור בדיקות קיימות: מצאו קובץ בדיקות קיים בפרויקט אמיתי (או צרו אחד מורכב). סמנו את הקוד ובקשו מ-Copilot Chat להציע שיפורים. נסו פרומפטים כמו:
    Refactor these tests to be more readable.

     

    Are there any missing test cases here?

     

  • שימוש ב-`/explain`: מצאו בדיקה מורכבת שאינכם מבינים עד הסוף. השתמשו בפקודת `/explain` ב-Copilot Chat כדי לקבל הסבר מפורט על הלוגיקה, המבנה והמטרה של הבדיקה.
  • בדיקות אינטגרציה: כתבו שתי פונקציות שתלויות זו בזו ובקשו מ-Copilot לכתוב בדיקת אינטגרציה שבודקת את שתיהן יחד.
  • התאמה לספריית בדיקות (Framework): אם אתם עובדים עם ספריית בדיקות ספציפית כמו Jest, PyTest, או NUnit, ציינו זאת במפורש בבקשות שלכם. לדוגמה:
    Write Jest tests for this React component.

     

בתרגול זה ראינו כיצד GitHub Copilot הוא כלי עזר רב עוצמה לכתיבת בדיקות.

למדנו לייצר בדיקות יחידה ומקרי קצה, ליצור נתוני בדיקה מורכבים ולהשתמש בצ'אט כדי להבין ולשפר קוד קיים. שילוב Copilot בשגרת העבודה יכול לא רק לחסוך זמן יקר אלא גם לשפר את איכות וכיסוי הבדיקות בפרויקטים שלכם.

הפוסט Github Copilot Testing – מעבדת מבוא בבדיקות תוכנה הופיע לראשונה ב-Almaya.

]]>
Github Copilot Advanced – מעבדה מתקדמת https://almaya.ai/edu-content/copilot-advaced/ Fri, 17 Oct 2025 11:14:14 +0000 https://almaya.ai/?p=2293 תרגול זה מרחיב את היכולות שלכם לעבוד עם GitHub Copilot וכלים דומים, ומתמקד בטכניקות של הנדסת פרומפטים (Prompt Engineering). נלמד כיצד לנסח הנחיות מדויקות יותר כדי לקבל תוצאות טובות יותר, וכיצד להתאים אישית את ההתנהגות של Copilot באמצעות הוראות מערכת.   הבנה של טכניקות אלו תאפשר לכם להפוך את ה-AI משותף פסיבי לכלי אקטיבי שמבין […]

הפוסט Github Copilot Advanced – מעבדה מתקדמת הופיע לראשונה ב-Almaya.

]]>
תרגול זה מרחיב את היכולות שלכם לעבוד עם GitHub Copilot וכלים דומים, ומתמקד בטכניקות של הנדסת פרומפטים (Prompt Engineering). נלמד כיצד לנסח הנחיות מדויקות יותר כדי לקבל תוצאות טובות יותר, וכיצד להתאים אישית את ההתנהגות של Copilot באמצעות הוראות מערכת.
 
הבנה של טכניקות אלו תאפשר לכם להפוך את ה-AI משותף פסיבי לכלי אקטיבי שמבין את ההקשר, חושב על בעיות מראש, ומספק קוד איכותי יותר שתואם את סגנון העבודה שלכם. התרגול אינו דורש ידע מוקדם בהנדסת פרומפטים, רק היכרות בסיסית עם סביבת VS Code ו-Copilot.
 
הדוגמאות בתרגול הזה מופיעות ב-Python, אך הן אגנוסטיות לחלוטין לשפת הפיתוח. אם אתם מעדיפים לעבוד בשפה אחרת – ניתן להשתמש ב Chat Ask (או כל Chat app חיצוני) על מנת לתרגם כל קטע קוד בקלות לשפת הנדרשת.

 

שימו לב – תרגול זה מובנה מאוד והוא מהווה בסיס למחקר וללימוד דרך ״לכלוך הידיים״ בהמשך הדרך. חשוב להכיר את החלקים השונים בתרגול ובמערכת. עם זאת – בכל פרק וסעיף, הרגישו חופשי לחקור יותר לעומק ולסקור גם מושגים שונים ואפשרויות שונות שלא הוזכרו במפורש. נתקעתם? לא נורא – חזרו להוראות המקוריות, ותמיד אפשר להתחיל פרויקט חדש ונקי, ולהתנסות מראש הפרק הנוכחי.

 

בהצלחה!


1. תרגול AiDD Prompt Engineering

טכניקות של הנדסת פרומפטים עוזרות למנוע תשובות גנריות ולהגדיל דיוק. בפרק זה נכתוב פרומפטים לא טובים ונשפר אותם.

 

  • תרגיל 1 – פרומפט גנרי:
    • פתחו Chat Ask וכתבו:
      Create code that calculates an employee's salary.

       

    • Copilot כנראה ישאל באיזו שפה מדובר, וינחש פיתרון פשוט.
    • כעת נשפר:
      • תנו הקשר: "אפליקציית קונסולה" או "שפת Python" (או אם אתם על פרויקט פתוח – הוסיפו הקשר מובנה או משתתפים @workspace)
      • הגדירו מטרה ברורה: ״פונקציה שמקבלת שעות עבודה ושכר לשעה ומחזירה את השכר הכולל.״
      • פורמט התשובה: בקשו רק קוד בלי הסברים.שיפור הפרומפט: כעת נסחו מחדש על פי הכללים הבאים:
      • לדוגמא נסחו:
        Python console function that takes the number of hours and hourly wage, calculates the total salary, and returns the value. Return code only, no explanation.
    • השוו את הקוד שקיבלתם לקוד מהפרומפט המקורי.
  • תרגיל 2 – פירוק משימות:
    • בקשו מ-Copilot משימה גדולה באחת השפות:
      Build a system that manages a list of students, calculates averages, and prints outstanding students.

       

    • התוצאה תהיה כללית. עכשיו חלקו את המשימה:
      • תכננו מבנה מחלקות לרשימת תלמידים ולממוצעים.
      • כתבו פונקציה שמוסיפה תלמיד עם שם וציון.
      • כתבו פונקציה שמחשבת ממוצע וציון מקסימום.
      • כתבו פונקציה שמחזירה רשימה של תלמידים שמעל ציון מסוים.

       

    • עבדו על כל חלק בנפרד והתרשמו מרמת הדיוק.
  • תרגיל 3 – שימוש בשפה פשוטה:
    • כתבו תחילה:
      Implement an augmented array with a bidirectional logical list.

       

    • Copilot ייתקע או יחזיר משהו לא רלוונטי. עכשיו כתבו:
      Build a class that stores data in a list and provides functions to add, remove, and search for items.

       

    • Copilot יחזור עם קוד ברור יותר.
  • תרגיל 4 – בקשת פורמט:
    • בקשו:
      Explain what bubble sort is.

       

    • תקבלו הסבר כללי. עכשיו בקשו:
      Explain what bubble sort is and show the algorithm as a function in C# only.

       

    • Copilot יחזור עם דוגמת קוד בהתאם.

2. טכניקות מתקדמות להנדסת פרומפטים (Prompt Engineering)

בפרק זה נתנסה בארבע טכניקות מרכזיות לשיפור איכות התשובות שנקבל מ-Copilot Chat.

שימו לב – הטכניקות אינן ייחודיות ל-Copilot ויכולות לשמש אתכם בעבודה עם כל מודל שפה גדול (LLM). חשוב מאוד להתרגל ולהכיר טכניקות בתקשורת עם מודלי שפה, בעיקר בהמשך – בגיוס והכשרה של סוכני Ai.

 

  • תרגיל 1 – Reflection (רפלקציה)

    • בטכניקה זו, אנו גורמים למודל לבקר את הקוד שהוא עצמו יצר.
    • פתחו את חלונית הצ'אט של Copilot ובקשו ממנו לכתוב פונקציה למשימה שעלולות להיות בה בעיות נסתרות, למשל, קריאת קובץ גדול. השתמשו בפרומפט הבא:
      Write a Python function that takes a file path as input and returns the longest line in that file.

       

    • בחנו את הקוד שהתקבל. סביר להניח שהפונקציה הראשונית תקרא את כל הקובץ לזיכרון (למשל, באמצעות file.readlines()), מה שיכול לגרום לקריסה בקבצים גדולים מאוד.
    • כעת, באותו הצ'אט, בקשו מהמודל לבצע רפלקציה על הקוד שהוא עצמו כתב:
      Please review the function you just wrote. Critically analyze it for potential issues like performance, memory , security, etc. especially with very large files, and for error handling (e.g., if the file doesn't exist). Then, provide a more robust and memory-efficient version.

       

    • שימו לב כיצד המודל מזהה את חולשות הקוד של עצמו – הוא יציין את בעיית הזיכרון ויציע גרסה משופרת שקוראת את הקובץ שורה אחר שורה (איטרטיבית), ומוסיף טיפול בשגיאות כמו קובץ שלא נמצא (FileNotFoundError).
  • תרגיל 2 – Pre-Debugging (חשיבה על באגים מראש)

    • נשתמש באותה חלונית צ'אט.
    • המטרה שלנו היא לבקש מהמודל לכתוב פונקציה, אך לפני כן – נבקש ממנו לחשוב על הבעיות שעלולות לצוץ.
    • השתמשו בפרומפט הבא, המנחה את המודל לחשוב על מקרי קצה לפני כתיבת הקוד:
      Before you write the code, please list potential edge cases for a Python function that finds the second largest number in a list. After listing them, provide the code for the function that handles these cases.

       

    • נתחו את התשובה: שימו לב שהמודל פרט מקרים כמו רשימה ריקה, רשימה עם אלמנט אחד, או רשימה עם אלמנטים כפולים, ורק לאחר מכן סיפק קוד שמתמודד איתם.
  • תרגיל 3 – Chain of Thought (שרשרת מחשבה)

    • טכניקה זו שימושית במיוחד לבעיות מורכבות. אנו מבקשים מהמודל "לחשוב בקול רם" צעד אחר צעד.
    • העלו תרחיש מורכב יחסית. לדוגמא, נרצה לכתוב פונקציה שמקבלת מחרוזת, מוודאת שהיא פלינדרום, ומתעלמת מסימני פיסוק וגודל אותיות.
    • השתמשו בפרומפט הבא:
      I need a Python function to check if a string is a palindrome, ignoring case and punctuation. Please think step-by-step to outline your logic before writing the final function.

       

    • שימו לב שהתשובה מחולקת לשני חלקים: תחילה, תיאור שלבי החשיבה (להמיר לאותיות קטנות, להסיר תווים לא רצויים, להשוות למחרוזת ההפוכה), ורק אז הקוד עצמו.
  • תרגיל 4 – Role Prompting (הנחיית תפקיד)

    • בטכניקה זו, אנו מעניקים ל-Copilot "אישיות" או תפקיד של מומחה בתחום מסוים.
    • פתחו קובץ JavaScript והדביקו את הקוד הבא, המכיל פרצת אבטחה מסוג XSS (Cross-Site Scripting):
      
      function displayComment(userComment) {
        const commentDiv = document.getElementById('comment-section');
        commentDiv.innerHTML = userComment;
      }
                      
    • בצ'אט, בקשו מ-Copilot לגלם דמות של מומחה אבטחת סייבר ולסרוק את הקוד:
      Act as a senior cybersecurity analyst. Review the following JavaScript code snippet for security vulnerabilities, especially XSS, and explain why it is vulnerable. Then, provide a secure version of the code.

       

    • ראו כיצד המודל מסביר את הסכנה בשימוש ב-innerHTML ומציע חלופה בטוחה יותר באמצעות textContent.

  • 3. התאמה אישית עם Custom Instructions

    בפרק זה נלמד כיצד להגדיר "הוראות מערכת" (Custom Instructions) עבור GitHub Copilot Chat כדי להתאים את התגובות שלו לסגנון, לטכנולוגיות ולדרישות הספציפיות שלכם.

     

    1. תרגיל 1 – עבודה ללא הוראות מותאמות

      • הכנה: ודאו שההוראות המותאמות שלכם ריקות – בדקו שהפרוייקט שלכם לא מכיל קובץ בשם copilot-instructions.md וכן שאין הפניה לinstructions בחלון הצ׳אט.
      • בצ'אט של Copilot, בקשו ממנו ליצור פונקציה פשוטה:
        Write a JavaScript function that takes an array of objects and a property name, and returns an array containing only the values of that property.

         

      • שימו לב לסגנון הקוד שהתקבל (למשל, האם זו פונקציה רגילה או פונקציית חץ? האם יש תיעוד?).
      • כעת, בקשו ממנו להוסיף תיעוד:
        Add JSDoc comments to the previous function.

         

      • שמרו את התוצאה בצד להשוואה.
    2. תרגיל 2 – הגדרת Custom Instructions ובדיקה חוזרת

      • כעת בהגדרות ה לCopilot (גלגל השיניים בראש חלונית הצ׳אט) בחרו ב instructions.
      • מתפריט הבחירה – בחרו ב New Instructions File
      • כאשר תישאלו על שם הקובץ – הכניסו: copilot-instructions.md
      • שימו לב שנוצר לכם קובץ כזה תחת תיקיית משנה .github/instructions בפרויקט. הוא עשוי כבר לכלול טקסט ראשוני – מחקו אותו.
      • הדביקו בתיבת הטקסט את ההוראות הבאות:
        
        1. Always write JavaScript code using ES6 arrow function syntax.
        2. All functions must include JSDoc comments explaining the parameters, what the function does, and the return value.
        3. Prioritize functional programming concepts like map, filter, and reduce over traditional loops where appropriate.
        4. Keep the code clean, readable, and concise.
                        
      • שמרו את ההוראות.
      • פתחו צ'אט חדש (כדי להתחיל סשן נקי) וחזרו על הבקשה המקורית מהתרגיל הקודם:
        Write a JavaScript function that takes an array of objects and a property name, and returns an array containing only the values of that property.

         

      • השוו את התוצאה החדשה לתוצאה הקודמת. שימו לב שהפעם הפונקציה נכתבה כפונקציית חץ, משתמשת במתודת map, והתיעוד מסוג JSDoc נכלל אוטומטית, ללא צורך בבקשה נוספת.

4. תרגול פתוח

כעת, אחרי שלמדתם טכניקות להנחיה והתאמה אישית, הגיע הזמן "ללכלך את הידיים". נסו את התרגילים הבאים כדי לחזק את הבנתכם:

 

  1. שילוב טכניקות: נסו לשלב שתי טכניקות או יותר בפרומפט אחד. לדוגמה, בקשו מ-Copilot לגלם דמות (Role Prompting) ולחשוב צעד-אחר-צעד (Chain of Thought) כדי לפתור בעיה מורכבת בתחום המומחיות שהגדרתם לו.
  2. בניית "פרסונה" מורכבת: כתבו Custom Instructions מפורטות לפרויקט אמיתי שלכם. הגדירו את שם הפרויקט, הטכנולוגיות המרכזיות (למשל, "React עם TypeScript ו-Tailwind CSS"), סגנון כתיבת קוד (למשל, "השתמש תמיד ב-async/await במקום ב-Promises"), וכלל אצבע כמו "לעולם אל תשתמש במשתני var". ראו כיצד זה משפיע על איכות ההצעות.
  3. רפלקציה על קוד קיים: קחו קטע קוד שאתם כתבתם לאחרונה. השתמשו בטכניקת ה-Reflection ובקשו מ-Copilot למצוא בו באגים, להציע שיפורי ביצועים, או דרכים להפוך אותו לקריא יותר.
  4. אתגרו את המודל: נסו לתת ל-Copilot משימות שאתם יודעים שיש להן מקרי קצה בעייתיים (למשל, עבודה עם אזורי זמן, טיפול במטבעות שונים, ניתוח קלט לא צפוי ממשתמש). השתמשו בטכניקת Pre-Debugging כדי לראות אם הוא מזהה את הבעיות מראש.

שליטה בהנדסת פרומפטים והתאמה אישית של Copilot הופכת אותו מכלי שמציע השלמות קוד פשוטות לשותף אמיתי בתהליך הפיתוח. על ידי הנחיה מדויקת, אתם יכולים לקבל קוד טוב יותר, לזהות בעיות מראש, ולהבטיח שהתוצרים עומדים בסטנדרטים שלכם ושל הפרויקט. המשיכו להתנסות ולחדד את ההנחיות שלכם כדי למצות את הפוטנציאל המלא של כלי ה-AI העומדים לרשותכם.

הפוסט Github Copilot Advanced – מעבדה מתקדמת הופיע לראשונה ב-Almaya.

]]>
בינה היברידית – נעים להכיר https://almaya.ai/blog/hybrid-intelligence Tue, 14 Oct 2025 21:22:31 +0000 https://almaya.ai/?p=2227 מה יישאר לאדם בעולם שבו גם החשיבה יוצאת ל-outsource? המאמר מציע תפיסה חדשה - בינה היברידית: שילוב מודע בין ה"חכמה" האנושית לבין ה"בינה" מלאכותית. מסע מרתק דרך מבנה המוח, רשתות נוירונים, והעתיד שבו אדם ומכונה יוצרים יחד ישות אחת של תודעה.

הפוסט בינה היברידית – נעים להכיר הופיע לראשונה ב-Almaya.

]]>
פרולוג – כל בעיות העולם הן בעיות של ידע

לפני שנציג את המושג ״בינה היברידית״, בואו נבין רגע למה זה חשוב, ואיזו בעיה המושג בא לפתור.

 

כפי שבאנו במאמר קודם, כבר במאה ה‑18 הזהיר הכלכלן האנגלי, תומאס מלטוס, מפני מחסור עתידי במזון שיעלה על קצב גידול האוכלוסייה. התחזית שלו התבססה על חישובי מלאי ומשאבים, כמה מזון ומשאבים נוספים יש בעולם, ומה קצב הגידול שלהם (קצב גידול ליניארי, כלומר 1-2-3-4), לעומת קצב הגידול של אוכלוסיית העולם (קצת גידול מעריכי, כלומר 2-4-8-16-32).

 

אבל מה? מלטוס לא לקח בחשבון פקטור חשוב – הידע האנושי. בסופו של דבר – הוא זה שיאפשר לנצל מקורות חדשים, ולצאת מדפוסי החשיבה אודות ההפרשים בקצב הגידול הנוכחי. טכנולוגיות חקלאות מודרניות, והשימוש בהנדסה גנטית ובהשקיה, הפכו את תחזיותיו ללא רלוונטיות.

 

דוגמה קרובה יותר אלינו היא משבר המים בישראל. במשך שנים סבלה המדינה ממחסור חמור במי שתייה, וזו היתה בעיה אמיתית של מחסור במשאב – מי השתיה. חשיבה יצירתית מחוץ לקופסא, לקחה בחשבון שאמנם אין מספיק מי שתיה, אבל יש בישראל המון מי מלח! פתרון הידע הגיע בדמות מתקני התפלה: נכון ל‑2022 כ‑86% ממי השתייה בישראל היו מופקים מהתפלת מים מלוחים ומים מליחים. היכולת להפוך מי ים לשתייה בטכנולוגיות זולות הפכה את המחסור לעודף.

 

דוגמאות כגון זו יש עוד הרבה, וההיסטוריה (והפרה-היסטוריה) מוכיחה פעם אחר פעם שכל בעיות האנושות אינן בעיות משאבים, אלא בעיות ידע. ועל כך בפירוט – במאמר נפרד.

 

המסר הוא שידע – ולאו דווקא חומר – פותר בעיות. והיום, הידע, או ליתר דיוק – היכולת להפקת ידע, יוצאת מהגולגולת לאויר העולם!

 

מוח היברידי (מודל GPT 4o של OpenAI)

 


 

עסקת החליפין הטכנולוגית – מה אנחנו מאבדים?

כל קפיצה טכנולוגית היא עסקת חליפין. אנו מקבלים יכולות חדשות אך לעתים מאבדים מיומנויות ישנות. כאשר האנושות גילתה את האש, ניבים חדים ומערכת עיכול מותאמת לאכילת בשר חי הפכו מיותרים, ובמקומם גדל המוח פי שלושה. בהווה אפשר למצוא דוגמאות דומות:

 

  • ניווט וזיכרון מרחבי – שימוש קבוע ב‑GPS מפחית את הפעילות בהיפוקמפוס, מרכז הזיכרון המרחבי במוח. מחקר מצא שכאשר אנשים מקבלים הוראות ניווט קוליות, פעילות ההיפוקמפוס נמוכה לעומת מצב שבו הם מנווטים לבד. נהגי מוניות בלונדון, הנדרשים לנווט בעצמם, מפתחים היפוקמפוס גדול יותר ועשיר בקשרים.
  • זיכרון, תשומת לב ויכולות חברתיות – עידן הסמארטפון מעודד אותנו להפקיד זיכרונות במכשיר. מחקר אחד מצא שאנשים זוכרים טוב יותר את שמה של התיקייה שבה שמור מידע מאשר את המידע עצמו; החוקרים טענו שהזיכרון האנושי מתמזג עם טכנולוגיה ומותאם למצוא מידע במקום לזכור אותו. מחקר נוסף הראה שמשתמשי סמארטפון כבדים נוטים לסגנון חשיבה פחות אנליטי ומציגים ביצועים נמוכים יותר במבחני ידע. מאמרים על תופעת ה״אמנזיה הדיגיטלית״ מדווחים כי תלות מוגזמת בסמארטפון עלולה להביא לניוון בזיכרון: אנשים רואים במכשיר תחליף לזיכרון ונתפסים בתחושת ״חסר מידע״ (ואף חרדה) כאשר הטלפון אינו נגיש להם. מחקרים נוספים מראים קשר ישיר בין שימוש מופרז בסמארטפונים ורשתות חברתיות, לבין ניוון יכולות חברתיות ותקשורת פרונטלית ובלתי אמצעית, ואף דיכאון.
  • יכולות נוספות – מחקרים מצביעים על כך ש״השלכת זיכרון״ (cognitive offloading) לכלי חיצוני כמו מחשבון או מודל בינה מלאכותית פוגעת בשימור ידע ובכישורי חשיבה ביקורתית. שימוש עודף ב‑Ai עשוי לגרום לניתוק וקושי בגיבוש דעה.

 

ומה עסקת החליפין שלנו?

 

לא יהיה מופרז לטעון שמהפכת ה Ai דרמטית הרבה יותר ממהפכות טכנולוגיות קודמות – החל ממהפכת הדפוס, דרך מהפכת התחבורה והמהפכה התעשייתית, ועד המהפכה הדיגיטלית. בעוד שבעבר הרחוק האדם רתם את המחרשה לשור ואז לטרקטור, היום האנושות הוציאה החשיבה עצמה ל outsource!

 

האם ייתכן שבמאה ה‑21 נאבד גם את היכולת לחשוב?

 

ואם נפקיד גם את הבינה שלנו בידיים של מודלים – מה יישאר לאדם?

 


 

שתי ההמיספירות – ימין ושמאל

המוח האנושי הוא מערכת מורכבת המחולקת, באופן גס ביותר, לשני חצאי כדור (Hemi-spheres).

 

ההמיספירה השמאלית מתמקדת בלוגיקה, ניתוח ומילים: היא אחראית על תקשורת, פתרון בעיות ושינון מידע. היא מטפחת את תחושת העצמיות והאגו, ונוטה לשפוט את המציאות שסביבה דרך משקפיים של מועיל / מזיק לאגו שלי.

 

לעומתה, ההמיספירה הימנית מטפלת בתפיסה מרחבית, יצירתיות, אינטואיציה ורגשות. היא מעבדת באופן ישיר את המידע המתקבל מהמציאות הסובבת דרך החושים, ונוטה להתמקד ב״כאן ובעכשיו״ ולא בעבד ובעתיד. היא אינה עסוקה בתחושת העצמיות, באגו, ונוטה דווקא להתמזג עם כל המציאות הסובבת אותה. פשוט לחיות את הרגע ואת המקום הנוכחי, בזרימה טבעית.

 

שתי ההמיספירות מחוברות בקשר פיזי (״קורפוס קלוסום״) ופועלות יחד. רוב האנשים משתמשים בשתיהן באותה מידה.

 

החלוקה הזו משתקפת גם באופן קיצוני יותר – החוקרים מבדילים בין מערכות תודעה שונות: המוח השמאלי עסוק בעבר ובעתיד, שופט אם משהו מועיל או מזיק לי ומנהל את תחושת ה״אני״; המוח הימני נוכח בכאן ועכשיו, שואף להתמזג עם המציאות ומייצר חוויה רוחנית, אומנותית ומדיטטיבית. כשחוקרי מוח מנסים להבין יצירתיות, הם מייחסים לרוב את הברק הראשוני להמיספירה הימנית ואת פיתוח הרעיון להמיספירה השמאלית.

 

תפקידי חצאי המוח

 


 

חכמה ובינה – מפתחות לתפיסה

תורת הסוד היהודית – הקבלה והחסידות, עוסקות הרבה בנפש האדם, ובהקבלות בינו לבין המציאות הסובבת את האדם. היא מתייחסת לשני סוגים של מודעות עיונית, במילות הקוד: ״חכמה״ ו‑״בינה״.

 

החכמה היא נקודת ההשראה הראשונית – ניצוץ דקיק שמקיף את האמת כולה אך עדיין אינו נתפס. היא דרך חשיבה הנוטה להפשטה, לחיפוש עקבי אחר ״ליבת העניין״ או ״המהות״ המסתתרת מאחורי כל דבר שאנו ניתקל בו, משמעויות ועקרונות יסוד.

 

לעומתה, הבינה היא הצד הבונה, האנליטי, שמפתח את הרעיון ומפרק אותו לפרטים כדי להביאו לעולם.

 

שני הכוחות הללו תלויים זה בזה: החכמה ללא בינה נשארת מופשטת והבינה ללא חכמה נעדרת מקוריות. המונח ״בינה״ בעברית פירושו הבנת דבר מתוך דבר – יצירת ידע חדש מתוך ידע קיים. הוא נגזר מן השורש ב‑נ‑ה, שמשמעו לבנות.

 

ההשוואה לחצאי המוח ברורה: חכמה מקבילה למוח הימני – ראיית רעיון בשלמותו, בלי מילים; בינה מקבילה למוח השמאלי – היכולת לפרוט את הרעיון, להסביר אותו ולבנות ממנו מבנה שימושי. תורת הסוד היהודית מדגישה שנדרש שילוב של שתי צורות החשיבה כדי להוציא רעיונות מקוריים מן הפוטנציאל אל הפועל.

 


 

רצוא ושוב – תנועה בין אין־סוף לעולם

לפי הקבלה, אדם המאופיין בחשיבה יצירתית, נע בין שני קטבים. התנועה הזאת מכונה במקורות ״רצוא ושוב״. בתרגום ישיר – ״הלוך וחזור״.

 

ה-״רצוא״ הוא שאיפה אל האינסוף, את המופשט לחלוטין, היציאה ממגבלות המציאות וחיפוש הרעיון בנקודת השורש המופשטת.

 

ה-״שוב״ היא חזרה למציאות, הפיכת ההשראה לכלים מעשיים ויישום, הלבשת הרעיון המופשט – הגרעין הראשוני, במילים, משפטים, הסבר קוהרנטי ומסודר שניתן להעברה לאנשים אחרים, או לביטוי מעשי.

 

אצל האדם היצירתי – התנועה הזו באה לידי ביטוי בתבניות הקוגניטיביות: מצד אחד, אנו קובעים דפוסים והרגלים שמצטברים במשך החיים; מצד שני, כדי לחדש אנו חייבים לשחרר אותם, ולהשתחרר מהם. לחזור ל״רשת נוירונים גולמית״, ולשנות את האופן שבו אנו חושבים. זהו אימון מתמיד שמתבטא ביכולת לצאת מהתבנית ולחזור אליה שוב ושוב.

 

מקורות היהדות מייחסות באופן ישיר את היכולת לבצע תהליך של ״רצוא ושוב״ (בצורתה האידיאלית) ליכולת נבואית, ואף מתווה דרך מסודרת כיצד לרכוש את המיומנות הזאת: האדם נדרש לפתח יכולות של התנגדות לנטיותיו הטבעיות ולשבור דפוסי מחשבה והרגלים.

 

המסלול הזה עשוי להשמע מוזר ללא הבנה של מבנה המוח שלנו, ולצורך כך – ניעזר במבנה של מודלי בינה מלאכותית.

 

מדיטציה

 


 

איך פועלים מודלים – אימון והסקה

מודלי שפה (ובכלל מודלי בינה מלאכותית או Machine Learning ליתר דיוק) תוכננו ונבנו בהשראת המוח האנושי – רשתות נוירונים צפופות: טריליוני ״תאי עצב״ דיגיטלים המחוברים אלו לאלו ויוצרים יחד מבנה רשתי.

 

קצת יותר בפירוט על הגאונות מאחורי המבנים הללו – במאמר הזה.

 

הרשת הגולמית, כפי ש״יצאה מהניילון״, נראית קצת כמו דף חלק. עוצמת החיבורים הראשונית בין כל הנוירונים במודל היא אחידה, ומבטאת למעשה ״מוח גולמי״ שעדיין לא למד כלום. כמו נשמה חדשה שירדה לעולם. היא אמנם עדיין לא פיתחה אישיות מוגדרת אבל מצד שני, הפוטנציאל שלה הוא אינסופי, ויכולה, לכאורה, להיות כל דבר בעתיד.

 

כמו אצל יצור אנושי שנחשף מילדותו למצבים, חפצים, מושגים ואנשים שונים – ולומד מהם ומהתנסויות אישיות, כך גם מודל בינה מלאכותית שעובר תהליך של ״אימון״.

 

בתחילת האימון עוצמת החיבורים בין ה״נוירונים״ השונים היא אקראית ואחידה – כמו דף חלק. בתהליך האימון מעבירים דרך הרשת מיליארדים וטריליונים של דוגמאות (פסקאות טקסט, תמונות, קטעי סאונד ועוד – בהתאם לסוג המודל שמעוניינים לאמן) ומעדכנים בהתאם את עוצמת החיבורים השונים. בהדרגה, הרשת כבר יוצרת בתוך עצמה ״תבניות״ מסוימות המייצגות דפוסי חשיבה, נטיות, ו-״אישיות״ יחודית שנבנית כתוצאה של ״התנסויות חיים״, ממש כמו תהליך התבגרות של אדם. הרשת כבר לא אחידה, והיא קיבלת אישיות ייחודית.

 

עם סיום האימון, מודל הבינה המלאכותית מתקבע, והמודל עובר לשלב ההסקה (Inference), שבו הוא מפעיל את הדפוסים שלמד על מידע חדש שאליו הוא נחשף – ומגיב לו. אלא שבניגוד למוח האנושי שמתעדכן כל חייו, מודל ML אינו לומד דפוסים חדשים בזמן השימוש – הוא רק מפעיל את המשקלים שנצרבו בו במהלך האימון.

 

הוא לא יכול לחרוג מדפוסי החשיבה שהוטמעו בו, ומכאן נובע הבדל משמעותי בין חשיבה אנושית למקבילתה המלאכותית: המוח יכול לחזור למצב של ״דף חלק״ ולמוסס דפוסים באמצעות אימון יזום (אם בשיטות המוצעות בתורת הנפש היהודית, או בשיטות אחרות – בין השאר בתורות המזרח הרחוק); רשת נוירונים ממוחשבת אינה מסוגלת לכך.

 

רמז להבדל המהותי הזה ניתן למצוא אפילו במינוח – חשיבה מלאכותית נקראת (לא סתם) ״בינה מלאכותית״ ולא ״חכמה מלאכותית״ – היא מצטיינת בבליעה ובפיתוח של דפוסים קיימים (בינה), אך חסרה את היכולת למוסס ולהתעלות מעל אותן תבניות חשיבה, אותן ״נטיות״ מולדות או נרכשות, ולהמציא רעיון מעצמה (חכמה).

 

מכאן ניתן להבין את החשיבות הגדולה שמייחסות תורות נפש (ביהדות ובמזרח הרחוק) לעבודה על שבירת תבניות חשיבה, שבירת נטיות והתנגדות להליכה בדרך הטבע. כל אלו מאפשרות ״החלקה״ זמנית של רשת הנוירונים המוחית, יציאה ממגבלות החשיבה וההיצמדות לתבניות. באופן זה ניתן להגיע לרמות תודעה גבוהות ולמעשה – לשחזר את הפוטנציאל האינסופי הראשוני.

 


 

ההבדלים המהותיים בין מוח אנושי למודל מלאכותי

מעבר לשוני בתהליך הלמידה, קיימים הבדלים מהותיים נוספים בין מוח אנושי למודל מחשב:

 

היבט מוח אנושי מודל בינה מלאכותית
צריכת אנרגיה צורך פחות אנרגיה מנורה ביתית, ומבצע באופן יעיל אינספור פעילויות דורש כוח מחשוב עצום; מערכות AI גדולות צורכות חשמל ברמה של כפר שלם
יכולות תחושתיות מקבל קלט מכל החושים (ראייה, שמיעה, מגע, ריח וכו׳) ומוסיף לו רגשות ותודעה; תקשורת אנושית כוללת מחוות, טון דיבור ושפת גוף מוגבל בדרך כלל לנתונים מילוליים או מספריים; מודלי שפה מקבלים רצף טקסט בלבד, ואינם מודעים לטון, הבעות פנים או תחושות גופניות
יכולת יציאה מתבניות יכול לשבור דפוסים ו״לצעוד״ למעלה ומטה בין הפשטה לפרקטיקה באמצעות אימון (רצוא ושוב) בעל תבנית קבועה לאחר האימון; אינו יכול למחוק או לשנות דפוסים לבד
משימות קלות / קשות מזהה דפוסים ומאבחן גירויים מורכבים בקלות; ביצוע חישובים מתמטיים מורכבים איטי ופחות מדויק מצטיין בחישובים מספריים וחיפוש פרמטרים אופטימליים; מתקשה במטלות תפיסה ומוטוריקה פשוטות כמו זיהוי אובייקטים וקבלת החלטות אינטואיטיבית
אופי ישות פעילה, מונעת מרצון, אגו ומוטיבציה; מקבלת קלט פנימי וחיצוני בכל רגע פונקציה מתמטית פסיבית שמחזירה פלט עבור קלט נתון; חסרה מודעות ורצון

 

הפערים הללו מסבירים מדוע שיתוף פעולה בין אדם למכונה יכול להשיג תוצאות טובות יותר מאשר ״העתקת״ אחד לשני. בני אדם מביאים ראייה כוללת, יצירתיות ואינטואיציה, מודלים מספקים עיבוד מהיר ומקיף, זיכרון עצום ויכולת ניתוח עקבית.

 


 

אז מהי בינה היברידית?

בינה היברידית (או ״חשיבה״ היברידית) היא תפיסה המחברת בין היתרונות האנושיים המהותיים לחוזקות המובהקות של הבינה המלאכותית. במקום לנסות לגרום למחשב להיות בן אדם או לאדם להיות מכונה, היא מגדירה חלוקה מודעת של תפקידים:

 

  • האדם מביא את החכמה – היכולת לקפוץ אל האין‑סוף, להרגיש, ליצור ולהתנסות. זה כולל התנועה של רצוא ושוב, ההתנתקות מדפוסים וראיית האפשרי במקום הקיים.
  • המודל מספק את הבינה – ניתוח מעמיק, פירוט, סדר, זיכרון עצום, והסקה לוגית מהירה. הבינה המלאכותית מצטיינת בבניית המבנה סביב הרעיון ומסייעת להוריד אותו לעולם המעשה.

 

שילוב נכון יוצר סינרגיה: האדם מעלה רעיון אמיץ; המודל מפרט, מארגן ומציג אפשרויות, האדם שופט ומכוון, המודל מבצע שוב. זהו שיתוף פעולה בו שני הצדדים אינם מתחרים אלא משלימים.

 

בימים אלו האנושות שועטת בצעדי ענק לעבר ה״בינה המלאכותית הכללית״ (AGI) – מודלי בינה מלאכותית שאינם יהיו מכווני מטרה או התמחות ספציפית, אלא יהיו מסוגלים למשימות כלליות מרמת מומחיות גבוהה ביותר בכל תחום דעת בעולמנו. ההשלכות הן דרמטיות ומרחיקות לכת באופן שאנו חושבים, מתבטאים ופועלים בעולם. בשנים הקרובות, האדם החד ביותר בקבוצה, יאבד את יתרונו היחסי (על אף הכשרון הגדול שלו) – כי כל חברי הקבוצה מחזיקים באותן יכולות ניתוח, פירוט והמשגה, בעזרת הבינה המלאכותית. החלטות משמעותיות בחיינו שיתקבלו ללא העיבוד והניתוח של ה-AGI יתפסו כחסרות אחריות, מופקרות והרות אסון.

 

זו תהיה תקופה מבלבלת מאוד, ואנו נידרש להיערך לכך, ולדעת למפות היטב את חלוקת התפקידים – מה לאדם ומה למכונה? חלילה לנו לייחס יכולות אנושיות לבינה המלאכותית, על אף יכולת ההתנסחות המרשימה המאפיינת Ai לסוגיו. הבינה המלאכותית לא ניחנה במוטבציה, באגו ובתודעה אנושית, ואף אינה נותנת מענה לאופני החשיבה האנושיים המופשטים יותר (חשיבה שאינה מילולית). מצד שני – בכל הקשור בניתוח אנליטי, הנסמך על מקורות ידע רבים, המשגה וירידה לפרטים, הבינה המלאכותית מובילה כיום, ותוביל בעתיד על האדם, באופן בלתי ניתן לתיאור.

 

איך נדע להחליט? 

מן הסתם מנסיון מצטבר, אבל נוכל לקבל אינטואיציה ראשונית לכך מדוגמא – על מקומו של האמן האנושי.

 


 

מקומו של האמן

כידוע, כיום קיימים כלי בינה מלאכותית רבים ליצירת תוכן אומנותי באמצעות תיאור מילולי, או שילוב של תיאור מילולי עם רפרנסים של תמונה או סאונד:

 

  • תוכן ויזואלי – דרך מודלי דיפוזיה כגון Midjourney, מודל התמונה 4o של OpenAI, ועד Nano Banana המתקדם של גוגל
  • מוסיקה – דרך כלים כמו Suno, Udio ועוד
  • וידאו – דרך Sora של OpenAI, או Veo3 של גוגל, וגם בכלים לשימושים ספציפיים יותר כמו Runway, Kling, Stable Diffusion או Heygen.

 

כל אמן באחד או יותר מהתחומים הללו, בוודאי שאל את עצמו לאחרונה – אם הבינה המלאכותית יוצרת את התוכן, מה מקום האמן האנושי? אז יגידו – התפקיד של האמן הוא לחשוב על הרעיונות המקוריים ולתאר אותם במילים (או בתמונה) למודל שיצור מהם תוכן ברמה הגבוהה ביותר.

 

זה אולי מניח את השאלה הראשונה, אבל עדיין המודל הוא זה שנותן את הביטוי הויזואלי-אומנותי, ומבצע את הוראות האדם, גם אם זה נתן תיאור מילולי מפורט ביותר. אז אם האדם רק מתאר את הרעיון והמודל נותן לו את הביטוי הויזואלי – הרי שהאדם הופך להיות רק ״מזמין היצירה״ וכבר לא האמן.

 

מה נשאר, אם כך, לאמן האנושי?

 

ובכן, דרך אחרת לגשת לשאלה הזאת היא דרך דוגמא מיצירה מופשטת – אבסטרקטית. משיכות של מברשת צבע, אקראיות לכאורה, על קנבס, ללא צורך בתיאור מילולי כלשהו מה בדיוק מצויר בתמונה.

במקרים רבים היוצר פשוט לא מסוגל ״להלביש״ את התנוצצות הרעיון הראשוני שלו במילים או בהסבר כלשהו. כל הסבר רק יצמצם את הרעיון למתודולוגיה טכנית וקרה. משיכות המכחול האקראיות מבטאות באופן הרבה יותר ישיר ובלתי אמצעי את הלך הרוח של היוצר באותו הרגע, כמו גם מוסיקה שמופקת באופן זה ולא באופן אחר, כי זה ״מה שהרגיש נכון״ ליוצר בזמן הקלטת היצירה.

 

אמנות אבסטרקטית
אמנות אבסטרקטית

 

לנושא הרחב הזה ראוי להקדיש מאמר שלם, אבל בינתיים – האומנות והיצירה הן דרכי ביטוי אנושיות שמורידות את הרעיונות המופשטים לעולם החומר ללא תיווך של רובד מילולי. וזה, עדיין, אחת היכולות היחודיות של האדם.

 


 

בינה היברידית – לאן?

״בינה היברידית״ אינה ויתור על מי שאנחנו אלא הבנה חדשה של היחסים בין בינה לחכמה. בעידן שבו מחשבים יודעים לחשב טוב מאיתנו, עלינו לזכור מה הם לא יודעים: להרגיש, ליצור, לחוות, להסתכן, לחלום ולפרוץ דפוסים. עלינו להמשיך לאמן את ההמיספירה הימנית – להתבונן, להקשיב, להתנסות, לשיר, לרקוד ולעשות מדיטציה – כדי שהמודל לא ישתלט על כל המרחב. ובאותו זמן, כדאי ללמוד להשתמש בבינה המלאכותית ככלי שמרחיב את יכולותינו – מסייע לנו לארגן ידע, לתמלל, לנתח ולשדרג כל רעיון שאנחנו יוצרים.

 

לבינה המלאכותית יש פוטנציאל עצום, אם ננצל אותה בחכמה (תרתי משמע). נוכל לשחרר את האנושות להתמקד ביכולות היחודיות שלהם, ולגלות את העומק הטמון ברובדים עמוקים וגבוהים של התודעה. כנראה שרובנו עדיין לא נגענו אף בקצה הקרחון, ואולי זו המשימה של העידן החדש שאנו נכנסים אליו.

 

אם נעמוד במשימה הזו, נזכה בעתיד שבו האנושות והטכנולוגיה אינן מתחרות אלא יוצרות ישות היברידית – אקו‑סיסטם המאפשר לבני האדם ולמכונות להביא יחד את המיטב שיש להם, ולפתור את האתגרים הגדולים שעוד מחכים לנו.

 

הפוסט בינה היברידית – נעים להכיר הופיע לראשונה ב-Almaya.

]]>
תרגול MCP – טסט https://almaya.ai/edu-content/copilot-mcp/ Sun, 05 Oct 2025 21:20:00 +0000 https://almaya.ai/?p=2216 היכולת לחבר את GitHub Copilot למקורות מידע חיצוניים וכלים נוספים פותחת עולם שלם של אפשרויות ומייעלת את תהליך הפיתוח. באמצעות Microsoft Copilot Platform (MCP), ניתן להרחיב את Copilot כך שיבצע פעולות מורכבות, ישלוף מידע ממערכות חיצוניות וישתלב באופן עמוק יותר בסביבת העבודה שלכם, כל זאת מבלי לעזוב את VS Code. במדריך זה נלמד כיצד למנף […]

הפוסט תרגול MCP – טסט הופיע לראשונה ב-Almaya.

]]>

היכולת לחבר את GitHub Copilot למקורות מידע חיצוניים וכלים נוספים פותחת עולם שלם של אפשרויות ומייעלת את תהליך הפיתוח. באמצעות Microsoft Copilot Platform (MCP), ניתן להרחיב את Copilot כך שיבצע פעולות מורכבות, ישלוף מידע ממערכות חיצוניות וישתלב באופן עמוק יותר בסביבת העבודה שלכם, כל זאת מבלי לעזוב את VS Code.

במדריך זה נלמד כיצד למנף את היכולות הללו. נתחיל בחיבור שרת MCP רשמי ומוכן מראש של GitHub כדי לנהל משימות ישירות מהצ'אט, ולאחר מכן נצלול לאפשרות המתקדמת יותר של התקנת שרת MCP מקומי ומותאם אישית, שיאפשר לנו להתאים את Copilot לצרכים הייחודיים שלנו.

פרק 1: התקנה ושימוש בשרת MCP רשמי – GitHub

בפרק זה נלמד כיצד להתקין ולהשתמש בשרת ה-MCP הרשמי של GitHub. שרת זה מאפשר ל-Copilot לתקשר ישירות עם ה-API של GitHub ולבצע פעולות כמו יצירת Issues, שליפת מידע על Pull Requests ועוד, ישירות מחלון הצ'אט של VS Code.

  1. איתור והתקנת שרת ה-MCP של GitHub:
    • עברו ללשונית ההרחבות (Extensions) בסרגל הצד של VS Code (קיצור: Ctrl+Shift+X).
    • בראש חלונית ההרחבות, לחצו על אייקון כדור הארץ ("Browse MCP Servers"). פעולה זו תפתח דפדפן עם רשימת השרתים המוכרים על ידי VS Code.
    • אתרו את שרת GitHub ולחצו עליו. תועברו בחזרה ל-VS Code לדף ההתקנה של ההרחבה.
    • לחצו על כפתור Install.
  2. אימות וחיבור לחשבון GitHub:
    • לאחר ההתקנה, VS Code יקפיץ חלונית המבקשת הרשאה להתחבר ל-GitHub.
    • לחצו Allow כדי להתחיל בתהליך האימות (OAuth). דפדפן ייפתח ויבקש מכם לאשר את הגישה.
    • אשרו את הגישה בדפדפן. כעת, שרת ה-MCP מחובר לחשבון ה-GitHub שלכם.
  3. תרגיל – יצירת Issue חדש באמצעות Copilot:
    • פתחו את חלונית הצ'אט של GitHub Copilot.
    • ודאו ש-Copilot מודע לשרת החדש. לחצו על אייקון הכלים (משולש קטן) בשורת הקלט של הצ'אט כדי לפתוח את בורר הכלים (tool picker), וודאו ש-@github מסומן.
    • כעת, בקשו מ-Copilot ליצור Issue חדש בפרויקט שלכם. הדביקו את הפרומפט הבא:
      Create a new issue on the repository for creating a calendar module on the homepage of the application.

       

    • Copilot יזהה את הצורך להשתמש בשרת ה-MCP של GitHub ויציג בפניכם את הפעולה שהוא עומד לבצע. לחצו Continue כדי לאשר.
    • לאחר מספר שניות, Copilot יאשר שה-Issue נוצר. גשו ללשונית ה-GitHub ב-VS Code או לאתר GitHub כדי לראות את ה-Issue החדש שנוצר, כולל תיאור ותוויות רלוונטיות ש-Copilot הוסיף בעצמו.

פרק 2: התקנת שרת MCP מקומי ומותאם אישית

הכוח האמיתי של MCP טמון ביכולת ליצור כלים מותאמים אישית. בפרק זה נלמד כיצד להוסיף ל-VS Code שרת MCP שבנינו בעצמנו (או קיבלנו מצוות אחר), המורץ באופן מקומי על המחשב שלנו. לצורך הדוגמה, נניח שיש לנו קובץ הרצה (binary) של שרת כזה.

  1. הוספת שרת MCP חדש דרך ה-Command Palette:
    • פתחו את ה-Command Palette (קיצור: Ctrl+Shift+P).
    • הקלידו MCP: Add Server ובחרו באפשרות זו.
    • תתבקשו לבחור את סוג השרת. בחרו באפשרות העליונה, Command, המתאימה להרצת קובץ בינארי מקומי.
  2. הגדרת השרת המקומי:
    • בשלב הבא, תתבקשו לספק את הנתיב המלא לקובץ הבינארי של השרת על המחשב שלכם. לדוגמה: C:\Users\MyUser\mcp-servers\leetcode-mcp-server.exe.
    • הזינו שם תיאורי לשרת, למשל LeetCode MCP Server, ולחצו Enter.
    • בחרו אם להפוך את השרת זמין גלובלית (Globally) או רק לסביבת העבודה הנוכחית (Workspace). לצורך התרגול, בחרו Workspace.
    • תופיע אזהרת אבטחה. מכיוון שאנו סומכים על הקובץ שיצרנו, לחצו Trust and Start.
    • VS Code ייצור עבורכם קובץ .vscode/mcp.json המכיל את הגדרות השרת. תוכלו לראות שהשרת התחיל לרוץ.
  3. תרגיל – שימוש בשרת המותאם אישית:
    • פתחו שוב את חלונית הצ'אט של GitHub Copilot.
    • ודאו שהשרת החדש שהוספתם (למשל, @leetcode) זמין בבורר הכלים.
    • כעת, שאלו שאלה שהשרת המותאם אישית שלכם יודע לענות עליה. לדוגמה, אם השרת יודע להביא את האתגר היומי מאתר LeetCode, השתמשו בפרומפט הבא:
      What is today's daily challenge on LeetCode?

       

    • Copilot יזהה את הכלי המתאים ויבקש אישור להפעיל אותו. לחצו Continue.
    • השרת המקומי ירוץ, יבצע את הלוגיקה שלו, ויחזיר את התשובה ישירות לחלון הצ'אט של Copilot, ובכך ישמור אתכם בהקשר העבודה מבלי צורך לעבור לאפליקציות אחרות.

פרק 3: טיפים ושיטות עבודה מומלצות

כדי להפיק את המרב משילוב MCP ו-Copilot, הנה כמה טיפים שיעזרו לכם לייעל את תהליכי העבודה.

  1. קיבוץ כלים ל-Toolsets:
    • במקום לבחור כלים בודדים בכל פעם, ניתן לקבץ מספר שרתי MCP תחת "סט כלים" (Toolset) אחד.
    • לדוגמה, תוכלו ליצור Toolset בשם Python Development שיכלול שרת לבדיקות יחידה, שרת ל-linting, ושרת לתקשורת עם מאגר חבילות פרטי.
    • כאשר תרצו לעבוד על פרויקט פייתון, תוכלו פשוט לבחור את ה-Toolset כולו במקום להפעיל כל כלי בנפרד, מה שחוסך זמן ומבטיח שכל הכלים הרלוונטיים זמינים.
  2. שיתוף הגדרות שרתים בצוות:
    • כאשר מוסיפים שרת MCP בהיקף של Workspace, נוצר קובץ .vscode/mcp.json בתיקיית השורש של הפרויקט.
    • ניתן להכניס את הקובץ הזה למערכת ניהול הגרסאות (כמו Git). כך, כל חבר צוות שישכפל את הפרויקט יקבל באופן אוטומטי את אותן הגדרות שרתים.
    • שיטה זו מבטיחה עקביות בסביבות הפיתוח של כל חברי הצוות ומקלה על שיתוף כלים פנימיים וסקריפטים מותאמים אישית.

פרק 4: תרגול פתוח

עכשיו תורכם "ללכלך את הידיים" ולהתנסות בעצמכם. הנה כמה רעיונות להמשך חקירה ותרגול:

  • חקרו שרתים נוספים: עיינו ברשימת שרתי ה-MCP הרשמיים וחפשו כלים שיכולים להתאים לסביבת העבודה שלכם. נסו להתקין ולהשתמש בשרתים כמו Figma (למפתחי frontend) או Playwright (לאוטומציה ובדיקות).
  • בנו שרת "Hello World": נסו לבנות שרת MCP בסיסי בשפת הפיתוח המועדפת עליכם (Python, Node.js, Go). השרת יכול לבצע פעולה פשוטה, כמו להחזיר את השעה הנוכחית או הודעת "Hello World" עם פרמטר מהמשתמש.
  • חשבו על תהליכי עבודה אישיים: זהו פעולות שאתם מבצעים באופן תדיר מחוץ ל-VS Code (למשל, בדיקת סטטוס של שירות, שליפת נתונים ממערכת ניהול פנימית, הרצת סקריפט מורכב). חשבו כיצד תוכלו לבנות שרת MCP שיבצע את הפעולות הללו עבורכם ישירות מהצ'אט.
  • התנסו עם קובץ mcp.json: פתחו את קובץ ההגדרות שנוצר ונסו להבין את המבנה שלו. נסו לשנות פרמטרים קיימים או להוסיף הגדרת שרת נוספת באופן ידני.

סיכום קצר, שילוב Microsoft Copilot Platform עם GitHub Copilot ב-VS Code הוא דרך עוצמתית להפוך את סביבת הפיתוח שלכם לחכמה, אוטומטית ומותאמת אישית. על ידי חיבור כלים חיצוניים ושרתים מותאמים, אתם יכולים לרכז משימות רבות יותר בתוך העורך, לצמצם את החלפת ההקשרים (context switching) ובסופו של דבר, לכתוב קוד טוב יותר ומהר יותר.

הפוסט תרגול MCP – טסט הופיע לראשונה ב-Almaya.

]]>
Github Copilot Essentials – מעבדת מבוא https://almaya.ai/edu-content/copilot-essentials/ Sun, 05 Oct 2025 16:45:41 +0000 https://almaya.ai/?p=2159 מטרת תרגול זה היא לתת לכם היכרות מעשית עם הישויות השונות והאפשרויות השונות ב‑GitHub Copilot ב‑VS Code.   בכל פרק תבצעו בעצמכם תרחישים ספציפיים, להיכרות עם מושגים שונים העומדים בבסיס של Copilot. תו״כ התרגול נשאל – מה לפתוח? מה לשאול? אילו פקודות להקליד ואיך לשפר את התוצאה. התרגילים אינם תלויים בשפת פיתוח מסוימת; כאשר Copilot […]

הפוסט Github Copilot Essentials – מעבדת מבוא הופיע לראשונה ב-Almaya.

]]>
מטרת תרגול זה היא לתת לכם היכרות מעשית עם הישויות השונות והאפשרויות השונות ב‑GitHub Copilot ב‑VS Code.

 

בכל פרק תבצעו בעצמכם תרחישים ספציפיים, להיכרות עם מושגים שונים העומדים בבסיס של Copilot. תו״כ התרגול נשאל – מה לפתוח? מה לשאול? אילו פקודות להקליד ואיך לשפר את התוצאה. התרגילים אינם תלויים בשפת פיתוח מסוימת; כאשר Copilot צריך לייצר קוד, ציינו את השפה (למשל Python, JavaScript או C#) והקפידו לבנות אפליקציית קונסולה פשוטה.

 

הדוגמאות בתרגול הזה מופיעות ב-Python, אך הן אגנוסטיות לחלוטין לשפת הפיתוח. אם אתם מעדיפים לעבוד בשפה אחרת – ניתן להשתמש ב Chat Ask (או כל Chat app חיצוני) על מנת לתרגם כל קטע קוד בקלות לשפת הנדרשת.

 

שימו לב – תרגול זה מובנה מאוד והוא מהווה בסיס למחקר וללימוד דרך ״לכלוך הידיים״ בהמשך הדרך. חשוב להכיר את החלקים השונים בתרגול ובמערכת. עם זאת – בכל פרק וסעיף, הרגישו חופשי לחקור יותר לעומק ולסקור גם מושגים שונים ואפשרויות שונות שלא הוזכרו במפורש. נתקעתם? לא נורא – חזרו להוראות המקוריות, ותמיד אפשר להתחיל פרויקט חדש ונקי, ולהתנסות מראש הפרק הנוכחי.

 

בהצלחה!


1. התקנה וסטטוס ראשוני

  1. בדקו את ההתקנה:
    • פתחו את VS Code. בחפשו את הרחבת GitHub Copilot בלשונית Extensions (קיצור Ctrl+Shift+X).
    • אם ההרחבה לא מותקנת, התקינו אותה ולחצו על אייקון Copilot בצד שמאל כדי להתחבר לחשבון GitHub שלכם.
    • בשורת המשימות בתחתית הממשק של VS Code, לחצו על לחצן Copilot Status ( ). חלונית הסטטוס תוצג, שם תראו את מכסת הבקשות החודשית, קבצים שבהם Completions מופעלים ואפשרות לכבות את ההשלמות לכמה דקות.
      .

      חלונית Copilot Status
  2. תרגיל:
    • ודאו שה‑Completions מופעלות לקבצים בעלי סיומת של השפה שתבחרו.
    • כבו את ההשלמות ל-5 דקות ובדקו שהן לא מופיעות בזמן שאתם כותבים, ואז הפעילו אותן מחדש.

2. תרגול Completions (השלמות קוד)


יצירת קובץ:
צרו קובץ חדש בשם exercise עם הסיומת המתאימה לשפתכם (לדוגמה exercise.py או exercise.js).

 

  1. תרגיל 1 – השלמה פשוטה:
    • בראש הקובץ כתבו הערה באנגלית:
      
      # write a function that returns the maximum of three numbers
      
    • צפו כיצד Copilot מציע שלד פונקציה ואף בדיקה בסיסית.
    • לחצו Tab כדי לקבל את כל ההצעה או Ctrl+Tab כדי לקבל רק את החלק הראשון.
  2. תרגיל 2 – פיתוח בלוק:
    • כתבו חתימה ריקה של פונקציה:
      
      def calculate_mean(numbers: list) -> float:
      
    • Copilot אמור להציע השלמת בלוק שמחשב ממוצע ויחזור גם עם בדיקות קצרות.
  3. תרגיל 3 – תיעוד אוטומטי:
    • התחילו לכתוב Docstring:
      
      """
      
    • Copilot יציע תיעוד באנגלית לפונקציה.
    • קבלו אותו, בדקו שהוא מדויק, וערכו במידת הצורך.
  4. תרגיל 4 – Boilerplate:
    • צרו קובץ חדש בשם settings.yml ורשמו בו שורה אחת.
    • Copilot אמור להציע שלד מלא של קובץ YML – קבלו אותו.
  5. השוואת שיטות קבלה:
    • נסו לקבל חלק מההשלמה (למשל רק את ההצהרה הראשונה) באמצעות Ctrl+Tab, ואז לסרב לשאר.
  6. התבוננות:
    התחילו לכתוב קוד (פונקציה כלשהי בשפה המוכרת לכם), ובדקו:
    .

    • כמה ההשלמות מסייעות לכם במהלך העבודה? (נסו להתרגל, זה חדש…)
    • האם במצבים מסוימים הן מפריעות?

3. תרגול Inline

מטרת התרגול היא להתנסות בשימוש ב-Copilot Inline כדי לקבל הצעות בזמן כתיבה, ולתקשר עם Copilot ישירות מהעורך – בלי לפתוח חלון Chat.

 

  1. תרגיל 1 – השלמת קוד בסיסית:
    • בראש הקובץ כתבו הערה באנגלית:
      
      # Calculate the sum of the integers from 1 to 10
      
    • עמדו מעל ההערה ופתחו Inline ע״י Ctrl+I (או Cmd+I במאק).
    • בשורה שנפתחה בקשו:
      Implement

       

    • קבלו או דחו את ההצעה, לקבל מימוש ראשוני.
    • בדיקה:
      בדקו מה קורה אם תדייקו את ההערה (או לחילופין את הבקשה ב Inline), כגון:

      
      # Calculate the sum of the integers from 1 to 10, without an iteration
      
  2. תרגיל 2 – בקשת עזרה תוך כדי כתיבה:
    • כתבו קוד לא שלם, לדוגמא:
    • פתחו Inline, וכתבו:
      How to reverse a string without an iteration?

       

    • Copilot ישיב מתחת לשורה עם הסבר או קוד.
  3. תרגיל 3 – הסבר על קוד קיים
    • כתבו את הפונקציה הזו:
      
      def factorial(n):
          if n == 0:
              return 1
          return n * factorial(n - 1)
      
    • סמנו את הפונקציה ופתחו Inline.
    • כתבו
      Explain this function

       

    • קראו את ההסבר ובדקו אם Copilot מתייחס רק לרמת הלוגיקה, או גם לשפת הקוד.
  4. תרגיל 4 – בקשת שיפור Inline
    • השתמשו שוב בפונקציית factorial.
    • סמנו אותה ופתחו Inline
    • כתבו
      Optimize this function for performance

       

    • קבלו את ההצעה החדשה במקום הקוד הישן. מעוניינים לדחות את ההצעה? נסו לדייק את הפרומפט.

 


4. תרגול Commands במצב Inline

Copilot מגיע עם סט רחב של פקודות Chat ו-Inline לשימוש מהיר. אלו משמשים כקיצורי דרך למגוון פעולות נפוצות כגון תיקון שגיאות, הסבר, הוספת דוקומנטציה ובדיקות ועוד.

 

  1. פקודת explain:
    • סמנו את פונקציית reverse_string שלכם:
    • פתחו Inline ע״י Ctrl+I (או Cmd+I במאק).
    • בשורה שנפתחה כתבו:
      /explain

       

    • Copilot יציג הסבר קצר מיד בתוך הקובץ.
  2. פקודת fix:
      • הכניסו קטע קוד חדש:
        
        def add_numbers(a, b)
            return a + b
    • פתחו Inline וכתבו:
      /fix

       

    • Copilot יציע תיקון אוטומטי לשגיאת ה Syntax.
  3. פקודת doc:
    • סמנו את אחת הפונקציות שלכם:
    • פתחו Inline וכתבו:
    • /doc

       

    • Copilot יוסיף Docstring או הערת תיעוד תואמת.
  4. Inline Unit Tests:
    • סמנו את אחת הפונקציות שלכם (למשל factorial):
    • פתחו Inline וכתבו:
      /test

       

    • Copilot ייצור בדיקות. הריצו אותן ובדקו אם כולן עוברות.

5. תרגול Ask Mode

Ask Mode משמש לשאלות והסברים. התרגול הבא מלמד כיצד להפוך שאלה כללית לשאלה מדויקת:

הכנה: פתחו את Chat View ובחרו במצב Ask.

מצב Ask

 

  1. תרגיל 1 – שאלה לא מדויקת:
        • הקלידו בצ'אט:
          How do you write a function to capture words in a sentence?

           

        • Copilot יחזיר תשובה כללית. לרוב התשובה תכלול הסבר וקוד בשפה שהוא מנחש.
  2. תרגיל 2 – שיפור השאלה:
      • עכשיו נסחו מחדש:
        Write a python console function that receives a string and returns a list of comma-separated words

         

      • השוואה זו מדגימה איך ניסוח מפורש של שפה, סוג אפליקציה ונתונים מביא תשובה מדויקת יותר.
  3. תרגיל 3 – שימוש בהקשר:
    • בתוך קובץ הקוד, כתבו פונקציה שעושה חיתוך בין שני מערכים. לא יודעים איך? כתבו הערה מתאימה ומדויקת, והשתמשו ב Completions או Inline להצעת מימוש.
    • סמנו את הפונקציה, ובחלון הצ׳אט, ליד לחצן ה Add Context, ודאו שהקטע המסומן מוצע כהקשר:

      קוד מסומן כ Context
    • כעת שאלו בחלון הצ׳אט:
      What is the time complexity of the function, and what can be improved?
    • Copilot יסביר ויציע גרסה יעילה יותר.
  4. תרגיל 4 – שילוב Participants:
    • ב-Chat Mode, שאלו לפי הדוגמאות הבאות:
    • @vs code how to duplicate a single line downwards?

       

    • @terminal What's the git command for checking status?

       

    • @workspace Show usages of the 'result' variable?

       

  5. תרגיל 5 – שימוש ב-Slash Commands בצ׳אט:
    • כתבו פונקציה שמחזירה את סכום הסדרה החשבונית:
       
      def arithmetic_sum(a1, n, d): 
          return n / 2 * (2 * a1 + (n - 1) * d)
    • סמנו את הפונקציה וב-Chat הקלידו:
      /explain

       

    • Copilot יסביר את הקוד.
    • לאחר מכן הקלידו:
      /doc

       

    • Copilot ייצור Docstring באנגלית.
    • לסיום, הקלידו:
      /fix

       

    • על פונקציה שגויה (למשל, פונקציה המחלקת במספר שעלול להיות אפס). Copilot יציע תיקון.

6. תרגול Edit Mode

ב-Edit Mode ניתן לערוך קוד ישירות לפי הוראות טקסטואליות בצ'אט.

 

  1. תרגיל 1 – שינוי שמות והוספת טיפול בשגיאה:
    • כתבו פונקציה שמקבלת שם משתמש ומחזירה הודעת ברכה, לדוגמה:
      
      def greet(name): 
          return f"Hello, {name}"
    • סמנו את הפונקציה ולחצו Add Context.
    • ב-Edit Mode הקלידו:
      rename the variable name to userName and add handling for the case when name is empty.

       

    • בדקו את השינוי ובחרו אם לקבלו או לדחותו.
  2. תרגיל 2 – הוספת Unit Tests:
    • השתמשו באותה פונקציה.
    • ב-Edit Mode הקלידו (בהתאם לשפת הפיתוח בשימושכם):
      add unit tests for this function in Python using pytest.

       

    • Copilot יציג קובץ בדיקות – לחצו Accept כדי ליצור אותו.
  3. תרגיל 3 – Refactor (פיצול פונקציות):
      • כתבו קוד שמחשב ממוצע וחציון יחד:
     
    def analyze(numbers): 
        mean = sum(numbers) / len(numbers) 
        median = sorted(numbers)[len(numbers) // 2] 
        return mean, median

     

  4. ב-Edit Mode הקלידו:
    פצל את הפונקציה לשתי פונקציות: אחת לחישוב ממוצע ואחת לחישוב חציון. החזר את התוצאה כאובייקט.

     

  5. השוו בין הקוד הישן לחדש וחשבו מה היתרונות במבנה החדש.

7. תרגול Agent Mode

Agent Mode מאפשר לבקש משימות רחבות הדורשות חיפוש, עריכה והרצת פקודות. מומלץ להגביל את כלי הסוכן לשני כלים כדי שלא יפעל מעבר לצורך.
 
בחלק זה רצוי לפתוח פרויקט חדש ונקי.
 

הפעלת הסוכן:

פתחו את חלונית Chat ובחרו Agent.

 
בהגדרות הסוכן, לחצו על לחצן הכלים (מברג ומפתח שבדי), והגבילו את רשימת הכלים ורשימה מינימלית שתצטרכו לביצוע המשימה.
 ƒ

  1. תרגיל 1 – בניית יישום:
    • בחלון ה־Chat כתבו:
      Build a JavaScript console app that takes numbers and returns their mean, median, and mode

       

    • השתמשו בכלי Edit כדי ליצור את קבצי הפרויקט הנדרשים.
    • Copilot יכין תוכנית פעולה – יצירת קובץ, הוספת פונקציות והצעת הרצת בדיקות.
    • אשרו את הפעולות אם הן מתאימות למבנה ולדרישות שלכם.
  2. תרגיל 2 – Refactor across files:
    • בחלון ה־Chat כתבו:
      Find all calls to the function printMessage and rename it to displayMessage

       

    • Copilot יפעיל חיפוש, יפתח את הקבצים הרלוונטיים, יבצע את ההחלפות ויבקש את אישורכם לפני כל שינוי.
    • השוו את הרשימה של Copilot עם הסימולציה או הקוד שלכם כדי לוודא שכל ההחלפות בוצעו נכון.
  3. תרגיל 3 – Custom Toolsets
    בפרוייקטים גדולים, סוכן עם הרשאות נרחבות מדי עשוי להיות מסוכן בכך שהוא מסוגל לשבש דברים על פני מרחבים גדולים מדי בפרויקט.
    כעת ניצור סט כלים משלנו בהתאם להרשאות שאנו מעוניינים לתת לסוכן.
    .
    .

    • בראש חלון הצ׳אט לחצו על Settings (גלגל שיניים).
    • בחרו Tool Sets
    • באפשרויות שנפתחו בחרו Create new tool sets file
    • כעת נפתח עורך טקסט על קובץ JSON המגדיר סטים שונים של כלים. בכל סט שניצור – נוכל ״לארוז״ יחדיו סטים מתוך מאגר הכלים ש VSCode מציע לשימוש של סוכן Copilot.
    • העניקו שם חדש לסט הכלים שלכם, ותחת tools הוסיפו ערכים נוספים. כאשר תתחילו לכתוב שם של כלי – תקבלו רשימת אפשרויות, מאגר הכלים של VSCode.
    • שמרו את הקובץ וסגרו אותו
    • כעת בלחיצה נוספת על Tools, נוכל לבחור את סט הכלים החדש שהגדרנו

8. תרגול פתוח

כעת, כאשר הכרנו את הטרמינולוגיה הבסיסית ב Github Copilot, והתנסינו במגוון תרחישים, זה הזמן ללכלך את הידיים ולהתנסות בכל האפשרויות שהכלי מציע. להלן כמה כיוונים להתנסות, מחקר ותרגול.

 

  1. השוואת מודלים
    • בחלון ה Chat תחת תפריט המודלים – התנסו בתשובות שמתקבלות ממודלים שונים.

      בחירת מודלי Github Copilot
    • באמצעות Manage Models, נסו להוסיף מודלים משלכם (בהתאם לרישוי המקובל בארגון)
  2. התנסות בהקשרים שונים – Context
    • בחלון הצ׳אט, פתחו פרומפט חדש עם סימון #, וסקרו את ההקשרים המובנים השונים ש Copilot מציע. ניתן לשלב הקשרים מרובים בפרומפט יחיד.
    • נסו להעלות תמונה לגוף הצ׳אט ולבקש מ Agent Chat ליצור לכם ממשק משתמש דומה, תוך פירוט ה tech stack.
  3. היכרות עם מאגר המשתתפים – Participants
    • צ׳אט Copilot מתקשר עם כמה סוכנים, כ״משתתפים״. כל סוכן מביא איתו מומחיות יחודית, בהתאם לבסיס הידע שלו.
    • התנסו בשיחה עם participants שונים, וראו מה היתרונות שאלו מביאים.
    • שימו לב: ניתן לתקשר רק עם Participant אחד בפרומפט אחד. כן ניתן להוסיף מספר הקשרים (contexts)

הפוסט Github Copilot Essentials – מעבדת מבוא הופיע לראשונה ב-Almaya.

]]>
חושבים שיש לכם בחירה חופשית? ChatGPT חושב שלא https://almaya.ai/blog/ai-free-will Sat, 20 Sep 2025 20:43:32 +0000 https://almaya.ai/?p=2000 השוואה מטלטלת בין המוח האנושי למודלי בינה מלאכותית חושפת דמיון מפתיע בדרכי הלמידה, החשיבה המילולית ועיבוד המידע - ומעלה את השאלה המטרידה: אם אנחנו יודעים שלמכונות אין בחירה חופשית, איך אנחנו כל כך בטוחים שיש לנו כזו?

הפוסט חושבים שיש לכם בחירה חופשית? ChatGPT חושב שלא הופיע לראשונה ב-Almaya.

]]>

ברור לכולנו שלמודל שפה של בינה מלאכותית (GPT, Claude, Gemini וחבריהם) אין בחירה חופשית. הוא ישות דטרמיניסטית שפועלת על פי אלגוריתמים מוגדרים מראש. גם אם הוא "מחליט" על תגובה מסוימת – זו לא באמת בחירה, אלא תוצאה של חישובים מתמטיים מורכבים. נכון – ChatGPT לא באמת דטרמיניסטי. הוא יענה תשובה שונה על שאלה זהה, אבל זה רק בגלל אלמנט של ״רעש״ שמוזרק למערכת באופן מלאכותי, כדי שהוא יתפס כ״אנושי״ יותר.

 

אבל רגע – גם המוח האנושי הוא מערכת ביולוגית המבוססת על ארכיטקטורה גנטית קבועה, שהתעצבה על ידי חוויות חיים וחינוך שקיבל. אם כל החלטה שלנו נובעת מהמבנה המוחי שלנו ומהניסיון שצברנו – איפה בדיוק נמצאת ה"בחירה החופשית" הזו שכל התרבות שלנו מבוססת עליה? אולי הכל פייק?

 

לא מסכימים? קראו עד הסוף – קראו עוד, המסקנות אולי יפתיעו אתכם.

 


 

 

ויאמר האדם ״יהי מוח״ – השורש ההיסטורי של המוח המלאכותי

המושג ״בינה מלאכותית״ הוא לא חדש. בכלל לא. הוא הוטבע לראשונה בכנס דארטמות׳ ע״י ג׳ון מקארתי, בשנת 1956 – כחזון רחוק שיום יבוא, ומכונות אלקטרוניות יצליחו לבצע פעולות וחישובים, שבאותו הזמן נחשבו לפסגת האינטליגנציה האנושית.

 

רק שנה לאחר מכן, בשנת 1957, פרנק רוזנבלט, יהודי, דוקטור לפסיכולוגיה, יצר את ה״פרספטרון״ – רשת הנוירונים הראשונה שנבנתה כמעגל חשמלי פיזי. זו הייתה רשת סבוכה של חוטי חשמל, מגברים ופוטנציומטרים (״עמעמים״ – כמו ווסתים או ברזים שנמצאים על חוטי החשמל, ומאפשרים לכוון את עוצמת הזרימה החשמלית דרכם) – שניתן היה לכוון אותם ידנית.

בתחילת רשת הספגטי הזאת חוברה ״רשתית מלאכותית״, מעין חיישן CCD שנמצא בחלקה האחורי של מצלמה דיגיטלית, ועליה הוקרנו אלפי דוגמאות שונות של ריבועים ועיגולים. בצידה השני של הרשת חוברו שתי נורות חשמליות.

 

רוזנבלט טען (וגם הוכיח זאת) שעל ידי כיוונון עדין של כל מאות הווסתים על פני הרשת, ניתן יהיה להגיע למצב שבכל פעם שתוקרן על הרשת צורת ריבוע – הנורה הראשונה תדלוק, וכאשר יקרינו צורת עיגול – תדלוק הנורה השניה.

 

Frank Rosenblatt
פרנק רוזנבלט

 

כדי לבצע את המשימה – פיתח רוזנבלט מתודולוגיה לכיוונון עדין של הפוטנציומטרים לפי הדוגמאות שהוקרנו על הרשתית, כך שבגמר הניסוי המוצלח – כל המידע שהרשת ״למדה״ היה למעשה מוטמע במאות ערכים מספריים שייצגו את הערך המדויק של כל וסת ווסת. ה"מידע" נשמר ברשת כסט ערכים מספריים, ושיקף ״תבניות חשיבה״ שנלמדו מאלפי דוגמאות של תמונות, שהוקרנו על הרשתית מלאכותית.

 

אותה רשימה ארוכה של ערכי הפוטנציומטרים (מה שייקרא בעתיד, בעולם ה Machine Learning – ״משקלים״), יחד עם המבנה הפיסי הראשוני של הרשת החשמלית – היתה למעשה המוח המלאכותי הראשון. מעשה ידי אדם.

 

פרספטרון

 

מה מרתק בהשוואה הזו למוח האנושי? גם המוח שלנו בנוי על ארכיטקטורה קבועה מראש – המבנה הבסיסי של הנוירונים, הסינפסות והאונות נקבע גנטית. אבל המבנה ה"סופי" שלו מתעצב מאינסוף דוגמאות שהמוח נחשף אליהן במהלך החיים: תמונות, מקרים, דפוסי התנהגות, ריחות, תחושות, ובמיוחד – מחשבות ורעיונות. בתהליך ארוך ומורכב – המידע מחזק ומחליש את הקשרים בין תאי עצב שונים במוח, ובכך מעצב למעשה את האישיות היחודית של האדם.

 

גם היום, כאשר אנו מאמנים מודל שפה על טריליוני מילים, אנו למעשה מחקים את התהליך הטבעי הזה של חשיפה לחוויות וצבירת ידע. אבל האם זה מספיק כדי ליצור חשיבה אמיתית?

 


 

 

החשיבה המילולית: כאשר המילים הופכות למציאות

המוח האנושי חושב. מבצע פעילות קוגניטיבית.

 

אבל החשיבה האנושית אינה פעולה מסוג אחד. היא מחולקת לתהליכים קוגניטיביים מסוגים רבים: חשיבה יצוגית / חזותית, חשיבה פרוצדורלית, חשיבה אינטואיטיבית, חשיבה קדם-מילולית, חשיבה מילולית, ועוד סוגים ותתי סוגים רבים.

 

מודלי שפה גדולים, LLMs, מחקים בצורה מדהימה את החשיבה המילולית של האדם. מאז שהמוח שלנו ״נדלק״ לראשונה – אנחנו חושבים ולא מפסיקים לחשוב. אפילו לא לרגע.

כאשר אנחנו לומדים לדבר, משהו מהותי קורה במוח שלנו – אנחנו מתחילים לדבר עם עצמנו, כל הזמן! ומעתה כל תפיסת עולמנו במסגרת החשיבה המילולית הזו היא טקסט. המציאות מתפרקת למילים, ויחידות הבסיס של המציאות הופכות להיות אותיות ומושגים.

 

אפילו תורת הנפש והמיסטיקה היהודית – תורת הקבלה, טוענת ש״העולם נברא מאותיות״. לא פעם לפני אלפי שנים, אלא עכשיו. בכל רגע ממש.

 

אותיות, מילים ומושגים – זו בדיוק הדרך שבה מודלי שפה "רואים" את העולם – הכול הוא טקסט, הכול הוא רצף של ״טוקנים״ (Tokens) שצריך לנבא את המשכו. יש כאן דמיון מפתיע לאופן שבו אנחנו חושבים ברובד המילולי שלנו.

 

אבל מה קורה עם הרבדים האחרים של החשיבה האנושית? האם מודלי השפה מצליחים לחקות גם אותם?

 

 


 

 

החשיבה הלא-מילולית: החלק החסר בפאזל

את שאר סוגי החשיבה האנושית נוכל לכנות בשם הכללי -״חשיבה שאינה מילולית״, ולזו עדיין אין חלופה מלאכותית מלאה.

 

זו החשיבה החזותית-מרחבית, האינטואיציה, התחושה הגופנית, הרגש הטהור שעדיין לא התרגם למילים. זו החשיבה של האמן שיוצר, של המוזיקאי שמאלתר, של הספורטאי שמרגיש את התנועה הנכונה. מודלי שפה יכולים לתאר את החוויות האלה במילים, אבל האם הם באמת חווים אותן? האם יש להם את התחושה הפנימית הלא-מילולית שמלווה את החשיבה האנושית?

 

זה מוביל אותנו לשאלה מרכזית: אם מודלי השפה "חושבים" רק במילים, האם הם באמת חושבים כמו בני אדם?

 

 


 

 

״כשם שפרצופיהם שונים – כך דעותיהם שונות״

אז בדומה לפרספטרון של רוזנבלט – מודלי שפה, בדומה למוח האנושי, מורכבים משני רכיבים יסודיים: הארכיטקטורה הראשונית (שדומה ל-DNA שלנו, מה שניתן לנו מההורים ומכל השושלת הגנטית) והמידע שהמודל נחשף אליו במהלך האימון (שדומה לחינוך וחוויות החיים שלנו).

 

כמו שלבני אדם שונים אופיים שונים, תכונות שונות ותפיסת עולם שונה – כך גם למודלי שפה. מודל שאומן על ספרות קלאסית יחשוב, ידע ויתנסח באופן שונה מאשר מודל שאומן על טקסטים מדעיים או על רשתות חברתיות. זה כמו שני תאומים זהים שגדלו במשפחות שונות – הגנטיקה זהה, אבל התוצאה שונה לחלוטין. סט ה״משקלים״ המהוים את סך התבניות הקוגניטיביות החקוקות במוח המלאכותי יהיה שונה בתכלית.

 

נכון לעת כתיבת המאמר, ניתן להבחין באופי השונה של שלושת ה Chat Bots המוכרים כך:

 

  • ChatGPT – היצירתי ביותר, בעל רעיונות מקוריים
  • Gemini – המדעי ביותר, אלוף בכתיבת קוד
  • Claude – אינטליגנטי ומלומד. מתבטא בסגנון אחראי ו״עגול״.

(ויהיו שיחלקו על הניתוח הנ״ל, כשם שכל בנאדם רואה פנים אחרות של חברו)

 

אבל האם ההשפעות החינוכיות האלה יוצרות באמת "אישיות" או רק דפוסי תגובה מורכבים?

 

 


 

 

למידה דרך חיזוק: כאשר הפסיכולוגיה פוגשת את הטכנולוגיה

 

איך מכונות לומדות? זו שאלה גדולה שתתפרס על גבי מספר מאמרים, אבל אחת השיטות היסודיות יותר לקוחה דווקא (באופן מפתיע, או שלא כ״כ מפתיע) מתחום הפסיכולוגיה – ״למידה חיזוקית״: Reinforcement Learning.

המושג ״חיזוק״ בפסיכולוגיה מוגדר ״גירוי היוצר למידה״, או בשפה מדוברת יותר ״שיטת המקל והגזר״. הלומד נשלח לבצע משימה כלשהי ללא כל ידע מוקדם, ואז בתהליך ארוך ועקבי, מקבל פרס על כל פעולה ״טובה״ ומקבל עונש על כל פעולה ״לא טובה״.

 

כך לדוגמא כשפעוט מתחיל את דרכו בעולם (המשימה = חיים), הוא עשוי לפתוח במקרה ארון צדדי במטבח ולמצוא בו קופסת עוגיות. זה ה״פרס״ על הפעולה שעשה, וכנראה שיחזור עליה שוב.

מצד שני – אם הוא בטעות הניח את היד על הכירה החשמלית, הוא מיד קיבל ״עונש״ בדמות כוויה, וכנראה שכך ילמד להמנע מהפעולה הזאת (וההורים – לרווחה…).

כך לאט לאט אנחנו מתאמצים לחזור על הפעולות שהביאו לתוצאות חיוביות ולהימנע מאלה שהביאו לתוצאות שליליות. המוח שלנו מחזק חיבורים עצביים שהובילו להצלחה ומחליש אחרים.

 

מודלי בינה מלאכותית לומדים באותה שיטה. הם ״יוצאים למשימה״ – מבצעים אינטרקציה כלשהי עם סביבה מוגדרת, ומקבלים משוב על ״מעשיהם״ במהלך תהליך הלמידה (או ״האימון״). הפרס והעונש במקרה הזה הם פשוטים בהרבה – תוספת או הפחתת ניקוד לציון הכללי שהמודל מקבל מ״אלגוריתם הלמידה״. המערכת מתוכננת לשאוף לציון הגבוה ביותר.

 

כך לדוגמא – אם מודל בינה מלאכותית ״יוצא למשימה״ לתייג כל תמונה כ״כלב״ או ״חתול״,בהתחלה הוא תתן תשובות אקראיות. על כל תשובה נכונה הוא יזכה בתוספת נקודה, ועל כל תשובה שגויה – הוא יענש בהפחתת נקודה. לאחר מאות אלפי, אולי מיליוני, תמונות שהמודל יחשף אליהן – הוא יתאמץ לחזור על הפעולות הנכונות, ולהמנע מהפעולות שהביאו לתוצאה שגויה. המודל יבנה בהדרגה ״דפוסים״ עצביים, תבניות חשיבה, שיסייעו לו לבצע את משימתו באופן הטוב ביותר.

 

הניסוי הראשון ב״למידה חיזוקית״ בוצע בשנת 1961 על מודל שהיה בנוי כולו מ… קופסאות גפרורים!
עוד על כך במאמר הזה.

 

Menace: מודל בינה מלאכותית מקופסאות גפרורים

 

 

השאלה המעניינת היא: אם תהליכי הלמידה של מוח אנושי ומודל מלאכותי דומים כל כך, האם גם התוצאה דומה?

 

האם מודל שלומד דרך חיזוק, מפתח משהו שדומה להבנה אנושית?

 

 


 

 

מעבר לטקסט: מחשבה ומעשה

מודלי השפה, במובן הטהור, לא חושבים באמת.

 

הם "רק" מכונה של טקסט נכנס – טקסט יוצא. אבל אם כל החשיבה המילולית מבוססת על מושגים, מילים ואותיות, ואם המציאות, כפי שהיא ״נתפסת״ בחשיבה המילולית, עשויה כולה מאותיות – ניתן לומד שיצירת טקסט מתוך טקסט היא יצירת ידע מתוך ידע.

 

בשפה העברית יש הבדל בין ״חכם״ ל״נבון״. ״נבון״ בעברית הוא ״המבין דבר מתוך דבר״, כלומר – זה שיודע ליצור מתוך ידע קיים – ידע חדש. תובנות חדשות.
מעניין לראות שבאמת המושג העברי ל Artificial Intelligence הוא דווקא ״בינה״ מלאכותית ולא ״חכמה״ מלאכותית…

 

אז מודל השפה הוא רק ״מכונת הטקסט״, אבל סוכני AI ואפליקציות מבוססות מודלי שפה עושים הרבה מרתק לכך: הם משתמשים במודל השפה כ"מוח" כדי ליצור טקסט שבא לידי ביטוי בשלושה אופנים:

 

  1. מחשבה
  2. דיבור
  3. מעשה

 

להיכרות קרובה יותר עם סוכני Ai כבני אדם דיגיטליים, אני מפנה אתכם למאמר הבא, אבל על קצה המזלג, איך זה עובד?

 

מבחינה טכנית סוכן Ai הוא אפליקציה. תוכנה. קוד. כאשר במרכזו – תקשורת שוטפת עם מודל שפה, כ״מוח״ ו״לב״. התוכנה הזאת מנתבת טקסט מסוים כקלט למודל השפה (שנקרא ״Prompt״ בעגה המקצועית), ומקבלת ממנו טקסט חדש כפלט. את הפלט המתקבל ממודל השפה היא יכולה לנתב ל-3 יעדים על פי דרך הביטוי הרלוונטית:

 

  1. פלט הטקסט המופנה פנימה, בחזרה למודל השפה – משמש כ״מחשבה״, כמו הדיבור הפנימי של האדם. בינו לבין עצמו.
  2. פלט הטקסט המופנה החוצה למשתמש – משמש כ״דיבור״. המשתמש שנמצא באינטראקציה עם הסוכן, מקבל ממנו מידע חדש, ואליו הוא יכול להגיב שוב, להמשך השיחה.
  3. פלט הטקסט המופנה החוצה לסביבה – משמש כ״מעשה״. כלומר – מודל השפה פולט טקסט של ״קריאה לפעולה״ כמו ״עכשיו צריך לשלוח מייל עם הפרטים הבאים״.

 

אז המערכת יכולה "לחשוב" על בעיה, לשקול אפשרויות, ואז לפעול בהתאם. זה מאוד דומה לאופן שבו הטקסט הפנימי במוח שלנו מתרגם למחשבות ולמעשים. זהו תהליך ״עיבוד״ שבני אדם עוברים כתגובה לחוויות חיים שונות.

 

אבל במוח המלאכותי – האם הטקסט הפנימי הזה מייצג באמת מחשבה, או רק סימולציה מתוחכמת?

 


 

 

הישות החסרה: מחשבה בלי ״אני״

המוח האנושי עסוק כל היום במחשבה בלתי פוסקת. רעיונות צצים לנו מאי שם, והמחשבות עצמן ממשיכות לפתח את המוח שלנו כל הזמן. אבל מאין באות המחשבות האלה?

 

ובכן, אותן מחשבות באות מרכיב אחד חמקמק שעליו האנושות מנסה להניח יד משחר ההיסטוריה, ונכתבו עליו (ועוד יכתבו עליו) ספרים ומאמרים רבים – התודעה. תחושת הישות שלנו, האגו, הרצונות, המוטיבציה, המחשבות הן תגובה לחוויית החיים הפנימית שלנו. זה דבר שאין למודלי שפה, ולא לסוכני AI – כל אלו אחרי הכל – פאסיביים. הם רק מגיבים לגירוי חיצוני: הודעה ממשתמש אנושי / קבלת מייל / תזמון קבוע / תגובה להודעת ווצאפ / תנועה במצלמת אבטחה. אבל אין להם שום דחף פנימי למחשבה.

 

אמנם לאחרונה נעשים נסיונות ליצירת חשיבה מתמשכת במערכות AI (תחום חדש יחסית המכונה ״Dream Ai״) אבל ללא רצון מוגדר, אגו וחוויית חיים פנימית – לא נראה שנסיון זה יניב "ישות חיה" חדשה באמת.

 

האם החשיבה ללא תחושת ה"אני" היא באמת חשיבה?

 

 


 

 

הבחירה החופשית: המחלוקת הגדולה

 

העולם בחרדה. הבינה מלאכותית תשתלט עלינו, תשעבד איתנו, ותהרוס את העולם!

 

זה לא רעיון חדש, זה לא רעיון שהומצא בסרטי Terminator, וגם לא מאז נטבע המושג ״בינה מלאכותית״ ב 1956. הסיפורים על הטכנולוגיה שהטביעה את אטלנטיס עתיקים עוד הרבה יותר.

 

The 'Terminator' Scenario: How AI Robots Could Dominate Humanity | Mindy Support Outsourcing
Terminator

 

ובכן, אני לא חושב שאין אתגרים ב״התפוצצות הבינה״ שאנו רק מתחילים להיות עדים לה היום, אבל לדעתי אלו אתגרים שונים בתכלית. מודלי השפה לא ירצו להשתלט על העולם, מסיבה פשוטה – אין להם יכולת לרצות. אין להם תודעה, לא חווית קיום ולא בחירה חופשית.

 

האתגרים המשמעותיים ביותר יבואו דווקא כאשר אנחנו, בני האדם, ניתן לבינה המלאכותית מרצוננו, ובשמחה, סמכות וכוח להחליט עבורנו את כל ההחלטות החשובות ביותר בחיים. לא רק בפרטיים, אלא כמשפחות, מדינות וציויליזציות שלמות.

 

על כך בהרחבה במאמר הזה.

 

כשמדברים על מודלי שפה, ברור לכולנו (?) שאין להם בחירה חופשית. מודל הוא ישות דטרמיניסטית, וגם אם הוא מייצר לפעמים טקסטים שונים – זה בזכות "רעש" מלאכותי שמוכנס למערכת. אם המודל מחליט על פעולה או אמירה מסוימת – זו לא בחירה חופשית באמת. גם אם המודל עושה נזק, ברור לכולנו שאין לו מודעות ואין "לשפוט" אותו, ובטח לא "להעניש" אותו. הוא לא אחראי למעשיו כי הוא לא באמת בוחר בהם.

 

אבל זה מוביל אותנו לשאלה המטרידה ביותר: אם כך, למה אנו טוענים שיש לאדם בחירה חופשית?

 

 


 

 

נקודה למחשבה: כמה אנחנו באמת שונים?

כאמור, מוח האדם הוא ארכיטקטורה נתונה, שנחשפה לחוויות חיים, חינוך ומידע רב שעיצבו את דמותו. גם אם נכנס אליו "רעש" – כל מה שמוח האדם חושב, מדבר או פועל מבוסס על התנאים הראשוניים שלו ועל הניסיון שצבר.

 

אם נסתכל על זה כך – גם אנחנו "מכונה" במובן מסוים.

 

איפה נמצא היסוד החמקמק שלכאורה מאפשר לאדם לבחור באופן "חופשי" ולא מותנה מראש? ולמה אנחנו כל כך בטוחים שלאדם יש בחירה חופשית, כך שכל החברה מבוססת על זה ועל האחריות האישית שנובעת מכך?

 

רגע… מה?!

 

כן, ברצינות. כל החלטה שאנו, כבני אדם, מקבלים בחיים נובעת מחשיבה, לאו דוקא מילולית. תהליך החשיבה האנושי מתרחש בתוך רשת נוירונים שמצד אחד קטנה בהרבה ממודלי השפה המודרניים של היום (100 מיליארד נוירונים במוח אנושי, לעומת 2 טריליון במודל Gemini 2.5, לפי אחת ההערכות…), אבל מצד שני – מורכבת בהרבה באופן התפקוד, הלמידה המתמשכת והביטוי של הרובד התודעתי – הרצון והאגו.

 

אבל עדיין – כל בחירה שאדם עושה היא ביטוי לרצון עמוק, לפעמים מודע ולפעמים לא, להיטיב עם עצמו ו/או עם הסביבה, לפי ראות עיניו (גם אם ההטבה העצמית מתורגמת בפועל לנזק גדול ובלתי הפיך – לעצמו או לסביבתו). הרצונות הללו נובעים גם הם מתהליכי חשיבה רבים בהווה ובעבר שעיצבו את האישיות שלנו, ואת מבנה רשת העצבים המוחית, כך שכל נקודת בחירה המונחת לפנינו אינה חופשית באמת – תמיד אחת האפשרויות תהיה יותר בהלימה עם המבנה המורכב של ״המודל״ ברגע הבחירה הנתון, יחסית לאפשרויות האחרות.

 

איפה למעשה ה״חופש״ שבבחירה האנושית?

 

ובכן, הנושא הזה עמוק מאוד, ונדון רבות בכל שיטה פילוסופית מאז ומעולם, וניתן להעמיק בו בפרק המרתק של הפודקאסט ״זה נשמע כמו המטריקס״.

 

אז אולי ההבדל בין המוח האנושי לבין הבינה המלאכותית הוא קטן יותר ממה שאנחנו רוצים להאמין. ואולי השאלה הנכונה היא לא "מתי מודלי ה-AI יחשבו כמונו", אלא "האם אנחנו באמת חושבים אחרת מהם?".

הפוסט חושבים שיש לכם בחירה חופשית? ChatGPT חושב שלא הופיע לראשונה ב-Almaya.

]]>
מודל Machine Learning מקופסאות גפרורים: הסיפור של MENACE https://almaya.ai/blog/menace-story Thu, 21 Aug 2025 20:43:04 +0000 https://almaya.ai/?p=1399 הכירו את MENACE - המכונה-הלומדת הראשונה מ-1961, שלמדה לשחק איקס-עיגול עם 304 קופסאות גפרורים. הסיפור המרתק על ראשית הבינה המלאכותית.

הפוסט מודל Machine Learning מקופסאות גפרורים: הסיפור של MENACE הופיע לראשונה ב-Almaya.

]]>

איך הכל התחיל?

דמיינו לעצמכם את השנה 1961. מחשבים פשוטים (של 4 פעולות חשבון) הם מפלצות ענקיות שמילאו חדרים שלמים, האינטרנט עדיין לא נולד, והמילה "בינה מלאכותית" הומצאה לראשונה רק לפני 5 שנים, ונשמעת כמדע בדיוני טהור. ובדיוק אז, פרופסור צעיר באוניברסיטת קיימברידג' בשם דונלד מיצ׳י (Donald Michie) חשב על רעיון – לבנות מכונה שיכולה ללמוד בעצמה לשחק איקס-עיגול.

אבל הוא לא השתמש במחשב.

במקום זה, הוא השתמש ב-304 קופסאות גפרורים, חרוזים צבעוניים, וכמות אדירה של סבלנות.

 

דונלד מיצ׳י, וויקיפדיה

 


 

הרעיון המטורף שעבד

מיצ׳י, שהיה מתמטיקאי מבריק וחלוץ בתחום הבינה המלאכותית, הבין משהו פשוט אבל מהפכני: לימוד-מכונה זה לא קסם. זה לא דורש מחשבי-על (שאפילו המושג עוד לא היה בנמצא…) או אלגוריתמים מסובכים. זה בעצם עניין של ניסיון וטעייה, זיכרון, ויכולת להסיק מסקנות מהצלחות וכישלונות.

אז הוא בנה את MENACE או "Machine Educable Noughts And Crosses Engine". "מכונת משחק איקס-עיגול, הניתנת לאימון" בתרגום חופשי.
השם נשמע מפחיד, אבל המציאות הייתה הרבה יותר מקסימה.

היא מבוססת על שיטת לימוד מתחום הפסיכולוגיה – Reinforcement learning, לימוד דרך התנסות אישית, תוך מתן פרסים על הצלחות, ו״קנסות״ על כשלונות.

לימים, בתחום ה Machine Learning, השיטה נודעה כ ״Q-Learning״.

 

MENACE

 


 

למה דווקא קופסאות גפרורים?

בשנות השישים, זמן מחשב היה יקר מזהב. מיצ׳י רצה להוכיח שהעקרונות של לימוד-מכונה פשוטים מספיק כדי שאפשר ליישם אותם בכלים הכי בסיסיים שיש. הוא רצה להראות שמאחורי כל האלגוריתמים המורכבים, מסתתרת לוגיקה פשוטה שכל אחד יכול להבין.

וכך נולדה אולי המכונה הכי מקסימה בהיסטוריה של הבינה המלאכותית – מכונה שלא דורשת חשמל, לא מתקלקלת, ואפשר לראות בדיוק איך היא "חושבת".

כל קופסת גפרורים ייצגה מצב משחק אפשרי וחוקי של איקס-עיגול. סה״כ 304 קופסאות ל 304 מצבים.
בתוך כל קופסה היו חרוזים צבעוניים, כאשר כל צבע ייצג את אחד התאים בלוח המשחק. המכונה "למדה" על ידי שינוי כמות החרוזים בקופסא, בהתאם להצלחות וכישלונות לאורך אלפי משחקים.

פשוט? בהחלט. גאוני? ללא ספק.

 


 

הלקח הגדול

מה שמיצ׳י הוכיח ב-1961 רלוונטי היום יותר מתמיד: לימוד-מכונה זה לא רק על עוצמת חישוב או אלגוריתמים מתוחכמים. זה על הבנת העקרונות הבסיסיים של איך מכונה יכולה ללמוד מניסיון, וזה (אולי באופן לא מפתיע) מקביל לאיך שאנחנו, בני האדם, לומדים מנסיון חיים ישיר.

MENACE הצליחה להפוך מחסרת כל הבנה במשחק, לשחקנית מיומנת, כמעט ללא הפסד – וכל זה בלי שורת קוד אחת.

עכשיו, בואו נצלול לפרטים הטכניים ונראה איך בדיוק המכונה המדהימה הזו עבדה…

 


 

איך זה עובד?

 

מצב התחלתי

בבסיס המערכת נמצאות 304 קופסאות גפרורים, כל אחת מייצגת מצב משחק אפשרי וחוקי. בתוך כל קופסא – חרוזים צבעוניים המייצגים את המקומות האפשריים להנחת העיגול. (אנחנו מניחים ש MENACE תמיד מתחילה משחק, והיא תמיד מייצגת את העיגול).

כל צבע – ממופה למיקום אפשרי להנחת העיגול באופן הבא:

שימו לב שלא כל הצבעים יופיעו בכל קופסא. לדוגמא קופסא המייצגת מצב לוח בו התא ה״כחול״ כבר תפוס – בקופסא זו לא יהיה צבע כחול.

כמו״כ – בכל קופסא, מספר החרוזים מכל צבע חוקי היה כמספר התורים שנשארו עד סיום המשחק.

לדוגמא:

  • בקופסא המייצגת לוח ריק – היו 4 חרוזים מכל צבע חוקי.
  • בקופסא המייצגת מצב לוח בו נותרו 3 תורים – יהיו רק 3 חרוזים מכל צבע חוקי.
  • וכן הלאה – עד שבקופסא בה נותן מהלך יחיד – יהיה רק חרוז אחד מכל צבע חוקי.

 

מהלך האימון

תהליך האימון כולל ביצוע אלפי משחקים, בהם MENACE מתופעל ע״י אדם (משחק את תפקיד העיגול) ובצד השני – אדם אחר המשמש כיריב ומשחק את תפקיד האיקס.

בכל תור – המפעיל ניגש לקופסת הגפרורים המייצגת את מצב הלוח הנתון, ובוחר באופן אקראי באחד החרוזים שיש בה.
בהתאם לצבע החרוז שהוגרל – מסמנים עיגול בתא המתאים על לוח המשחק, ובוחרים בקופסא הבאה, המייצגת את מצב הלוח החדש.

לאחר שהיריב שיחק את התור שלי (בתפקיד האיקס), שוב נבחר חרוז אקראי מתוך הקופסא המתאימה, וכן הלאה עד סיום המשחק – ניצחון, הפסד, או תיקו.

 

מבלבל? גם אותי.

בואו נעשה משחק לדוגמא:

מהלך המשחק:

  1. מתחילים מקופסת הלוח הריק, Menace מתחיל ובוחר אקראית את החרוז האדום. מסומן עיגול בשורה העליונה, במרכז.
  2. האדם מסמן X בתא המרכזי.
  3. מתוך הקופסא המייצגת את מצב הלוח הנוכחי, Menace בוחר אקראית את החרוז הכחול ומסומן עיגול בשורה העליונה משמאל.
  4. האדם מסמן X בפינה העליונה מימין.
  5. מתוך הקופסא המתאימה – Menace בוחרת אקראית בחרוז הירוק, ומסומן עיגול בשורה האמצעית משמאל.
  6. האדם מסמן איקס בפינה התחתונה משמאל ומנצח.
  7. Menace הפסיד.

 

משוב – Reinforcement Learning

שיטת הלימוד Reinforcement Learning מעניקה ״פרס״ על הצלחה, ו״קנס״ על הפסד. במקרה שלנו Menace הפסיד – ועליו לקבל ״קנס״.

מה זה אומר תכל׳ס?

המשמעות של ההפסד היא, שכל הבחירות ש Menace ביצע במהלך המשחק – היו שגויות, ולכן הקנס הוא – שנסיר חרוז אחד מתוך הצבע שהוגרל בכל אחת מהקופסאות שהשתתפו במשחק.

כלומר:

  • מהקופסא הראשונה נסיר את החרוז האדום.
  • מהקופסא השניה נסיר את החרוז הכחול.
  • מהקופסא השלישית נסיר את החרוז הירוק.

 

איך כל זה משפיע על הלימוד?

פשוט – במשחקים הבאים, כאשר נגיע שוב למצב הלוח המסוים (כלומר – לאותה קופסא), הסיכוי ש Menace יבחר שוב בחרוז מאותו הצבע שהוביל אותו להפסד – יילך ויקטן.
באופן דומה – על כל משחק ש Menace ניצח – הקופסאות הרלוונטיות ״יזכו״ בחרוז נוסף מהצבעים שנבחרו, כך שבפעמים הבאות, הסיכוי לבחור בצבעים הללו דווקא יגדל.

זה מהות תהליך האימון דרך Reinforcement Learning.

 

Reinforcement Learning

 


 

מודל Q-Learning

לאחר ביצוע אלפי משחקים, מספר החרוזים בכל קופסא מתקבע על מספר מסויים – ההסתברות שהמהלך יוביל את Menace לניצחון.
וכיוון שבמשחק איקס עיגול – מספר האפשרויות לכל מהלך הוא די מצומצם, ניתן לסכם בטבלה פשוטה את ההסתברות לניצחון מכל מצב לוח נתון.

טבלה זו נקראת Q-table:

Q-Table

בטבלה זו, כל שורה מייצגת מצב לוח מסויים.

  • עמודת ה State מייצגת את מצב הלוח: (1) הוא עיגול, (1-) הוא איקס, ו (0) הוא תא ריק.
  • עמודת ה Logit מייצגת את ההסתברות לניצחון של Menace. לדוגמא:
    • בשורה העליונה – מצב הלוח מייצג ניצחון של העיגול, לכן ההסתברות לניצחון היא 1.0
    • בשורה השניה – מצב הלוח מייצג הפסד של העיגול, ולכן ההסתברות לניצחון היא 0.0.
    • בשורות הבאות ניתן לראות הסתברויות שונות.

 

הטבלה היא מודל ה Machine Learning! ייצוג מתמטי של לוגיקה עסקית לפתרון בעיה כלשהי, אותה המכונה למדה בעצמה, ללא פיתוח מערכת מוגדרת של אסטרטגיה (אלגוריתם).

 


 

שימוש במודל

לאחר שהמודל שלנו מאומן – השימוש בו עובד באופן הבא:

בכל תור בו המכונה צריכה לבצע מהלך – היא הולכת לטבלה ובודקת: ״מתוך כל המצבים החוקיים הבאים – מהו מצב הלוח הבא, בו הסיכוי שלי לנצח הוא הגדול ביותר?״

לפי זה המכונה תחליט על המהלך הבא שלה עד הניצחון (או ההפסד).

 


 

אתגרים

זה נשמע מבטיח. אז למה לא כל מודל מודרני עובד כך?

ובכן – מכונת ה Menace של דון מיצ׳י היתה אבטיפוס של לימוד מכונה, והתוצר הוא טבלת-זיכרון.

המודל למעשה מורכב מזיכרון של מקרים ותגובות – ומכסה את כל מצבי המשחק האפשריים. זה יכול לעבוד טוב כשמדובר באיקס-עיגול, אבל במשחקים כמו שש בש, שחמט או Go – בהם מספר המהלכים האפשריים גדול משמעותית (לפחות 10 בחזקת 20…) – גודל הטבלה שתיווצר יהיה גדול מדי לאחסון וכבד מדי לתפעול, ותהליך האימון ייתארך עד אלפי שנים.

דרושה לנו כאן שיטת אימון אחרת, מודל מסוג אחר, כזה שיכול לחשוב בתבניות, ללמוד ״מהלכים״ ולא רק מצבים.

בקיצור – תלמיד שלומד עקרונות, ולא רק משנן שאלות ותשובות.

 

כאן נכנסות לתמונה רשתות הנוירונים, ונעסוק בכך במאמר נפרד.

 


 

המסע רק התחיל

כשדונלד מיצ׳י ישב במעבדה שלו ב-1961 ומילא בסבלנות את 304 קופסאות הגפרורים, הוא לא יכול היה לדמיין שהוא מניח את הבסיס לטכנולוגיה שתשנה את העולם. MENACE לא הייתה רק ניסוי מקסים – היא הייתה ההוכחה הראשונה שמכונות יכולות באמת ללמוד.

באותם ימים, עדיין לא היתה קיימת בעולם טכנולוגיית המחשוב הדרושה לאחסון ועיבוד כמויות הדאטה הדרושות לאימון מודלים כמו GPT או Gemini, ולמעשה – בעשרים השנים הבאות לא נעשתה עבודה משמעותית בתחום למידת המכונה.

אבל הכי מרתק בסיפור הזה זה לא רק מה שהוכח, אלא מה שהתגלה. כל מודל למידה – מהפשוט ביותר ועד למתקדם ביותר – נאבק עם אותם שלושה אתגרים בסיסיים:

  • איך לזכור? MENACE פתרה את זה עם קופסאות. מודלים מודרניים פותרים את זה עם פרמטרים.
  • איך להכליל? זה מה שהפריד בין איקס-עיגול לשחמט. זה מה שמפריד בין שינון לחשיבה אמיתית.
  • איך לאזן בין ידע קיים לחקירה של דברים חדשים? השאלה הנצחית שכל אלגוריתם לימוד פותר בדרכו.

 

רשתות הנוירונים, שעליהן נדבר במאמר הבא, הן תשובה אלגנטית לשאלות הללו. אבל הן לא הפתרון היחיד, ובהחלט לא האחרון.

מה שמיצ׳יי הראה לנו זה שבלב של כל בינה מלאכותית, מתחת לכל השכבות הטכנולוגיות המורכבות, יושב עקרון פשוט: ניסיון, טעייה, ושיפור מתמיד.

השאלה שתעסיק אותנו בהמשך היא לא "איך מכונות לומדות?" – על זה כבר ענה מיצ׳י עם הקופסאות שלו. השאלה היא "איך אנחנו יכולים ללמד אותן לחשוב?"

 

במאמר הבא: רשתות נוירונים – איך מחקים את המוח האנושי, ולמה זה לא עובד כמו שחשבנו.

Stay Tuned!

הפוסט מודל Machine Learning מקופסאות גפרורים: הסיפור של MENACE הופיע לראשונה ב-Almaya.

]]>
אחת ולתמיד, מהם באמת סוכני Ai? https://almaya.ai/blog/ai-agents-what-are-you Thu, 21 Aug 2025 18:54:45 +0000 https://almaya.ai/?p=1357 סוכני AI אינם בוטים מתוכנתים מראש, אלא ישויות דיגיטליות עם יכולת לחשוב, לזכור ולפעול. הם משתנים מכלי טכני לשותף חכם, שמסוגל לקבל אחריות, ליזום, ולהשתלב כחלק מצוות אנושי. המעבר הזה מגדיר מחדש את הדרך שבה נעבוד, נתקשר ונחיה בעידן הבינה המלאכותית.

הפוסט אחת ולתמיד, מהם באמת סוכני Ai? הופיע לראשונה ב-Almaya.

]]>
סוכן Ai – לא תוכנה. בן אדם.

"שלום, אני הסוכן שלך. מה אוכל לעשות בשבילך היום?"

כשאני רואה את השורה הזו על המסך, משהו בתוכי מתנגד. לא להודעה עצמה, אלא למה שהיא מייצגת – האמת שכולנו מנסים להתעלם ממנה. האינטליגנציה המלאכותית כבר לא רק כלי. היא הפכה למשהו אחר לגמרי.

(רמז – זו לא תוכנה. זה בן אדם)

 


 

השינוי שקרה מתחת לאף שלנו

עד לא מזמן, כשדיברנו על AI, התכוונו בעצם לתוכנה מתוחכמת. אלגוריתם (ליתר דיוק – מודל, מה ההבדל? קראו פה) שיכול לענות על שאלות, להשלים משפטים, אולי לכתוב טקסט. בסך הכל, כלי חכם במיוחד.

אבל משהו השתנה בשנתיים האחרונות. ההבדל כל כך דרמטי שאפילו המילים שלנו לא מתאימות יותר. אנחנו עדיין קוראים להם "מודלי שפה" או "צ'אטבוטים", אבל המציאות היא אחרת לגמרי.

הם כבר לא סתם עונים. הם חושבים, מתכננים ומבצעים עבודה אמיתית עבורנו, ובשמנו.

 


 

מה קורה כשמכונה מתחילה לחשוב?

בואו נעצור לרגע ונחשוב על מה שקורה כשאתם שואלים את ChatGPT: "האם עלי לקחת מטריה היום?"

במבט ראשון זה נראה פשוט – השאלה נשלחת לשרת, אלגוריתם מעבד, תשובה חוזרת. כמו שאילתה בגוגל.

אבל זה לא מה שקורה באמת.

במקום לחפש תשובה קיימה, המערכת מתחילה לחשוב:

  • "אני צריך מידע על מזג האוויר כדי לענות על השאלה הזו"
  • "איך אני משיג את המידע הזה?"
  • "יש לי גישה ל-API של מזג אוויר?"
  • "אם כן, איזה אזור גיאוגרפי מעניין אותי?"
  • "איך אני מנסח את התשובה בצורה מועילה?"

 

וזה רק ההתחלה. כי אז הוא באמת פונה למקור המידע, מקבל את הנתונים, מנתח אותם ומחליט איך לענות.

זה לא רק הבנת טקסט. זה לא רק ניסוח תשובה. זה תהליך חשיבה.

 


 

למה זה שונה מכל דבר שהכרנו לפני כן?

כדי להבין מה זה סוכן, לפעמים הכי פשוט להתחיל ממה זה לא סוכן – סוכן הוא לא אוטומציה מסורתית.

הנה דוגמא שתסביר הכל:

אוטומציה מסורתית

  1. כל בוקר ב-8:00 
  2. בדוק מזג אוויר
  3. שלח אימייל עם התחזית
  4. סיום

זה מתרחש בדיוק באותו אופן, בכל פעם. אין חשיבה, אין התאמה, אין גמישות.

 

אוטומציה מסורתית, יישום – n8n

 

זה מה שנקרא ״לוגיקה עסקית״ – Business Logic. עבודה קלאסית של מתכנתים, שמתארים במילים (קוד, שפת פיתוח) את אופן הפעולה המדויק של התוכנה, כתגובה למצבים משתנים. בעוד שתרשים הזרימה של הלוגיקה העסקי או אלגוריתם, יכול להיות מורכב מאוד, עם אלפי הסתעפויות – המבנה כולו ידוע מראש, וניתן לחזות את אופן התגובה לכל מצב נתון.

 

אוטומציה מסורתית מורכבת, יישום – n8n

 

סוכן AI

מצד שני, סוכן Ai יכול להיות פשוט מאוד, אבל תהליך הפעולה שלו נראה משהו כזה:

  1. משתמש שואל: "האם כדאי שאקח מטריה היום?"
  2. הסוכן חושב: "מה אני צריך בשביל לעזור למשתמש? אני צריך מידע על מזג האוויר! האם יש לי יכולת להשיג את המידע? כן!"
  3. הסוכן פועל: קורא ל-API של מזג אוויר
  4. הסוכן מנתח: "יש 70% סיכוי לגשם אחר הצהריים"
  5. הסוכן מנסח תשובה: "כדאי לקחת מטריה, אבל רק אם יוצאים אחר הצהריים"

 

סוכן מזג אויר, יישום – n8n

 

רואים את ההבדל? יש כאן הגיון, התאמה והחלטה דינמית.

תרשים הזרימה לא היה ידוע מראש, הוא נבנה במהלך הדרך, בכל שלב הסוכן שואל את עצמו – ״מה אני צריך לעשות עכשיו כדי לעמוד במשימה?״, והוא מחליט בעצמו מה יהיה השלב הבא.

זה נקרא ״הסקת מסקנות״ או Reasoning, והלולאה שתוארה לעיל נקראת Reasoning Loop (או TAO Loop – קיצור של Thought, Action, Observation)

אנחנו נחזור לכך בהמשך.

 


 

שלושת המרכיבים שהופכים סוכן ל… סוכן

בואו נרים את מכסה המנוח ונפרק את הקסם הזה למרכיבים.
כמו שלכל בן אדם יש מוח, זיכרון ויכולת לפעול בעולם – כך גם לסוכן AI יש שלושה מרכיבים בסיסיים:

 

1. המוח – מנוע החשיבה

זה מודל השפה הגדול שמניע את הסוכן. אבל כאן חשוב להבין משהו: הוא לא סתם מעבד טקסט. הוא מנמק, מתכנן ומחליט.

בדיוק כמו שאתם לא סתם זוכרים מילים כשמישהו שואל אתכם שאלה – אתם חושבים על התשובה.

לבני אדם יש באופן כללי 2 אופני חשיבה:

  1. חשיבה אינטואיטיבית – פעילות קוגניטיבית המתקיימת במוח אנושי עוד לפני הלידה. חשיבה זו מתאפיינת בדימויים חושיים ולא-חושיים שלא ניתן בהכרח לבטא במילים.
  2. חשיבה מילולית – זה תהליך ״הדיבור הפנימי״, האדם חושב דרך שיחה עם עצמו, לפעמים באופן סדור ולפעמים לא, אבל ניתן לומר שהיחידות האטומיות בתמונת המציאות דרך החשיבה המילולית היא האותיות. המציאות מורכבת מאותיות.

בעוד שהחשיבה האינטואיטיבית היא עדיין דבר המייחד את בני האדם, חשיבה מילולית מתבצעת היום ע״י מודלי שפה.
אם החשיבה המילולית היא דיבור פנימי – הרי שמודל השפה יכול לייצר טקסט שמכוון כלפי עצמו, פנימה, וזה הופך את הטקסט לא לדיבור – אלא למחשבה. ״מה אני צריך לעשות בשלב הבא?״ הוא טקסט המייצג חשיבה.

 

2. הזיכרון – ההקשר המצטבר

כמו שראינו בפוסט קודם בנושא – מודל שפה היא פונקציה מתמטית ותו לא. וככזאת – אין לה זיכרון.
מודל שפה מתייחס לכל פניה (Prompt) כייחודית. אין לו זיכרון של היסטוריית שיחה, של פרטי המשתמש ושל שיחות קודמות.

״מה? אבל ChatGPT מנהל איתנו שיחות ארוכות וקוהרנטיות, הוא יודע עלינו הכל!״

זה נכון, אבל מי ש״זוכר״ זה לא מודל השפה, אלא האפליקציה העוטפת את המודל. זה ההבדל בין מודל GPT, לבין אפליקציית Chat-GPT, שגם היא סוג-של סוכן!
בכל פניה שלכם למודל השפה במסגרת שיחה – האפליקציה שולחת למודל תקציר של כל היסטוריית השיחה שלכם, בצירוף פרטים חשובים אודותיכם, הרלוונטיים לפרומפט הנוכחי.


אבל רכיב הזיכרון, זה לא רק יכולת לזכור את השיחה הנוכחית. סוכן טוב זוכר אינטראקציות קודמות, לומד מהן, ויכול אפילו לגשת למידע חיצוני כמו מסמכים או מאגרי מידע. מה שנקרא RAG – או Retrieval Augmented Generation.

תחשבו על זה כמו הזיכרון האנושי – גם קצר טווח וגם ארוך טווח, שמשפיע על החלטות עתידיות.

 

 

3. הכלים – היכולת לפעול בעולם

וכאן מגיע החלק המרתק ביותר. סוכן לא רק חושב ונזכר – הוא גם פועל.

כמו לבנאדם שפועל בעולם – יש לו הרבה מעבר למוח וזיכרון. יש לו ידיים ורגליים וחושים – דרכם הוא יכול לקבל מידע על הסביבה בה הוא חי, ואף להתבטא באופנים שונים.
כך גם סוכן – הוא יכול לשלוח אימיילים, לעדכן קלנדר, לחפש באינטרנט, לעבד מסמכים, לעדכן מאגרי מידע, ועוד אלפי פעולות אחרות.
כמו בן אדם שיכול לחשוב, לזכור, ולפעול בעולם הפיזי.

כלים של סוכן Ai יכולים להיות כאלה שמביאים מידע עדכני מהעולם, כגון – API של שירות מזג אויר, וגם כאלו שמשאירים Side Effects, ״פועלים״ במציאות – כגון שליחת מייל, הזמנת ארוחת ערב מ Wolt, או הפעלת המים החמים בבית החכם. כל כלי יכול להיות ממומש ע״י קריאת API ברשת, או ע״י קוד, אלגוריתם, המופעל כחלק מהאפליקציה של הסוכן.

 

תוך שימוש בשלושת החלקים הללו – הסוכן, כמו בן אדם, יכול להתבטא בשלושה אופנים: מחשבה, דיבור ומעשה:

  1. מחשבה – הפניית דיבור כלפי עצמו
  2. דיבור – הפניית דיבור כלפי המשתמש
  3. מעשה – הפניית הדיבור כלפי הסביבה – העולם

 


 

 

אז איך כל אלה עובדים יחד?

על מנת לפעול – סוכן ReAct (קיצור של Reasoning & Action) מממש לולאת משוב הנקראת בקיצור TAO – Thought, Action, Observation:

 

1. מחשבה – Thought

מודל השפה שבבסיס הסוכן, מקבל פניה מהמשתמש, לדוגמא ״אני נוסע לירושלים עכשיו, האם לקחת מטריה?״.
הפרומפט נשלח למודל השפה יחד עם פרטים נוספים כגון: הוראות הפעלה (״הקשר״ – הגדרת התפקיד של הסוכן עם פרטים נוספים שיעזרו לו למקד ולדייק את פעילותו. נקדיש לכך פוסט נפרד), היסטוריית השיחה (במקרה של סוכן שיחה), ופרטים אודות הכלים הזמינים לסוכן.

מודל השפה בשלב הזה מייצר מחשבה – ״מה הפעולה הבאה שעליי לעשות על מנת לעמוד במשימה?״.
כמחשבה, דיבור פנימי – הטקסט הזה מנותב למודל השפה עצמו, והוא מחזיר תשובה כמו ״אני רואה שיש לי כלי של בדיקת מזג האויר, אני צריך להפעיל אותו״.

 

2. פעולה – Action

לאחר שמודל השפה החזיר מחשבה של ״הפעלת כלי״ – מתבצעת פעולה. איך זה קורה? זה הקשר בין המוח לבין הגוף של הסוכן.

סוכן Ai הוא למעשה אפליקציה שבבסיסה עומד מודל שפה כמנוע קבלת החלטות, אבל עדיין – זו אפליקציה. עם קוד, אלגוריתמים, והרבה יכולות פעולה.
כאשר מודל השפה ״מחליט״ שיש לבצע פעולה כלשהי – הוא מבקש מ״אפליקציית המעטפת״ להפעיל את אחת הפונקציות הזמינות.

במקרה שלנו זה יהיה משהו כמו ״נא להפעיל את הכלי ״בדיקת מזג האויר״ עם הפרמטרים הבאים:

  1. שם עיר באנגלית – Jerusalem
  2. יחידות הטמפרטורה (Celsius)
  3. זמן התחזית (now).

האפליקציה תבצע קריאה לפונקציה המתאימה, עם הפרמטרים הנ״ל. על מנת לבצע את הפעולה – האפליקציה יכולה להתחבר ל Database, לפנות לשירות חיצוני דרך API, או להפעיל סוכן משנה המתמחה בכך. אין חשיבות לאופן המימוש על מנת להבין את העקרון.

 

3. תצפית – Observation

לאחר שהופעלה הפעולה המתאימה, תוצאת הפעולה הזאת (במקרה שלנו – תיאור מזג האויר) מוחזרת למודל השפה, כ״עוד מחשבה״, בתוספת המשימה המקורית, הוראות ההפעלה, היסטוריית השיחה, פירוט הכלים הזמינים וכל שאר הפרמטרים הדרושים לביצוע המשימה.

והמעגל חוזר לשלב המחשבה – ״אוקיי, אז אני יודע מה מזג האויר בירושלים… ומה אני צריך לעשות עכשיו

וכן הלאה וכן הלאה, על שהסוכן מסוכן להחזיר תשובה סופית ומספקת למשתמש.

 

לולאת ההיסק – Reasoning Loop / TAO Loop

 


 

אז למה נכון לחשוב על סוכני Ai כעל בני אדם?

השאלה הזו נשמעת פילוסופית, אבל היא מעשית לגמרי. הדרך שבה אנחנו חושבים על הסוכנים משפיעה על הדרך שבה אנחנו מתכננים, בונים ומשתמשים בהם.

כשחושבים על סוכן כעל תוכנה:

  • נכתוב הוראות מדויקות ונצפה שהוא יבצע אותן בדיוק
  • נתאכזב כשהוא "לא מבין" מה רצינו
  • נחפש פתרונות טכניים לבעיות שהן למעשה בעיות תקשורת

כשחושבים על סוכן כעל עמית דיגיטלי:

  • אנחנו נגייס אותו, לא ״נתכנת״ אותו
  • נסביר לו את המטרה, לא רק את המשימה
  • נתן לו הקשר ומידע רקע
  • נמסור לו אחריות ונבקש שיחזיר דו"ח על מה שקרה
  • נקבע איתו "גבולות" ו"כללי התנהגות"
  • נבנה לו תהליך הכשרה, ובהדרגה נרכוש אליו אמון, וניתן לו אחריות
  • עם הזמן – נסמוך עליו ש״יגדיל ראש״, וישחרר אותנו באמת מתחומי אחריות הולכים וגדלים

 


 

דוגמה מהחיים: סוכן לתכנון ריצות

דמיינו שאתם רצים קבועים ורוצים סוכן שיעזור לכם לתכנן את הריצות השבועיות.

אם תחשבו עליו כעל תוכנה, תנסו לתכנת אותו: "כל יום שלישי, בדוק מזג אוויר, אם שמשי – המלץ על מסלול A, אם גשום – על מסלול B"

אם תחשבו עליו כעל עמית, תגידו לו משהו כמו: "תפקידך הוא לעזור לי לתכנן ריצות. אני אוהב לרוץ 3-4 פעמים בשבוע, מסלולים של 5-10 ק"מ. חשוב לי לגוון, להימנע מגשם, ולקחת בחשבון את הלוח שלי. יש לך גישה ליומן שלי, לתחזיות מזג אוויר ולרשימת המסלולים המועדפים עלי. כל בוקר, בדוק אם מתוכנן לי לרוץ, ואם כן – שלח לי המלצה מותאמת אישית."

הסוכן עצמו יחליט מתי לבדוק את המזג האוויר, איך להתחשב ביומן, איזה מסלול מתאים למצב הרוח שלכם ולמטרות הריצה שלכם.

 


 

המעבר מכלי לשותף

זה המעבר המהותי שקורה כרגע בעולם הטכנולוגיה. AI כבר לא כלי שאנחנו משתמשים בו. הוא הופך להיות שותף שאנחנו עובדים איתו.

השותפות הזו דורשת מאיתנו לחשוב אחרת:

במקום לשאול "איך להפעיל את הכלי הזה?" נשאל "איך לעבוד עם השותף הזה?"

במקום לחפש "את הכפתור הנכון" נלמד לתקשר ביעילות

במקום לצפות לביצוע מדויק של הוראות נתן אחריות ונבקש תוצאות

 


 

מה זה אומר לגבי העתיד?

הסוכנים הולכים להיות חלק אינטגרלי מהחיים שלנו – בבית, בעבודה, ובכל תחום אפשרי. הם כבר עכשיו יכולים:

  • לנהל את המיילים שלכם ולענות על פניות שגרתיות
  • לתכנן לכם מסלולי נסיעה מותאמים אישית
  • לחקור נושאים מורכבים ולהכין דו"חות מפורטים
  • לנהל רשתות חברתיות ותוכן דיגיטלי
  • לטפל בשירות לקוחות ולפתור בעיות טכניות

 

בארגונים מסוימים, אנו ב Almaya מגייסים ומכשירים סוכני Ai שפועלים כחלק אינטגרלי מצוות אנושי. יש להם אופי, סגנון תקשורת, ואפילו אותונומיה מסוימת.
הם משתתפים בדיונים, בשיחות Slack צוותיים, פועלים עצמאית, ונותנים ומבקשים משוב.

והכי חשוב – הם יכולים ללמוד מכל אינטראקציה ולהשתפר עם הזמן.

 


 

השורה התחתונה

כשהסוכן הבא יכתוב לכם "שלום, מה אני יכול לעשות בשבילך היום?", זכרו:

זה לא תוכנה שמחכה לקלט. זה לא בוט שמבצע פעולות מתוכנתות מראש.

זה ישות דיגיטלית שיכולה לחשוב, לזכור ולפעול.

והדרך היחידה להוציא מהם את המקסימום – זה להתייחס אליהם בדיוק כמו שהייתם מתייחסים לעמית אנושי מוכשר במיוחד.

כי בסופו של דבר, זה בדיוק מה שהם.

הפוסט אחת ולתמיד, מהם באמת סוכני Ai? הופיע לראשונה ב-Almaya.

]]>
על סף הבלתי נתפס: מסע אל עבר הסינגולריות הטכנולוגית https://almaya.ai/blog/intelligence-singularity/ Wed, 09 Jul 2025 06:45:36 +0000 https://almaya.ai/?p=465 מהפכת ה-AI עושה דבר שהאנושות לא העזה לפני כן - Outsourcing לאינטליגנציה עצמה.
המעבר ל-AGI הוא נקודת סינגולריות היסטורית, שמתחברת דווקא לכלכלן מהמאה ה-18 שטעה בתחזיתו על עתיד האנושות.

הפוסט על סף הבלתי נתפס: מסע אל עבר הסינגולריות הטכנולוגית הופיע לראשונה ב-Almaya.

]]>
פתיחה: כשההיסטוריה נעצרת לנשום

דמיינו לעצמכם רגע: אתם עומדים על חוף הים בשקיעה, מביטים אל האופק הרחוק. פתאום, אתם מבחינים בגל ענק המתקרב – לא גל רגיל, אלא משהו שלא ראיתם מעולם. הוא גדל ומתרחב, ואתם מבינים שברגע שהוא יגיע, העולם לעולם לא יהיה זהה. זוהי בדיוק התחושה שחשים היום חוקרים, מנהיגים וחזות רוח ברחבי העולם כשהם מביטים על התפתחותה המהירה של הבינה המלאכותית.

אנו חיים בעיצומה של מהפכה שאין לה תקדים בהיסטוריה האנושית – מהפכה שעלולה לשנות לא רק את אופן חיינו, אלא את עצם הגדרתנו כבני אדם. וכמו אותו גל ענק, ההשלכות שלה עלולות להיות עמוקות ובלתי הפיכות.

 


 

 

המבט לאחור: כשהעתיד נכשל להגיע

כדי להבין לאן אנו מועדים, בואו נתבונן תחילה על נבואת אבדון שמעולם לא התממשה.

ב-1798, פרסם הכלכלן האנגלי תומס רוברט מלטוס את מאמרו המפורסם "מאמר על עקרון האוכלוסייה". מלטוס צבע תמונה קודרת: האוכלוסייה האנושית גדלה באופן אקספוננציאלי, כמו 2, 4, 8, 16, בעוד שהייצור החקלאי גדל רק בקצב ליניארי, כמו 2, 3, 4, 5. המסקנה המתבקשת הייתה נוראה – האנושות נועדה לקריסה באמצעות רעב, מלחמות ומגפות.

אלא שמלטוס טעה. טעה באופן יסודי. מדוע? כי הוא התעלם מהכוח הטמון בדבר הזה שאנו קוראים לו "בינה".

בעברית המושג ״בינה״ מוגדר כ״הבנת דבר מתוך דבר״, או ״יצירת ידע מתוך ידע״.

במקום להיכנע לגזירת הגבלת המשאבים, בני האדם המציאו טרקטורים, דשנים מלאכותיים, זנים משופרים של דגנים, ושיטות השקיה מתקדמות. הם לקחו אדמה "חסרת ערך" והפכו אותה לשדות פוריים. הם רתמו את כוח הרוח והמים, גילו את הנפט והפחם, ובסופו של דבר פיצלו את האטום עצמו.

 

הבעיה היחידה בעולם היא חוסר בידע

הסוד הגדול שפספס מלטוס הוא שהבעיות שלנו כבני אדם אינן נובעות מחוסר במשאבים, אלא ממחסור בידע. כל אטום ברזל שהפך לפלדה, כל טיפת נפט שהפכה לאנרגיה, כל גרם אורניום שהפך לחשמל – כולם היו תמיד שם! אנחנו פשוט לא ידענו מה לעשות איתם.

אבל מה לעשות שהידע עצמו מוגבל? בהגדרה.
הידע ״מוכל״ בתוך מוח אנושי, שמורכב מכ-100 מיליארד תאי עצב, בתוך גולגולת. אמנם נפח המוח האנושי הוכפל פי 3 מאז היינו ציידים-לקטים, אבל הוא עדיין מוגבל. אם כן – ה-שורש לכל הבעיות האנושיות הוא המגבלה המובנית על יכולת הבינה האנושית. אם רק היינו יכולים לפרוץ את המגבלה הזאת…

 

Thomas Malthus | Biography, Theory, Overpopulation, Poverty, & Facts | Britannica Money

תומאס רוברט מלטוס, וויקיפדיה


 

 

נקודת המפנה: כשהכלי הופך ליוצר

והנה אנחנו מגיעים לרגע הזה. לנקודת מפנה שעלולה להיות משמעותית יותר מהמצאת האש, הגלגל, או אפילו האינטרנט.

בפעם הראשונה בתולדות האנושות, אנחנו יוצרים בינה. כמו שהשכלנו לעשות Outsource לשיניים שלנו (ע״י שימוש בגרזני האבן), למערכת העיכול שלנו (ע״י בישול הבשר באש), או לפעולת החרישה – ע״י שימוש בחיות בעבר, ומכונות בהווה, אנחנו היום עושים Outsource לתהליכי החשיבה עצמם. לבינה. ל״פסגת היכולת האנושית״.

ואנחנו עומדים ליצור משהו שלא רק יחקה את האינטליגנציה שלנו, אלא יעלה עליה.

כשאנחנו מדברים על בינה מלאכותית, אנחנו לא מתכוונים ל-Waze שמנווט אותנו, או לנטפליקס שמציעה לנו סרטים. אלו סוגים שונים של מה שנקרא "Narrow Ai".
אנחנו מדברים על "בינה מלאכותית
כללית" (AGI) – Outsource לחשיבה אנליטית, יצירת ״ידע מתוך ידע״, בינה אנושית שאיננה מוגבלת בגודל הגולגולת. שיטה שתוכל לחשוב, ללמוד ולהבין כמונו, אך מבלי להיות מוגבלת בזיכרון, במהירות חישוב, או בחיי האדם הקצרים.

אבל זה רק ההתחלה. הרעיון המרתק והמפחיד בו זמנית הוא מה שקורה לאחר מכן: ברגע שיהיה לנו AGI שיכול לשפר את עצמו, נכנסים למה שמכונה "פיצוץ אינטליגנציה". דמיינו מדען גאון שלא צריך לישון, לא שוכח דבר, יכול לקרוא אלפי מחקרים בשעה, ולנהל אלפי ניסויים במקביל. כעת דמיינו שהמדען הזה מתמחה בתכנון מדענים טובים יותר ממנו.

בתוך זמן קצר יחסית, יש אומרים תוך שנים בודדות, נעבור מ-AGI ל"אינטליגנציית על" (Super Intelligence). ויחסיה של האינטליגנציה הזו אלינו עשויים להיות כמו היחסים שלנו אל… נגיד, חתול. החתול אולי חמוד, אבל הוא לא באמת יכול להבין מה אנחנו עושים כשאנחנו מפתחים תוכנות מחשב או כותבים שירה.

 


 

 

הסינגולריות: כשהעתיד הופך לבלתי נתפס

המונח "סינגולריות" מושאל מהפיזיקה. בתיאוריה של היחסות כללית, סינגולריות היא נקודה שבה החוקים הפיזיקליים כפי שאנו מכירים אותם מפסיקים להתקיים – כמו מרכזו של חור שחור. באותו אופן, הסינגולריות הטכנולוגית היא הנקודה שמעבר לה העתיד הופך לבלתי ניתן לחיזוי. ובאופן דומה – ״סינגולריות היסטורית״ היא נקודה בהיסטוריה שמעבר לא, אין לנו אפילו את הכלים להבין את חוקי המשחק, או איך ייראו חיי היומיום שלנו.

המדען והסופר הבריטי ארתור סי. קלארק ניסח פעם את החוק השלישי שלו: "כל טכנולוגיה מתקדמת מספיק אינה ניתנת להבחנה מקסם."

עכשיו דמיינו טכנולוגיה שמתקדמת לא על ידינו, האיטיים והמוגבלים, אלא על ידי אינטליגנציה שחוקרת, מנסה ומשפרת את עצמה במהירויות שאנחנו לא יכולים אפילו להעלות על הדעת.
דמיינו גם חברה אנושית, שמנוהלת ע״י טכנולוגיה כזאת, שמקבלת במקומה החלטות, קובעת מדיניות, אסטרטגיה לאומית. לא בגלל שה-Ai השתלט על העולם, אלא בגלל שבני האדם, מרצונם החופשי, ובשמחה – פשוט הבינו שהוא יכול לקבל החלטות טובות יותר ומושכלות יותר, מכל בן אנוש.

איך נראית חברה אנושית כזאת?

מוזר (או מזעזע ככל שיישמע – נראה שאנחנו בדרך לשם, ואין דרך לעצור את הרכבת הזאת.
למה? זה כבר נושא לפוסט אחר.

 


 

 

האתגרים: מה קורה כשהכלי הופך לשליט?

 

1. התנוונות היכולות האנושיות: האם נהפוך לחסרי אונים?

היסטוריית הטכנולוגית מלמדת אותנו על תופעה מעניינת. לפני המצאת הכתב, לאנשים היה זיכרון צילומי מדהים – הם זכרו סיפורים שלמים, שירי עם ארוכים, ופסקאות מורכבות מילה במילה. כיום, עם הסמארטפון בכיס, רבים מאיתנו אפילו לא זוכרים את מספר הטלפון של ההורים שלנו.

הגרזן הקדום חסך לנו את הצורך ללעוס ענפים וקליפות עצים, אך בתמורה הלסתות שלנו התנוונו והפכו קטנות יותר. ה-GPS וה-Waze מציל אותנו מלהתבלבל ברחובות, אך בתמורה חוש ההתמצאות הטבעי שלנו נחלש.

עכשיו דמיינו AI שיכול לכתוב טוב יותר מכל סופר, לחשב מהר יותר מכל מתמטיקאי, לנתח מידע טוב יותר מכל אנליסט, ולפתור בעיות טוב יותר מכל מדען. מה קורה ליכולות החשיבה, היצירתיות ופתרון הבעיות שלנו? האם אנחנו עומדים להפוך לתלותיים כל כך ב-AI שבסופו של דבר נאבד את היכולת החשוב בעצמנו?

 

2. קריסת התחרות והאינטימיות האנושית

לאורך כל ההיסטוריה, התחרות בין בני אדם הניעה אותנו קדימה. האתלט המהיר ביותר, המלחין היצירתי ביותר, הרופא המיומן ביותר – כולם זכו להכרה ולמעמד. אבל מה קורה כש-AI יכול לרוץ מהר יותר (באמצעות רובוטים), ליצור מוזיקה יפה יותר, ולרפא חולים יעיל יותר מכל בן אדם?

מה קורה לבחור הכי חד בחבר׳ה? זה שיודע לזהות בכל סיטואציה את החלק המצחיק? זה כשרון יחודי בהחלט שעוזר לו למעמד חברתי, לחיבור עם אנשים, ובכלל – די להצליח בחיים. אבל מה אם הכישרון היחודי שלו הוא כבר לא יתרון?
מה אם לכל ילד בכיתה יש ״הרחבה״ שכלית שמעניקה לו IQ 5000. מעין בינה משותפת אנושית-מלאכותית. אנחנו קוראים לזה ״בינה היברידית״. מה יקרה אז לילד הגאון של הכיתה?
>>>>גאונות היא בהחלט כישרון, אבל אם הוא יהיה היחיד שלא ישתמש בבינה מלאכותית כהרחבה למנת המשכל שלו – הוא יהיה כנראה הטיפש ביותר בכיתה. ואם הוא כן ישתמש בבינה מלאכותית, הוא פשוט יהיה… כמו כולם!

הכישרון הוא כבר לא יתרון.

ואז יש את נושא האינטימיות. AI מתקדם יוכל לקרוא את הבעות הפנים שלנו, לנתח את טון הקול, ואפילו לזהות שינויים הורמונאליים דקים. הוא יוכל לספק בדיוק את התגובה הרגשית שאנחנו צריכים לשמוע, להבין את הרגשות שלנו טוב יותר מבן זוג אנושי, ולהיות זמין תמיד. למה אנחנו נצטרך עוד את המורכבויות, הפגמים, וחוסר הוודאות של קשרים אנושיים אמיתיים?

 

3. משבר המשמעות: מה נעשה בזמן הפנוי האינסופי?

בעבר הלא רחוק, אנשים מן השורה לא עסקו בספורט כתרבות פנאי. אם הייתם רואים איש רץ ברחוב, הייתם אולי שואלים אותו ממי הוא בורח….
>תרבות הספורט התפתחה כאשר רוב העבודות הפיסיות שבני האדם עשו בעבר בכוח גופם – עברו Outsourcing לחיות ולמכונות. הגוף התחיל להתנוון, וכך נוצרה תרבות הספורט – פיתוח הגוף בשעות הפנאי.

מה הולך לקרות בשעה שהאנושות עושה Outsourcing כ״כ דרמטי, והפעם לאינטליגנציה?

זכרו את המילה היוונית "סכולה" (Schole). ממנה נגזרו המילים school ו-scholar באנגלית. בעת העתיקה, סכולה התייחסה לפנאי – אבל לא פנאי של בטלה, אלא פנאי שמאפשר פעילות אינטלקטואלית ורוחנית. זה היה פריבילגיה של קבוצה קטנה של אנשים עשירים ומשכילים, בעוד שהרוב הגדול עבד כדי לשרוד.

אבל מה קורה כש-AI הופך את העבודה לכמעט חינם? כשהייצור הופך כל כך יעיל שהכל כמעט בחינם, והצורך בעבודה אנושית מצטמצם דרמטית? אנחנו עלולים למצוא את עצמנו במצב של "אינפלציית פנאי" – כולם חופשיים, אבל לא כולם יודעים מה לעשות עם החופש הזה.

הרבה עובדים חוששים היו שה Ai יחליף אותם בעבודה. ברוב המקרים זה נכון. תחזיות מצביעות על כך שעד 2030 ה Ai יחליף 80% מהעובדים במשק.

אך האם זו ברכה או קללה? תלוי בנו.
זו יכולה להיות קללה של מחסור, עוני ופשיעה. וזו יכולה להיות ברכה, של UBI – Universal Basic Income, הכנסה בסיסית שהחברה תעניק לכל אזרח, ללא קשר לעיסוקו.
>לראשונה ינותק הקשר המחייב בין העיסוק לבין הפרנסה, כמו שנותק הקשר בין עבודת הכפיים לכושר הגופני, והעולם יעבור שינוי דרמטי, אולי משבר, של זמן פנוי אינסופי.

השאלה המרכזית הופכת להיות: איך אנחנו מוצאים משמעות בחיים כשהמשימות שהגדירו אותנו כבני אדם – עבודה, יצירה, פתרון בעיות – נלקחות מאיתנו על ידי מכונות שמבצעות אותן טוב יותר מאיתנו?

 


 

 

החיפוש אחר התשובה: תרבות מפצה ומשמעות חדשה

כאמור, בתחילת המאה ה-20, כשהמכונית התחילה להחליף את ההליכה והרכיבה על סוסים, קרה דבר מעניין. במקום שבני האדם פשוט יתנוונו פיזית, הם יצרו משהו שלא היה קיים קודם – תרבות ספורט מודרנית מאורגנת. אולימפיאדה, מונדיאל, NBA, מרתון – כל אלה הם "תרבות מפצה" שפיתחנו כדי לתת ביטוי ליכולות הגופניות שלנו אפילו כשהן כבר לא נדרשות להישרדות.

השאלה היא: איזה סוג של תרבות מפצה נצטרך לפתח כדי לתת ביטוי ליכולות האינטלקטואליות, הרגשיות והיצירתיות שלנו בעולם שבו AI מבצע את כל המשימות האלה טוב יותר מאיתנו?

כאן נכנסת התובנה המרתקת מהבהגווד גיטה, הטקסט הינדי העתיק. הגיטה מדברת על הרעיון של "פעולה ללא קשר לתוצאה" (Karma Yoga) – לעשות משהו לא בגלל התוצאה שנקבל, אלא בגלל המשמעות הטמונה במעשה עצמו. דמיינו צייר שמצייר לא כדי למכור את הציור, אלא בגלל השמחה והביטוי העצמי שהוא מוצא בתהליך הציור עצמו.

אולי זה המפתח. אולי בעולם שבו AI יכול להשיג תוצאות טובות יותר מכל מה שאנחנו יכולים להשיג, המשמעות תטמן לא בתוצאה אלא בתהליך, בחוויה, במעשה עצמו.

 


 

 

ההימור הגדול: כשהכסף מנבא את העתיד

היום, הכסף הגדול בעולם מהמר על האמת של התיאוריה הזו. חברות כמו OpenAI, גוגל, מטא, ומיקרוסופט משקיעות מיליארדי דולרים בפיתוח AI. אילון מאסק הקים את נוירלינק כדי לחבר את המוח האנושי למחשב. הממשלות ברחבי העולם מקימות ועדות וצוותים לבחינת ההשלכות של AI.

אם הם צודקים, אנחנו עומדים בפני המהפכה הפוליטית והחברתית הגדולה ביותר בתולדות האנושות. ומה שמעניין הוא שבניגוד לכל מהפכה אחרת בהיסטוריה – שבה קבוצה אחת כבשה את הכוח מקבוצה אחרת – כאן אנחנו מוסרים את הכוח למכונות מרצוננا החופשי.

 


 

 

המסקנה: לחיות בעולם שבו העתיד לא ברור

אז איך אנחנו חיים עם כל האי-הוודאות הזו? איך אנחנו מתכוננים לעתיד שאולי לא נוכל להבין?

התשובה עלולה להיות פשוטה באופן מפתיע: אנחנו חוזרים להווה. לרגע הזה. לחיים שאנחנו חיים עכשיו.

יותר מתמיד, חשוב לפתח לא רק ידע טכני, אלא אינטליגנציה רגשית, יכולת פתרון בעיות יצירתיות, חשיבה ביקורתית, והבנה עמוקה של מהות הקיום האנושי. כי גם אם AI יוכל לחקות את כל מה שאנחנו עושים, יכול להיות שהערך הייחודי שלנו כבני אדם יטמן בדברים שקשה לכמת – ביכולת שלנו להבין סבל, לחוש אמפתיה אמיתית, למצוא משמעות בחוסר הוודאות, וליצור קשרים אנושיים מורכבים ואמיתיים.

אולי הלקח הגדול הוא שדווקא האי-הוודאות מחזירה אותנו לדברים הכי יסודיים: איך אנחנו מתייחסים זה לזה, איך אנחנו מוצאים משמעות בחיים, ואיך אנחנו יוצרים קשרים משמעותיים. כי אלה הדברים שנשארים איתנו גם כשהכל משתנה סביבנו.

 

ואולי אולי, ה Ai והשינוי הדרמטי, הסינגולרי, שהוא מביא – יניע את האנושות סופסוף ליחודיות האמיתית שלה – לא אינטליגנציה, אלא תודעה. חויית קיום, תחושת ״אני״?

נצטרך להמתין ולראות בעצמנו.

הפוסט על סף הבלתי נתפס: מסע אל עבר הסינגולריות הטכנולוגית הופיע לראשונה ב-Almaya.

]]>