חוקי אסימוב חוזרים לשולחן הדיונים, אך הבינה המלאכותית הצבאית כבר מסובכת מהם בהרבה

המלחמות באוקראינה ובאיראן, העימות סביב Anthropic והדיונים באו"ם מחדדים את הקריאה להסדיר נשק אוטונומי ובינה מלאכותית צבאית. אלא שחוקי הרובוטיקה של אסימוב, כפי שממחיש הסיפור "סחור סחור", נועדו גם לחשוף פרדוקסים ולא לספק פתרון פשוט

רובוט שבו מוטמעים שלושת חוקי הרובוטיקה של אסימוב. <a href="https://depositphotos.com. ">המחשה: depositphotos.com</a>
רובוט שבו מוטמעים שלושת חוקי הרובוטיקה של אסימוב. המחשה: depositphotos.com

במאמר שפורסם ב־9 באפריל 2026 חוזר פרנצ'סקו גרילו, עמית אקדמי, המחלקה למדעי החברה והפוליטיקה, אוניברסיטת בוקוניאל שלושת חוקי הרובוטיקה של אייזק אסימוב כדי להזהיר מפני “רגע צ'רנוביל” של הבינה המלאכותית: אסון גדול שיכריח את העולם לקבוע כללים רק אחרי שכבר יהיה מאוחר מדי. הטענה המרכזית במאמר היא שהמלחמות באוקראינה ובאיראן מראות עד כמה AI משנה את כלכלת המלחמה, את מהירות קבלת ההחלטות ואת יכולת הזיהוי, המעקב והתקיפה, ולכן גם את הדחיפות שבהסדרה בינלאומית.

שלושת החוקים (בתרגום עמנואל לוטם):

  1. החוק הראשון: לא יפגע רובוט לרעה בבן אדם; ולא יניח, במחדל, שאדם ייפגע.
  2. החוק השני: רובוט חייב לציית לפקודותיו של אדם, ובלבד שפקודות אלו אינן עומדות בסתירה לחוק הראשון.
  3. החוק השלישי: רובוט חייב להגן על קיומו, ובלבד שגנה זו אינה עומדת בסתירה לחוק הראשון או לחוק השני. [1, 2]
  • חוק ה-0 (התווסף מאוחר יותר): "רובוט לא יפגע באנושות, ולא יניח, במחדל, שאנושות תיפגע" (עליון לשלושת החוקים).

העיתוי של הדיון הזה איננו מקרי. בחודשים האחרונים הלכה והחריפה המחלוקת סביב השימוש הצבאי במודלי שפה ובמערכות AI. חברת Anthropic, למשל, קבעה שני קווים אדומים ברורים: פיקוח המוני בתוך ארצות הברית ונשק אוטונומי לחלוטין. מנכ"ל החברה דריו אמודיי הבהיר בפברואר כי Claude כבר משמש גופי ביטחון אמריקניים למשימות כמו ניתוח מודיעין, סימולציה ותכנון, אך טען שאי אפשר להפקיד בידי מערכות כאלה את עצם ההחלטה על הפעלת כוח קטלני בלי פיקוח אנושי הדוק. המחלוקת הזו אף התגלגלה לעימות משפטי ופוליטי מול הפנטגון. (Anthropic)

גם שדה הקרב עצמו דוחף את העולם אל עבר אותה שאלה. Reuters דיווחה במרץ כי אוקראינה פתחה בפני בעלות בריתה גישה לנתוני שדה קרב לצורך אימון מודלים של AI לרחפנים, וכי מערכות כאלה נבחנות בדיוק בתנאים שבהם שיבוש אלקטרוני, עומס מידע ומהירות תגובה קובעים את התוצאה. ככל שהמערכות הללו נעשות עצמאיות יותר בזיהוי, בניווט ובבחירת פעולה, כך מצטמצם מרווח הזמן שבו אדם יכול באמת להבין, לבקר ולעצור אותן. (Reuters)

אלא שכאן מתחיל גם הקושי הפילוסופי, ואולי המעשי ביותר, בחזרה אל אסימוב. חוקי הרובוטיקה שלו לא נכתבו כמפרט הנדסי ישים או כטיוטת רגולציה, אלא דווקא כמסגרת ספרותית שנועדה להמחיש עד כמה כללים שנשמעים פשוטים נשברים מול מצבים מורכבים. אסימוב עצמו בנה פעם אחר פעם סיפורים שבהם החוקים מתנגשים, מסתבכים או מוליכים לתוצאה אבסורדית. בסיפור “סחור סחור” (Runaround), למשל, הרובוט "ספידי" מקבל הוראה לבצע משימה, אך בשל התנגשות בין החובה לציית לבני אדם לבין החובה להגן על עצמו, הוא נכנס למעין לולאה משתקת ומתנהג באופן לא רציונלי. הדוגמה הזאת ממחישה היטב גם את הבעיה המודרנית: קל יחסית לכתוב כלל כמו “לא לפגוע באדם”, אבל קשה הרבה יותר להכריע מהי פגיעה, מי נחשב יעד לגיטימי, ומה קורה כאשר אי־פעולה עלולה לגרום נזק גדול יותר מן הפעולה.

בפועל, גם הזירה הבינלאומית כבר נעה בכיוון של “כללים לפני אסון”. משרד האו"ם לענייני פירוק נשק מזכיר כי מזכ"ל האו"ם אנטוניו גוטרש קורא זה שנים לאסור או להגביל מערכות נשק אוטונומיות קטלניות, והגדיר מערכות הפועלות בלי שליטה או פיקוח אנושי כדבר בלתי קביל פוליטית ודוחה מוסרית. ב־2023 הוא אף קרא להשלים עד סוף 2026 מכשיר משפטי מחייב שיאסור חלק מהמערכות ויסדיר אחרות. גם הדיונים ב־CCW השנה מראים שחלק מהמדינות כבר מדברות במפורש על שרשרת פיקוד אנושית “ברת מעקב” ועל אחריות לאורך כל מחזור החיים של מערכות כאלה. (יוזמת הפירוז של האומות המאוחדות)

אלא שהמסגרות הקיימות עדיין כלליות מדי. עקרונות ה־OECD מדברים על בינה מלאכותית אמינה, מכבדת זכויות אדם ודמוקרטיה, ומדגישים פיקוח אנושי, שקיפות ואחריותיות. אבל אלה עקרונות רוחביים, לא כללי הפעלה לשדה הקרב. לכן הפער בין היכולות המתפתחות במהירות לבין המסגרת הנורמטיבית עדיין גדול מאוד. במילים אחרות, העולם כבר מכיר בבעיה, אך עדיין אינו קרוב לפתרון מוסכם. (OECD)

לכן, החזרה אל אסימוב כיום איננה באמת חזרה לפתרון, אלא לחידוד השאלה. היא מזכירה שכל מערכת כללים שנשמעת אלגנטית, מוסרית וקלה ליישום עלולה להתפרק ברגע שהיא פוגשת את הערפל של המלחמה, את סתירות הפיקוד, את מגבלות הזיהוי ואת הפער בין הוראות פורמליות לשיפוט מוסרי. במובן הזה, “חוקי הרובוטיקה” חשובים היום פחות כמודל לרגולציה, ויותר כאזהרה מפני האשליה שאפשר לפתור בעיה היסטורית, טכנולוגית ומוסרית עצומה באמצעות שלושה משפטים יפים.

עוד בנושא באתר הידען:

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זו עושה שימוש ב-Akismet כדי לסנן תגובות זבל. פרטים נוספים אודות איך המידע מהתגובה שלך יעובד.