סיקור מקיף

לתכנת רובוטים מוסריים

בעתיד הקרוב, ישויות בעלות בינה מלאכותית יוכלו להיות “יצורים מוסריים יותר מבני-אדם” – או לפחות כאלו שמקבלים החלטות טובות יותר בבואם לטפל בדילמות מסוימות.

מסוק רובוטי. צילום: shutterstock
מסוק רובוטי. צילום: shutterstock

בשנת 2009 דיווחנו באתר הידען על דו”ח של חוקרים מהמכון הפוליטכני של קליפורניה להטמיע קוד אתי, שיהיה מבוסס על משהו דומה לשלושת חוקי הרובוטיקה של אסימוב ברובוטים לשימושים צבאיים. לדברי החוקרים אז, רובוטים צבאיים אוטונומיים יהיו חייבים לציית לקוד לוחמים או שהם יהפכו לאדוני האנושות.

בשנים שחלפו מאז, כפי שהדבר בא לידי ביטוי גם במסגרת מבצע צוק איתן, נעשה שימוש רב בטכנולוגיה, ובין היתר, הראו כיצד שימוש בכטב”מים המצויידים באמצעי ראיית לילה ואף (חלקם) באמצעי התקפה. היום, עיקר התבונה של המערכות הללו היא בסיוע לניווטם וניהוגם, אך כל הקשור לתפעולם נעשה בידי מפעילים אנושיים.

בעתיד הקרוב, ישויות בעלות בינה מלאכותית יוכלו להיות “יצורים מוסריים יותר מבני-אדם” – או לפחות כאלו שמקבלים החלטות טובות יותר בבואם לטפל בדילמות מסוימות.

התכנון של רובוטים בעלי יכולת מוסר עצמאית עשויה לכלול הטמעת יכולת מצפונית שפותחה באופן מושלם על מנת להבדיל בין טוב לרע, ולפעול על פי כך. רובוטים עתידיים אלו עשויים להיות מוסריים יותר מאשר בני-האדם.

בשנת 2002, הרובוטיקאי Gianmarco Veruggio טבע את המונח רובו-אתיקה (roboethics) – הטמעה של מוסר אנושי במסגרת התכנון, הייצור והתפקוד של רובוטים – תוך הדגשת יעד המחקר שאליו יש לשאוף. באותו זמן, המוסר של בינה מלאכותית נחלק לשני תת-תחומים:

  •  מוסר של מכונות: הענף העוסק בהתנהגות של גורמי מוסר מלאכותיים;
  • מוסר של רובוטים: הענף האחראי לשאלות באשר להתנהגותם של בני-אדם – כיצד הם מפתחים, בונים, משתמשים ומתנהגים כלפי רובוטים כלפי יצורים אחרים בעלי בינה מלאכותית. תחום זה כולל גם את התהייה באשר לאפשרות לתכנת רובוטים כך שיהיו בעלי קוד אתי שיוכל לכוון את התנהגותם בהתאם לנורמות חברתיות המבדילות בין טוב לרע.

באופן הגיוני, על מנת שניתן יהיה ליצור רובוטים עצמאיים מבחינה מוסרית כעין אלו, החוקרים חייבים להסכים על מספר אמות מידה בסיסיות: מהי יכולת מוסרית ומה על בני-האדם לצפות מהרובוטים העובדים לצידם בעודם חולקים עימם את תהליך קבלת ההחלטות בתחומים כגון רפואה ולחימה. בה בעת, צצה ועולה שאלה נוספת: מהי אחריותם של בני האדם ביצירת בינה מלאכותית בעלת עצמאות מוסרית? והשאלה המחקרית העיקרית: מה עלינו לצפות מרובוטים בעלי יכולת מוסרית?

אחת הסוגיות החשובות ביותר, הגם ששאלות רבות אודותיה נותרו ללא מענה, היא באשר לרעיון של ‘יכולת מוסרית’. הפרופסורים Bertram F. Malle מאוניברסיטת בראון ו-Matthias Scheutz מאוניברסיטת Tufts פרסמו השנה מאמר מחקרי שכותרתו: “יכולת מוסרית של רובוטים חברתיים“. במאמרם זה הם טוענים כי יכולת מוסרית מורכבת מארבעה מושגים רחבים:

  1. ליבה מוסרית: “מערכת של הנורמות ושל השפה והמונחים שנועדו להגדיר את הנורמות הללו, לרבות מושגים ושפה של מוסר ורשת של נורמות מוסר”;
  2. פעולה מוסרית: “מודעות למוסר ולתוצאות” – התאמת פעולותיו של הגורם לנורמות;
  3. הכרה ורגש מוסריים: “קביעת החלטות ונקיטת פעולות מוסריות”, התגובה התחושתית להפרת נורמות ושיפוט מוסרי;
  4. תקשורת מוסרית: הנמקה, הצדקה, התמקחות והשלמה עם הפרות של מוסר.

תכנון של רובוטים בעלי יכולת מוסר עצמאית עשוי להיות מעורר השראה ומרתק, אולם ללא ספק הוא יהיה מאתגר. המהנדסים חייבים לעבור דרך שלבים הכרחיים. ראשית, הם חייבים לבנות ייצוג ממוחשב של מערכות מוסר ולהטמיע מונחים ואוצר מילים בתחום של מוסריות אל תוך הארכיטקטורה של הרובוט. בשלב הבא, עליהם לפתח אלגוריתמים שיוכלו להכיל באופן ממוחשב הכרה וקבלת החלטות מוסריות.

בתרחיש מעשי, לדוגמה, מערכת בעלת יכולת מוסרית עצמאית שנועדה למטרות תעבורה רפואית תצטרך להחליט אם שינוי נתיב התנועה שלה מנקודת ביקורת א’ לנקודת ביקורת ב’ היא הדרך הטובה ביותר להשגת התכלית שלה, שהיא העברת אספקה לאזור מוכה אסון או לשדה הקרב.

 

8 תגובות

  1. מוסר זה עיניין חברתי, והוא שונה בין תרבויות, ככה שטוב ורע זו הגדרה מעורפלת וחסרת בסיס, מוסרי בתרבות אחת יכול להיות בלתי מוסרי בתרבות אחרת, ככה שמוסריות הרובוט היה שייך למי שתיכנת אותו.

  2. אני רוצה להרחיב על מה שהמגיבים כתבו כאן בעזרת דוגמה שהייתי שותף לה. הפרטים מעט שונו מטעמים מובנים.

    קיבלתי הוראה לתקוף רמזור במקום מסויים, ברחוב סואן. לא היה לי כל מידע אחר. כחייל ממושמע ביצעתי את ההוראה כמו שלימדו אותי, תוך כדי פגיעה באזרחים.

    האם זה היה מוסרי? על פניו נשמע שלא. אבל – התברר שחסימת הכביש בנקודה זו מנעה פיגוע המוני שבה היה נהרגים עשרות, אם לא מאות, אזרחים תמימים.

    מה בדיוק היה יכול נשק אוטונומי להחליט במצב כזה? הוא לא חשוף למידע שלאחרים יש. שיקול הדעת חייב, לדעתי, להשאר בידי בני אדם.

  3. רובוטים מוסריים יותר מבני אדם?!
    מי בדיוק ילמד את הרובוט מה מוסרי ומה לא אם לא בני אדם?

  4. באותו הקשר, אחד הדברים המדאיגים באותם רכבים שנוהגים לבד זה האפשרות לבצע איתם פיגועים, התנקשויות, וכו’.

  5. כמובן שכרגע אנחנו עוד לא יודעים איפה ניתן להטמיע קוד מוסרי ברובוט זה עוד מאד רחוק מזה
    זה כמעט כמו רצון להטמיע קוד מוסרי בחרק, בהנחה שזה יהיה אפשרי בעתיד אז
    הרובוטים האוטונומים יותאמו למוסר שהוא תלוי תרבות אצל בני אדם וגם אז יהיו חריגות,
    נתחיל בתלוי תרבות ברור שגוף כמו הנאצים לדוגמא יתכננו את הרובוט לפי הקוד “המוסרי” שלהם,
    ואין ספק שמבחינה טכנולוגית אם היה דבר כזה ותהיה תרבות כזאת כאשר הם יפגשו החיבור יהיה רע,
    אבל גם אם הפיכת הרובוט לקצת יותר אכזרי יתן לאיזה צד יתרון גם צד מוסרי לא יוכל לעמוד בפיתוי,
    ניתן לדוגמא לקחת את בעלות הברית במלחמת העולם ה 2 בניתוח הפעולות שלהם לדוגמא הפצצת ערים
    זה רחוק מלעמוד בסדנדרטים המוסרים של היום שאנו רוצים, אבל שהרוע משתלט גם הטובים
    לא יוכלו להימלט מהמדמנה הרצחנית שהיא מלחמה הם יצטרכו להפשיל את השרוולים ולהתלכלך,
    בסופו של דבר מדובר פה בקיום הקבוצתי שהוא הופך לרף העליון מעל הפרט
    אם הוא יכול ללכת עם המוסר אז יפה אבל אם לא גם הטובים יזיזו את המוסר הצידה כדי לשרוד,
    ניתן לקחת כדוגמא את מידת האוטונומיה שמערכת רובוטית תהיה, מדובר פה על מערכת על לקבלת החלטות מהירה עודף אוטונומיה תאורטית יכולה לצאת מידי שליטה
    ויכול לסכן את היוצר, אבל אם יוצר הרובוטיקה מזהה יתרון במערכת רובוטית יותר אוטונומית
    הוא לא יוכל לא להטמיע את זה לו רק מהסיבה שהאויב יטמיע את זה ואז המערכת שלו תקרוס מול היריב,
    כך גם הוצאת אלמנטים מוסרים מתוך המערכת, לדוגמא אם אנו נזהה שאלמנטים מוסרים שמוטמעים
    במערכת הרובוטית שלנו גורמת לה לגמגם להאיט מול המערכת הרובטית של היריב והתוצאה
    הברורה תהיה הפסד, במה נבחר במוסר וההכחדה או פגיעה באלמנטים המוסרים שאנו מאמינים בהם
    אבל אנו לא יוכלים לישם אותם באותה מערכת רובוטית,
    אולי זה הבסיס המסוכן במערכות האלו, שברגע שהם יתממשו יהיה קשה מאד לשלוט במה שיצא מהם
    בנוסף מערכת רובטית עם זאת מערכת על לקבלת החלטות ואם זה מערכת רובוטית כמו חייל בשדה הקרב
    אם יהיה בה את היכולת להטמעה של קוד מוסרי זה יהיה גם מערכת עם מורכבות אדירה
    שתמיד ישארו אלמנטים לא צפוים כמו באדם כל אחד שמפתח מכיר את זה שלב ההרצה כמו חברת
    בוינג עם המצבר במסטוס שכשל ומדובר פה במהנדסים הטובים בעולם,
    או כל מערכת בקרתית, כמה שהמורכבות עולה כך גם הארועים הלא צפוים, עוד אלמנט מרכזי במערכת רובוטית
    לוחמנית שתיתן לה את היתרון יהיה חופש פעולה מענה על מצבים לא צפוים בדיוק כמו האדם
    שמתוך הדרישות האלו גם עולה הסכנה במערכת הזאת,
    דילמה אנושית אחת לא תעמוד למערכת רובטית והיא טיפול ברובוט שנפגע או חדל להתקיים,
    כך שהוא תמיד יוכל להמשיך לפעול באותו סט קודים שיקולים והוא לא ישנה את דרך הפעולה באופן רגשי
    אלה שינוי יהיה תמיד טקטי או אסטרטגי,
    בגלל המורכבות של זה זה יקח עוד הרבה שנים עד שנראה את זה אבל אלו יהיו הבעיות
    שהאנושות תצטרך להתמודד בעתיד.

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זה עושה שימוש באקיזמט למניעת הודעות זבל. לחצו כאן כדי ללמוד איך נתוני התגובה שלכם מעובדים.