סיקור מקיף

“זה שאפשר לעשות משהו עם בינה מלאכותית לא אומר שצריך לעשות אותו”

כך אמרה פרופ’ פרנצ’סקה רוסי, סגנית נשיאת יבמ לאתיקה של בינה מלאכותית במפגש עיתונאים שהקיים במעבדת המחקר של IBM בציריך כדוגמה הביאה רוסי את הבעיה המכונה בעיית הקרונות, ואמרה בתשובה לשאלת אתר הידען האם כשכל המכוניות יהיו אוטונומיות יהיה בכלל סיכון כזה, כי עדיין צפויות תאונות עם הולכי רגל ורוכבי אופניים

אתיקה ובינה מלאכותית. איור: shutterstock
אתיקה ובינה מלאכותית. איור: shutterstock

 

“זה שאפשר לעשות משהו עם בינה מלאכותית לא אומר שצריך לעשות אותו”, כך אמרה פרופ’ פרנצ’סקה רוסי, סגנית נשיאת יבמ לאתיקה של בינה מלאכותית. פרופ’ רוסי ופרופ’ בארי או’סאליבן מאוניברסיטת קורק באירלנד, המשמש גם כנשיא קבוצת חוקרים לבינה מלאכותית שמייעצת לנציבות האיחוד האירופי, שוחחו על נושא זה עם עיתונאים, במפגש שהתקיים במרכז המחקר של הענק הכחול בציריך. השניים העבירו את דבריהם בווידיאו, משום שהם שהו בזמן השיחה בכנס של האיחוד האירופי בבריסל.

לדברי פרופ’ רוסי, “אנשים אוהבים את התועלת שבטכנולוגיות החדשות, אך גם חוששים מהן. יש המון חששות שצריך לענות עליהם. אחד מאותם חששות הוא מהטיה, לעיתים בלתי מודעת. המערכות אמנם מתבססות על לימוד מכונה, אך אם הנתונים שמהם המערכת לומדת והמודל שסביבו מפתחים אותה סובלים מהטיה, אפילו קטנה, ההמלצות שהיא תיתן לא תהיינה הוגנות. כמו כן, על המערכת לדעת להסביר כיצד הגיעה לתוצאה, אחרת אף אחד לא יאמין לה”.

פרופ' פרנצ'סקה רוסי, סגנית נשיאת יבמ לאתיקה של בינה מלאכותית. צילום: יח"צ
פרופ’ פרנצ’סקה רוסי, סגנית נשיאת יבמ לאתיקה של בינה מלאכותית. צילום: יח”צ

“אנחנו, ביבמ, מתכננים את המערכות מהיום הראשון של עיצובן כך שתענינה על הסוגיות האתיות”, אמרה. פרופ’ רוסי ציינה מספר צעדים שעושים בענק הכחול כדי להגיע למטרה זו: “אנחנו עורכים הדרכות ובאים עם רשימה ארוכה של שאלות שהמתכננים של מערכות כאלה צריכים לשאול את עצמם, על מנת לזהות הטיות ולהתמודד איתן בכל אחד מרכיבי המודל. כמו כן, פתחנו את ה-API’s של המערכות כדי להגדיל את השקיפות. אנחנו חוקרים כל הזמן את התחום ומעבירים את תוצאות המחקר לפיתוח המוצרים והשירותים, ומרחיבים את השותפות בנושא עם בעלי העניין. עלינו, כמו גם על ארגונים אחרים, להיות מודעים ליכולות של הבינה המלאכותית, אך גם למגבלותיה”.

דוגמאות להטיות

פרופ’ רוסי הציגה את הבעיה המכונה בעיית הקרוניות שעיקרה, קרוניות נוסעות על מסילה בכיוונים מנוגדים, הנהג של אחת הקרוניות צריך להחליט האם להתנגש עם הקרונית השניה או לסטות למסעף שבו הוא ידרוס הולכי רגל. כמובן, כשמכונית אוטונומית תקבל החלטה במצב של תאונה וודאית רק צריך להחליט מול מי, חייבים להכניס לה שיקול אתי ומוסרי. בתשובה לשאלת אתר הידען, אם הבעיה לא תיפתר כאשר כל המכוניות תהיינה אוטונומיות שכן הן תוכלנה לתקשר עם התשתית ואף עם מכוניות שנמצאות מחוץ לקו הראיה (למשל מאחורי סיבוב או צומת), ענתה רוסי כי ברור שהסיכוי שיהיה צורך לקבל החלטה כזו יהיה קטן, אבל עדיין צריך להתחשב בו, מה גם שבדרכים ימשיכו לנוע גם הולכי רגל ורוכבי אופניים, הגם שהתאונות תהיינה נדירות יותר, עדיין הן לא יתבטלו לגמרי ולכן צריך להתכונן.

פרופ’ או’סאליבן ציין “דוגמה פשוטה מאוד של הטיה, שנעשית בעת תרגום באינטרנט. כך, מטופל צריך לקבוע פגישה עם רופא, והמערכת מניחה באופן אוטומטי שרופא הוא גבר. אלא שכמובן שגם אישה יכולה להיות רופאה. כמו כן, באפריל פורסם מאמר בכתב העת Science, שהראה שבשפות רבות, תארים של אנשים בדרגות גבוהות כמו נשיא, מנהיג או מנהל הם בזכר (למשל בעברית, בדרך כלל – א”ב). נקבות, לעומת זאת, מקושרות לתפקידים אכפתיים או לתפקידי תמיכה. זוהי הטיה שמובנית בשפה עצמה וקשר להתגבר על סוגי הטיות אלה כשזה נוגע לטכנולוגיה ולמחשוב”.

הוא הוסיף ש-“יש הטיות אחרות שעולות ממערכות שפועלות באינטראקציה זו עם זו. מיקרוסופט, לדוגמה, פיתחה מערכת צ’טים שהתבססה על ציוצים בטוויטר. בתוך 18 שעות היא נאלצה להוריד את המערכת, משום שהצ’טים שהתנהלו בה הפכו לגזעניים ומעליבים. זה מפני שאנשים משתמשים בטוויטר בשפה מסוג מסוים. חוץ מזה, באה לידי ביטוי הנטייה של אנשים לפרק את המערכת ולנסות לבחון אותה”.

“בעיה אחרת של הטיה יכולה להיגרם בהמלצה על מוצר”, אמר פרופ’ או’סאליבן. “למשל, המערכת של נטפליקס ממליצה לצופה על סרטים דומים לאלה שהוא צפה בהם, ורק עליהם. כך נוצרת בועה. הדבר מסוכן אף יותר בתחום החדשות – אנשים מקבלים רק את החדשות המתאימות לדעה הפוליטית שלהם”.

מה הגון? מה מוסרי?

השניים דיברו במהלך השיחה גם על הגינות ומוסריות. פרופ’ רוסי אמרה ש-“יש הגדרות רבות להגינות. רעיונות שונים של הגינות מתאימים להקשרים שונים ולמשימות שונות. הגדרה של הגינות יכולה להיות סבירה במשימה אחת, אך לא באחרת. השקיפות יכולה לעזור, כי כך נוכל לדעת כיצד הוחדרה ההגינות למערכת”.

לדברי פרופ’ או’סאליבן, “אין הסכמה אודות מהו דבר מוסרי ואתי, משום שהדברים הללו תלויים בנורמות חברתיות. בבואנו לבנות מערכות טכנולוגיות אתיות, אנחנו בוטחים בתהליכים שבאמצעותם מייצרים אותן, אבל האם אנחנו סומכים על התאגידים שעושים זאת? צריך לחשוב פחות על אתיקה ויותר על החוסן של המערכות והפרקטיקות של השימוש בהן”. פרופ’ רוסי אמרה כי “צריך לתת לשוק לעשות את שלו”.

עוד בנושא באתר הידען:

5 תגובות

  1. “צריך לתת לשוק לעשות את שלו” – בקביעה הזאת הפרופ’ סתרה את דבריה וחיסלה את הרלוונטיות של השיקול המוסרי לאתגר הבינה המלאכותית.
    ל”שוק” אין הגיון מוסרי. ה”שוק” – בין כלכלי ובין רעיוני, יש חשיבות עצומה אם הוא חופשי ותחרותי . אבל אבל רק אם הוא פועל עדיין בגבולות של מסגרת אתית חיצונית שאינה תלויה בהגיון הפנימי של השוק, אם כי מספיק חופשית וגמישה כדי להשאיר אותו אוטונומי מספיק כדי לתפקד ברמה התחרותית. אחרת הוא הופך למפלצת (- במקרה זה בינה מלאכותית לא מפוקחת שעלולה להפוך לגורם מאיים או מזיק), ומפלצת שצילה הנרמז מופיע במערכה הראשונה – הורגת בשלישית, אם לא מוקדם יותר.

  2. זאת הבעיה עם ״אתיקנים״. הם הרי לא תורמים לחזון ובסהכ׳ שוכרים אותם ״כפייק דוברים״(מישהו צריך לפזר פופוליזם להמון החושש).
    איי בי אם וודאי רוצים להראות שהם ניגשים בזהירות לנושא.
    יש לציין שזאת חברה מופלאה שעובדת קשה להיות חלוצה ומובילה את ״פרוייקט המוח״ בדרך להיות בדיוק ההיפך ממה שהגברת מספרת שצריך להיות.

  3. “זה שאפשר לעשות משהו עם בינה מלאכותית לא אומר שצריך”: אם משהו אפשרי עם בינה מלאכותית, הוא ייעשה. זה מקביל לחוקים 34 ו-35 של האינטרנט.

    פרט לכך, עד שמשהו לא ייעשה אי אפשר יהיה להבין את כל ההשלכות שלו. כך לדוגמה הירהרתי לי לרגע על הייתכנות להכניס רובוט כמשרת לבית שלי, והבנתי שהחמצתי משהו חשוב מאוד, שלא שמתי אליו לב במשך העשורים האחרונים: החוק הראשון של אסימוב לקוי, וצריך להיות מנוסח כך: “לא יפגע רובוט באדם או בחתול, ולא יניח במעשה או במחדל שאדם או חתול ייפגעו.

    לכך יש שתי הערות:
    1. נודניקים מוזמנים להגדיר את הכלב שלהם כ”חתול”.
    2. יש בעיה מהותית בהתאמה דומה של החוק השני, משום שאם הוא יורחב באופן דומה, הרי שכל זמנו של הרובוט יוקדש מכאן ואילך לגירוד מאחורי האוזניים של חתולים.

  4. כתבתם “אם הבעיה לא תיפטר כאשר ” במקום ש רגילים לכתוב “אם הבעיה לא תיפתר כאשר “, אבל יצא לכם לא פחות נכון מהנכון. אולי בכווונה?

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זה עושה שימוש באקיזמט למניעת הודעות זבל. לחצו כאן כדי ללמוד איך נתוני התגובה שלכם מעובדים.