הצהרת מונטריאול: מדוע אנחנו חייבים לפתח בינה מלאכותית באופן אחראי

לשימוש בתבונה המלאכותית בחברה יכולה להיות השפעה חיובית או שלילית, העתיד בידינו, אומר יהושע בנג'ו, מדען ישראלי הפועל באוניברסיטת מונטריאול בקנדה, והיה מחלוצי התבונה המלאכותית

בינה מלאכותית. איור: shutterstock
בינה מלאכותית. איור: shutterstock

מחבר
יהושוע בנג'ו, Professeur titulaire, Département d'informatique et de recherche opérationnelle, Université de Montréal

אני חוקר את התבונה המלאכותית (AI) במשך שלושים שנה. כמו רוב עמיתי, לא התערבתי ביישום של הטכנולוגיה משום שיש לי עניין באופי המופשט של רעיון התבונה המלאכותית. רציתי להבין את התבונה המלאכותית. וזו מטרת המדע: הבנה. עם זאת, כאשר קבוצה של חוקרים מצליחה להבין משהו חדש, ידע זה יכול להיות מנוצל למטרות מועילות או מזיקות.

זה המקום שבו אנו נמצאים – בנקודת מפנה שבה מדע הבינה המלאכותית יוצא ממעבדות האוניברסיטאות. במשך חמש או שש השנים האחרונות, חברות גדולות כמו פייסבוק וגוגל החלו להתעניין בתחום ולהפנות מאות מיליונים כדי לקנות חברות AI ולאחר מכן לפתח את המומחיות הפנימית.

ההתקדמות בתחום ה-AI מאז הייתה מעריכית. עסקים מעוניינים מאוד להשתמש בידע זה כדי לפתח מוצרים ושווקים חדשים ולשפר את יעילותם. לשימוש בתבונה המלאכותית בחברה יכולה להיות השפעה חיובית או שלילית. העתיד בידינו.

רובוטים רוצחים ואבדן מקומות עבודה

הנושא שהטריד אותי יותר מכל הוא פיתוחו של נשק אוטונומי קטלני, המכונה גם 'רובוטים רוצחים'.

אמנם יש לסוגיה זו שאלה מוסרית משום שלמכונות אין הבנה של ההקשר האנושי, הפסיכולוגי והמוסרי, ויש גם שאלה ביטחונית, משום שנשק זה עלול לערער את הסדר העולמי.

נושא נוסף שעלה במהרה הוא אבדן מקומות עבודה או משרות שנגרם על ידי אוטומציה. שאלנו את השאלה: למה? למי אנחנו מנסים להביא הקלה? האם נהג המשאית לא מאושר על הכביש? למה הוא צריך להיות מוחלף על ידי תא נהג ריק?
אנו המדענים לכאורה לא יכולים לעשות הרבה. כוחות השוק קובעים אילו משרות יבוטלו או באלה יקטן עומס העבודה, בהתאם ליעילות הכלכלית של המחליפים האוטומטיים. אבל אנחנו גם אזרחים שיכולים להשתתף באופן ייחודי בדיון החברתי והפוליטי בנושאים האלה דווקא בגלל המומחיות שלנו.

מדעני המחשב עוסקים בנושא המשרות לא בגלל שהם יסבלו באופן אישי. למעשה, ההפך הוא הנכון. אבל הם מרגישים שיש להם אחריות והם לא רוצים שעבודתם תגרום למיליוני אנשים להיזרק לרחובות.

שינוי רשת הביטחון הסוציאלי

לפיכך ישנה תמיכה רבה מאוד בקרב מדעני המחשבים – במיוחד אלו שעוסקים בתבונה מלאכותית – לתיקון רשת הביטחון הסוציאלי כדי לאפשר סוג של שכר מובטח, או מה שאני מכנה צורה של כבוד אנושי מובטח.

מטרת החידושים הטכנולוגיים היא לצמצם את הסבל האנושי, לא להגדיל אותו. הם גם לא נועד להגביר את האפליה ואת העוול. ובכל זאת, AI עלולה לתרום לשניהם.
האפלייה קיימת בכל מקום, למשל בגלל העובדה שהתבונה המלאכותית מפותחת בידי גברים בגלל מחסור מדאיג של נשים במגזר הטכנולוגיה. בשל כך, ה-AI משקפת נתונים אודות התנהגות של בני אדם והתנהגות זו מוטה לרוע המזל.
במילים אחרות, מערכת שמסתמכת על נתונים שמקורם בהתנהגותם של אנשים תהיה בעלת אותן הטיות ואפליה כמו האנשים הנמצאים בה. היא לא תהיה תקינה פוליטת. היא לא תפעל לפי המושגים המוסריים של החברה, אלא על פי מכנה משותף. החברה מפלה ומערכות אלו, אם לא נזהר, יכולות להנציח או להגביר את האפליה.

עלולה גם להיווצר מה שנקרא לולאה משוב. לדוגמה, כוחות המשטרה משתמשים במערכות מסוג זה כדי לזהות שכונות או אזורים הנמצאים בסיכון גבוה יותר. הם ישלחו שוטרים נוספים שידווחו על פשעים נוספים. אז הסטטיסטיקה תחזק את ההטיות של המערכת.

החדשות הטובות הן שכעת נעשה מחקר במטרה לפתח אלגוריתמים כדי למזער אפליה. ממשלות, לעומת זאת, יצטרכו לחוקק חוקים ורגולציות שייאלצו עסקים להשתמש בטכניקות אלה.

הצלת חיים

יש גם חדשות טובות באופק. התחום הרפואי יהיה אחד התחומים המושפעים ביותר על ידי התבונה המלאכותית ולא רק כדי לחסוך כסף. הרופאים הם בני אדם ולכן עושים טעויות. אז ככל שנפתח יותר מערכות עם נתונים נוספים, יהיו פחות טעויות. מערכות כאלה מדויקות יותר מהרופאים הטובים ביותר. הרופאים כבר משתמשים בכלים אלה כדי שלא יחמיצו גורמים חשובים כגון תאים סרטניים שקשה לזהותם בהדמיה רפואית.
התבונה המלאכותית מסייעת גם בפיתוח של תרופות חדשות. AI יכולה לעשות עבודה טובה יותר של ניתוח כמות עצומה של נתונים (יותר ממה שלאדם יש זמן לעכל) כי היא כבר צברה נסיון עם תרופות ומולקולות אחרות. אנחנו עדיין לא שם, אבל הפוטנציאל קיים, כדוגמת ניתוח יעיל יותר של התיק הרפואי של המטופל.

אנו מפתחים כלים שיאפשרו לרופאים ליצור הקשרים שאחרת היו מתקשים מאוד לעשות, ויאפשרו לרופאים להציע טיפולים שיכולים להציל חיים. הסיכויים שהמערכת הרפואית תשתנה לחלוטין בתוך 10 שנים גבוהים מאוד, וכמובן, חשיבותה של התקדמות זו עבור כולם היא עצומה.

אני לא מודאג מאבדן משרות במגזר הרפואי. אנחנו תמיד צריכים את היכולת ואת השיפוט של אנשי מקצוע בתחום הבריאות. עם זאת, עלינו לחזק את הנורמות החברתיות (חוקים ותקנות) כדי לאפשר הגנה על הפרטיות (לאסור על רופאים להשתמש בנתוני המטופלים שלהם), וכן לצבור נתונים אלה (בצורה אנונימית) כדי לאפשר ל- AI לסייע בריפוי יותר אנשים דרכים טובות יותר.

הפתרונות חייבים להיות פוליטיים

בגלל כל הסוגיות הללו ואחרות שיבואו, נחתמה ב-4 בדצמבר 2018 הצהרתמונטריאול לפיתוח אחראי של בינה מלאכותית. טקס החתימה התקיים באקדמיה לאמנויות וטכנולוגיה בנוכחותם של כ-500 איש.
ההצהרה נוסחה על בסיס הסכמה רחבה, התייעצנו עם מומחים ואספנו דעות מכל מיני תחומי דעת: פילוסופים, סוציולוגים, משפטנים וחוקרי בינה מלאכותית.
היו כמה גרסאות של הצהרה זו. הטיוטה הראשונה הוצגה בפורום לפיתוח אחראי של AI שאורגן על ידי אוניברסיטת מונטריאול ב-2 בנובמבר 2017.
מטרת ההצהרה היא לקבוע מספר מסוים של עקרונות אשר יהוו את הבסיס של אימוץ כללים וחוקים חדשים כדי להבטיח שפיתוח התבונה המלאכותית ייעשה בצורה אחראית מבחינה חברתית. החוקים הנוכחיים לא תמיד מותאמים היטב למצבים החדשים האלה.

וכאן אנחנו מגיעים לפוליטיקה. עניינים הקשורים לאתיקה או שימוש לרעה בטכנולוגיה הופכים בסופו של דבר פוליטיים ולכן הם שייכים לתחום ההחלטות הקולקטיביות.
ישנה נכונות חזקה מצד ממשלות המחוז, כמו גם הממשלה הפדרלית הקנדית להתחייב לפיתוח אחראי מבחינה חברתית. מכיוון שקנדה היא מעצמה מדעית מובילה בתחום ה-AI, היא תהיה אחת המדינות הראשונות להבין את הפוטנציאל של פיתוח תכנית לאומית. יש לה גם הרצון למלא את תפקיד המנהיגות החברתית.

מונטריאול נמצאת בחוד החנית של תחושת המודעות הזו בשנתיים האחרונות. אני גם מרגיש זאת באירופה, כולל בצרפת ובגרמניה.

באופן כללי, מדענים נוטים להימנע מלהיות מעורבים מדי בפוליטיקה. אבל כאשר יש נושאים שמעסיקים אותם, ושתהיה להם השפעה גדולה על החברה, הם חייבים לקחת על עצמם את האחריות ולהיות חלק מהדיון.

ובוויכוח הזה, הבנתי שהחברה נתנה לי קול – ממשלות והתקשורת התעניינו במה שיש לי לומר על נושאים אלה בגלל התפקיד שלי כחלוץ בפיתוח מדעי של AI.

אז בשבילי, זו עכשיו יותר מאחריות. זו חובתי. אין לי ברירה.

לכתבה באתר THE CONVERSATI0N קנדה

עוד בנושא באתר הידען:

שיתוף ב print
שיתוף ב email
שיתוף ב whatsapp
שיתוף ב linkedin
שיתוף ב twitter
שיתוף ב facebook

3 תגובות

  1. תבונה מלאכותית אמיתית, משתמשת בשכל ישר, אז אםמדעני מחשב רוצים עולם אחראי , שפשוט ייתרכזו בעבודה שלהם ולא ייתיימרו לפתח אחריות סוציאלית כזאת או אחרת

  2. על הפיתוח למטרות מזיקות אין לבנג'יו שליטה. ממשלות מעצמות תפתחנה בינה חזקה מקוצר ראות שבבא
    היום צבא כזה יחסל את הבינה האנושית. אולי זו אחת הסיבות חוץ ממרחק שלא רואים ציויליזציה אינטליגנטית בכוכב אחר. אחד אמנם כי רחוק מדי. אבל שניים כי לצלוח את המהפכה הטכנולוגית הבינתית רוב הסיכויים שלא נצליח. הכוונה טובה וככול שיותר חוקרים מבריקים לא יעבדו למטרות ריכוז השליטה בידי מעטים כך יותר טוב.
    אבל התהליך שקורה בפועל שונה. אם איזה יו"ר גוגל יהיה בעל רגשות אלטרואיסטים אמיתיים, אולי יש סיכוי.
    מוסק מנסה לנוע בכיוון והפילו אותו על עישון הקנביס.

  3. יהושוע בנג'יו, יאן לה-קון, ג'פרי הינטון, איאן גודפלו הם 4 הענקים בבינה מלאכותית.
    בנג'יו הוא ראש מרכז הפיתוח לבינה מלאכותית של גוגל במונטריאל – וגוגל היא המנוע כיום לחלק עיקרי במחקר.
    יהושוט וג'פרי – מחדשים ללא הרף. למרות שמאחריו כ-400 מאמרים, מאמר חדש שלו לא מפסיק לחדש.
    הוא גם מרצה טוב. ייתכן והסיבה שהוא מחדש ללא הרף הינה שבפיקודו עשרות דוקטורים ודוקטורנטים, כך ששמו נקשר לכל תגלית פורצת דרך.

    בגוגל deepmind מדען יהודי נוסף פורץ דרך david silver, אך אולי בגלל הרצון של גוגל לא לקשור
    תגליות לאנשים ספיציפיים אפקט האח הגדול, הוא נבלע. הוא היה צריך לפתח קריירה מקבילה ב UCL לונדון
    בעצימות גבוהה כמו בנג'יו במונטריאול. הבעייה שלנו "היהודים" היא השחצנות, כי 2 סמנכ"לים בחברה זו הם מוסלמים והפרסים הבאים יהיו שלהם.

כתיבת תגובה

האימייל לא יוצג באתר.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

דילוג לתוכן