סיקור מקיף

ראיון: בינה מלאכותית, מכוניות אוטונומיות והבנת ה”מוזיקה” של הדיבור

נשיא האקדמיה למדעים פרופ’ דוד הראל חולק עם אתר הידען את תחומי המחקר שלו במכון ויצמן: בין היתר, מידול מערכות ביולוגיות ומדעי המחשב

פרופ' דוד הראל, נשיא האקדמיה למדעים. צילום יחצ
פרופ’ דוד הראל, נשיא האקדמיה למדעים. צילום יחצ

פרופסור דוד הראל, כיום נשיא האקדמיה הלאומית הישראלית למדעים, קיבל את תואר הדוקטור שלו מהמכון הטכנולוגי של מסצ’וסטס (MIT) בשנת 1978, בזמן שיא של שנה ותשעה חודשים. הוא חבר סגל במכון ויצמן למדע מאז 1980, שם שימש ראש המחלקה למדעי המחשב ולמתמטיקה שימושית (בשנים 1989–1995) ודקאן הפקולטה למתמטיקה ומדעי המחשב (בשנים 1998–2004). הוא עבד פרקי זמן במחלקת המחקר של IBM בניו יורק ועשה שנות שבתון באוניברסיטאות קרנגי-מלון, קורנל ואדינבורו, וייסד עם שותפים את חברת I-Logix, שלימים נטמעה ב-IBM. הראל זכה בפרסים רבים, ביניהם פרס ישראל ב-2004 ופרס אמת ב-2010. בנוסף לאקדמיה הישראלית, הוא חבר במספר אקדמיות ברחבי העולם, כולל האקדמיה הלאומית האמריקאית למדעים, האקדמיה הלאומית האמריקאית להנדסה, האקדמיה הסינית למדעים והחברה המלכותית הבריטית.

עיקר תחומי התמחותו של פרופ’ הראל בעבר היו במדעי המחשב התיאורטיים (לוגיקה, חישוביות, אוטומטים ותורת מסדי הנתונים), ובעשורים האחרונים הוא מתמקד בעיקר בהנדסת תוכנה ומערכות, במחקרים על מידול ושחזור של ריח ובמידול וניתוח של מערכות ביולוגיות. פרופ’ הראל הוא ממציאה של שפת דיאגרמות המיצוב (Statecharts) וממציא שותף של דיאגרמות תסריטים חיים (LSCs) וכן של הכלים Statemate, Rhapsody, Play-Engine ו-PlayGo.

בראיון עם אתר הידען הוא מסביר: “תהליך המידול של מערכות ביולוגיות שאנחנו מבצעים משתמש בשיטות וכלים שלקוחים מתחומי הנדסת מערכות והנדסת תוכנה. בשנתיים האחרונות, אני חוקר גם את תחום ה’מוזיקה’ של הדיבור, או האינטונציה (פרוזודיה), בשיתוף עם הבלשנית ד”ר תרזה בירון. באופן כללי, אפשר להקליט שיחות בין אנשים וישנן תוכנות שיכולות להוציא תמליל מדויק של מה שנאמר, בהנחה שמדברים מספיק ברור. התוכנות הללו גם יודעות להבדיל בין הקול שלי לקול שלך. אם תיתן את התמליל לאדם אחר, הוא או היא יוכלו לקבל תחושה דיי טובה לגבי מה שנאמר. עם זאת, יש הרבה מאד דברים שעוברים בשיחה בינינו שחורגים מהמילים עצמן, ומועברים בינינו על ידי המוזיקה של הדיבור. מספיק שאני מדגיש חלק אחד של המשפט ולא חלק אחר וכבר המשמעות משתנה.  אני יכול להגיד לך, למשל, “מי דופק בדלת” בטון רגיל, בטון של פליאה או מתוך פחד ובהלה, ואתה תוכל מידית להבחין בין השלושה. אך לְמחשב את מה שאנחנו בני האדם מסוגלים לעשות בקלות רבה, קשה מאד.

ניתן כמובן, להקליט את כל פרטי גל הקול אבל להוציא מההקלטה את העובדה, שברורה לכל מאזין אנושי, שמשפט נאמר בסקפטיות, בהפתעה, בהיסוס או בשמחה, את זה אף אחד עדיין לא יודע לעשות. המשימה חשובה משום שככל מתרבות המשימות הכרוכות בתקשורת עם מערכות ממוחשבות הדבר יהפוך לחיוני. כאשר אתה מצלצל לקופת חולים ועונה לך מכונה ואתה אומר שהבדיקות לא הגיעו, אותה מכונה תצטרך להבחין בגווני קול שונים – למשל, אם אתה מתכוון רק ליידע שהבדיקה לא הגיעה או שמא אתה ממש זועם – כדי להגיב אליך באופן סביר.”

זיהוי דיבור - השלב הבא.  <a href="https://depositphotos.com. ">המחשה: depositphotos.com</a>
זיהוי דיבור – השלב הבא. המחשה: depositphotos.com

בינה מלאכותית כללית

מהמשימה הזאת נעבור למה שמכנים כיום בינה מלאכותית כללית. פרופ’ הראל מתייחס למאמר שכתב ביחד עם אסף מרון מקבוצת המחקר שלו במכון ויצמן ופרופ’ ג’וזף סיפאקיס מאוניברסיטת גרנובל-האלפים בצרפת. כותרת המאמר היא  “Autonomics: חיפוש אחר תשתית לפיתוח המערכות האוטונומיות של הדור הבא“.

במבוא למאמר כותבים החוקרים: “מערכות אוטונומיות מחליפות בני אדם במגוון רחב של משימות, ובעתיד המערכות הללו תהיינה מרכזיות ומכריעות לחברה האנושית. הן תבואנה בשלל צורות, כגון סוגים שונים של כלי רכב, ציוד רפואי, רובוטים תעשייתיים, רובוטים המשמשים בחקלאות, ניהול מערכות תחבורה ומשימות רבות אחרות,”

 “ארגונים רבים כבר עסוקים בניסיונות לפתח את הדור הבא של מערכות אוטונומיות, כך שתהיינה אמינות וכדאיות מבחינה כספית. אך המורכבות העצומה של מערכות כאלה והחשיבות הקריטית שלהן, יוצרות אתגרים בסיסיים חדשים. יש צורך מכריע בהגדרת תשתית מדעית והנדסית יסודית שתהווה בסיס לפיתוח מערכות אלה. לתשתית כזאת אנו קוראים “Autonomics”, ומאמינים כי זמינותה תוכל להאיץ באופן דרמטי את ההטמעה והקבלה על ידי הציבור של מערכות אוטונומיות איכותיות, לטובת החברה האנושית.”

 קופסה שחורה

” בשנים האחרונות יש שיפור דרמטי בשיטות של למידת מכונה, שנמצאות בבסיס הגישות הרווחות של בינה מלאכותית.  שיטות אלה משתמשות במה שקרוי רשתות נוירונים עמוקות, המורכבות משכבות שכבות של ‘חלקים’ המדמים בתכנה סוגים של נוירונים. הקלטים נקלטים בצד אחד של הרשת והפלטים (כלומר, התשובות) יוצאים מהצד השני. קשה להסביר את הדברים על רגל אחת,  אבל חשוב להעיר שהבעיה בתהליך הזה היא שאין די שקיפות לגבי מה שקורה בתוך הרשת פנימה בעת החישוב. בניגוד לתוכנת מחשב רגילה, שאפשר לראות בה מפורשות את שורות הקוד לביצוע ולעקוב תוך כדי ריצה אחרי מה שהיא עושה, כאן מדובר במערכת שלומדת באמצעות אימון, והרשת עצמה משתנה תוך כדי הלמידה. למשל, אם ‘נאמן’ את הרשת להבחין בין כלב לחתול על ידי שניתן לה מספר גדול של תמונות ונראה לה מי הוא מי, עדיין לא נוכל בקלות להוכיח שבעתיד היא תדע לעשות את ההבחנה היטב, בהסתברות גבוהה. יהיה גם קשה לנו להסביר לעצמנו מדוע היא החליטה שדווקא זה חתול וההוא כלב. מאותן סיבות, קשה להיכנס לתוך הרשת פנימה ולשנות אותה כדי שתוכל, למשל, להבחין בין כלב לנחש. זה כבר לא משהו שאפשר לעשות באמצעות שינויים הגיוניים בקוד. צריך ללמד את הרשת מההתחלה.”

 “כמובן שלא מדובר רק במשימות לא קריטיות ויותר קלילות, כגון הבחנה בין חתול לכלב, אלא במערכות נשק, מטוסים, מכוניות אוטונומית ומערכות לרובוטים שעוזרים בבתי חולים ומבצעים פעולות שיכולות להיות קריטיות.

“המחקר שלי קשור לבעיות האלה. כיצד אפשר לאמת את התכנה, לוודא שהמערכת באמת עושה את מה שאתה מצפה ממנה לעשות, וזאת מההיבט של הבנה מעמיקה של פעולות המערכת תוך כדי ריצה, ולא רק בהסתמך על התוצאות הסופיות.”

האם אתה מתכוון לשחזור פעולות המערכת, כלומר כיצד היא הגיעה לתוצאה?

בינה מלאכותית כללית <a href="https://depositphotos.com. ">המחשה: depositphotos.com</a>
בינה מלאכותית כללית. המחשה: depositphotos.com

פרופסור הראל “כמובן שניתן לבצע הדמיות (סימולציות) של ריצות במצבים שונים, וכך ‘לשחזר’ את מה שהמערכת תעשה בריצה אמיתית בשטח. אבל לא התכוונתי רק לזה, אלא לאפשרות להוכיח מתמטית, באופן פורמלי, שהמערכת אכן תעשה תמיד את מה שרוצים שהיא תעשה ולא תעשה את מה שאסור שתעשה. באופן עקרוני, אפשר להגיע להוכחות כאלה עבור תוכנה או מודלים שנכתבים בצורה קלאסית, בעזרת שיטות אימות מתוחכמות ומורכבות. אבל בתוכנה שמיוצרת על ידי לימוד מכונה אין כרגע דרך להוכיח מתמטית שהמערכת תזהה נכונה 99% אחוז מהתמונות של חתולים שמראים לה. אפשר להריץ שוב ושוב ולהוציא סטטיסטיקות מהריצות האלה, אבל הוכחה מתמטית “סגורה” שכך אמנם יהיה המצב תמיד, אין עדיין בנמצא. והדבר גרוע בהרבה ביישומים הקריטיים באמת של למידת מכונה. אני לא בטוח שמישהו מאתנו היה מוכן שישתילו לו קוצב לב שנבנה ע”י שימוש במערכת שלומדת בלי שאפשר להוכיח שהיא מקבלת החלטות נכונות, אז יש בעיה.”

פרופ’ הראל מדגיש כי “הבעיה אינה בבינה המלאכותית עצמה, אלא בשיטות תכנות של מערכות קריטיות בהן נעשה שימוש רב מדי בבינה מלאכותית, באופן כזה שה’תכנות’  עצמו נעשה ע”י המכונה שלומדת.”

האם השימוש בבינה מלאכותית דורש שיקולים שחורגים מהמדעים הקלאסיים?

 פרופסור הראל: “כן. ראשית, ברגע שמצמידים למערכות האלה, שנעזרות בטכניקות למידה, את הכותרת ‘בינה מלאכותית’, יהיו הרבה שיחשבו שאלה מערכות שמבינות הכל כמו בני אדם, למשל את השיקולים של הנהגים והולכי הרגל בכביש.

“שנית, נכנסים לכאן בהחלט עניינים מתחומי מדעי החברה והרוח כדוגמת פסיכולוגיה, פסיכולוגיה חברתית, אתיקה, תורת המשפט, וכדומה. הדוגמה הטיפוסית לסוגיה הזאת היא מה שמכונה ‘דילמת הקרונית’: “אתה נוסע לך, ופתאום בשבריר שנייה אתה צריך להחליט אם אתה דורס משפחה צעירה שעוברת בפתאומיות את הכביש, ואשר לא ראית מבעוד מועד, או שאתה שובר ימינה (כי משמאל יש קיר) ודורס שני קשישים העומדים על המדרכה. בבית המשפט תוכל להסביר את ההחלטה שקיבלת. תוכל לומר אולי שראית את המשפחה למשך חלקיק שנייה ואינסטינקטיבית שברת ימינה, או אולי הפוך, שראית את זוג הקשישים חסרי היכולת לברוח בקלות, והמשכת ישר כדי לא לפגוע בהם. בכל מקרה, לא תשב במאסר עולם בגלל שבחרת כך או כך. לעומת זאת, אם מכונית אוטונומית תצטרך לקבל החלטה כזאת, מיד ישביתו את כל המכוניות לשנה, יפתחו בתחקיר ארוך ומייגע, יבדקו את התוכנה לעומק, וינסו לברר למה המתכנת עשה ככה או אחרת, ומדוע לא דאג לחשוב מראש על דילמות שכאלה”.

אז נכנסים כאן גם שיקולים אתיים, נכון?

בעיית הקרונית, BBC

“כן. לא נוכל בקלות להחיל את המוסר, האתיקה וניסיון החיים של הנהג  האנושי על המכונית האוטונומית העתידית, באופן שגם האחריות של יצרנית כלי הרכב תהיה מוסברת במונחים של תבונה מלאכותית. לא מספיק שהמכונית תדע לזהות תמרורים ולעצור לפני מעבר חצייה. כדי שיקראו לה מערכת נבונה היא צריכה לרכוש משהו שמתקרב לתבונה אנושית כללית וזו משימה קשה ביותר.

“במכונית שלי יש מערכת שיודעת לשמור מרחק מהרכב שלפניי ולדבוק בנתיב הנסיעה, וכבר אמרו לי לא פעם ‘איזה יופי של מכונית! אוטוטו היא תהיה אוטונומית’. לא נראה שהדבר יקרה בקרוב, ולא רק בגלל הבעיות האתיות: הכנסה לתוכנת המכונית האוטונומית את כל מה שנוגע למערכת היחסים בינה לבין בני אנוש רלוונטיים, הולכי רגל ונהגים אחרים, מורכבת ומסובכת ביותר . לדוגמה, נניח שאני מאט לפני מעבר חציה ולידו עומדים שני אנשים שמשוחחים ביניהם, ואחת פתאום מטה קלות את גופה הצידה. כנהג אנושי, אוכל בדרך כלל לדעת אינטואיטיבית אם ההטיה נעשית כדי להוציא משהו מהכיס ולהראות לאדם האחר או שהיא עומד לחצות את הכביש. אין לנו כיום מושג כיצד להקנות למערכת אוטונומית אינטואיציה דומה. זו מטלה שקשה לתאר את המורכבות המדעית והטכנולוגית שלה.” מסכם פרופ’ הראל.

בעיית הקרונית – ויקיפדיה

עוד בנושא באתר הידען:

.

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זה עושה שימוש באקיזמט למניעת הודעות זבל. לחצו כאן כדי ללמוד איך נתוני התגובה שלכם מעובדים.