אין ספק שפריצות הדרך הטכנולוגיות החדשות ישנו את פני המחקר המדעי. מאמר חדש מצביע על שלושה כשלים שחשוב להיזהר מהם
מאת אורי פוגל, באדיבות מכון דוידסון לחינוך מדעי, הזרוע החינוכית של מכון ויצמן למדע.
בחודש יוני השנה חגג הסרט "המטריקס" חצי יובל לצאתו לאקרנים. כבר בתחילת הסרט מגלה גיבורו, ניאו, שהעולם שבו הוא חי נשלט בידי מכונות בעלות בינה מלאכותית, שמרדו ביוצריהן ושעבדו את המין האנושי. כשהסרט יצא לראשונה הצופים נהרו בהמוניהם לאולמות הקולנוע, כפי שעשו בשלל סרטים אחרים על בינות מלאכותיות שיצאו משליטה. אך כיום, ככל שהבינה המלאכותית מעמיקה את חדירתה לחיינו, מתחדדת ההבנה כי הסכנות הכרוכות בשימוש בבינה מלאכותית עשויות להיות דרמטיות פחות וחמקמקות הרבה יותר.
דוגמה לסכנות הללו אפשר לראות בתחום המחקר המדעי. בדומה לתחומים רבים אחרים בכלכלה ובחברה, השימוש בכלי הבינה המלאכותית במחקר המדעי הולך וגובר. במענה להתפתחויות המהירות בתחום פרסמו לאחרונה הפסיכולוגית מולי קרוקט (Crockett) והאנתרופולוגית ליסה מסרי (Messeri) מארצות הברית מאמר דעה משותף בכתב העת Nature, שבו מיפו את הכשלים הללו.
במאמרן בחנו השתיים את החזון שהציגו מדענים אחרים בקשר לעשייה המחקרית הנתמכת בבינה מלאכותית, כדי להעריך איך עשויה להיראות העבודה המדעית בעתיד הלא רחוק. הן תיארו תמונה של עתיד שבו התפקידים הקלאסיים של המדען יעברו באופן מוחלט לידיהן של בינות מלאכותיות. הבינה המלאכותית תעבד ספרות מדעית ענפה, ותציג את שאלות המחקר המעניינות ביותר. במקום לאסוף נתונים מהטבע או מהאדם, נוכל לייצר נתונים מלאכותיים באמצעות הדמיות שתיצור הבינה המלאכותית. המסקנות שנסיק מהנתונים יתבססו כולן על הערכות של בינה מלאכותית. והדובדבן שבקצפת – הבינה המלאכותית תבדוק ותבקר מאמרים חדשים שמוצעים לפרסום.
״התגובה המיידית שלי לתחזיות האלה הייתה "הם התחלקו על השכל?" הודתה קרוקט בריאיון למגזין הרשת Ars Technica. "אבל הרי לא בחרנו את המאמרים סתם כך מתוך גחמה. אלה הדברים שאומרים בכירי המדענים הבכירים על עתיד הבינה המלאכותית".
תועלת עם נזק בצידה
היתרונות שמציעה הבינה המלאכותית למחקר המדעי ברורים: ביניהם חיסכון אדיר בכסף ובשעות עבודה, ופתיחת שער לרעיונות חדשים שאינם מוגבלים לצורת החשיבה של המוח האנושי. עם זאת, קרוקט ומסרי טוענות שלתועלת הזאת נלווה תג מחיר לא פשוט: פגיעה בעצם ההבנה שלנו את המציאות.
המאמר מבוסס על מחקרים שבחנו את מידת האמון של חוקרים בכלי בינה מלאכותית. בהתבסס עליהם הגדירו הכותבות שלושה סוגים של אשליות שמדענים נוטים ללכת שבי אחריהן בעבודתם עם כלים כאלו. הסוג הראשון הוא האשליה שאנו יכולים להסביר את הממצאים שהתקבלו. כלי הבינה המלאכותית מבוססים על חישובים מסובכים ועל מציאת קשרים לא מובנים מאליהם בין פרמטרים. חוקרים שמשתמשים בכלים אלו הם אומנם מומחים בתחום המחקר שלהם, אך זה לא אומר שהם בהכרח מומחים גם לאלגוריתם עצמו – אוסף כללי קבלות ההחלטות של תוכנת הבינה המלאכותית. ברגע שחוקר מחזיק בידיו ממצאים, הוא ייטה לאמץ אותם כעובדה ולשכוח שהדרך שבה התקבלה אינה שקופה לו.
AI לא בוחנת את כל האפשרויות
האשליה השנייה היא שהבינה המלאכותית בוחנת את כל האפשרויות הקיימות. בפועל היא לומדת נתונים מוגבלים, שנגזרים מהיקף מאגר הנתונים שעליו אימנו אותה ומאופי המידע. לכן גם מסקנותיה יהיו בהכרח מוגבלות. למשל, חוקרי התנהגות שמחפשים תובנות על הטבע האנושי עשויים לאמן מודל בינה מלאכותית על בסיס חומרים מרשת האינטרנט. על כן המודל שלהם לא יכלול מאפיינים שלא באים לידי ביטוי באינטרנט. ובינה מלאכותית שאומנה על מאגר נתונים רפואי לא תסיק דבר על מדדים שלא מופיעים במאגר הזה.
האשליה השלישית היא שכלי הבינה המלאכותית הם אובייקטיביים, ואילו לבני אדם יש הנחות מוצא מוטות. כפי שהאדם הוא תבנית נוף מולדתו, כך הבינה המלאכותית היא תבנית נוף הנתונים שבהם השתמשה ללמידה שלה. חברת אמזון, לדוגמה, הבחינה שהאלגוריתם שלה לסריקת קורות חיים, מתעדף מועמדים גברים. האלגוריתם פשוט נתן ציון גבוה יותר לקורות חיים שבהן הופיעו מילים שנמצאות בשימוש רחב יותר אצל גברים מאשר אצל נשים, ועשה זאת על סמך מאגר המידע שבעזרתו אימנו אותו – מאגר שכלל את הבחירות שעשו בני אדם לפניו.
בהשפעת האשליות הללו, אנו עלולים למצוא את עצמנו עם מדע מנוון ופחות מגוון, בלי שנעלה על הדעת שיש במחקר שלנו בעיה. אחת האסטרטגיות שקרוקט ומסרי מציעות היא עבודה בצוותים שמשלבים דיסציפלינות מחקר מגוונות. כך תפחת הסכנה שיתמקדו בכיוון מחשבה דומיננטי אחד בלבד. יש להדגיש כי הן ממש לא פוסלות עבודה עם בינה מלאכותית, שכן התועלת שלה למדע ברורה לכול. "עלינו ללמד את עצמנו את הדרכים שבהן בינה מלאכותית עלולה לסכן את תהליך היצירה של הידע המדעי״, מסכמת קרוקט. "מדענים שעובדים לבד לא יוכלו לעזור לנו לצמצם את הסכנות הללו".
עוד בנושא באתר הידען:
תגובה אחת
האשלייה החמורה ביותר היא שהאנשים סבורים שלאלו שמאמנים את המכונה ומרכזים את חומרי האימון אין הטייה. לא כך הוא. ההטייה של מעטים בלבד היא לא מודעת, אבל רבים יפעלו באופן נחרץ ומגמתי כדי שהבינה המלאכותית תבטא את האידיאולוגיה הפוליטית שלהם באופן הבוטה ביותר האפשרי.
מילות מפתח לגילוי ההטיות האלו: DEI: Diversity Equity and Inclusion, Anti Racism ועוד.