השירות גם יספק – בזמן אמת – הסברים על תהליך קבלת ההחלטות של המערכות ואף ימליץ כיצד ניתן לתקן את ההטיה. מחקר חדש של IBM הראה כי 82% מהארגונים שוקלים הטמעת מערכות בינה מלאכותית אך 60 אחוז חוששים מנשיאה באחריות משפטית להחלטות שיתקבלו
מערכות בינה מלאכותית מציעות קפיצת מדרגה בניתוח נתונים אך עקב אכילס שלהן הוא איכות הנתונים ששימשו לאימון המערכת – והעדר הטיה מובנית ביישומים עצמם. כעת משיקה IBM כלי חדש שיסרוק יישומי בינה מלאכותית במהלך עבודתם, יזהה מקרים של הטיה בניתוח, יסביר את הסיבות להטיה ואף ימליץ כיצד ניתן לתקנה בעתיד. בנוסף תעמיד חטיבת המחקר של IBM לרשות קהילת הקוד הפתוח ערכת כלים לאבחון הטיות בתהליכי הבניה והיישום של מודלים ללמידת מכונה.
השירות החדש וערכת הכלים למפתחים מהווים יחד את המהלך המקיף מסוגו בתעשייה לקידום השקיפות, האמון והשליטה בפיתוח טכנולוגיות בינה מלאכותית חדשות, במטרה לקדם את שיתוף הפעולה בהתמודדות עם הסיכונים העלולים לנבוע מהטיות שכאלה. השירות וערכת הכלים מתבססים על מסמך שפרסמה IBM לאחרונה הכולל עקרונות מנחים לפיתוח אתי של מערכות בינה מלאכותית.
שירות התוכנה האוטומטי לחלוטין, שיפעל בסביבת הענן של IBM, יספק הסברים אודות הטיות בתהליכי קבלת החלטות של יישומי בינה מלאכותית תוך כדי תהליך קבלת ההחלטות, ויזהה תוצאות בלתי הוגנות בעת שהמערכת מפיקה אותן. הכלי החדש יספק את ההסבר להטיה שזיהה במונחים פשוטים, בסיוע לוחות מחוונים ויזואליים (dashboard), ואף יצביע על המשתנים שהיטו את ההחלטה לכיוון מסוים לעומת משתנים אחרים. הוא גם יספק ציון מפורט של רמת האמון שיש לו בהמלצה המוצגת על ידי המערכת, והגורמים העומדים מאחורי הציון הזה.
הכלי החדש גם יוכל להמליץ על נתונים אותם ראוי להוסיף למודל על מנת למזער ולמנוע כל הטיה שאותה המערכת זיהתה. בנוסף, כל הרשומות הנוגעות לדיוק המודל, הביצועים וההוגנות, כמו גם תהליך קבלת ההחלטות במערכת הבינה המלאכותית, ניתנים למעקב ולבידוד לצורך קבלת שירות טוב יותר או הבטחת ציות לרגולציה דוגמת תקנות GDPR.
"על מנת שמערכות בינה מלאכותית יוכלו להתפתח, וכדי שעסקים יוכלו לנצל את יתרונותיהן, המנהלים צריכים לבטוח בהן", אמרה ד"ר איה סופר, סגנית נשיא עולמית לטכנולוגיית בינה מלאכותית ב-IBM. "מנהלים צריכים יכולת לנהל את המערכות, לזהות ולהתמודד עם הטיה. ישנה חשיבות עליונה, ולעיתים גם דרישה חוקית, שהשקיפות תהיה חלק מתהליך קבלת ההחלטות ביישומי בינה מלאכותית. השירות וערכת הכלים החדשים יסייעו לפתוח את "הקופסה השחורה" של יישומי בינה מלאכותית ויעניקו לחברות את האמון ביכולתן לנהל את המערכות הללו ולהסביר איך הן קיבלו את ההחלטות".
השירות החדש של IBM מותאם למודלים המבוססים על מגוון מערכות למידת מכונה ובינה מלאכותית כגון אלה של ווטסון, Tensorflow, SparkML, AWS SageMaker כמו גם AzureML. ריבוי הסביבות הנתמכות על ידי השירות החדש מבטיח שארגונים רבים יוכלו לנצל את יכולות השליטה ומניעת ההטיות במסגרת רוב סביבות הבינה המלאכותית הנמצאות כיום בשימוש. ניתן גם לתכנת את השירות החדש על מנת לנטר משתנים ייחודיים בתהליכי קבלת החלטות ולהתאימו לשימוש ספציפי בארגון.
במקביל הודיעה חטיבת המחקר שלIBM על ערכת כלים שתעמיד לרשות קהילת הקוד הפתוח ותאפשר ביצוע איבחון הטיה ובדיקת הוגנות למערכות בינה מלאכותית. הערכה ששמהAI Fairness 360 toolkit כוללת ספריה של אלגוריתמים חדשניים, קוד ושיעורי הדרכה שיעניקו למפתחים, לחוקרים, למדעני נתונים ולאנשי אקדמיה כלים וידע על מנת לשלב יכולות זיהוי הטיות בתהליכי הבניה והיישום של מודלים ללמידת מכונה.
בשונה מכלים ופתרונות אחרים הזמינים עבור קהילת הקוד הפתוח ומתמקדים אך ורק בבדיקת ההטיה בנתונים ששימשו לאימון המערכת, ערכת הכלים החדשה מסוגלת לסייע בבדיקה ובמניעת הטיות במודל הבינה המלאכותית עצמו.
בתוך כך, סקר חדש של מכון IBV לערך עסקי (IBM’s Institute for Business Value), בהשתתפות 5,000 מנהלים בכירים בארגונים בכל העולם, מצביע על שינוי משמעותי באופן שבו תופסים מנהלים את הפוטנציאל הגלום בבינה מלאכותית. הסקר מגלה כי בעוד 82% מהארגונים שוקלים כיום הטמעת יישומי בינה מלאכותית, 60% מהנשאלים חוששים מסוגיות הקשורות בנשיאה באחריות המשפטית להחלטות המקבלות משימוש ביישומים אלה, ו-63% השיבו שאינם מחזיקים בכוח אדם הפנימי המיומן שמסוגל לנהל באופן בטוח את הטכנולוגיות החדשות.
עוד בנושא באתר הידען:
תגובה אחת
הענקיות גוגל deepmind, IBM וגם אינטל ו TESLA מנסות להיכנס לשוק המיתהווה של בינה מלאכותית.
IBM חטפה צוננים בביקורת על היישום של הרופא הדיגיטלי – אבל שאפו על התעוזה. רק בזהירות.