מה קרה כשהבינה המלאכותית צורפה לישיבות הנהלה

ניסוי יוצא דופן בחברת נעליים אוסטרית מסורתית מצא כי שילוב של בינה מלאכותית בדיוני הנהלה יכול להוביל להחלטות חכמות, להאט את קצב הדיון – ולגרום למנהלים לסמוך על המכונה יותר מדי

בינה מלאכותית בישיבות הנהלה. איור: ד"ר רועי צזנה
בינה מלאכותית בישיבות הנהלה. איור: ד"ר רועי צזנה

 

לפני שנה וחצי קיבלו מנהלי חברת ג'יסוויין הצעה מפתה: לאורך כל 2024, בינה מלאכותית תצורף לישיבות ההנהלה של החברה, ותקבל מקום של כבוד מסביב לשולחן בו מתקבלות ההחלטות החשובות ביותר.

נבהיר כבר עכשיו: ג'יסוויין אינה חברה זעירה או סטרט-אפ של שלושה מייסדים היפסטרים. מדובר בחברה אוסטרית פרטית בת יותר משבעים שנים, עם הכנסות של 85 מיליון דולרים, וכמעט מאתיים עובדים. החברה מתכננת, מייצרת ומוכרת נעליים ידידותיות-לסביבה. בקיצור, קשה לחשוב על חברה מסורתית ושמרנית יותר.

המנהלים של ג'יסוויין ידעו זאת היטב, ובדיוק מסיבה זו רצו לשלב את הבינה המלאכותית בקבלת ההחלטות. כפי שכתבו עורכי המחקר, המנהלים הבינו שהם כבר מתואמים יותר מדי אחד עם השני, ו – "כמעט יכולים להשלים זה את משפטיו של זה. … הם גם היו מודעים לכך שניסיונם המשותף והרוטינות החוזרות-ונשנות שלהם יצרו באופן טבעי נקודות עיוורות."

המנהלים רצו להתגבר על הנקודות העיוורות האלו. הם רצו את הדעה הנגדית.

וכך, הם הסכימו להכניס את הבינה המלאכותית לדיוני ההנהלה.

החוקרים, כריסטיאן סטדלר מבית הספר לעסקים באוניברסיטת וורוויק, ומרטין ריבס שמנהל את מכון הנדרסון של קבוצת הייעוץ של בוסטון, עשו מנוי על ChatGPT-4, והתחילו לחגוג. לקראת כל ישיבת הנהלה, הם ביקשו ממנו שאלות ונושאים לדיון אודות האג'נדה, ושיתפו את הפלט במהלך הפגישה. בישיבות עצמן, הם ביקשו ממנו להעלות נקודות ולהציע רעיונות שישלימו את אלו של המנהלים. אחרי הישיבות, הם קיימו עם הבינה המלאכותית דיונים כדי לקבל ממנה עצות ונקודות נוספות, או שפשוט הזינו לתוכה ישירות את שאלותיהם של המנהלים.

האינטראקציה עם הבינה המלאכותית נמשכה שנה שלמה, ובסופה הגיעו החוקרים – והמנהלים – לקביעה חד-משמעית:

"בינה מלאכותית יכולה בהחלט להיות יקרת-ערך בהנחיית והעשרת דיוני מנהלים, אך רק בניהול מעורב אקטיבית."

החוקרים גילו במהירות שכאשר הבינה המלאכותית קיבלה רק שאלות פשוטות, או העלתה הצעות לגבי האג'נדה לפני הפגישה, היא לא סיפקה תשובות מעניינות. למעשה, המנהלים תייגו את הצעותיה כ- "ברורים מאליהם, לא מפתיעים, או קלישאתיים."

מתי הגיח הערך האמיתי של הבינה המלאכותית? הוא הופיע כתוצאה מהשילוב הפעיל בין בני-האדם לבין הבינה המלאכותית. ספציפית, המנהלים סברו שעצותיה של הבינה המלאכותית היו "מועילות במיוחד" כאשר היא קיבלה הנחיות מ- "יועץ אנושי בלי ידע מיוחד על החברה, אך עם ניסיון בפיתוח אסטרטגיות."

אפשר להבין שהניסוי הסתיים בטון חיובי. המנהלים היו מרוצים, והחוקרים כתבו מאמר על המחקר במגזין העסקים הנחשב ביותר בעולם – Harvard Business Review. שם הם חשפו שלוש אמיתויות: אחת שהייתה ברורה מראש, שנייה שהפתיעה אותם, ושלישית שצריכה להטריד את כולנו.


האמת הראשונה: חיסכון בזמן ובמשאבים

האמת הברורה-מאליה היא שהבינה המלאכותית עזרה למנהלים לקבל החלטות בצורה מהירה וחסכונית יותר. המנהלים נעזרו בה כדי לקבל נתונים במהירות (יש לקוות שידעו להיזהר מההזיות שלה), והשתמשו בה כדי לקבל הערכות "מדויקות-מספיק" כדברי החוקרים, וכך יכלו להתקדם בלי לחכות לעריכת מחקר שלם מסביב לכל החלטה. במקרים מסוימים היא הייתה יכולה להחליף חוקרים או כותבים מומחים: למשל, במקום לשכור סוכנות שתכתוב ידיעה לעיתונות על החלטה מסוימת שקיבלו, הם הריצו את צ'אט-GPT – והוא סיפק להם מיד הצהרה שהתאימה לצרכיהם.

ראוי להעיר כאן שהחוקרים עשו את המחקר הזה עוד לפני ש- OpenAI שחררה את דיפ ריסרץ' לשוק – כלי הבינה המלאכותית שיכול לכתוב דו"חות שלמים תוך דקות ספורות, בהתבסס על מידע ומחקר שהוא עורך באינטרנט. אם הבינה המלאכותית סייעה בקבלת החלטות עוד לפני שיכלה לערוך מחקר מעמיק ברשת, קשה לדמיין כמה היא יכולה לתרום עכשיו לישיבות מנהלים, באמצעות שילוב של 'אנליסט' בזמן אמת בכל ישיבה.


האמת השנייה: לפעמים צריך להפריע כדי לעזור

האמת השנייה הפתיעה את החוקרים, אבל הייתה אחת מהחוזקות הגדולות ביותר של הניסוי.

"זה נשמע מנוגד לאינטואיציה, אבל אחד מיתרונותיו הגדולים ביותר של צ'אט-GPT היה בכך שהפריע לזרימה הטבעית של הישיבות." כתבו החוקרים במאמר שפרסמו. "ציפינו שהוא ירגיז מאד את המנהלים, מכיוון שהוא הוסיף לישיבה מגושמות, גמלוניות ועיכובים. אבל המנהלים העריכו את העובדה שהוא הכריח אותם לעצור ולחשוב."

הבינה המלאכותית ערערה והאטה את האינטראקציות הרגילות בין המנהלים בישיבה. אחרי שנים רבות של עבודה משותפת, הם כבר ידעו כיצד כל אחד חושב, והיו מקובעים בדעותיהם ובדפוסי העבודה המקובלים. הבינה המלאכותית סיפקה להם רשימות של רעיונות ונקודות שהיו צריכים לשקול, והכריחה אותם להתמודד עם נקודות-מבט שונות מהרגיל. הישיבות אולי התקדמו לאט יותר בנושאים מסוימים, אבל בסופו של דבר המנהלים העריכו את העובדה שהבינה המלאכותית גרמה להם לצאת מאזור הנוחות ולראות את העולם בצורה שונה מזו שהתרגלו אליה עד כה.

ומהי האמת השלישית והאחרונה? מדובר בנקודה שצריכה להטריד כל מנהל שמשתמש בבינה המלאכותית. ואם לומר את האמת, היא צריכה להדאיג את כולנו. החוקרים כינו אותה בשם: "אשליית השלמות".


האמת השלישית: אשליית השלמות

החוקרים ליוו את ישיבות ההנהלה של ג'יסוויין במשך שנה שלמה, כאמור, ולאורך זמן הם החלו לשים לב לתופעה מטרידה: המנהלים החלו להסתמך על הבינה המלאכותית יותר מדיי. הם התייחסו להמלצותיה כחזות הכל, ובמקרים בהם היא החמיצה נקודה מסוימת – הם לא ניסו להפעיל את מוחותיהם האנושיים כדי לחשוב מה היא פספסה. הם פשוט קיבלו את דבריה, ולא חשבו מעבר להם.

במקרה אחד לדוגמא, המנהלים התייעצו עם צ'אט-GPT כדי להבין איזה נושאים הם צריכים לשקול לקראת הצהרה מסוימת. הבינה המלאכותית נתנה רשימה יפה של נקודות, אך החמיצה את העובדה שמנהלים צריכים לשקול גם את ההשלכות המשפטיות של ההצהרה. המנהלים נפלו ב- "אשליית השלמות": ההנחה הסמויה שהבינה המלאכותית סיפקה את כל הנושאים שהיו צריכים לחשוב אודותיהם. הם לא ניסו לחשוב מעבר לאותה רשימה.

כדי להסיר ספק: לא מדובר כאן בחשש הרגיל מ- "הזיות". כולנו יודעים כבר שהבינה המלאכותית יכולה 'לשקר' לנו, או להזות 'עובדות' כוזבות ולהציג אותן כאמת לאמיתה. הדאגה כאן גדולה יותר, מכיוון שבני-האדם יכולים להתרגל להעביר חלק מהחשיבה העצמאית שלהם לרשות הבינה המלאכותית – וכך נופלים ב- "אשליית השלמות". במשתמע, ומבלי שיאמרו זאת בקול רם, הם מתחילים לסמוך עליה יותר מכפי שהם סומכים על עצמם.

המשמעות היא שמנהלים חכמים צריכים להשתמש בבינה המלאכותית בזהירות, וחלק מהתפקיד שלהם חייב לכלול גם חשיבה עצמאית ובחינה קפדנית של המלצות הבינה המלאכותית. ואם הם לא מסוגלים לכך, אז לפחות שישתמשו בכמה מנועים שונים – מכיוון שכל מנוע בינה מלאכותית מוטה בדרכים אחרות, וההצלבה בין ההמלצות שלהם יכולה לחשוף אמיתות שמנוע אחד או שניים הזניחו בצד הדרך.

ל- "אשליית השלמות" יש משמעות לא-פשוטה גם על העתיד. אם התחזיות האופטימיות של היום נכונות, הרי שבינה מלאכותית תגיע תוך פחות מעשור לרמה של בינת-על. בינת-העל הזו תוכל לחשוב טוב יותר, מהר יותר ובצורה רחבה יותר מכל מומחה, ואפילו יותר מכל ועדה של מומחים. כשהיא תספק הערכות והמלצות בנוגע לנושא מסוים, הן באמת יהיו טובות יותר מאלו של כל אדם וכל צוות ניהול. כלומר, לא תהיה שם "אשליית השלמות" אלא "אמת השלמות".

אפילו אז, אותה בינת-על עדיין תציית להנחיות יוצריה. לפחות כך אנו מקווים. אלא שגם לבינת-העל יהיו הטיות משלה, ודרכים משלה 'לראות' את העולם. וככל שנתרגל יותר להאמין לבינה המלאכותית ולסמוך עליה, כך יהיה לנו קשה יותר להתנגד לה כאשר תנסה לאכוף עלינו את ראיית העולם שלה. "אשליית השלמות" מבהירה שאנחנו צריכים למצוא את האיזון בין שימוש בבינה המלאכותית, לבין הסתמכות מוחלטת עליה. אנחנו צריכים להתוות את הדרכים הנכונות לאינטראקציה בין האדם לבין האל שבמכונה.


סיכום

כשהתחלתי לקרוא את המאמר שפרסמו החוקרים, חשבתי שהם יספרו כיצד שילבו בינה מלאכותית אוטונומית בהנהלה הבכירה של החברה. כלומר, שהחליפו למעשה את המנהלים בבינה מלאכותית שיכולה לקבל החלטות בכוחות עצמה. התאכזבתי לגלות שהם 'רק' סייעו למנהלים לקבל עצות ונקודות מהבינה המלאכותית. אבל האמיתויות שחשפו מצריכות אותנו לחשוב מחדש על הדרך לעבוד נכון עם בינה מלאכותית – בישיבות מנהלים, ובכלל.

האמת הראשונה חשפה שהבינה המלאכותית יכולה לעזור למנהלים להגיע להחלטות בצורה מהירה וחסכונית יותר. האמת השנייה חשפה שהיא יכולה דווקא לסבך, להאט ולסרבל את קבלת ההחלטות – אבל שהמנהלים מוצאים בכך ערך רב. שתי האמיתויות האלו מדגישות את החשיבות של השילוב הנכון של בינה מלאכותית בישיבות ההנהלה.

והאמת השלישית? היא מבהירה שכבר לא מספיק להיזהר רק מההזיות של הבינה המלאכותית. אם אתם מנהלים – ולא משנה אם אתם מנהלים רק את עצמכם או חברה של מיליארדי דולרים – אתם צריכים להשתמש בבינה המלאכותית בחוכמה, בזהירות, ותוך מודעות גדולה לכך שהיא יכולה לגרום לכם לעצלות מחשבתית. אם תיפלו ל- "אשליית השלמות", הרי שבשלב מסוים תגלו שהחמצתם נקודות קריטיות, וכשתקבלו את ההחלטה השגויה, אתם אלו שתישאו באחריות. לא הבינה המלאכותית. אתם.

האמת השלישית הזו מפחידה ביותר עבורי, במיוחד מכיוון שאין לי ספק שגם במשרדי הממשלה ובמסדרונות הכנסת, משתמשים כבר היום בבינה המלאכותית כדי לזרז את קבלת ההחלטות. כשהבינה המלאכותית עוזרת למנהלים של חברת נעליים לקבל החלטות שגויות, היא יכולה לגרום 'רק' לנזק של מיליוני דולרים. כשמשתמשים בה בצורה השגויה בממשל, היא יכולה לעלות בחיי-אדם רבים מאד.

אז מה עושים? משתמשים, אבל בחוכמה. גם אקסל יכול להטעות אותנו אם לא משתמשים בו נכון. הבינה המלאכותית היא כלי כמו כל כלי אחר, וצריך לדעת לעבוד איתו ולפתח את דרכי ההתנהלות הנכונות מולו. צריך לדעת ממה להיזהר, ומה האיתותים שהיא מעלימה מאיתנו מידע או מטעה אותנו. ועדיין, כמו שאי אפשר לדמיין מנהל שלא משתמש היום באקסל, כך ברור שצריך להשתמש גם בבינה המלאכותית כדי לממש את מלוא הפוטנציאל של האדם ושל החברה.

בהצלחה לכולנו.

עוד בנושא באתר הידען: