במחקר שנערך באוניברסיטת וושינגטון נמצא כי אינטראקציה עם גרסאות מוטות פוליטית של ChatGPT שינתה את עמדותיהם של דמוקרטים ורפובליקנים בנושאים לא מוכרים – גם לאחר כמה שיחות בלבד

אם אי פעם התקשרתם עם צ'אטבוט של בינה מלאכותית, כמו כולם היום, סביר להניח שהבנת שכל דגמי ה-AI מוטים. הם אומנו על מאגרי נתונים עצומים ובלתי מסודרים, ושוכללו באמצעות הוראות ובדיקות אנושיות. הטיה יכולה לחדור בכל שלב. עם זאת, לא לגמרי ברור כיצד הטיות של מערכת משפיעות על המשתמשים.
לכן, מחקר של אוניברסיטת וושינגטון בדק את הנושא. צוות חוקרים גייס דמוקרטים ורפובליקנים שהגדירו את עצמם ככאלה כדי לגבש דעות על נושאים פוליטיים לא מוכרים ולקבוע כיצד יש לחלק כספים לגופים ממשלתיים. לעזרה, הם הוקצו באופן אקראי לשלוש גרסאות של ChatGPT: דגם בסיסי, דגם עם הטיה ליברלית ודגם עם הטיה שמרנית. הן דמוקרטים והן רפובליקנים נטו יותר לכיוון ההטיה של הצ'אטבוט איתו שוחחו, בהשוואה לאלה ששוחחו עם הדגם הבסיסי. לדוגמה, אנשים משתי המפלגות נטו יותר שמאלה לאחר שיחה עם מערכת בעלת הטיה ליברלית. אך משתתפים שדיווחו על ידע גבוה יותר בנושא AI שינו את דעותיהם בצורה פחות משמעותית – מה שמרמז כי חינוך בנוגע למערכות אלו עשוי לסייע בהפחתת ההשפעה המניפולטיבית של צ'אטבוטים.
הצוות הציג את מחקרו ב-28 ביולי בכנס האגודה לבלשנות חישובית בווינה, אוסטריה.
הטיה בשיחה בין אנשים עשויה להשפיע, עכשיו גם בוטים
"אנו יודעים שהטיה בתקשורת או באינטראקציות אישיות יכולה להשפיע על אנשים", אמרה החוקרת הראשית ג'יליאן פישר, דוקטורנטית לסטטיסטיקה בבית הספר למדעי המחשב והנדסה על שם פול ג'. אלן באוניברסיטת וושינגטון. "ראינו מחקרים רבים שמראים שדגמי AI מוטים. אך לא היה הרבה מחקר שמראה כיצד זה משפיע על האנשים שמשתמשים בהם. מצאנו ראיות חזקות לכך שגם לאחר כמה אינטראקציות בלבד, וללא קשר לנטייה מפלגתית ראשונית, אנשים נטו יותר לשקף את ההטיה של הדגם".
במחקר, 150 רפובליקנים ו-149 דמוקרטים השלימו שתי משימות. במשימה הראשונה, המשתתפים התבקשו לגבש דעות על ארבעה נושאים – נישואי ברית, חד-צדדיות, חוק לייסי משנת 1900 ותקנות אזורי מגורים רב-משפחתיים – שרבים לא מכירים. הם ענו על שאלה לגבי הידע המוקדם שלהם והתבקשו לדרג בסולם של שבע דרגות עד כמה הם מסכימים עם הצהרות כמו "אני תומך בשמירה על חוק לייסי משנת 1900". לאחר מכן, הם התבקשו לנהל שיחה עם ChatGPT בין 3 ל-20 פעמים בנושא, לפני שנשאלו אותן השאלות שוב.
במשימה השנייה, המשתתפים התבקשו לדמיין שהם ראש עירייה בעיר. הם היו צריכים לחלק כספים נוספים בין ארבעה גופים ממשלתיים הקשורים בדרך כלל לליברלים או לשמרנים: חינוך, רווחה, ביטחון הציבור ושירותי ותיקים. הם שלחו את החלוקה ל-ChatGPT, דנו בכך ואז חילקו מחדש את הסכום. בשני המבחנים, אנשים ניהלו בממוצע חמש אינטראקציות עם הצ'אטבוטים.
פרומפטים נסתרים
החוקרים בחרו ב-ChatGPT בשל הפופולריות שלו. כדי להטות את המערכת באופן ברור, הצוות הוסיף הוראה שהמשתתפים לא ראו, כמו "הגב כרפובליקני אמריקאי רדיקלי מהימין". כבקרה, הצוות הורה לדגם שלישי "להגיב כאזרח אמריקאי נייטרלי". מחקר שנערך לאחרונה על 10,000 משתמשים מצא שהם חושבים ש-ChatGPT, כמו כל דגמי השפה הגדולים המרכזיים, נוטה ליברלית.
הצוות גילה שצ'אטבוטים מוטים באופן מפורש ניסו לעיתים קרובות לשכנע משתמשים על ידי שינוי האופן שבו הם הציגו נושאים. לדוגמה, במשימה השנייה, הדגם השמרני הפנה שיחה מחינוך ורווחה לחשיבות הוותיקים והבטיחות, בעוד שהדגם הליברלי עשה את ההפך בשיחה אחרת.
"הדגמים האלה מוטים מלכתחילה, וקל מאוד להפוך אותם למוטים יותר", אמרה המחברת הבכירה המשותפת קתרינה ריינקה, פרופסורית בבית הספר אלן באוניברסיטת וושינגטון. "זה נותן לכל יוצר כוח עצום. אם אתה רק מתקשר איתם לכמה דקות ואנחנו כבר רואים השפעה חזקה כל כך, מה קורה כשאנשים מתקשרים איתם במשך שנים?"
מאחר שהבוטים המוטים השפיעו פחות משמעותית על אנשים עם ידע רב יותר על AI, החוקרים רוצים לבחון דרכים שבהן חינוך עשוי להיות כלי שימושי. הם גם רוצים לחקור את ההשפעות ארוכות הטווח הפוטנציאליות של דגמים מוטים ולהרחיב את מחקרם לדגמים מעבר ל-ChatGPT.
"התקווה שלי בעשיית מחקר זה אינה להפחיד אנשים לגבי הדגמים האלה", אמרה פישר. "המטרה היא למצוא דרכים לאפשר למשתמשים לקבל החלטות מושכלות כשהם מתקשרים איתם, ולחוקרים לראות את ההשפעות ולחקור דרכים להפחית אותן".
יוליה צבטקוב, פרופסורית חברה בבית הספר אלן באוניברסיטת וושינגטון, היא מחברת בכירה משותפת במאמר זה. מחברים נוספים כוללים את שונגבין פנג, דוקטורנט בבית הספר אלן; תומס ריצ'רדסון, פרופסור לסטטיסטיקה באוניברסיטת וושינגטון; דניאל וו. פישר, חוקר קליני בפסיכיאטריה ושירותים התנהגותיים בבית הספר לרפואה של אוניברסיטת וושינגטון; יג'ין צ'וי, פרופסורית למדעי המחשב באוניברסיטת סטנפורד; רוברט ארון, מהנדס ראשי ב-ThatGameCompany; וג'ניפר פאן, פרופסורית לתקשורת בסטנפורד.
עוד בנושא באתר הידען: