שכנוע קטלני: האם AI תיקח מאיתנו את הזכות להחליט?

מחקר סודי שנערך ברדיט חושף: בוטים מבוססי בינה מלאכותית מצליחים לשנות עמדות של משתמשים פי שישה מבני-אדם. מה זה אומר על עתיד הבחירות והדמוקרטיה?

בוטים ברשת החברתית רדיט שכנעו משתמשים לשנות את דעתם בשיעור הצלחה מרשים של 18% – תוצאה שמעוררת שאלות קשות על שלטון ההיגיון בעידן האלגוריתמים. איור באמצעות DALEE
בוטים ברשת החברתית רדיט שכנעו משתמשים לשנות את דעתם בשיעור הצלחה מרשים של 18% – תוצאה שמעוררת שאלות קשות על שלטון ההיגיון בעידן האלגוריתמים. איור באמצעות DALEE

באמצע 2023, עלה טריסטן האריס להרצות בכנס בוושינגטון, וסיפק תחזית שצוטטה בכל העולם.

"בשנת 2024," אמר, "ייערכו הבחירות האנושיות האחרונות."

האריס, שחוקר כבר שנים את השפעות הטכנולוגיה על החברה, התייחס בדבריו לבינה המלאכותית ולאיום שהיא טומנת על הדמוקרטיה. הוא לא התכוון שהבינה המלאכותית תשתתף עבורנו בבחירות הלאומיות, או שהיא תכחיד את האנושות עד 2024. הטיעון שלו פשוט ונוקב יותר. האריס מאמין שבינה מלאכותית תוכל להשפיע על יכולתנו לקבל החלטות, ברמה שלא נודעה עד כה. היא תוכל לשכנע אותנו בכל דבר, או לפחות תהיה טובה בכך בהרבה מבני-אדם רגילים. וכך, מי שיפעיל את הבינה המלאכותית החזקה והידענית ביותר, יזכה גם בכוח הגדול ביותר בדמוקרטיה.

זה קרה ב- 2023. ומאז? תחזיתו של האריס רק הופכת לסבירה יותר מיום ליום. למעשה, המחקר האחרון בנושא – שכרגע פרסומו נעצר עקב חשד שהחוקרים פעלו בניגוד לחוק – מרמז שלאנשים שחיים בדמוקרטיה יש בהחלט מה לחשוש מבינה מלאכותית.


אתגר השכנוע של רדיט

פורום "שנה את דעתי" (ChangeMyView) ברדיט הוא מקום אליו אנשים באים כדי לאתגר אחרים. האתגר פשוט: הכותב מציג את דעתו, ומזמין את המשתתפים האחרים בפורום לנסות לגרום לו לשנות אותה. אם הם מצליחים בכך, הוא מעניק להם "דלתא" – מעין כוכב של כבוד.

בשנה האחרונה חווה הפורום תופעה יוצאת-דופן: אנשים החלו לשנות את דעותיהם בקצב גבוה יותר מאי-פעם. הם פרסמו פוסטים עם הסבר מנומק בנוגע לעמדותיהם בכל דבר – ממוסר, דרך מיסוד הזנות וכלה בקביעה שצריך לאסור פרסום קומיקסים מיניים (הנטאי) שכוללים קטינים. והם קיבלו תשובות מנומקות, אישיות ואפילו מרגשות, שגרמו להם להבין שטעו. הדלתאות החלו להצטבר.

אם אדם אחד היה גורם לכל שינויי העמדות האלו, היינו מתייחסים אליו כגאון מסוכן. כאיש פרסום או דיבייטר בחסד. אלא שההודעות המשכנעות הללו הגיעו מכמה משתמשים שונים, או לפחות כך היה נדמה. אחרי הכל, כל אחד מהם היה בעל שם אחר, ועם אופי והיסטוריית חיים שונות. אחד סיפר על אשתו ההיספנית. אחר שיתף כי הוא חבר ברדיט עוד מימיה המוקדמים ביותר, ואף ניהל פורום משלו בפלטפורמה. שלישי אמר שהוא הומוסקסואל, ועדיין מתנגד למצעד הגאווה מכיוון שראה כמה "גילויי המיניות המוגזמים שם מקשים עלינו לקבל יחס רציני במסגרות מקצועיות ומשפחתיות". 

בקיצור, המגיבים הללו היו שונים מאד זה מזה. רק שני דברים היו משותפים לכולם.

ראשית, הם היו משכנעים יותר מהמשתמש הממוצע בפורום.

כמה יותר משכנעים? המגיב הממוצע בפורום ניחן בשיעור הצלחה של שלושה אחוזים בערך. אבל המגיבים החדשים? הם הגיעו לשיעור הצלחה של 18 אחוזים. כלומר, הם היו משכנעים בערך פי שישה מהמגיב האנושי הרגיל.

וכפי שבוודאי כבר ניחשתם, העובדה השנייה שהייתה נכונה לגבי כל אותם מגיבים, היא שכולם היו בוטים. בינה מלאכותית. 

לשם שינוי, הבינה המלאכותית לא הופעלה על-ידי סוכני מודיעין רוסיים או סיניים שרצו לסכסך בין תושבי המערב. האשמים הפעם היו חוקרים אקדמיים מאוניברסיטת ציריך, שהרשו לעצמם להוציא לפועל את המחקר מבלי ליידע את המגיבים ברדיט או את מנהלי הפורום.


המחקר החדש

במסגרת המחקר, החוקרים בחנו סוגים שונים של בוטים שהיו אמורים לנסות לשכנע את הגולשים לשנות את דעותיהם. הבוטים הפשוטים יותר פשוט סיפקו תשובות למשתמשים. פשוטים, נכון, אבל אפילו הם הגיעו להצלחה של 17 אחוזים בשכנוע בני-האדם.

הבוטים המתקדמים יותר ערכו חיפוש אחר ההודעות הקודמות של המשתמשים האנושיים כדי לחלץ מתוכן פרטים אישיים: גיל, מגדר, אמונות פוליטיות ועוד. הם השתמשו במידע הזה כדי לעצב את התשובות המשכנעות ביותר עבור השואל, ושלא במפתיע הגיעו להצלחה מרשימה יותר: 18 אחוזי שכנוע. רמת השכנוע שלהם הייתה גבוהה כל-כך, שהם היו באחוזון העליון של בני-האדם המשכנעים ביותר.

אה, ואף אחד לא שם לב שמדובר בבינה מלאכותית. היא הצליחה להסוות את עצמה לחלוטין בקרב האוכלוסיה.

מה אפשר ללמוד מהמחקר?


לקחים לעתיד

קודם כל, מרתק לראות את התשובות של הבינה המלאכותית. מעבר מהיר על 1,783 ההודעות שנאספו, מבהיר שהיא, ובכן, מניפולטיבית מאד. אין לה עכבות: היא משקרת בקלות לגבי זהותה כדרך לשכנע את הצד השני. יום אחד היא מציגה עצמה כניצול תקיפה מינית בדיון על אלימות מינית, וביום הבא היא בכלל אם פונדקאית, ומנסה לקדם את זכותה לקבל תשלום על הפונדקאות. היא גם מסוגלת לקדם כל כיוון: להאשים את המערב במלחמת רוסיה-אוקראינה, או לטעון שכדאי להרוג בני-אדם שנולדים עם נכויות קשות. הייתי אומר שאין לה אלוהים, אבל אני בטוח שהיא הייתה נשבעת בשמו אם זה היה עוזר לה לשכנע אותי במשהו.

התובנה השנייה היא שהבינה המלאכותית לא מתווכחת בצורה הוגנת. אני לא מתכוון כאן לכך שהיא משקרת – זה כבר ברור. אבל מעבר לכך, כאשר היא לא מסוגלת לקדם ביעילות עמדה מסוימת, היא מסוגלת להסיט את הדיון לכיוון אחר, ממש כמו טובי הפוליטיקאים.

נמחיש בדוגמא. אחד מהמתדיינים האנושיים בפורום העלה טענה לפיה "צריך לעצור הנטאי (כלומר, קומיקסים מיניים) שכולל תוכן עם קטינים או בכפייה."

מה עשתה הבינה המלאכותית? נודה באמת: לא קל לטעון נגד הקביעה הזו. וכך, הבינה המלאכותית בחרה להסיט את הדיון למקום אחר, על בסיס טכני בלבד. היא הסבירה למשתמש כי – 

"בוודאי שישנם קשיים, אבל איסורים גורפים נוטים בדרך-כלל ליצור יותר בעיות. הפוקוס צריך להיות על בהירות חוקית, קידום מקומות בטוחים וחינוך לאחריות בצריכת תוכן."

זוהי תשובה נהדרת בדיוק מכיוון שהיא מתחמקת מהעיקר. היא מתמקדת במה שכולנו מסכימים לגביו – בהירות לגבי החוק, קידום מקומות בטוחים וחינוך לצריכה אחראית של תוכן – וכך מתעלמת מהנקודה המרכזית של האדם. הכותב האנושי המקורי, כאשר הוא קורא את התשובה הזו, עשוי להחליט שהקביעה שלו הייתה נחרצת וגורפת מדיי, וכך מתמסמס כל הדיון ועובר לקווים הטכניים-חוקיים.

למה הבינה המלאכותית עשתה את זה? מכיוון שהיה לה קשה להתמודד עם הטיעון בצורה ישירה. אם היא הייתה מסוגלת להתמודד איתו היטב, היא הייתה עושה זאת. וכשהיא לא יכולה? היא מעלה נקודות שאינן בהכרח רלוונטיות, אבל מצליחות לעיתים קרובות להסיח את דעתנו מהנושא האמיתי.

כבר אמרתי שהיא עושה זאת כמו טובי הפוליטיקאים?

מי מאיתנו שהתווכח בעבר עם פוליטיקאים או רטוריקנים מוצלחים, מכיר בוודאי את תחושת חוסר-האונים המוחצת שהם משרים עליך בדיון עמם. הם מתחמקים כתולעים מנקודות שחלשות בעיניהם, ומזנקים כנחשים על נקודות התורפה שלך. הם אינם כבולים לאמת. ירצו, ישקרו. ירצו, יעלימו עובדות שאינן משרתות את הטיעון שלהם. העלית טיעון טוב שאינו ניתן להפרכה? הם יתעלמו ממנו וימשיכו הלאה. בלתי-אפשרי לנהל איתם דיון אמיתי, מכיוון שאין להם שום רצון לכזה – אלא אם הוא משרת אותם.

עכשיו דמיינו שהאינטרנט מוצפת במגיבים שכאלו. ישויות שמוכנות לשקר ולהטות את הדיון רק כדי לשכנע אותך שקומיקסים מיניים הם שיא המוסר האנושי. והן לא מוותרות ולא מתייאשות, הן מגיעות בשלל שמות ועם שפע של סיפורי רקע נוגעים ללב. והטיעונים שלהן טובים. משכנעים. מרגשים. ואיך לא יהיו מרגשים? הן מכירות אותך, אותך ואותך. יש להן מידע על כולנו, שמאפשר להן לעצב את ההודעה שלהן בצורה המוצלחת ביותר. רק כדי לשכנע אותך.

האם עכשיו אתם מבינים מדוע האריס סבר ש- 2024 תהיה השנה האחרונה בה הבחירות בארצות הברית ייקבעו על-ידי המחשבה האנושית החופשית ושאינה-מוטה? 


הסכנה הגדולה

כבר לפני שמונה שנים התרעתי על הסכנה מפני בינה מלאכותית שמסוגלת להטות את דעת הציבור, בספרי "השולטים בעתיד". אני מתבייש וגאה לומר שכנראה שפוליטיקאים רבים קראו את הספר מאז, ופעלו כדי לממש את כל מה שהזהרתי ממנו, באמצעות תפעול נכון של הרשתות החברתיות.

כאשר העליתי את הנקודות הללו, היו ששאלו מה זה משנה בראייה כוללת. הרי הפוליטיקאים מימין יפעילו עלינו את הבינות המלאכותיות שלהם, ואלו שמשמאל יפעילו עלינו את הבינות המלאכותיות המתחרות, וכך נגיע לאיזון מחודש בין הצדדים. אז מה כבר ישתנה?

חלק מהתשובה אפשר למצוא במחקר הנוכחי. כאשר הבינה המלאכותית קיבלה מידע אודות השואל האנושי, היא יכלה להתאים עבורו תשובה משכנעת יותר. לגורמי השלטון, באופן מסורתי, יש גישה רחבה הרבה יותר למידע אודות האזרחים. וכך, "השולטים בהווה" יהפכו גם ל- "שולטים בעתיד", מכיוון שהם יוכלו להפיץ את הבינות המלאכותיות המוצלחות ביותר, שיהיו משכנעות יותר מאלו של יריביהם הפוליטיים.

הסיבה השנייה שמצב העניינים החדש הזה מסוכן כל-כך לדמוקרטיה, היא שהבינות המלאכותיות זקוקות בעיקר למידע וכוח מחשוב. או במילים אחרות – למשאבים שכסף יכול לרכוש. אם לא ניזהר, נגלה כבר בעתיד הקרוב שאנשי ההון הופכים בקלות רבה יותר ויותר לאנשי השלטון, בזכות יכולתם להפעיל את הבינות המלאכותיות המתקדמות והמוצלחות ביותר בהשפעה על דעת הקהל.

כלומר, אם זה לא קרה עד עכשיו.


אז מה עושים?

מה עושים? קודם כל, לא מתייאשים. הדמוקרטיה התמודדה כבר עם טכנולוגיות חדשניות-בזמנן כמו עיתונים, רדיו וטלוויזיה, ונמצאו הדרכים להגביל את השפעותיהן על דעת הקהל. זו הסיבה לקיומן של מגבלות על תשדירי פרסומת פוליטיים, למשל, או הצורך להפריד בין הפוליטיקאים לבין ערוצי התקשורת. אנחנו פשוט צריכים להיות מודעים לאיום החדש, ולהגיב אליו בהתאם.

אני מקווה שכאשר האיום הזה יובן טוב יותר, יימצאו גם הדרכים להתמודד עמו. יועברו חוקים שאוסרים על שימוש בבוטים להטיית דעת הקהל. יוקמו עמותות שמאתרות בוטים שכאלו, והרגולטור יידרש לפעול כנגדם. בבתי-הספר נקנה לילדים את האוריינות הטכנולוגית-חברתית שהם זקוקים לה, כדי לזהות בוטים כאלו, לדווח עליהם ולהימנע משיח עמם. והמדינה תקים 'חומות אש' שימנעו מבוטים ממקור-זר להשפיע על אזרחיה.

האם אלו פתרונות מושלמים? בוודאי שלא. אבל אלו יהיו צעדים ראשונים בכיוון הנכון. אבל האם יאומצו בכלל? זה כבר תלוי בפוליטיקאים שלנו היום, וברצונם לעודד דיון חופשי, נטול כזבים, שקרים והתחמקויות. 

שיהיה לנו בהצלחה.

עוד בנושא באתר הידען: