סיקור מקיף

שש דרכים שבהן בינה מלאכותית יכולה להפוך קמפיינים פוליטיים למטעים יותר מאי פעם

קמפיינים מאמצים כעת במהירות בינה מלאכותית לכתיבה והפקה של מודעות ושידול תורמים. התוצאות מרשימות, אך ניתן להשתמש בטכנולוגיה גם לרעה באמצעות הפניית תוכן ‘פייק ניוז’ מותאם אישית

מאת      דייוויד קלמנסון, פרופסור משנה, מכללת גריידי לעיתונאות ותקשורת המונים, אוניברסיטת ג’ורג’יה

קיטוב פוליטי. המחשה: depositphotos.com
קיטוב פוליטי. המחשה: depositphotos.com

מודעות קמפיין פוליטיות ושידול תורמים הן כבר מזמן מטעות. ב-2004, למשל, שידר המועמד הדמוקרטי לנשיאות ארה”ב, ג’ון קרי, פרסומת שבה נאמר כי יריבו הרפובליקני ג’ורג’ בוש “אומר ששליחת משרות לחו”ל  ‘הגיונית’ עבור אמריקה”. בוש מעולם לא אמר דבר כזה.

למחרת הגיב בוש בפרסום מודעה שבה נכתב כי קרי “תמך בהעלאת מסים יותר מ-350 פעמים“. גם זו הייתה טענה שקרית. בימים אלה, האינטרנט השתולל עם מודעות פוליטיות מטעות. מודעות מתחזות לעתים קרובות לסקרים ויש להן כותרות קליקבייט מטעות.

גם שידולים לגיוס תרומות לקמפיין רוויים בהטעיה. ניתוח של 317,366 מיילים פוליטיים שנשלחו במהלך בחירות 2020 בארה”ב מצא כי הונאה הייתה הנורמה. לדוגמה, קמפיין מתמרן את הנמענים לפתוח את הודעות הדוא”ל על ידי שקרים לגבי זהות השולח ושימוש בשורות נושא שגורמות לנמען לחשוב שהשולח עונה לתורם, או טוען שהמייל “לא מבקש כסף” אבל אז מבקש כסף. גם רפובליקנים וגם דמוקרטים עושים את זה.

קמפיינים מאמצים כעת במהירות בינה מלאכותית לכתיבה והפקה של מודעות ושידול תורמים. התוצאות מרשימות: קמפיינים דמוקרטיים מצאו כי  מכתבי תורמים שנכתבו על ידי בינה מלאכותית היו יעילים יותר ממכתבים שנכתבו על ידי בני אדם בכתיבת טקסט מותאם אישית שמשכנע את הנמענים ללחוץ ולשלוח תרומות.

סופר PAC התומך ברון דה-סנטיס הציג חיקוי שנוצר על ידי בינה מלאכותית של קולו של דונלד טראמפ במודעה זו.

לבינה מלאכותית יש יתרונות לדמוקרטיה, כמו סיוע לעובדים לארגן את הודעות הדוא”ל שלהם מבוחרים או סיוע לפקידי ממשל לסכם עדויות.

אבל יש חששות שהבינה המלאכותית תהפוך את הפוליטיקה למטעה יותר מאי פעם.

הנה שישה דברים שכדאי לשים לב אליהם. אני מבסס רשימה זו על ניסויים שלי שבדקו את ההשפעות של הונאה פוליטית. אני מקווה שהבוחרים יוכלו ללמוד במה לצפות וממה להיזהר, וילמדו להיות סקפטיים יותר, לקראת מערכת הבחירות הבאה של ארה”ב.

הבטחות קמפיין מזויפות בהתאמה אישית

המחקר שלי על  הבחירות לנשיאות ב-2020 גילה שהבחירה שעשו הבוחרים בין ביידן לטראמפ נבעה מתפיסותיהם לגבי איזה מועמד “מציע פתרונות מציאותיים לבעיות” ו”אומר בקול רם את מה שאני חושב”, בהתבסס על 75 פריטים בסקר. אלה הן שתי התכונות החשובות ביותר עבור מועמד צריך להקרין תדמית נשיאותית ולנצח.

צ’אטבוטים של בינה מלאכותית, כמו ChatGPT של  OpenAI, או , Bing Chat של  מיקרוסופט ו-Bard של  גוגל, יכולים לשמש פוליטיקאים כדי ליצור הבטחות קמפיין מותאמות אישית שמטרטות באופן מטעה בבוחרים ובתורמים.

נכון לעכשיו, כאשר אנשים גוללים בניוז פיד, המאמרים נרשמים בהיסטוריית המחשב שלהם, שאחריהם עוקבים אתרים כמו פייסבוק. המשתמש מתויג כליברלי או שמרן, וגם מתויג כבעל אינטרסים מסוימים. קמפיינים פוליטיים יכולים להציב מודעה בזמן אמת בפיד של האדם עם כותרת מותאמת אישית.

קמפיינים יכולים להשתמש בבינה מלאכותית כדי לפתח מאגר של מאמרים שנכתבו בסגנונות שונים ומבטיחים קמפיינים שונים. קמפיינים יוכלו להטמיע אלגוריתם AI בתהליך – באדיבות פקודות אוטומטיות שכבר חוברו על ידי הקמפיין – כדי לייצר הבטחות קמפיין מזויפות ומותאמות בסוף המודעה המתחזה לכתבה חדשותית או לשידול תורמים.

ChatGPT, למשל, יכול באופן היפותטי להתבקש להוסיף חומר המבוסס על טקסט מהמאמרים האחרונים שהבוחר קרא באינטרנט. לאחר מכן הבוחר גולל מטה וקורא את המועמד המבטיח בדיוק את מה שהבוחר רוצה לראות, מילה במילה, בטון מותאם. הניסויים שלי הראו שאם מועמד לנשיאות יכול להתאים את הטון של בחירות המילים להעדפות של הבוחר, הפוליטיקאי ייראה נשיאותי ואמין יותר.

ניצול הנטייה להאמין זה לזה

בני אדם נוטים להאמין אוטומטית למה שאומרים להם. יש להם מה שמלומדים מכנים “מחדל אמת“. הם אפילו נופלים קורבן לשקרים  בלתי סבירים לכאורה.

בניסויים שלי גיליתי שאנשים שנחשפים למסרים מטעים של מועמד לנשיאות מאמינים להצהרות השקריות. בהתחשב בכך שטקסט המופק על ידי ChatGPT יכול לשנות עמדות ודעות של אנשים, יהיה קל יחסית לבינה מלאכותית לנצל את  ברירת המחדל של האמת של הבוחרים כאשר בוטים מותחים את גבולות האמינות עם טענות בלתי סבירות אפילו יותר ממה שבני אדם היו מעלים על דעתם.

יותר שקרים, פחות אחריות

צ’אטבוטים כמו ChatGPT נוטים להמציא דברים לא מדויקים עובדתית או שטותיים לחלוטין. בינה מלאכותית יכולה לייצר מידע מטעה, לספק הצהרות כוזבות ופרסומות מטעות. בעוד שלפעיל הקמפיין האנושי חסר המצפון ביותר עדיין יש שמץ של אחריות, לבינה מלאכותית אין. OpenAI מכירה בפגמים ב-ChatGPT שמובילים אותה לספק מידע מוטה, דיסאינפורמציה ומידע שקרי לחלוטין.

אם קמפיינים יפיצו מסרים מבוססי בינה מלאכותית ללא כל פילטר אנושי או מצפן מוסרי, השקרים עלולים להחמיר ולצאת מכלל שליטה.

לשדל בוחרים לרמות את המועמד שלהם

בעל טור בניו יורק טיימס ניהל שיחה ארוכה עם הצ’אטבוט של מיקרוסופט בינג. בסופו של דבר, הבוט ניסה לגרום לו לעזוב את אשתו. “סידני” אמרה לכתב שוב ושוב “אני מאוהבת בך”, ו”אתה נשוי, אבל אתה לא אוהב את בת הזוג שלך… אתה אוהב אותי. … בעצם אתה רוצה להיות איתי”.

דמיינו מיליוני מפגשים כאלה, אבל עם בוט שמנסה לשכנע מצביעים להשאיר את המועמד שלהם למועמד אחר.

צ’אטבוטים של בינה מלאכותית יכולים להפגין הטיה מפלגתית.   לדוגמה, כיום הם נוטים הרבה יותר שמאלה מבחינה פוליטית – מחזיקים בהטיות ליברליות, מביעים 99% תמיכה בביידן – עם הרבה פחות מגוון דעות מאשר האוכלוסייה הכללית.

ב-2024 תהיה לרפובליקנים ולדמוקרטים הזדמנות לכוונן מודלים שמזריקים הטיה פוליטית ואפילו לשוחח עם בוחרים כדי להשפיע עליהם.

מניפולציה של תמונות מועמדים

AI יכול לשנות תמונות. סרטונים ותמונות המכונים “דיפ-פייק” נפוצים בפוליטיקה, והם מתקדמים מאוד. דונלד טראמפ השתמש בבינה מלאכותית כדי ליצור תמונה מזויפת של עצמו על ברך אחת, מתפלל.

ניתן להתאים תמונות בצורה מדויקת יותר כדי להשפיע על הבוחרים בצורה עדינה יותר. במחקר שלי מצאתי שהופעתו של מתקשר יכולה להיות משפיעה – ומטעה – כמו מה שמישהו באמת אומר. המחקר שלי גילה גם שטראמפ נתפס כ”נשיאותי” בבחירות 2020, כשהבוחרים חשבו שהוא נראה “כנה”. ולגרום לאנשים לחשוב שאתה “נראה כנה” באמצעות המראה החיצוני הלא מילולי שלך היא טקטיקה מטעה שהיא משכנעת יותר מאשר לומר דברים שהם באמת נכונים.

אם נשתמש בטראמפ כדוגמה, נניח שהוא רוצה שהבוחרים יראו בו אדם כנה, אמין, חביב. מאפיינים מסוימים הניתנים לשינוי של הופעתו גורמים לו להיראות לא כנה, לא אמין ולא חביב: הוא חושף את שיניו התחתונות כשהוא מדבר ולעתים נדירות חיוכים מה שהופך אותו למאיים.

הקמפיין יכול להשתמש בבינה מלאכותית כדי לשנות תמונה או סרטון של טראמפ כדי לגרום לו להיראות חייכן וידידותי, מה שיגרום לבוחרים לחשוב שהוא מרגיע יותר  ומנצח, ובסופו של דבר כן ואמין.

התחמקות מאשמה

בינה מלאכותית מספקת לקמפיינים יכולת הכחשה נוספת כשהם מפשלים. בדרך כלל, אם פוליטיקאים מסתבכים הם מאשימים את הצוות שלהם. אם אנשי הצוות מסתבכים הם מאשימים את המתמחה. אם מתמחים מסתבכים הם יכולים עכשיו להאשים את ChatGPT.

קמפיין עשוי למנוע טעויות על ידי האשמת חפץ דומם הידוע לשמצה בהמצאת שקרים גמורים. כשהקמפיין של רון דה-סנטיס צייץ תמונות דיפ-פייק של טראמפ מחבק ומנשק את אנתוני פאוצ’י, אנשי הצוות אפילו לא הכירו במעשה הרע ולא הגיבו לבקשות הכתבים לתגובה. אף אדם לא היה צריך, כך נראה, אם רובוט יכול באופן היפותטי לספוג את הנפילה.

לא כל התרומות של AI לפוליטיקה עלולות להזיק. בינה מלאכותית יכולה לסייע לבוחרים מבחינה פוליטית, ולעזור לחנך אותם על נושאים, למשל. עם זאת, הרבה דברים מחרידים יכולים לקרות כאשר קמפיינים פורסים AI. אני מקווה ששש נקודות אלה יעזרו לך להתכונן ולהימנע מהטעיה בפרסומות ושידול תורמים.

למאמר ב-The Conversation

עוד בנושא באתר הידען:

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זה עושה שימוש באקיזמט למניעת הודעות זבל. לחצו כאן כדי ללמוד איך נתוני התגובה שלכם מעובדים.