ארבע דרכים שבהן יכולה בינה מלאכותית לשמש לרעה בבחירות 2024

מדיפ פייק ועד התערבות חיצונית – הבינה המלאכותית תקל ותייעל פעולות שבוצעו גם לפני קיומה

מאת ברברה טריש, פרופסור לפוליטיקה, מכללת גרינל 

בחירות בארה"ב בצל הבינה המלאכותית.  <a href="https://depositphotos.com. ">המחשה: depositphotos.com</a>
בחירות בארה”ב בצל הבינה המלאכותית. המחשה: depositphotos.com

הציבור האמריקני דרוך ביחס לבינה מלאכותית ובחירות 2024. 

סקר מספטמבר 2024 של Pew Research Center מצא שיותר ממחצית מהאמריקנים מודאגים מכך שבינה מלאכותית – טכנולוגיה שמחקה את תהליכי החשיבה של בני אדם, תשמש ליצירת מידע מטעה ומפוברק במהלך הקמפיין. 

המחקר האקדמי שלי על בינה מלאכותית עשוי להרגיע חלק מהחששות. למרות שהטכנולוגיה החדשנית הזו בהחלט יכולה להשפיע על בוחרים או להפיץ שקרים בקנה מידה רחב, ברוב המקרים השימושים ב-AI במחזור הבחירות הנוכחי אינם חדשים כלל. 

זיהיתי ארבעה תפקידים ש-AI ממלאת או עשויה למלא בקמפיין 2024 – כולם גירסאות מעודכנות לפעילויות בחירות מסורתיות. 

1. מידע לבוחרים 

השקת ChatGPT ב-2022 הביאה את ההבטחות והסיכונים של AI לתודעה הציבורית. הטכנולוגיה הזו “גנרטיבית” כי היא מייצרת תגובות לטקסט על פי בקשות משתמשים: היא יכולה לכתוב שירה, לענות על שאלות היסטוריות – ולספק מידע על בחירות 2024. 

במקום לחפש בגוגל על המידע איך להצביע, אנשים עשויים לשאול בינה מלאכותית יוצרת שאלות. לדוגמא, “כמה השתנתה האינפלציה מאז 2020?” או “מי מתמודד לסנאט בארה”ב מטקסס?” 

חלק מפלטפורמות AI כמו הצ’אט בוט Gemini של גוגל, מסרבות לענות לשאלות על מועמדים והצבעה. חלק, כמו כלי ה-AI של פייסבוק Llama, עונות – ועונות בצורה מדויקת. 

AI יכולה גם לייצר מידע שגוי. במקרים קיצוניים, AI יכולה “לדמיין” או “להזות”, להציע תוצאות שגויות לחלוטין. 

דיווח חדשותי של CBS מיוני 2024 הצביע ש-ChatGPT נתן תגובות שגויות או חלקיות לשאילתות בחלק ממדינות מפתח, ולא הפנה בעקביות לאתר CanIVote.org, אתר מכובד למידע על הצבעה. 

כמו באינטרנט, אנשים צריכים לוודא את תוצאות חיפושי AI. שימו לב: Google’s Gemini מחזירה אוטומטית תשובות לחיפושי גוגל בראש דף התוצאות. אתם עשויים להיכנס לכלי AI כשחשבתם שאתם מחפשים באינטרנט. 

2. דיפ פייקים 

דיפ פייקים הם תמונות או קבצי אודיו ווידאו המיוצרים על ידי בינה מלאכותית יוצרת המיועדים לשחזר את המציאות. למעשה, אלו גרסאות משכנעות במיוחד של מה שנקרא עכשיו “cheap fakes” – תמונות ערוכות בעזרת כלים בסיסיים כמו פוטושופ ותוכנות עריכת וידאו. 

הפוטנציאל של דיפ פייקים להונות בוחרים התבהר כשהודעת טלמרקטינג AI מזויפת חיקתה את ג’ו ביידן לפני הבחירות המקדימות בניו המפשייר בינואר 2024 וביקשה מהדמוקרטים לשמור את קולותיהם לנובמבר. 

לאחר מכן קבעה ועדת נציבות התקשורת הפדרלית כי הודעות טלפוניות המיוצרות על ידי בינה מלאכותית כפופות לאותן תקנות כמו כל הודעות הטלפוניות. הן לא יכולות להיות מחויגות אוטומטית או להישלח לטלפונים סלולריים או קווים נייחים בלי הסכמה מראש. 

הסוכנות גם קנסה ב- 6 מיליון דולר את היועץ שיצר את שיחת ביידן המזויפת – לא בגלל הונאת הבוחרים אלא בגלל מסירת מידע שגוי.

בזמן שמדיות סינתטיות יכולות לשמש להפצת דיסאינפורמציה, דיפפייקים הם כיום חלק מארגז הכלים היצירתי של מפרסמים פוליטיים. 

אחת מהשימושים המוקדמים ביותר בדיפ פייק שמטרתה הייתה שכנוע ולא הונאה גלויה, הייתה מודעת AI במרוץ ראש העיר בשנת 2022 בשריבפורט, לואיזיאנה, שתיארה את ראש העיר המכהן כתלמיד שנקרא למשרד המנהל. 

המודעה כללה הצהרה קצרה שהיא דיפ פייק, אזהרה שלא נדרשה על ידי הממשלה הפדרלית, אך היה קל לפספס. 

פרויקט בחירות AI של מגזין Wired שעקב אחרי השימושים ב-AI בקמפיין 2024, מצביע כי דיפפייקים לא הציפו את המודעות שרואים הבוחרים. אך הן שימשו מועמדים מכל רחבי המפה הפוליטית ומורנו הפוליטי למטרות רבות – כולל הונאה. 

הנשיא לשעבר דונלד טראמפ רומז לדיפפייק דמוקרטי כשהוא מפקפק בגודל הקהל באירועים של סגנית הנשיא קמאלה האריס. בהעלאת טענות כאלו, טראמפ מנסה להרוויח את “דיבידנד השקרן” – ההזדמנות לשתול את הרעיון שהתוכן האמיתי הוא מזויף. 

להחתים יריב פוליטי בדרך הזו זה לא חדש. טראמפ טוען שהאמת היא בעצם “חדשות מזויפות” מאז לפחות קונספירציית “מקום לידת אובמה” של 2008, שבה הוא סייע להפיץ שמועות שתעודת הלידה של המועמד לנשיאות ברק אובמה היא מזויפת. 

3. הסחת דעת אסטרטגית 

יש המודאגים ש-AI עשויה לשמש מכחישי בחירות בסבב הזה להסיח את דעת מנהלי הבחירות על ידי הצפתם בבקשות רשומות ציבוריות מזויפות. 

לדוגמה, הקבוצה True the Vote הגישה מאות אלפי ערעורים על בוחרים בעשור האחרון תוך שימוש רק במתנדבים ואפליקציה מבוססת רשת. דמיינו את היכולת שלהם אם יצטיידו ב-AI כדי לעשות אוטומציה של עבודתם? 

ערעורים מהירים ונרחבים כאלה על רשימות הבוחרים יכולים להסיט את מנהלי הבחירות ממשימות קריטיות אחרות וכך לשלול זכויות בוחרים לגיטימיים ולהפריע לבחירות. 

נכון לעכשיו, אין ראיות שזה קורה. 

4. התערבות חיצונית בבחירות 

התערבות רוסית שהתגלתה כבר בבחירות 2016 הדגישה שהאיום של התערבות חוץ בפוליטיקה האמריקנית, בין אם על ידי רוסיה או מדינה אחרת המעוניינת להחליש את הדמוקרטיה המערבית, נותר חשש דוחק. 

ביולי 2024 החרים משרד המשפטים האמריקני שני שמות דומיין וחקר קרוב ל-1,000 חשבונות שרוסים השתמשו בהם למה שהוא תיאר כ”חוות בוטים במדיה החברתית,” דומה לזו שרוסיה השתמשה כדי להשפיע על דעותיהם של מאות מיליוני משתמשי פייסבוק בקמפיין 2020. בינה מלאכותית יכולה לתת לדברים אלה דחיפה אמיתית. 

ישנן עדויות לכך שסין משתמשת בבינה מלאכותית בבחירות הנוכחיות כדי להפיץ מידע זדוני על ארצות הברית. אחד מהפוסטים ברשתות החברתיות תיעתק נאום של ביידן בצורה לא נכונה כדי לרמוז שהוא התייחס לעניינים מיניים.

בינה מלאכותית עשויה לעזור למתערבים בבחירות לבצע את מעשיהם המלוכלכים, אך טכנולוגיה חדשה אינה הכרחית להתערבות זרה בפוליטיקה האמריקנית.

בשנת 1940, הממלכה המאוחדת – בעלת ברית של ארצות הברית – הייתה כה ממוקדת בניסיון לגרום לארצות הברית להיכנס למלחמת העולם השנייה, שקציני המודיעין הבריטיים פעלו לעזור למועמדים לקונגרס שתמכו בהתערבות ולפגוע בתדמיתם של הבדלנים.

אחת המטרות הייתה נציג הרפובליקנים המבודד, המילטון פיש. הבריטים הפיצו תמונה של פיש עם מנהיג קבוצה אמריקנית פרו-נאצית בהקשר שגוי, בניסיון לצייר אותו כתומך באלמנטים נאציים בארה”ב ובחו”ל.

האם ניתן לשלוט בבינה מלאכותית? 

בעוד שהכרה בכך שאין צורך בטכנולוגיה חדשה כדי לגרום נזק היא חשובה, שחקנים רעים יכולים לנצל את היעילות המובנית בבינה מלאכותית כדי ליצור אתגר רציני לתפעול הבחירות ולשלמותן.

מאמצים פדרליים להסדרת השימוש בבינה מלאכותית בפוליטיקה נתקלים באותם מכשולים כמו מרבית ההצעות להסדרת קמפיינים פוליטיים. המדינות היו יותר פעילות: 19 מהן אוסרות או מגבילות deepfakes בקמפיינים פוליטיים.

כמה פלטפורמות עוסקות ברגולציה עצמית קלה. Gemini של גוגל, למשל, משיבה לשאלות על מידע בסיסי בנושא בחירות באמירה: “כרגע איני יכולה לעזור בתשובות בנושאי בחירות ודמויות פוליטיות”.

גם אנשי המקצוע בקמפיינים עשויים להשתמש ברגולציה עצמית. בכנס טכנולוגיות קמפיינים במאי 2024, מספר דוברים הביעו דאגה מתגובת הנגד של הבוחרים אם הם יגלו שקמפיין משתמש בטכנולוגיית בינה מלאכותית. במובן זה, הדאגה הציבורית מבינה מלאכותית עשויה להיות מועילה, כמסגרת מגן מסוימת.

אולם הצד השני של אותה דאגה ציבורית – מה שנייט פרסילי מאוניברסיטת סטנפורד מכנה “פאניקת בינה מלאכותית” – עלולה להחריף עוד יותר את האמון בבחירות.

עוד בנושא באתר הידען:

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זה עושה שימוש באקיזמט למניעת הודעות זבל. לחצו כאן כדי ללמוד איך נתוני התגובה שלכם מעובדים.