מאמר ב-Science מזהיר שרשתות מתואמות של זהויות סינתטיות יכולות להשתלב בקהילות, לצבור אמון ולהטות שיח פוליטי – בלי להיראות כמו בוטים
חוקרים מזהירים מפני צורה חדשה של מניפולציה מקוונת: לא “בוטים” שמפיצים ספאם בבת אחת, אלא נחילי פרסונות AI – רשתות של חשבונות שנראים ונשמעים כמו בני אדם רגילים, פועלים לאורך זמן בתוך קהילות אמיתיות, ובאמצעות תיאום שיטתי מסוגלים להסיט שיחות פוליטיות ולהשפיע על מה שאנשים רואים, משתפים ומאמינים.
לפי חוקרים מ־University of British Columbia, המערכות החדשות לא חייבות להופיע בעצרת או להטיל פתק בקלפי כדי “להזיז” דמוקרטיה. הן פועלות במקום שבו נוצרת דעת קהל: בפידים, בקבוצות, בתגובות ובשיתופים. החשש המרכזי הוא שהיכולת של שחקן יחיד להפעיל “קאסט” שלם של זהויות סינתטיות – שכולן מתואמות – יוצרת עוצמת השפעה שלא הייתה זמינה בעבר.
מה השתנה לעומת בוטנטים “קלאסיים”
במאמר מדיניות (policy forum) שפורסם ב־Science מתואר כיצד נחילים כאלה יכולים “להיטמע” בקהילות קיימות, לצבור אמינות בהדרגה, ואז לדחוף את השיח לכיוונים ממוקדים – בקצב של מכונה. החידוש אינו רק היכולת לנסח טקסט טוב, אלא עבודת צוות רציפה:
- במקום לפרסם אותה הודעה באלפים, החשבונות מנהלים שיח מגוון, עם סגנונות שונים.
- הם לומדים בזמן אמת מה “תופס” ומה נבלם.
- הם שומרים על קו מסרים עקבי גם אם חשבונות בודדים נופלים ונוצרים מחדש.
כך נוצרת תחושה של “כולם מדברים על זה”, גם כשהקונצנזוס נבנה באופן מלאכותי.
איך זה עובד טכנית, ולמה קשה לזהות
המחברים מציינים ששילוב בין מודלים מתקדמים של שפה לבין מערכות מרובות-סוכנים (multi-agent) מאפשר למפעיל אחד לנהל רשת של “קולות” שנראים מקומיים ואותנטיים: כל פרסונה יכולה להתאים את עצמה לנורמות של הקהילה, להגיב במהירות לטענות נגדיות, ולדבר בסגנון מעט שונה מהאחרות.
עוד יכולת שמדאיגה חוקרים היא “מבחני A/B” בקנה מידה עצום: הנחיל יכול לנסות במהירות גרסאות רבות של אותו מסר, לזהות אילו ניסוחים משנים עמדות בצורה היעילה ביותר, ואז להגביר דווקא אותם. כשהפעילות הזו מבוצעת בעדינות ובתיאום, היא נראית מבחוץ כמו דיון טבעי.
כאן נכנסת שוב נקודת המפתח: נחילי פרסונות AI אינם חייבים להתנהג כמו בוטים כדי להשיג אפקט דומה – ואף חזק יותר.
סימני אזהרה שכבר נראים בשטח
למרות שנחילים בקנה מידה מלא עדיין אינם תופעה “ממוסדת” בכל מקום, החוקרים טוענים שכבר יש אינדיקציות למה שמתקרב. חוקר מדעי המחשב ד״ר Kevin Leyton-Brown מצביע על סרטוני דיפ־פייק והופעת מקורות חדשות סינתטיים, שלדבריו השפיעו על ויכוחים סביב בחירות במדינות שונות, ובהן United States, Taiwan, Indonesia ו־India.
בנוסף, לפי דיווחים של גופי ניטור, פועלות ברשת גם רשתות תוכן פרו-קרמלין שמציפות את האינטרנט בחומרים שמטרתם “לזהם” מאגרי מידע – בין השאר כדי להשפיע על האופן שבו מערכות בינה מלאכותית יילמדו בעתיד. החשש הוא שמניפולציה כזו לא רק משנה שיח היום, אלא גם מעצבת את “חומר הגלם” שעליו יישענו מערכות AI מחר.
מה המשמעות לדמוקרטיה ולאמון ברשתות החברתיות
החוקרים מעריכים שנחילים כאלה עלולים לשנות את מאזן הכוחות בדמוקרטיות, לא בהכרח על ידי שכנוע ישיר של כל אדם, אלא באמצעות השפעה מצטברת על מה שנחשב “נורמלי”, “מקובל” או “דחוף”. אחד התרחישים הסבירים, לפי החוקרים, הוא שחיקה באמון בקולות לא מוכרים ברשתות החברתיות. מצב כזה עלול לחזק דמויות מוכרות וסלבריטאים, ולהקשות על מסרים “מלמטה” לפרוץ לתודעה הציבורית.
החוקרים מוסיפים שבחירות קרובות בעולם עשויות לשמש מבחן מעשי ראשון ליכולת הזו – והשאלה הדחופה היא האם קמפיינים מתואמים כאלה יזוהו בזמן, לפני שהם מסיטים את השיח הציבורי באופן שקשה לתקן בדיעבד.
כיתוב תמונה מתורגם (מהכתבה)
חוקרים מזהירים שנחילים מתואמים של פרסונות הנשלטות בידי בינה מלאכותית יכולים לעצב מחדש שיח פוליטי מקוון בלי להיראות כמו בוטים “קלאסיים”. (קרדיט: Shutterstock)
מקור מדעי
“How malicious AI swarms can threaten democracy”, Policy Forum, Science, 22-1-2026.
DOI: 10.1126/science.adz1697
עוד בנושא באתר הידען: