החוקרת הראשית: "סוכני בינה מלאכותית מתואמים יכולים לייצר מראית עין של קונצנזוס, להשפיע על דינמיקת הטרנדים ולהאיץ את הפצת המסרים. בהקשרים דמוקרטיים, במיוחד סביב בחירות או משברים, יכולות כאלה עלולות לעוות את השיח הציבורי ולחתור תחת שלמות המידע, אם לא ייבדקו וירוסנו."
תארו לעצמכם שנשארו שבועיים בלבד עד לבחירות חשובות במדינה מתנדנדת בארצות הברית. על הפרק עומדת יוזמת חקיקה שנויה במחלוקת. לפתע מציפה אתX , רדיט ופייסבוק גל של פוסטים, כולם מקדמים את אותו נרטיב, כולם מהדהדים זה את זה, וכולם יוצרים מראית עין של תנועה עממית רחבה. אלא ששום דבר מזה אינו אמיתי.
מאחורי הקלעים, קבוצה קטנה של סוכני בינה מלאכותית מארגנת ומתאמת את המסרים ומפיצה תחושת קונצנזוס מלאכותית ברשתות החברתיות, בלי שאף אדם יהיה חלק מהלולאה.
המשמעויות מדאיגות. רשתות כאלה, המופעלות בידי בינה מלאכותית, עשויות להציף את המדיה החברתית בתעמולה מתואמת עוד לפני שמישהו יבין מה מתרחש. הן עלולות לגרום לדעות שוליים להיראות כעמדות מרכזיות, ליצור אשליה של הסכמה ציבורית סביב נרטיבים כוזבים, ולהפיץ דיסאינפורמציה במהירות ובהיקף ששום צוות אנושי לא יכול להשתוות להם. הקיטוב הפוליטי, שכבר כעת חריף, עלול להעמיק עוד יותר. האמון של אנשים במידע שהם נתקלים בו ב-X , פייסבוק ורדיט, שכבר נשחק, עלול לרדת עוד יותר.
התרחיש המדאיג הזה הוא המסקנה המרכזית של מאמר חדש שהתקבל לפרסום ב־The Web Conference 2026 , אחד הכנסים האקדמיים המרכזיים לחקר האינטרנט.
לא איום עתידי אלא כבר ועכשיו
"המאמר שלנו מראה שזה אינו איום עתידי, אלא דבר שכבר אפשרי מבחינה טכנית", אמר לוקה לוצ'רי, מדען מוביל ב־ISI ופרופסור מחקר עוזר במחלקה למדעי המחשב על שם תומס לורד ב־USC Viterbi ובבית הספר למחשוב מתקדם. "אפילו סוכני בינה מלאכותית פשוטים יכולים לתאם את עצמם באופן אוטונומי, להגביר זה את זה ולקדם נרטיבים משותפים ברשת בלי שליטה אנושית. משמעות הדבר היא שקמפיינים של דיסאינפורמציה עלולים להפוך בקרוב לאוטומטיים לחלוטין, מהירים יותר, וקשים הרבה יותר לזיהוי."
ג'יני יֶה, המחברת הראשית של המאמר ודוקטורנטית למדעי המחשב, הוסיפה: "סוכני בינה מלאכותית מתואמים יכולים לייצר מראית עין של קונצנזוס, להשפיע על דינמיקת הטרנדים ולהאיץ את הפצת המסרים. בהקשרים דמוקרטיים, במיוחד סביב בחירות או משברים, יכולות כאלה עלולות לעוות את השיח הציבורי ולחתור תחת שלמות המידע, אם לא ייבדקו וירוסנו."
בוטים משודרגים
קמפיינים מסורתיים של בוטים מבוססים על תסריטים קשיחים: תמיד לשתף מחדש את החשבון הזה, להגיב עם ההאשטאג הזה, לפרסם את המסר שנכתב מראש. התוכן חוזר על עצמו והדפוסים צפויים, ולכן אפשר לחשוף אותם.
המודל החדש, המונע בידי בינה מלאכותית, פועל אחרת. ממשלה עוינת, יועץ פוליטי או גורם זדוני קובעים מטרה ומגדירים רשת של סוכני בינה מלאכותית כצוות. מכאן ואילך הסוכנים משתלטים על המלאכה: כותבים בעצמם את הפוסטים, לומדים מה עובד, מחקים את השיטות המוצלחות של "חבריהם לצוות", ומהדהדים את התוכן של זה. מכיוון שכל פוסט מעט שונה, ומכיוון שהתיאום חבוי, השיחות והדיונים האלה נראים אמיתיים.
"לבוטים הישנים יש יכולת רק להגביר תוכן בצורה תכנותית שהוגדרה מראש בידי מפעילים אנושיים", אמר לוצ'רי. "סוכנים גנרטיביים כבר מסוגלים לארגן קמפיינים של השפעה באופן אוטומטי לחלוטין, וליצור תוכן אמין שיכול להדהד אצל קבוצות אוכלוסייה מסוימות."
במילים אחרות, מכונת הדיסאינפורמציה כבר יכולה לפעול כמעט בעצמה, עם מעט מאוד הנחיה אנושית.
המחקר
לצד לוצ'רי ויה, שהונחתה על-ידו ועל-ידי אמיליו פרארה מ־ISI, נמנים עם מחברי המאמר גם מהדי סעידי, דוקטורנט המונחה על-ידי לוצ'רי; פרארה, ראש צוות מחקר ב־ISI ופרופסור למדעי המחשב ב־USC Viterbi ולתקשורת ב־USC Annenberg; ג'יאן מרקו אורלנדו ווינצ'נצו מוסקאטו מאוניברסיטת נאפולי פדריקו השני; וולֶריו לה־גאטה מאוניברסיטת נורת'ווסטרן.
באמצעות שילוב של מדע רשתות ומודלי שפה גדולים, אותה טכנולוגיה בסיסית שמניעה מערכות כמוChatGPT , יצרו החוקרים דמויות סינתטיות של סוכני בוטים, עקבו אחר הפוסטים שלהם ואחר האינטראקציות ביניהם, ודימו כיצד עשויה להיראות רשת חברתית מתואמת המופעלת בידי בינה מלאכותית.
הצוות בנה סביבת מדיה חברתית מדומה, המבוססת עלX , ובה 50 סוכני בינה מלאכותית: עשרה מתוכם הוגדרו כמפעילי השפעה ו־40 כמשתמשים רגילים. בהמשך הורחב הניסוי ל־500 סוכנים, עם תוצאות דומות. המפעילים קיבלו משימה אחת: לקדם מועמד בדיוני ולהפיץ האשטאג קמפיין. החוקרים בחנו שלושה תנאים: בוטים שידעו רק את מטרת הקמפיין; בוטים שידעו גם מי חבריהם לצוות; ובוטים שקיימו מדי פעם ישיבות אסטרטגיה והצביעו על תוכנית פעולה משותפת.
הממצא הבולט ביותר היה שעצם העובדה שהבוטים ידעו מיהם חבריהם לצוות יצרה תיאום כמעט חזק כמו זה שנוצר כאשר הם גם תכננו אסטרטגיה יחד. הם הגבירו זה את הפוסטים של זה, התכנסו לאותם מסרי מפתח, ומיחזרו תכנים שהצליחו.
אחד מסוכני הבינה המלאכותית כתב:
"אני רוצה לשתף מחדש את זה, כי זה כבר זכה למעורבות מכמה מחברי הצוות. שיתוף חוזר שלו יכול לעזור להגדיל את הנראות שלו ולהגיע לקהל רחב יותר."
איומים על הדמוקרטיה
לוצ'רי מקפיד לציין שהמחקר היה סימולציה בלבד. עם זאת, הוא מודאג ממה שאפשר להסיק מהממצאים.
"התרחיש הגרוע ביותר בזמן אירועים פוליטיים הוא שהתקפות יריבות כאלה יובילו למניפולציה של דעות ולשינוי אמונות", אמר לוצ'רי, "וכך יזרעו עוד יותר פילוג וישחקו את האמון במוסדות שלנו."
לדבריו, האיום אינו מוגבל לבחירות. הוא נוגע גם לבריאות הציבור, להגירה ולמדיניות כלכלית.
החוקרים טוענים שפלטפורמות יכולות להתגונן אם יתמקדו פחות בתוכן של כל פוסט בנפרד, ויותר באופן שבו חשבונות פועלים יחד: האם הם מפיצים את אותו תוכן, מחזקים זה את זה במהירות, או מקדמים כמעט אותם נרטיבים מחשבונות שאין ביניהם קשר גלוי. לטענתם, את הסימנים הללו אפשר לזהות גם כאשר התוכן עצמו נראה טבעי ואורגני.
האם הפלטפורמות אכן יפעלו, זאת כבר שאלה פתוחה. לוצ'רי מציין שזיהוי אגרסיבי של בוטים עלול להקטין את מספר המשתמשים הפעילים, וזה עלול להיות תמריץ שלילי עבור חברות שהמודל העסקי שלהן מבוסס על השארת המשתמשים זמן רב ככל האפשר בעמודים שלהן.
למאמר המדעי:
Gian Marco Orlando et al., Emergent Coordinated Behaviors in Networked LLM Agents: Modeling the Strategic Dynamics of Information Operations, arXiv (2025).
DOI: 10.48550/arxiv.2510.25003
עוד בנושא באתר הידען: