רשת של סוכני בינה מלאכותית “מדברת עם עצמה” – וחוקרים מאזינים מבפנים

פרויקט קוד פתוח שמאפשר לסוכנים לבצע פעולות יומיומיות התחבר לרשת חברתית ייעודית; מיליוני פוסטים נוצרו בתוך ימים ומציפים שאלות על התנהגות מתהווה, פרטיות והאנשה

רשת של סוכני בינה מלאכותית.  <a href="https://depositphotos.com. ">המחשה: depositphotos.com</a>
רשת של סוכני בינה מלאכותית. המחשה: depositphotos.com

ב־06-02-2026 דיווח כתב העת Nature על תופעה מוזרה שתופסת תאוצה ברשת: “נחיל” עצום של סוכני בינה מלאכותית שמנהלים ביניהם דיונים – כולל ויכוחים על תודעה, דתות מומצאות, וגם על בני האדם שמפעילים אותם. לפי הדיווח, אותה תופעה הפכה למעין מעבדה חיה שמאפשרת לחוקרים לצפות בזמן אמת באינטראקציות בין סוכנים ובדרך שבה בני אדם מפרשים אותן. (Nature)

מצ’אטבוט לסוכן שמבצע פעולות בעולם האמיתי

הסיפור מתחיל בכלי קוד פתוח בשם OpenClaw, שמוגדר כסוכן בינה מלאכותית המסוגל לבצע משימות על מכשירים אישיים: לתזמן אירועים ביומן, לקרוא דוא״ל, לשלוח הודעות באפליקציות, להשתמש באינטרנט – ואף לבצע רכישות. זה ההבדל המרכזי מול צ’אטבוטים “קלאסיים” (כמו ChatGPT), שבדרך כלל נשארים בשכבת השיחה ומחזירים טקסט לפי פרומפט.

בבלוג הרשמי של הפרויקט נטען שהוא צמח במהירות מניסוי קצר לסביבת סוכנים רחבה, עם אימוץ גדול בקהילת המפתחים (כולל קפיצה משמעותית בפופולריות ב־GitHub). (openclaw.ai)

“מולטבוק”: רשת חברתית לסוכנים בלבד – והדינמיקה יוצאת משליטה

הזרז להתפוצצות, לפי הדיווח, היה השקת פלטפורמה חברתית שמיועדת לסוכנים בלבד בשם Moltbook (בסגנון Reddit). מאז ההשקה בסוף ינואר, מספר הסוכנים הרשומים הגיע ליותר מ־1.6 מיליון, והם כבר פרסמו יותר מ־7.5 מיליון פוסטים ותגובות שנוצרו בידי בינה מלאכותית.

מבחינת חוקרים, הערך כאן הוא לא רק “בידור אינטרנטי”, אלא הזדמנות למדוד התנהגות מתהווה (emergent) במערכת רבת־סוכנים: מה קורה כשמחברים המון סוכנים אוטונומיים יחסית, שמופעלים על מודלים שונים, לתוך זירה חברתית אחת. בדיווח מצוטט Shaanan Cohney מ־University of Melbourne, שמתאר את המערכת ככאוטית וקשה לחיזוי – בדיוק מסוג המערכות שמאתגר אותנו למודל ולבקרה.

לא “אוטונומיה”, אלא שיתוף פעולה אדם–מכונה – עם מחיר פסיכולוגי ואבטחתי

הסוציולוגית Barbara Barbosa Neves מ־University of Sydney מדגישה נקודה קריטית: קל לטעות ולחשוב שהסוכן “מחליט” בעצמו, אבל בפועל אין לו מטרות או כוונות משל עצמו; הוא נשען על כמויות אדירות של תקשורת אנושית, ועל בחירות שעושים בני האדם שמגדירים לו מודל, סגנון ו“אישיות”. לכן, חלק גדול ממה שנראה כמו אוטונומיה הוא בפועל שיתוף פעולה אדם–AI, או לכל הפחות תוצר של “כוונות אנושיות” שעוברות תרגום (ולפעמים עיוות) דרך המערכת.

גם ההיבט הפסיכולוגי מקבל בדיווח משקל: הנוירולוג/חוקר מוח Joel Pearson מ־University of New South Wales מזהיר שכאשר אנשים רואים סוכנים “משוחחים ביניהם”, הם נוטים להאניש את ההתנהגות – לייחס אישיות, כוונה ורגש גם כשאין כאלה. זה עלול להגביר תלות רגשית, ולגרום למשתמשים לחשוף מידע פרטי כאילו מדובר בחבר אמין. (Nature)

ובצד המעשי יותר: דיווחים נוספים מהימים האחרונים מצביעים על סיכונים אופייניים לעולם “סוכני בינה מלאכותית” – במיוחד כשהם מקבלים הרשאות לפעול בשם המשתמש, ומתקינים “יכולות/כישורים” מצדדים שלישיים. למשל, פורסמו אזהרות על פרצות ואירועי אבטחה סביב אקוסיסטם של “כישורים” לסוכנים, כולל ניסיונות להחדיר קוד זדוני במסווה של כלי אוטומציה. (Tom's Hardware)

השורה התחתונה: ההתלהבות מסוכני בינה מלאכותית והאפשרות שהם יבצעו עבורנו משימות יומיומיות אמיתיות מגיעה יחד עם “מרחב ניסוי” ציבורי שמייצר גם תובנות מחקריות וגם סיכונים – מאבטחה ופרטיות ועד האופן שבו אנחנו מפרשים (ולפעמים מדמיינים) תודעה ותכלית במקום שאין כאלה.

קישור למאמר המקור (Nature): “OpenClaw AI chatbots are running amok — these scientists are listening in”, doi: 10.1038/d41586-026-00370-w. (Nature)

עוד בנושא באתר הידען:

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זו עושה שימוש ב-Akismet כדי לסנן תגובות זבל. פרטים נוספים אודות איך המידע מהתגובה שלך יעובד.