בעוד הקרב בין המתמודדים על נשיאות ארה"ב צמוד מתמיד, חוקרים מאוניברסיטת בן-גוריון בנגב פיתחו שיטה שתסייע לוודא עובדות בתוך כמות המידע שעוברת ברשתות החברתיות

"פייק ניוז" הן בעיה מוכרת, ההולכת וגוברת בסמוך לקיומן של מערכות בחירות, בשל ההשפעה על ציבור הבוחרים באמצעות מידע מוטעה ותיאוריות קונספירציה. בעוד הקרב בין המתמודדים על נשיאות ארה"ב צמוד מתמיד, חוקרים מאוניברסיטת בן-גוריון בנגב פיתחו שיטה שתסייע לוודא עובדות בתוך כמות המידע שעוברת ברשתות החברתיות. עקרונות השיטה פורסמו בכנס הבינלאומי המוביל KDD.
האופי הדינמי וכמות המידע העוברת ברשת האינטרנט, הופכת את פעולת הזיהוי של מידע מוטעה בזמן אמת למשימה קשה ביותר. קבוצת המחקר של ד"ר ניר גרינברג ופרופ' רמי פוזיס מהמחלקה להנדסת מערכות תוכנה ומידע באוניברסיטת בן-גוריון בנגב, פיתחו שיטה באמצעות לימוד מכונה לאיתור מקורות מידע מזויפים.
השיטה מבוססת על למידת מכונה פעילה שמתבססת על מאפייני התוכן שמופץ, המשתמשים שמפיצים אותו ומבנה הרשת של צרכני התוכן השקרי. החוקרים בחנו את הצלחת השיטה גם רטרואקטיבית וגם לאורך הזמן, ולמעשה דימו את אופן שבו בודקי עובדות בני אנוש נדרשים לזהות מידע שקרי.
כך למשל, נמצא שמעקב אחר אתרי חדשות מזויפים, ולא מאמרים או פוסטים בודדים, יכולים להוריד משמעותית את העומס על בודקי העובדות ולהניב תוצאות אמינות לאורך זמן. המודל ידע גם להבדיל בין מונחים טקסטואליים ארעיים לעומת מונחים מוכרים לאורך זמן. עוד נמצא שתיוג מקורות פופולריים עשוי מתייחס לשקרים הנפוצים ביותר בכלל האוכלוסייה, אבל הוא בעייתי לזיהוי מקורות "פייק" חדשים שהרבה פעמים עולים בקהילות מסוימות בהן יש ביקוש לתוכן מסוג זה.
"הבעיה כיום עם התפשטות החדשות המזויפות היא שבודקי העובדות מוצפים. הם לא יכולים לבדוק הכל, אבל היקף הכיסוי שלהם בתוך ים של תכני מדיה חברתית אינו ברור. יתר על כן, איננו יודעים האם בודקי עובדות מצליחים להגיע דווקא לתוכן החשוב ביותר לבדיקה, מה שהוביל אותנו לפתח גישת למידת מכונה שיכולה לעזור לבודקי עובדות להפנות את תשומת הלב שלהם טוב יותר ולהגביר את הפרודוקטיביות שלהם", מסביר ד"ר גרינברג.
מקורות של "פייק ניוז" נוטים להופיע ולהיעלם במהירות במהלך השנים, כך שתחזוקת רשימות של אתרים אלו כרוכה בעלות ובעבודה רבה. המערכת שלהם מחשיבה את זרימת המידע ברשתות החברתיות ואת הקהל התאב למידע מעין זה. המודלים שפותחו עד כה מבוססים על הגישה הנפוצה של זיהוי אלו החולקים מידע מוטעה. כעת, החוקרים הצביעו על כך שהשיטה שלהם יכולה לשמור על אותה רמת דיוק (80% במדד PR-AUC) בזיהוי מקורות מזויפים, תוך שהיא דורשת פחות מרבע מהעלות של בדיקת כלל המקורות.
"המערכת לעולם לא תחליף את בודקי העובדות האנושיים, אך השיטה יכולה להציף מקורות חדשים שלכאורה דורשים תשומת שלב של בודקי העובדות כיום", ציין פרופ' פוזיס. "כעת, יש בידי הרשתות החברתיות כלי נוסף שיאפשר להילחם במידע מוטעה".
קבוצת המחקר כללה את: מאור ראובן מהמחלקה להנדסת תוכנה ומערכות מידע באוניברסיטת בן-גוריון בנגב ואת החוקרת העצמאית, ד"ר ליסה פרידלנד.
3 תגובות
אהה מאוד פשוט…
חצי ממה שמשודר או נכתב ב:
NYT
CNN
NBC
וכו
טראמפ אכן סוכן רוסי – אם תקשיב להתבטאויות שלו כלפי אוקראינה.
ערוץ 14 אינו מהות הדמוקרטיה ושמירה על חופש הביטוי אלא ערוץ תעמולה שמפיץ תיאוריות קונספירציה ומשרת אדם אחד ולא את כל האזרחים והדעות בישראל.
ומי יאמן את המכונה? ברור. אותם אנשים שלא יהיו מסוגלים לזהות פייק ניוז גם אם יחבוט להם בפרצוף ויצרח: אני פייק ניוז!
האנשים שהאמינו שהלפטופ מהגיהינום של האנטר ביידן הוא זיוף מטעם רוסיה, ולא טרחו להתעדכן אחרת.
האנשים שסברו (ועדיין סבורים) שטראמפ הוא סוכן רוסי.
האנשים שסברו שביידן הוא חד כתער, עושה רונדלים מסביב לצוות שלו ואינו סנילי כלל.
האנשים שסבורים שהאריס כשירה לנשיאות, למרות שהיא לא מסוגלת להוציא משפט קוהרנטי מהפה אם אין טלפרומפטר בסביבה.
האנשים שסבורים שגברים (עם, ואפילו בלי שום טיפול הורמונלי נוסף) הם נשים, רק משום שאלו החלו לטעון שהם נשים, וכי הם רשאים במקצי ספורט לנשים, וכי זה יהיה הוגן.
האנשים שאיכשהו הגיעו למסקנה ש"זו גזענות" לסבור שהוירוס הגיח ממעבדות הקורונה בווהאן, במקום הגרסה הרשמית שהוא הגיע מפנגולין שבושל בשוק של ווהאן, במרחק 2 קילומטרים משם.
האנשים שסבורים ש"אתה הראש – אתה אשם" למרות שהראש מוקף בכנופיות של "שלטון החוק" ושל "בכירי מערכת הביטחון" שממדרים אותו מכל מידע חיוני ומונעים את הדחתם שלהם. ועוד קוראים לזה "דמוקרטיה", במקום "פשיזם על מלא".
האנשים שסבורים שלסגור את ערוץ 14 זה מהות הדמוקרטיה ושמירה על חופש הביטוי.
כן. אלו האנשים שאנחנו צריכים שיסננו לנו את החדשות, במסווה של אימון בינה מלאכותית. ברור.