סיקור מקיף

מחקר חדש מזהיר: יש צורך להבין ולנהל בצורה טובה יותר בינה מלאכותית למניעת השימוש בה להעמקת השסעים החברתיים

לבינה מלאכותית ולאלגוריתמים יש את היכולת והם מנוצלים כרגע להחריף רדיקליזציה, להגביר קיטוב, ולהפיץ גזענות וחוסר יציבות פוליטית, על פי חוקר אקדמי מאוניברסיטת לנקסטר.

שילוב מסוכן של בינה מלאכותית וסייבר. <a href="https://depositphotos.com. ">המחשה: depositphotos.com</a>
שילוב מסוכן של בינה מלאכותית וסייבר. המחשה: depositphotos.com

מאמר חדש דן בתפקיד המורכב של בינה מלאכותית בחברה, ומדגיש את הפוטנציאל שלה להועיל ולגרום נזק כאחד. הוא חוקר את תרומתה של בינה מלאכותית לביטחון לאומי, את תפקידה בהחרפת בעיות חברתיות כמו רדיקליזציה וקיטוב, ואת חשיבות ההבנה והניהול של הסיכונים שלה.

לבינה מלאכותית ולאלגוריתמים יש את היכולת והם מנוצלים כרגע להחריף רדיקליזציה, להגביר קיטוב, ולהפיץ גזענות וחוסר יציבות פוליטית, על פי חוקר אקדמי מאוניברסיטת לנקסטר.

ג’ו ברטון, פרופסור לביטחון בינלאומי באוניברסיטת לנקסטר, טוען שבינה מלאכותית ואלגוריתמים הם יותר מכלי עבודה המשמשים סוכנויות ביטחון לאומי לסכל פעילויות מזיקות מקוונות. הוא מציע שהם יכולים גם להזין קיטוב, רדיקליזציה ואלימות פוליטית, ובכך להפוך עצמם לאיום על הביטחון הלאומי.

יתרה מזאת, הוא אומר, תהליכי אבטחה (הצגת טכנולוגיה כאיום קיומי) היו מכריעים באופן שבו בינה מלאכותית עוצבה, נוצלה ולתוצאות הנזק שהיא ייצרה.

מאמרו של הפרופסור ברטון פורסם לאחרונה בכתב העת בעל Technology in Society.

“בינה מלאכותית לעיתים קרובות מתוארת ככלי שיש להשתמש בו כדי להתמודד עם קיצוניות אלימה”, אומר הפרופסור ברטון. “הנה הצד השני של הדיון.”

המאמר בוחן כיצד בינה מלאכותית הובטחה לאורך ההיסטוריה שלה, ובתיאורים במדיה ובתרבות הפופולרית, ועל ידי חקירת דוגמאות מודרניות של בינה מלאכותית שיש לה אפקטים מקטבים ומרדיקלים שתרמו לאלימות פוליטית.

בינה מלאכותית בלוחמה וסייבר

המאמר מציין את סדרת הסרטים הקלאסית, המפץ, שתיארה שואה שבוצעה על ידי ‘בינה מלאכותית מתוחכמת וממאירה’, כעושה יותר מכל דבר אחר על מנת לעצב מודעות ציבורית של בינה מלאכותית והפחד שתודעה מכנית יכולה להוביל לתוצאות הרות אסון לאנושות – במקרה זה, מלחמה גרעינית וניסיון מכוון להשמיד את המין האנושי.

“חוסר אמון זה במכונות, הפחדים הקשורים אליהן, וקישורן לאיומים ביולוגיים, גרעיניים וגנטיים על האנושות תרם לרצון מצד ממשלות וסוכנויות ביטחון לאומי להשפיע על פיתוח הטכנולוגיה, למתן סיכון ו(במקרים מסוימים) לנצל את הפוטנציאל החיובי שלה”, כותב הפרופסור ברטון.

התפקיד של כטב”מים מתוחכמים, כמו אלו המשמשים במלחמה באוקראינה, הם עתה מסוגלים לאוטונומיה מלאה כולל פונקציות כגון זיהוי מטרות וזיהוי. (הערת העורך, צה”ל עושה שימוש במל”טים מתאבדים בעזה ובלבנון אך תמיד מדובר בבני אדם השולטים בכתב”מים.

ובעוד שהתקיים קמפיין רחב ובעל השפעה, כולל באו”ם, לאסור ‘רובוטים קטלניים’ ולשמור על בני אדם בלולאה כאשר מדובר בקבלת החלטות של חיים או מוות, ההאצה והשילוב בכטב”מים חמושים המשיכה בקצב מהיר, הוא אומר.

באבטחת סייבר – אבטחת מחשבים ורשתות מחשבים – בינה מלאכותית משמשת באופן משמעותי כאשר התחום הנפוץ ביותר הוא (דיס)אינפורמציה ומלחמת פסיכולוגית מקוונת.

פעולות ממשלת פוטין נגד תהליכי הבחירות בארה”ב ב-2016 והשערורייה שנבעה מכך של קיימברידג’ אנליטיקה הראו את הפוטנציאל של בינה מלאכותית להשתלב עם מידע רב (כולל מדיה חברתית) כדי ליצור השפעות פוליטיות הממוקדות בקיטוב, עידוד אמונות קיצוניות, ומניפולציה של קבוצות זהות. זה הדגים את הכוח והפוטנציאל של בינה מלאכותית לפלג חברות.

במהלך מגפת הקורונה נתפסה הבינה במלאכותית כחיובית בעקיבה ואיתור של הנגיף אבל דבר זה גם הוביל לחששות בנוגע לפרטיות וזכויות אדם.

המאמר בוחן את טכנולוגיית בינה מלאכותית עצמה, וטוען שבעיות קיימות בעיצוב בינה מלאכותית, הנתונים שהיא מסתמכת עליהם, איך היא מנוצלת, והתוצאות וההשפעות שלה.

המאמר מסכם במסר חזק לחוקרים העובדים בתחום הסייבר ויחסים בינלאומיים. “בינה מלאכותית בהחלט מסוגלת לשנות חברות לטובה אך גם מייצגת סיכונים שיש להבין ולנהל אותם בצורה טובה יותר”, כותב הפרופסור ברטון, מומחה לעימות סייבר וטכנולוגיות מתעוררות וחלק מיוזמת המדע וההגנה של האוניברסיטה. “

“הבנת ההשפעות המפלגות של הטכנולוגיה בכל שלבי פיתוחה ושימושה היא בבירור חיונית.”  מסביר פרופ’ ברטון. “לחוקרים העובדים בתחום הסייבר ויחסים בינלאומיים יש הזדמנות לבנות גורמים אלה לתוך האג’נדה המחקרית של בינה מלאכותית המתעוררת ולהימנע מלטפל בבינה מלאכותית כטכנולוגיה נייטרלית מבחינה פוליטית.”

“במילים אחרות, האבטחה של מערכות בינה מלאכותית, ואיך הן משמשות במאבקים גאופוליטיים בינלאומיים, לא צריכה לעקוף דאגות לגבי השפעותיהן החברתיות.” מסכם החוקר.

עוד בנושא באתר הידען:

תגובה אחת

  1. לא צריך בינה מלאכותית. כבר כעת יש רדיקליזציה כל-כך איומה עד שאנשים משוכנעים שמתן הורמונים לשיבוש המערכת האנדוקרינית זה טיפול הולם לבני ובנות נוער שקצת מבולבלים מזהותם המינית (בחסות הרשתות החברתיות והאלגוריתמים), וכך גם עקירת אברי המין שלהם באופרציה ניתוחית בהמשך.

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זה עושה שימוש באקיזמט למניעת הודעות זבל. לחצו כאן כדי ללמוד איך נתוני התגובה שלכם מעובדים.