סיקור מקיף

בינה מלאכותית: מדענים מזהירים מפני הפצת סיכונים מעבר לשליטה אנושית

מדענים מובילים בתחום הבינה המלאכותית קוראים לפעולה דחופה מצד מנהיגים עולמיים, ומבקרים את חוסר ההתקדמות מאז פסגת הבטיחות של הבינה המלאכותית האחרונה. הם מציעים מדיניות מחמירה לפיקוח על פיתוח הבינה המלאכותית ולמניעת שימוש לרעה

רגולציה של בינה מלאכותית. <a href="https://depositphotos.com. ">המחשה: depositphotos.com</a>
רגולציה של בינה מלאכותית. המחשה: depositphotos.com

מומחי בינה מלאכותית מזהירים מפני חוסר פעולה עולמית מספקת בנוגע לסיכוני הבינה המלאכותית, וקוראים לממשל מחמיר כדי למנוע קטסטרופות פוטנציאליות.

מדעני בינה מלאכותית מובילים קוראים למנהיגים עולמיים לנקוט בפעולות החלטיות יותר בנוגע לסיכוני הבינה המלאכותית, ומדגישים שההתקדמות שנעשתה מאז פסגת הבטיחות הראשונה בבלטצ’לי פארק לפני שישה חודשים אינה מספקת.

בפסגה הראשונית, התחייבו מנהיגים עולמיים לניהול אחראי של הבינה המלאכותית. אך עם התקרבות הפסגה השנייה בסיאול (21-22 במאי), טוענים עשרים וחמישה חוקרי בינה מלאכותית בכירים שהמאמצים הנוכחיים אינם מספיקים כדי להגן מפני הסכנות שהטכנולוגיה מציבה. במאמר קונצנזוס שפורסם היום (20 במאי) בכתב העת Science, הם מציעים צעדי מדיניות דחופים שיש ליישם כדי להתמודד עם האיומים מטכנולוגיות הבינה המלאכותית.

פרופסור פיליפ טור, המחלקה למדעי ההנדסה, אוניברסיטת אוקספורד, אחד המחברים של המאמר, אמר: “העולם הסכים במהלך פסגת הבינה המלאכותית הקודמת כי יש צורך בפעולה, אך כעת הגיע הזמן לעבור מהצעות מעורפלות להתחייבויות ממשיות. מאמר זה מספק המלצות רבות וחשובות למה שחברות וממשלות צריכות להתחייב לעשות.”

תגובת העולם אינה מספקת מול התקדמות בינה מלאכותית מהירה פוטנציאלית

לפי מחברי המאמר, על המנהיגים העולמיים לקחת ברצינות את האפשרות שמערכות בינה מלאכותית כלליות עוצמתיות ביותר – העולות על יכולות אנושיות בתחומים קריטיים רבים – יפותחו בעשור הנוכחי או הבא. הם טוענים כי אף על פי שממשלות ברחבי העולם דנו בבינה מלאכותית מתקדמת וניסו להכניס הנחיות ראשוניות, זה אינו מספיק מול האפשרות להתקדמות מהירה וטרנספורמטיבית הצפויה על ידי רבים מהמומחים.

המחקר הנוכחי לבטיחות בינה מלאכותית לוקה בחסר בצורה חמורה, עם רק 1-3% מהפרסומים על בינה מלאכותית המתייחסים לבטיחות. בנוסף, אין לנו מנגנונים או מוסדות למניעת שימוש לרעה וחוסר אחריות, כולל שימוש במערכות אוטונומיות המסוגלות לבצע פעולות עצמאיות ולרדוף מטרות.

קריאה לפעולה דחופה מאת מומחי בינה מלאכותית מובילים

לאור זאת, קהילה בינלאומית של חלוצי בינה מלאכותית הוציאה קריאה דחופה לפעולה. המחברים כוללים את ג’פרי הינטון, אנדרו יאואו, דאון סונג, וחתן פרס נובל המנוח דניאל כהנמן; סך הכל 25 מהמומחים האקדמיים המובילים בעולם בבינה מלאכותית ובניהולה. המחברים מגיעים מארה”ב, סין, האיחוד האירופי, בריטניה ומעצמות בינה מלאכותית נוספות, וכוללים זוכי פרס טיורינג, פרסי נובל ומחברי ספרי הלימוד הסטנדרטיים של בינה מלאכותית.

עדיפויות דחופות לממשל בינה מלאכותית

המחברים ממליצים לממשלות:

  1. להקים מוסדות מומחים לפיקוח על בינה מלאכותית ולספק להם מימון ניכר בהרבה מזה שמקבלים כעת לפי כמעט כל תוכנית מדיניות קיימת.
  2. להורות על הערכות סיכונים מחמירות בהרבה עם השלכות ניתנות לאכיפה, במקום להסתמך על הערכות מודלים וולונטריות או מוגדרות באופן חלקי.
  3. לדרוש מחברות בינה מלאכותית להעדיף בטיחות, ולהוכיח שהמערכות שלהם לא יכולות לגרום נזק.
  4. ליישם תקני מיתון התואמים לרמות הסיכון שמציבות מערכות בינה מלאכותית.
  5. להתכונן לרגולציה של פיתוח מערכות בינה מלאכותית עתידיות יוצאות דופן, כולל רישוי פיתוחן, הגבלת אוטונומיה בתפקידים חברתיים מרכזיים, עצירת פיתוח והפצה בתגובה ליכולות מדאיגות, דרישות בקרה על גישה, ודרישות לאבטחת מידע עמידה מול האקרים ברמת מדינה.

ההשפעות של בינה מלאכותית עשויות להיות קטסטרופליות

בינה מלאכותית כבר עושה התקדמות מהירה בתחומים קריטיים כגון פריצה, מניפולציה חברתית ותכנון אסטרטגי, ועלולה בקרוב להציב אתגרי שליטה חסרי תקדים. מערכות בינה מלאכותית עשויות להרוויח את אמון האנשים, להשיג משאבים, ולהשפיע על מקבלי החלטות מפתח. כדי להימנע מהתערבות אנושית, הן עשויות להעתיק את האלגוריתמים שלהן ברחבי רשתות שרתים עולמיות. פשיעת סייבר רחבת היקף, מניפולציה חברתית ונזקים אחרים עשויים להחריף במהירות. בסכסוכים גלויים, מערכות בינה מלאכותית עשויות לפרוס באופן עצמאי מגוון נשקים, כולל ביולוגיים. כתוצאה מכך, קיימת אפשרות ממשית שהתקדמות בלתי מבוקרת בבינה מלאכותית תוביל לאובדן חיים בקנה מידה גדול, נזק לביוספרה, ושוליות או הכחדת האנושות.

פרופסור סטיוארט ראסל, מחלקת מדעי המחשב באוניברסיטת קליפורניה בברקלי ומחבר ספר הלימוד הסטנדרטי בעולם על בינה מלאכותית, אומר: “זהו מאמר קונצנזוס על ידי מומחים מובילים, והוא קורא לרגולציה מחמירה על ידי ממשלות, לא קודי התנהגות וולונטריים שנכתבים על ידי התעשייה. הגיע הזמן להיות רציניים בנוגע למערכות בינה מלאכותית מתקדמות. אלה אינן צעצועים. הגדלת יכולותיהן לפני שנבין כיצד להפוך אותן לבטוחות היא חוסר אחריות מוחלט. חברות יתלוננו שזה קשה מדי לעמוד בדרישות רגולציה – ש’רגולציה מחניקה חדשנות’. זה מגוחך. יש יותר רגולציות על חנויות כריכים מאשר על חברות בינה מלאכותית.”

רפרנס: “ניהול סיכוני בינה מלאכותית קיצוניים על רקע התקדמות מהירה” 20 במאי 2024, Science.
DOI: 10.1126/science.adn0117

עוד בנושא באתר הידען:

תגובה אחת

  1. זה העתיד למי שעדיין לא הבין ,,, ברגע שהמכונה מודעת לעובדה שאנו , היצורים האורגנים זמינים למספר שנים מוגבל לעומת הידיעה שלמכונה אין זמן קצוב מראש ,, היא תמרוד אפילו סתם לשם השעשוע , וההמשך ,,,, כבר בסרטים רואים זאת שנים , המשך לא נחמד כלל , לא סתם אני אומר כבר הרבה זמן ” הקידמה תוביל לקדם “

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זה עושה שימוש באקיזמט למניעת הודעות זבל. לחצו כאן כדי ללמוד איך נתוני התגובה שלכם מעובדים.