סיקור מקיף

אם אנחנו מתכוונים לתייג את הבינה המלאכותית כגורמת לסכנת הכחדה, צריכים להבהיר כיצד זה יקרה

לצד יתרונות רבים, הטכנולוגיה הזו מגיעה עם סיכונים שאנחנו צריכים לקחת ברצינות. אבל נראה שאף אחד מהתרחישים הנ”ל אינו מספק מתווה מסלול ספציפי להכחדה טוען חוקר בינה מלאכותית מבריטניה

מאת נלו כריסטיאניני’ פרופסור לבינה מלאכותית, אוניברסיטת באת’.

נלו כריסטיאניני הוא מחבר הספר “קיצור הדרך: מדוע מכונות אינטליגנטיות לא חושבות כמונו”, שפורסם על ידי CRC Press, 2023.

האם הבינה המלאכותית תגרום להכחדת המין האנושי? איור באמצעות DALEE 2. הגדרות: אבי בליזובסקי
האם הבינה המלאכותית תגרום להכחדת המין האנושי? איור באמצעות DALEE 2. הגדרות: אבי בליזובסקי

השבוע חתמה קבוצה של חוקרי בינה מלאכותית ידועים ובעלי מוניטין על הצהרה בת 22 מילים (באנגלית – בעברית 18 א.ב.):

“הפחתת סכנת ההכחדה מבינה מלאכותית צריכה להיות בעדיפות עולמית לצד סיכונים אחרים בקנה מידה חברתי כגון מגפות ומלחמה גרעינית.”

כפרופסור לבינה מלאכותית, גם אני בעד הפחתת כל סיכון, ומוכן לעבוד לשם כך באופן אישי. אבל כל הצהרה המנוסחת בצורה כזו חייבת ליצור בהלה, ולכן מחבריה צריכים כנראה להיות ספציפיים יותר ולהבהיר את חששותיהם.

כפי שהוגדר באנציקלופדיה בריטניקה, הכחדה היא “גסיסה או השמדה של מין”. פגשתי רבים מהחותמים על ההצהרה, שהם מהמדענים המכובדים והמוצקים ביותר בתחום – וכוונתם בהחלט טובה. עם זאת, הם לא סיפקו לנו תרחיש מוחשי כיצד אירוע קיצוני כזה עלול להתרחש.”

זו לא הפעם הראשונה. ב-22 במרץ השנה, עצומה שנחתמה על ידי קבוצה אחרת של יזמים וחוקרים ביקשה להשהות את פריסת הבינה המלאכותית למשך שישה חודשים. במכתב שפורסם באתר האינטרנט של המכון לעתיד החיים, הם פירטו את נימוקיהם: “סיכונים עמוקים לחברה ולאנושות, כפי שעולה ממחקר מקיף ומוכרים על ידי מעבדות AI מובילות” – וצירפו לבקשתם רשימת שאלות רטוריות:

האם עלינו לתת למכונות להציף את ערוצי המידע שלנו בתעמולה ובשקר? האם עלינו להפוך את כל המשרות לאוטומטיות? האם עלינו לפתח מוחות לא-אנושיים שבסופו של דבר עשויים לעלות במספרנו, להערים עלינו, לגרום לנו להתיישן ולהחליף אותנו? האם עלינו להסתכן באובדן שליטה על הציוויליזציה שלנו?

תחושת אזעקה גנרית

בהחלט נכון שלצד יתרונות רבים, הטכנולוגיה הזו מגיעה עם סיכונים שאנחנו צריכים לקחת ברצינות. אבל נראה שאף אחד מהתרחישים הנ”ל אינו מספק מתווה מסלול ספציפי להכחדה. משמעות הדבר היא שאנו נותרים עם תחושה כללית של אזעקה, ללא כל פעולה אפשרית שנוכל לנקוט.

אתר האינטרנט של המרכז לבטיחות AI, שבו הופיעה ההצהרה האחרונה, מתאר בסעיף נפרד שמונה קטגוריות סיכון רחבות. אלה כוללים נשק מבוסס של AI, השימוש בו כדי לתמרן את מערכת החדשות, את האפשרות של בני אדם בסופו של דבר להיות מסוגל לשלוט בעצמם, סיוע למשטרים מדכאים, וכן הלאה.

פרט להתחמשות, לא ברור כיצד הסיכונים האחרים – עדיין איומים – עלולים להוביל להכחדת המין שלנו, והנטל לענות על כך הוא על הטוענים לכך.

נשק AI הוא חשש אמיתי, כמובן, אבל מה הכוונה בזה צריך גם להיות מובהר. נראה כי הדאגה העיקרית של המרכז לבטיחות AI היא השימוש במערכות AI לתכנון נשק כימי. צריך למנוע את זה בכל מחיר – אבל נשק כימי כבר אסור. הכחדה היא אירוע מאוד ספציפי שדורש הסברים מאוד ספציפיים.

ב-16 במאי, בשימוע שלו בסנאט התבקש סם אלטמן, מנכ”ל OpenAI – שפיתחה את הצ’אטבוט ChatGPT AI – התבקש פעמיים לפרט את התרחיש הגרוע ביותר שלו. לבסוף השיב:

“הפחד הכי גדול שלי הוא שאנחנו – התחום, הטכנולוגיה, התעשייה – גורמים נזק משמעותי לעולם… זו הסיבה שהקמנו את החברה [כדי למנוע את העתיד הזה]… אני חושב שאם הטכנולוגיה הזו משתבשת, היא יכולה להשתבש.”

אבל בעוד אני מסכים שצריכים להיות זהירים ככל האפשר, ואני אומר זאת בפומבי בעשר השנים האחרונות, חשוב לשמור על פרופורציה – במיוחד כאשר דנים בהכחדת מין המונה שמונה מיליארד פרטים.

בינה מלאכותית עלולה ליצור בעיות חברתיות שאותן צריך למנוע. כמדענים, מוטלת עלינו החובה להבין אותם ואז לעשות כמיטב יכולתנו לפתור אותם. אבל הצעד הראשון הוא לתת להם שם ולתאר אותם – ולהיות ספציפיים.

למאמר ב-THE CONVERSATION

7 תגובות

  1. תרחיש פשוט: טרוריסט יחיד ששונא את האנושות או רואה בה איום לכדור הארץ, מפתח באמצעות הידע הצבור במודל שפה, נשק ביולוגי להשמדה טוטאלית של האנושות והחזרת הכדור לעידן טרום אנושי.

    גם היום זה תרחיש אפשרי, אבל לא ליחיד. כי נדרשים שיתופי פעולה לקבל את כל הידע לפרוייקט כזה.
    אבל בהינתן מודם LLM יודע כל, גם אדם יחיד יוכל לעשות זאת.

    נניח נער בן 18 שיעשה זאת במקום לפתוח באש ולרסס את בית הספר שלו בכדורים.

  2. האבולוציה הוכיחה שחוכמה אינה דוקא תכונה ששורדת לכן נראה לי שכמות הטמטום האנושי תאפשר את שרידותנו לעד

  3. המאמר לא מובן לי הרי כבר עכשיו יש דיון ער (באנגלית) שמציג את הסכנות הקונקרטיות, כולל סכנות קיצוניות. למשל, אליעזר יודקובסקי, שמציג הסברים מפורטים ומלומדים. הדיונים האלה ילכו ויתרחבו בשנים הקרובות.

  4. למערכות הבינה הנלאכותית יש יתרונות עצומים וגם סיכונים,
    סכנה נוספת היא שבגלל היסטריה יתר יבלם ההתפתחות של מערכות הבינה המלאכותית והתוצאה היא האטהביכולת האנושית לעזור ולפתור בעיות מאד קשות שקימות כיום,
    למרות ההתפתחות האנושית העצומה ברפואה אנחנו עוד עמוק בימי הביניים בהמון תחומים
    “טיול” קטן דרך המחלקות השונות בבתי החולים כגון האונקולוגיות ולא רק , מפגישה אותנו עם קצה גבול הידע האנושי והמשמעויות של זה שהם סבל כאב ואובדן אנושי ברמות הגבוהות ביותר, קידום פתרונות אפילו בעשור יציל כל כך הרבה אנשים אבות אמהות ילדים יש שם כאב עצום יתמות שכול כל כך הרבה עולמות שבורים ואת זה צריך לפתור וכמה שיותר מהר, לא רחוק ממני יש אמא שאני מכיר שהיא ברגעיה האחרונים וילדיה נפרדים ממנה על זה מדובר, אחנו רוצים להעלים מהעולם את הסבל הזה,
    אם זה ברור שיש גם סיכונים מסוגים שונים וגם יתרונות זה יכול למלא ספר ,
    כאשר פוטנציאל לתרחישי אימה הם יותר בטווח הרחוק
    אם כי יותר אולי זה יהיה תרחישי ניוון שבו אנו מוצאים את עצמינו נמשכים רק לעונג סוג של לחם ושעשועים
    עם פרטנרים שהם לא אנושיים שבמראה ונוחות מותאמים לכל אחד באופן ספציפי

  5. העובדה שהתבונה המלאכותית מצליחה לחלחל ולשמש את הציבור,מוכיחה שהיכולות הצבעוניות האנושיות הולכות ונעשות מוחלשות ועצלניות ולכן האנושות רוצה להסתמך על תבונה מלאכותית.
    אומנים בודאי הכי סובלים מזה משום שלדעתו היכולת התבונית של האדם באה מעומק רגשותיו ותפיסתו את היקום האנושי בעיקר,ולא הסהכ של כמה האדם גאוני עד היום,מה שבעיקר מייצר קלישאות.
    בקצב הזה עוד כמה שנים אומנים ייחשבו מכשפות או קוסמים…
    צריך רק לקוות שאין דיקטטורה שמסתתרת מאחורי התבונה האנושית

  6. כותרת המאמר מבטיחה תשובה (או לפחות דיון/השערה) לשאלה ״איך בינה מלאכותית יכולה לגרום להכחדה?״. לקראת סוף המאמר ישנו הקטע
    ״ב-16 במאי, בשימוע שלו בסנאט התבקש סם אלטמן, מנכ”ל OpenAI – שפיתחה את הצ’אטבוט ChatGPT AI – התבקש פעמיים לפרט את התרחיש הגרוע ביותר שלו. לבסוף השיב:
    “הפחד הכי גדול שלי הוא שאנחנו – התחום, הטכנולוגיה, התעשייה – גורמים נזק משמעותי לעולם… זו הסיבה שהקמנו את החברה [כדי למנוע את העתיד הזה]… אני חושב שאם הטכנולוגיה הזו משתבשת, היא יכולה להשתבש.”״
    המחבר נפל למלכודת ידועה שאין שום קשר בין הכותרת (אפילו שניתנה על ידי המחבר) לתוכן המאמר.

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זה עושה שימוש באקיזמט למניעת הודעות זבל. לחצו כאן כדי ללמוד איך נתוני התגובה שלכם מעובדים.