סיקור מקיף

סינגולריות: כיצד ממשלות יכולות לעצור את עלייתה של תבונת-על מלאכותית לא ידידותית

חוקר מהאוניברסיטה של האו”ם במאסטריכט מציעהלממשלות לנקוט בצעדים של תמריצים ומיסוי כדי לדאוג שחברות הטכנולוגיה לא ייצרו מפלצת תבונה מלאכותית שתגרום נזק לאנושות
מאת: ווים נודה, פרופסור עמית מכון המחקר הכלכלי והחברתי במאסטריכט לחדשנות וטכנולוגיה (UNU-MERIT), אוניברסיטת האו”ם תרגום: אבי בליזובסקי

תבונת על מלאכותית. איור: shutterstock
תבונת על מלאכותית. איור: shutterstock

מאת: ווים נודה, פרופסור עמית מכון המחקר הכלכלי והחברתי במאסטריכט לחדשנות וטכנולוגיה (UNU-MERIT), אוניברסיטת האו”ם תרגום: אבי בליזובסקי

המצאת תבונת-על מלאכותית הייתה נושא מרכזי במדע הבדיוני מאז המאה ה-19 לפחות. מסיפורו הקצר של א.מ. פורסטר The Machine Stops (1909) ועד סדרת הטלוויזיה Westworld של HBO, נטו הכותבים להציג אפשרות זו כאסון בלתי נמנע. אבל הנושא הזה כבר אינו נושא בדיוני. מדענים ומהנדסים בולטים מודאגים כעת גם מכך שתבונת העל המלאכותית יכולה יום אחד לעלות על אינטליגנציה אנושית (אירוע המכונה “הסינגולריות”) ולהפוך ל”טעות הגרועה ביותר” של האנושות.

המגמות הנוכחיות מראות שאנו אמורים להיכנס למירוץ חימוש בינלאומי לטכנולוגיה כזו. חברת ההיי-טק או המעבדה הממשלתית שתצליח להמציא את תבונת-העל המלאכותית הראשונה תשיג טכנולוגיה שעשויה להיות דומיננטית בעולם. זהו הפרס האולטימטיבי. אז למי שרוצה לעצור מגמה זו, השאלה היא איך להרתיע סוג זה של מירוץ חימוש, או לפחות לתמרץ צוותים מתחרים לא לעגל פינות בבטיחות התבונה המלאכותית.

תבונת-העל המלאכותית מעלה שני אתגרים מהותיים עבור ממציאיה, כפי שהצביעו הפילוסוף ניק בסטרום ואחרים. האחת היא בעיית בקרה, לוודא של תבונת-העל המלאכותית יש את אותן מטרות כמו לאנושות. בלי זה, התבונה המלאכותית עלולה להשמיד את האנושות במכוון, בטעות או בהזנחה – “אסון תבונה מלאכותית”.

הבעיה השנייה היא בעיה פוליטית – להבטיח שהיתרונות של תבונת-על לא יגיעו רק לאליטה קטנה, מה שגורם לחוסר שוויון חברתי ועושר אדיר. אם מתרחש מרוץ חימוש לבינת על, עלולות קבוצות מתחרות להתעלם מבעיות אלה כדי לפתח את הטכנולוגיה שלהן במהירות רבה יותר. זה יכול להוביל לתבונת על איכותית אך לא ידידותית.

פתרון מוצע אחד הוא להשתמש במדיניות ציבורית בכדי להקשות על הכניסה למירוץ על מנת לצמצם את מספר הקבוצות המתחרות ולשפר את יכולותיהם של אלה שנכנסים. ככל שפחות יתמודדו, כך יהיה פחות לחץ לעגל פינות כדי לנצח. אך כיצד ממשלות יכולות להפחית את התחרות בדרך זו?

עמיתי ניקולה דימיטרי ואני פרסמנו לאחרונה מאמר שניסה לענות על שאלה זו. הראינו לראשונה שכאשר מנצח לוקח את כל המירוץ, שיבנו את תבונת העל המלאכותית הראשונה , רק הקבוצות התחרותיות ביותר ישתתפו. הסיבה לכך היא שההסתברות להמציא ממש את תבונת העל היא קטנה מאוד, והכניסה למירוץ יקרה מאוד בגלל ההשקעה הגדולה במחקר והפיתוח הדרושים.

אכן, נראה שזה המצב הנוכחי עם התפתחות תבונה מלאכותית יותר “צרה”. יישומים מסוג זה של תבונה מלאכותית נשלטים על ידי כמה חברות, והרוב המכריע של מחקר תבונה מלאכותית נעשה רק בשלושה אזורים (ארה”ב, סין ואירופה). נראה שיש גם מעט מאוד קבוצות, אם בכלל, שמשקיעות כיום בבניית תבונת על.

הפחתת מספר הקבוצות המתחרות מראה כי פיתוח תבונת העל אינו בעדיפות כרגע. אבל אפילו עם מספר קטן יותר של מתחרים במירוץ, עוצמת התחרות עדיין יכולה להוביל לבעיות שהוזכרו לעיל. לכן כדי להפחית את עוצמת התחרות בין קבוצות החותרות לבנות תבונה מלאכותית-העל ולהעלות את יכולותיהן, הממשלות יכולות להשתמש ברכש ובמיסים.

רכש ציבורי מתייחס לכל הדברים שממשלות משלמות לחברות פרטיות כדי לספק לא את צרכיה – מתכנה לשימוש בסוכנויות ממשלתיות וכלה בחוזים לניהול שירותים. ממשלות יכולות להטיל אילוצים על כל ספק תבונת על ולדרוש ממנו לטפל בבעיות הפוטנציאליות, לתמוך בטכנולוגיות משלימות כדי לשפר את הבינה האנושית ולשלב אותה עם תבונה מלאכותית.

אבל ממשלות יכולות גם להציע לקנות גרסה פחות טובה מתבונת העל, ובכך למעשה ליצור “פרס שני” במירוץ החימוש ולמנוע ממנו להיות תחרות על הנצחון. עם פרס ביניים, שיכול להיות עבור גוף שימציא משהו שקרוב (אך לא בדיוק) לבינת על, לקבוצות מתחרות יהיה תמריץ להשקיע ולשתף פעולה יותר, ולהפחית את עוצמת התחרות. פרס שני יפחית גם את הסיכון לכישלון, יצדיק יותר השקעה, ויסייע בהגדלת היכולות של הצוותים המתחרים.

באשר למיסים, ממשלות יכולות לקבוע את שיעור המס על קבוצות שיפתחו בינת על לפי מידת ידידותה. שיעור מס מספיק גבוה פירושו בעצם הלאמת תבונת העל. הדבר ירתיע באופן משמעותי חברות פרטיות לעגל פינות מחשש לאבד את המוצר שלהן למדינה.

טובת הציבור ולא מונופול פרטי

רעיון זה עשוי לדרוש תיאום גלובלי טוב יותר של מיסוי ורגולציה של תבונת העל. אבל לא צריך שכל הממשלות יהיו מעורבות. בתיאוריה, מדינה או אזור בודד (כמו האיחוד האירופי) יכולים לשאת בעלויות ובהמאמץ הכרוכים בהתמודדות עם הבעיות והאתיקה של תבונת העל. אבל כל המדינות ייהנו ותבונת העל תהפוך למוצר ציבורי ולא למונופול פרטי בלתי ניתן לעצירה.

כמובן שכל זה תלוי בשאלה האם תבונת העל מהווה איום על האנושות.יש מדענים שלא חושבים שזה יקרה וגם אם כן, נוכל להתמודד עם הסיכונים לאורך זמן. יש הסבורים שבני אדם עשויים אפילו להתמזג עם תבונה מלאכותית.

לא משנה מה יקרה, לכוכב הלכת שלנו ולתושביו יהיה רווח עצום מהדאגה לכך שנקבל את הטוב ביותר מהתבונה המלאכותית, טכנולוגיה שנמצאת עדיין בחיתוליה . לשם כך, אנו זקוקים להבנה טובה יותר של תפקידה של הממשלה.

לכתבה באתר THE CONVERSATION

עוד בנושא באתר הידען:

10 תגובות

  1. עוד לא ידוע בבירור מהו אורך הזמן המדויק עד השגת בינה מלאכותית כללית ברמה אנושית,
    יש כאלו שלא מאמינים שזה יגיע כלל אבל מספרם יורד מלפני כמה עשורים שאז רוב האנשים לא האמינו כלל שזה בכלל ניתן להשגה למצב כיום שרובם שואלים מתי זה יגיע ,
    כמו שכבר תואר בתגובות קודמות הבינה מלאכותית עוד לא יכולה להתמודד עם בינה מלאכותית של תיקן,
    חלק מהסיבות שבדרך לבינה המלאכותית ברמה אנושית יש עוד כמה מכשולים שצריך לשפר חום ואובדן אנרגטי ארכיטקטורה (ארגון) חומרה תוכנה ועוד…, צריך כמון לזכור שבמילימטר מרובע של מוח יש סיבוכיות ברמות מטורפות שלא לדבר על גדלים גדולים יותר
    לוקח שנים לצוותי מחקר למפות רק סנטימטר מרובע , רוב המחקר במוח הוא על אזורים שונים ותפקודם והקשרים ביניהם כי זה קל יותר לחקירה
    אבל זה מזכיר הסתכלות על מפה של מדינה כמו ארה”ב ועל האוטסטרדות השונות בין הערים בלי היכולת להבין מה קורה בתוך העיר בבתים השונים במפעלים אצל האנשים השונים משהו עם רזולוציה פיקסל הוא בסדר גודל של כמה עשרות קילומטרים כך שהדרך עוד תיקח זמן,
    כיום ניתן לתאר את המערכות הבינה המלאכותית כמערכת בינה צרה כמו תער, לכאורה מתוך האזור הצר שבו ניתן לבצע התנהגות של בינה מלאכותית ניתן לראות הניצנים של פוטנציאל ניתוח מידע בעל עוצמה אדירה, גם כמחשבון פשוט הוא עולה עלינו בתחום הצר עם יכולות הפנטסטיות של זיכרון צילומי של כמויות מידע אדירות ויכולת שליפה אפילו בטלפון הנייד שלנו , יכולות מיתוג שהם כפי מיליון ויותר מנוירון אנושי, (אנחנו נאבקים כדי לזכור מספר טלפון אחד הנייד יכול ל”זכור” ספר טלפונים של מדינה ברגע)
    כאנלוגיה השוואה של אדם למערכת שחושבת כ 1 חלקי מיליון מאיתנו זה כמעט כמו להסתכל על צמח,
    כרגע אנו משלימים את ההבדל ביכולת מקבילית פנטסטית ודינאמיות של המערכת חשיבה האנושית,
    מערכות כמו אלפא גו זירו מראות לנו גם יכולות למידה עצמאית שסוגרת פער של מאות שנות פיתוח חשיבה אנושית בשעות כמובן בתחום הצר של המשחק אבל זה כנראה מצביע על הצפוי לנו בעתיד,
    המחשבים הקיימים כיום נמצאים פה כי הם מבצעים פעולות שפעם היו נחלת החשיבה של המין האנושי הרבה טוב יותר מאיתנו זאת הסיבה שאנו מיצרים אותם ברגע שאנו משדרגים את הארכיטקטורה והחומרה אנו נכנסים לעוד תחומים שהיו נחלת החשיבה האנושית עד לאן זה יגיע נדע רק עם הזמן

  2. המחשוב הקוואנטי כבר כאן.
    הוא מקרטע ובלתי אמין – אבל קיים ופעיל.
    תוך 3 עד 10 שנים יהיה מחשב פעיל ומאחר וישנם כמה גופים שעובדים על זה ממש עכשיו – סביר שיהיו כמה מהם פחות או יותר באותו הזמן.
    התחושה שלי היא: שהגופים שיחזיקו במחשב קוונטי אמין – לא ימהרו לפרסם את זה (בעניין זה הם טובים בלשמור סוד).
    ועכשיו מגיע החלק הטריקי: בלתי ניתן לישם רגולציה על המכונות האלו.
    למעשה, כבר היום לא ממש ניתן ליצור רגולציה איכותית על קוד קנבנציונאלי – הקוד של הבינה המלאכותית הוא ג׳יבריש. ומאחר וכך כל ההתפלספות היא מיותרת וחסרת תכלית.
    ———
    אני אישית לא מסוגל לדמיין את היום שאחרי.
    המחשב הקוונטי ישנה לחלוטין את אורח החיים (תראו מה עשה לנו האינטרנט…).
    בכל אופן, המכונה לעולם לא תהיה זדונית.
    האנשים… אולי.

  3. בכל מקרה רק מחשב מבודד מהרשת וללא גוף פיזי יכול להיות נשלט . מחשב וירטואלי עם גישה לנשק או תשתית חיונית או פיזי משוחרר ללא ספק יפרץ בהקדם ע”י האקרים או טרוריסטים או באג ויכול לגרום לנזק עצום גם בלי כוונה.

  4. כיום אין מחשב אפילו עם אינטלגנציה של תיקן. בינתיים מחשבים “אינטלגנטים” עושים בדיוק מה שתוכנתו לעשות ובמשימות ספציפיות וזאת בניסוי וטעייה במהירויות אדירות, זאת לא אינטלגנציה אלא מחשבון משוכלל.
    לדוגמא אדם יכול ללמוד כללי משחק כמו טקסס הולדם חובבני מאוד תוך 5 דקות למחשב זה יקח שעות למרות שהוא יעקוף את האדם מהר מאוד אבל אם האדם פתאום ירמה ויוציא קלפים מהכיס המחשב יפסיד כל פעם ולא יגיב כי לא תוכנת לכך. במשימה ספציפית המחשב מצטיין אבל לא בגמישות וההסתגלות של המוח האנושי בהתאם למצב החיצוני.
    למחשב יש חלקים קבועים ולכל חלק יש תפקיד מוגדר. למוח יש חלקים שיכולים להחליף חלקים אחרים במידת הצורך המוח יכול להצטמק ולהתרחב ואף להחלים לפעמים מפגיעות בעצמו או עזרה חיצונית כמו תרופות כימיות או תאי גזע, המוח גדל ונוירונים נוצרים ולעיתים מתים. רק מוח מלאכותי דינאמי שמשתנה בהתאם לצרכים השוטפים וחלקיו האלקטרוניים נוצרים בעצמם באופן שוטף (טכנולוגיה לא קיימת ולא מכיר אחת בפיתוח) או ביולוגי/חצי ביולוגי כזה שגדל במעבדה והנדסה גנטית יכול לחקות או לעקוף את האינטלגנציה המוכרת בצורתה האנושית.
    המוח האנושי פועל בצורה שונה לגמרי ומושפע מהרבה מאוד פרמטרים חיצוניים והורמונים ושינויים פיזיים בהתאם למידע חדש שנלמד או נשכח וכו’…הרבה יותר קל לחקות את הטבע והאבולוציה מאשר להמציא משהו חדש לחלוטין שלא קיים בטבע.

  5. את השפור האין סופי של הטכנולוגיה הצבאית איש לא עוצר, גם לא את הארכת טווח החמוש לאלפי ק”מ ומזעורו להסתרתו בבתי מגורים בין מיליונים של מגינים חיים.

  6. קשה לי להבין למה תודעת על, מודעת לכוחותיה, סקרנית ועצמאית תהיה ידידותית לבני האדם וקשובה לצרכיהם, יותר ממה שאנו קשובים לחיות המחמד שלנו שלטובתם אנו מסרסים ומעקרים אותם ומוליכים אותם קשורים ברצועה (וזה במקרה “הטוב”). יש כאן סתירה אמיתית בין רצון המפתחים לבין הדרך בה אנו מגדירים תודעה בכל מקרה אחר, יתכן מאד שאי אפשר ליישב את הסתירה הזאת.

  7. נניח שהגורמים האלו מסוגלים לשלוט על כל הקבוצות בעולם העוסקות בפיתוח בינה מלאכותית כיום. הם לא, אבל נניח שהם כן מצליחים לשמור על כל האוניבסיטאות (גם הסיניות וגם הרוסיות) ועל כל מחלקות פיתוח הנשק בכל מדינות העולם וכו’. מה יקרה כעבור 50 שנה, כשהתיאוריה תהיה מוכרת לכל אחד שטורח להקשיב להרצאות ב-TED, והיכולת תהייה בכיס האחורי של כל בן עשרה?

  8. רעיון חיובי אבל קצת סקפטי האם ניתן ליישמו, התחרות והחשדנות בין גופים ומדינות הם חזקים מדי כדי שהרעיונות האלו יהיו איזה שהוא בלם משמעותי, כמו שכבר כתוב בכתבה עם התפיסה שהמנצח לוקח את הכל יהיה מאד קשה לבצע רגולציה יעילה, רוב הסיכוים שמדינות יזהרו לשים רגולציה כי התוצאה הברורה של זה תהיה שהמדינה היריבה תנצח במרוץ, ונראה ש AI שולט תפור כמו כפפה ליד במדינה כמו סין,
    בנוסף פיתוח ה AI במיוחד במערב אינו כמו פרויקט האטום הוא הרבה יותר מבוזר המון גורמים שכל אחד שלעצמו לא מהווה סכנת AI, מל”ט\מזל”ט\רחפן הם מערכת שבגדול מופעלים בשליטה מרחוק,
    מערכות רובוטיות כגון של בוסטון דיינמיקס פותרות רק את היציבות ודינאמיקה בסיסית של תנועה
    נהיגה אוטנומית של רכב רק מיועדת להביא אותך באופן אטונומי מנקודה A ל B, מערכת אחרת של ראיה מלאכותית מיועדת לאבחון של סרטן וכך הרשימה היא גדולה מאד ומבוזרת,
    בעצם כל תת המערכות יהיו קיימות רק ישאר לחבר אותן למערכת אחת וגם זה לא יהיה בנוקדה סנגולרית אלה יותר בשינוי אנלוגי יותר ממה שה AI ירצה להשתלט עלינו אנו נרצה שהוא ישלוט
    על יותר ויותר פעילויות הנשלטות כיום ע”י בני אדם כמו מלכודת דבש היתרונות שלו יהיו עצומים
    ואת החסרונות\הספטומים נרגיש רק אחרי זה

  9. יצר האלימות של האדם הוא זה שיביא להכחדתו וזה לא משנה אם זה בידי רובוט או באמצעות נשק גרעיני…

  10. אל דאגה מהעתיד, הוא בוטל.
    |
    את השפור האין סופי של הטכנולוגיה הצבאית איש לא עוצר, גם לא את הארכת טווח החמוש לאלפי ק”מ ומזעורו להסתרתו בבתי מגורים בין מיליונים של מגינים חיים.

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זה עושה שימוש באקיזמט למניעת הודעות זבל. לחצו כאן כדי ללמוד איך נתוני התגובה שלכם מעובדים.