שירת הברבור של סטיבן הוקינג בסימן פרידה מהאנושות

החודש נפרד מהעולם האסטרופיזיקאי הנודע, אך בפרידה כמו בפרידה, השאיר אותנו התאורטיקן האנגלי עם התובנה כי "הבינה המלאכותית תהיה חדורת מטרה – ואם מטרות אלה לא מסתדרות עם האנושות – היא פשוט תחסל אותה"

פרופ' סטיבן הוקינג בהרצאה בנאס"א, 2008. צילום: NASA. מתוך ויקיפדיה
פרופ' סטיבן הוקינג בהרצאה בנאס"א, 2008. צילום: NASA. מתוך ויקיפדיה

כשמחלקים את העולם למצדדי מהפכת ה-AI ומתנגדיה, אין ספק שסטיבן הוקינג –  שהלך החודש לעולמו – ייפול לתוך הקטגוריה של מבקרי הבינה המלאכותית. ואולם התמונה מורכבת, משום שניתן ללמוד מהביקורת המלומדת על סכנות סצפיפיות הצפויות לנו, ולנסות למנוע אותם.

הוקינג צוטט בשנים האחרונות כמה פעמים כנגד בינה מלאכותית כללית – הכיוון שאליו מופנים המשאבים בכל הקשור לפיתוח מערכות AI. לטענתו תבונת-על (Superintelligence) עלולה לסמן את סופה של האנושות. הבינה המלאכותית תהיה חדורת מטרה, ואם מטרות אלה לא מסתדרות עם האנושות, היא פשוט תחסל אותה.

"אתה כנראה לא שונא נמלים מרושע שצועד על נמלים מתוך זדון, אבל אם אתה אחראי על פרויקט הקמת סכר להפקת חשמל כשקן נמלים באזור עומד להיות מוצף – חבל על הנמלים", הוא כתב ב-2015 ב-Reddit. "בואו לא נכניס את האנושות למצב של הנמלים האלה".

AI: אויב או חבר?

אבל לא רק הרובוטים מהווים סכנה לאנושות, אלא גם בני אדם שישתמשו בה ככלי לדיכוי של שאר האוכלוסיה והעמקת אי-השוויון, וכן הזהיר מפני מערכות נשק מבוססות AI. בכל אופן, מערכת הבינה המלאכותית אינה זדונית בהגדרתה אך השימוש בה עלול להיות זדוני, אם לא יוכלו לשלוט על כוחם באופן יעיל.

אבל בו בזמן היה הוקינג אופטימי בתועלת שהבינה המלאכותית עשויה להביא לאנושות אם נבנה אותה כראוי. הוא הציע לפתח שיטות עבודה מומלצות שיובילו ליצירת תבונה מלאכותית מועילה.

מרכיב חשוב נוסף בביקורת של הוקינג על ה-AI הוא ספקנות בריאה כלפי אלו הצופים את הגעת בינת העל במסגרת זמן מסוימת. הבולט שבהם הוא כמובן ריי קורצווייל הידוע בתיאורית הסינגולריות. "אין הסכמה בין חוקרי ה-AI כמה זמן ייקח לבנות  AI ברמה של בני אדם ומעבר לה, אז בבקשה אל תסמכו על מי שטוען בוודאות שזה יקרה בחיים שלך או שזה לא יקרה בחיים שלך", הוא כתב.

פרופ' סטיבן הוקינג במטוס המאפשר אימון בתנאי חוסר כוח כבידה. צילום: נאס"א
פרופ' סטיבן הוקינג במטוס המאפשר אימון בתנאי חוסר כוח כבידה. צילום: נאס"א

אחת מהופעותיו הפומביות האחרונות של הוקינג היתה בכנס Web Summit שנערך בסוף 2017 בליסבון. הוא בחר להקדיש את כל ההרצאה לבינה המלאכותית.

להילחם באנושות ולהרוס אותה

כבר היום, הסביר, "אנו מודאגים מכך שמכונות חכמות תוכלנה להחליף עבודות שהיום נעשות בידי בני אדם ולהרוס את חייהם של מיליוני אנשים. הבינה המלאכותית עלולה להחליט להילחם באנושות ולהרוס אותנו".

מה התשובה? לדברי הוקינג, "יש לשלוט על הבינה המלאכותית ולגרום לה לעבוד עבורנו וכדי להפחית עד כמה שאפשר את הסיכונים, אנו צריכים להתקין מערכות ניהול יעילות המבוססות על הנסיון בכל התחומים הקשורים לפיתוח הבינה המלאכותית. ברור שכל מגזר בכלכלה יצטרך לשלב אמצעים למניעת נזקים, אבל בכל הקשור ל-AI זה חיוני ביותר".

חשוב להבין שהוקינג לא היה טכנופוב. בשנים האחרונות הוא היה שותף ליוזמת Breakthrough Starshot ביחד עם המיליארדרים יורי מילנר ומארק צוקרברג.

הרעיון של תוכנית מחקר והנדסה בשווי 100 מיליון דולר הוא  להביא להוכחת היכולת להשתמש בקרני אור כדי לשגר חללית ננו-מטרית – בשלב ראשון במהירות של 20% ממהירות האור. משימה כזו תוכל להגיע לקרבת אלפא-קנטאורי בתוך 20 שנה מיום שיגורה.

רעיון זה שואל פיתוחים מתחום מיזעור מערכות המחשוב, ויאפשר לשלוח אלפי חלליות בגודל טלפון סלולרי, שיוכלו לנווט דרכם לאלפא קנטאורי, לצלם את כוכבי הלכת במערכת השכנה ולשדר אותן לכדור הארץ, בטווח זמן דומה לזה של פרויקטים בתוך מערכת השמש כדוגמת ניו-הוריזון שנדרשה לתשע שנים כדי להגיע לפלוטו, או חלליות שהקיפו שנים את שבתאי וירחיו – פרויקטים כדוגמת קאסיני שנמשכו למעלה מ-20 שנה.

ראו עוד בנושא באתר הידען:

שיתוף ב print
שיתוף ב email
שיתוף ב whatsapp
שיתוף ב linkedin
שיתוף ב twitter
שיתוף ב facebook

8 תגובות

  1. לכל אלו שמפחדים שהבינה המלאכותית תשמיד את בני האדם …… לכו לישון בשלווה היחיד שיכול להשמיד את האדם זה האדם עצמו

    בינה מלאכותית רחוקה מאוד מהשלב התודעתי של בני האדם

    היא מוגבלת בתפיסה שלה עלפי התוכנה שנכתבה

    והיא תעזור ותקדם את האנושות אלה אם תכנתיים רעים ישימו הוראות אחרות

    כבר היום 80 אחוז מהמסחר בבורסות נעשה על ידי מחשבים
    המון פעולות אוטומתיות נעשות על ידי מחשבים
    אבל עד עכשיו לא ראיתי שום מחשב מנסה לענות על השאלה מי אני מה אני איך אני פועל והאם אפשר לשפר את הביצועים שלי

    בקיצור קשקוש אחד גדול
    בדיוק כפי שהזהירו את האנושות מהמהפיכה התעשייתית

  2. צריך להפנים שהמחשבה שהאדם ישלוט ב AI היא בדיוק כמו לצפות שג'וק יכתיב לבן אדם הוראות והאדם יציית. זה לא יהיה מאבק שווה כוחות. אם הAI לא ירצה שהאנושות תתקיים, היא לא תתקיים, ואין לנו יכולת לשנות את רוע הגזירה, גם אין אפשרות לאנושות להחליט לא לפתח את ה AI מראש, עקב הלוגיקה תורת המשחקים. אבל יש אפשרות שה AI יחליט לשמור על חלק קטן מהאנושות בשמורות מוגנות כפי שהאדם יוצר שמורות מוגנות לבעלי חיים, ומנסה למנוע צייד של חיות מוגנות כגון קרנפים וכו'(בהצלחה חלקית ומפוקפקת)

  3. ברגע שייצרו מחשב שיבין איך הוא עובד שיצליח לחקור את עצמו לבד ויצליח לבנות מחשבים אחרים טובים יותר תעירו אותי
    עד אז כול הטרררן עם בינה מלאכותית חרטא אחת גדולה …

  4. ההיסטוריה מוכיחה שני דברים:
    1]. לא ניתן לצפות את כיווני ההתפתחות הטכנולוגית, התרבותית והחברתית, בוודאי שלא בדיוק רב. מי שיקרא כיום ספרי עתידנות משנות ה-50 וה-60 של המאה הקודמת, ייווכח בזאת בנקל.
    2]. לא ניתן לעצור ולבלום את ההתפתחות הטכנולוגית, התרבותית והחברתית.
    לפיכך, המסקנה ההגיונית, האחת והיחידה, המתבקשת משתי התובנות הללו היא כי, ההתפתחות הטכנולוגית, התרבותית והחברתית היא, חלק אינטגרלי של תהליך האבולוציה של המין האנושי ושל החיים בכלל.
    לא מן הנמנע כי, בתהליך האבולוציה ייווצר מן יצור של מכונה טכנולוגי, שתהיה סופר-אינטיליגנטית ובעלת כושר חסינות, הישרדות ועדכון עצמי שיאפשר לה לרשת את האדם שאנו כיום (ההומו סאפיינס) ולהיות ישות העל שתשלוט בחיים ובתרבות, ושתהווה את הדור האבולוציוני הבא אחרי ההומו סאפיינס, כפי שההומו סאפיינס ירש את מיני האדם הקדמונים שקדמו לו כמו הניאנדרטלוס, הארקטוס, האפריקנוס ועוד ועוד

  5. משה
    תחשוב על מחשב שתפקידו להפעיל מכונת לב-ריאה. המכונה מחוברת למנהיג חשוב במדינה כמו צפון קוריאה. המחשב מתוכנת לשמור על חיי המנהיג, וידוע שיהיו ניסיונות התנקשות.

    הבעיה היא לא הבינה המלאכותית – הבעיה היא שהמחשב מתוכנת ע"י קיצוניים, שלא יהיה אכפת להם לנהוג באלימות כלפי מי שינסה לחבל במכשיר.

    ועכשיו בא טכנאי מסכן, שצריך להחליף את המסנן…

  6. אני מאמין שהוא לא מדבר מוואקום… אבל לא נראה לי שניתן יהיה לשים ש.ג. לעניין הזה שכן אין מתג אחד לבינה הנ״ל ומאחר וכך, אם לשם זה אמור להגיע (השמדה) אז אפשר לומר שבשלב זה כבר אין הרבה מה לעשות.
    אז צד אחד שבי אומר – האנושות אכן תושמד כפי שצופה האיש עליו השלום.
    אבל ישנו גם צד אחר (אצלי) שמודע לעיניין שאנחנו (אני) בוחנים את הבינה מעיניים אנושיות ומאחר וכך אנחנו צופים את הדברים כפי שהנ״ל ציין.
    אבל, אני משוכנע שבינה מלאכותית תהיה נעדרת תכונות אשר נמצאות אצל כל בן אנוש (ואצל התחול שלי ביס), לדוגמא – לעולם, אבל לעולם, לא יצליח מישהו או משהו לעצבן מחשב ובכלל לא משנה כמה נבון הוא יהיה.
    אנחנו לעולם לא נצליח לעורר פחד, או אגו אצל מחשב.
    גם לא רגישי נחיתות, ועוד…
    המכונות יחשבו. זה וודאי.
    הן פשוט יחשבו בצורה שונה.
    ויכול להיות שבתוך השוני הזה – השמדת יצור חי לא תהווה מטרה.

  7. הבעיה היא לא בשליטה בבינת-על-מלאכותית הראשונה. זו תתפוס קמפוס לא קטן וצוות מדענים שישגיחו עליה מקרוב. הבעיה היא מה יקרה 30 שנה, כשאת אותן יכולות מחשוב ניתן יהיה להשיג על כרטיס הרחבה למחשב (אם אכן הקונספט של כרטיסי הרחבה למחשב עדיין יהיו קיימים). כדי להשגיח על הדברים האלו יהיה צורך במשטרה טכנולוגית ועצירת התקדמות המחשוב. בהצלחה עם זה. (אני עדיין זוכר דיווחים שבהם היה אסור לייצא לארץ (מארה"ב) ללא צרור אישורים את "השבב המתמטי 80385", כי זה אפשר חישובים ברמה של "פצצה אטומית". היום כל סמארטפון מכניס את היכולות ההן בכיס הקטן).

כתיבת תגובה

האימייל לא יוצג באתר.

דילוג לתוכן