ידענים: דעות - מדע ופוליטיקה | מיחשוב ורובוטיקה | תבונה מלאכותית

מאת 14 בדצמבר 2016 73 תגובות

אם לא ניזהר אנחנו עלולים למצוא את עצמנו מסוכסכים עם מכונות תבוניות ונחושות שמטרותיהן מתנגשות עם שלנו – טור דעה

 

משפחת רובוטים. איור: pixabay.com

משפחת רובוטים. איור: pixabay.com

מאת סטיוארט ראסל, הכתבה מתפרסמת באישור סיינטיפיק אמריקן ישראל ורשת אורט ישראל 09.08.2016

קשה להימנע מן החשש הטורדני שמא בנייתן של מכונות שהן חכמות יותר מאִתנו עלולה להעמיד בעיה. הרי אם הגורילות היו יוצרות בטעות את בני האדם לפני עידן ועידנים, הרי שהפְרימַטים האלה, העומדים בפני סכנת הכחדה, בוודאי היו מצטערים על כך. אבל מדוע, דווקא הבינה המלאכותית המתקדמת היא בעיה?

התיאוריה ההוליוודית שתודעה מלאכותית מרושעת שתיווצר מעצמה באופן ספונטני תחליט להניע צבאות של רובוטים רצחניים אינה אלא שטות. הבעיה האמיתית קשורה לאפשרות שהבינה המלאכותית תיעשה יעילה להפליא בהשגת דבר כלשהו השונה ממה שאנחנו רוצים באמת. המתמטיקאי האגדי נורברט וינר, שייסד את תחום הקיברנטיקה, ניסח זאת כך ב-1960: "אם נשתמש להשגת מטרותינו בישות מכנית שאיננו יכולים להתערב באופן יעיל בהפעלתה… מוטב שנהיה בטוחים למדי שהמטרה שהוזנה למכונה היא אכן המטרה שאנחנו באמת חפצים בה."

למכונה בעלת מטרה מסוימת יש עוד תכונה, תכונה שאנחנו מייחסים בדרך כלל ליצורים חיים: היא שואפת להנציח את קיומה שלה. כשמדובר במכונה, תכונה זאת אינה טבועה בה מיסודה ואינה דבר שטבעו בה בני האדם, אלא נובעת באופן הגיוני מן העובדה הפשוטה שהמכונה אינה יכולה להשיג את מטרתה המקורית אם היא מתה. לכן אם נשגר לעולם רובוט עם הנחיה אחת והיא להביא קפה, יהיה לו תמריץ חזק להבטיח את הצלחתו על ידי השבתת מתג הכיבוי שלו ואפילו חיסולו של כל מי שעלול להפריע לו במילוי המשימה. אם לא ניזהר, אנו עלולים להגיע אפוא למצב של משחק שחמט גלובלי נגד מכונות נחושות, בעלות תבונת־על, שמטרותיהן מתנגשות עם שלנו, כשהעולם הממשי יהיה לוח המשחק.

האפשרות שניגרר להתמודדות כזאת, ונפסיד בה, צריכה לעמוד לנגד עיניהם של מדעני המחשב. יש חוקרים הטוענים שאפשר לאטום את המכונות בכעין חומת אש ולאפשר להן לענות על שאלות קשות אבל אף פעם לא להשפיע על העולם הממשי. (מן הסתם, פירוש הדבר ויתור על רובוטים סופר-חכמים!) לרוע המזל, התכנית הזאת ככל הנראה לא תצלח: עדיין לא המצאנו חומת אש בטוחה נגד אנשים רגילים, לא כל שכן נגד מכונות המצוידות בתבונת־על.

האם בכל זאת אפשר להתמודד התמודדות חזיתית עם האזהרה של וינר? האם אפשר לתכנן מערכות בינה מלאכותית שמטרותיהן לא יתנגשו עם שלנו ולהבטיח כך שנהיה מרוצים מהתנהגותן? מימוש השאיפה הזאת אינו פשוט כלל. כידוע, סיפורים רבים על שד הממלא שלוש משאלות מסתיימים בזה שהשואל משתמש במשאלה השלישית כדי לבטל את שתי הראשונות. אבל אני סבור שהדבר אפשרי, אם נקפיד על שלושה עקרונות מרכזיים בתכנון מערכות תבוניות:

תכלית המכונה חייבת להיות מקסימיזציה של ערכים אנושיים. בייחוד, למכונה אין תכלית משלה ולא רצון מובנה להגן על עצמה.

אסור שהמכונה תדע מלכתחילה בוודאות מה הם אותם ערכים אנושיים. מתברר שיש לכך חשיבות מכרעת, שכן זאת כעין דרך להתגבר על הבעיות שהעלה וינר. המכונה יכולה ללמוד על אודות הערכים האנושיים במרוצת חייה, כמובן, אבל אסור שתגיע לוודאות מוחלטת.

על המכונה להיות מסוגלת ללמוד על אודות ערכים אנושיים באמצעות התבוננות בהחלטות שמקבלים בני אדם.

שני העקרונות הראשונים אולי נראים כאילו הם נוגדים את האינטואיציה, אבל יחד הם מונעים את בעיית התמריץ החזק שעלול להיות לרובוט לנטרל את מתג הכיבוי שלו. הרובוט בטוח שהוא רוצה למקסם ערכים אנושיים, אבל הוא גם אינו יודע בדיוק מה הם. עכשיו הרובוט בעצם מרוויח אם מכבים אותו, כי הוא מבין שהאדם ילחץ על כפתור הכיבוי כדי למנוע מן הרובוט לעשות משהו הנוגד את הערכים האנושיים. כך יש לרובוט תמריץ חיובי לשמור על מתג הכיבוי כפי שהוא – והתמריץ הזה נובע במישרין מאי הוודאות שלו באשר לערכים האנושיים.

העיקרון השלישי שאול מתת־תחום של הבינה המלאכותית הקרוי "למידה באמצעות שחזור חיזוקים" (Inverse Reinforcement Learning, IRL), שעניינו הוא בדיוק למידת ערכיה של ישות כלשהי, אם בן אנוש, אם כלב ואם מקק, על ידי התבוננות בהתנהגותה בלי לדעת את ערכיה מראש. על ידי הסתכלות בשגרת בוקר טיפוסית של אדם, הרובוט לומד על ערכו של הקפה בעבור בני האדם. התחום הזה עדיין בחיתוליו, אבל כמה אלגוריתמים מעשיים כבר פועלים ומדגימים את הפוטנציאל שלו בתכנון מכונות תבוניות.

ככל ש-IRL יתפתח, יהיה עליו למצוא דרכים להתמודד עם העובדה שבני האדם אינם רציונליים, אינם עקביים, הם חלשי אופי ובעלי כושר חישוב מוגבל, כך שפעולותיהם אינן משקפות תמיד את הערכים שלהם. כמו כן, לבני אדם יש כל מיני סולמות ערכים, וזה אומר שהרובוטים יהיו צריכים להיות רגישים לעימותים אפשריים ולפשרות בין בני אדם. והרובוטים יצטרכו גם ללמוד שיש אנשים שהם פשוט רעים ולא צריך לעזור להם ולא ללמוד מהם.

על אף הקשיים האלה, אני סבור שמכונות יוכלו ללמוד על ערכים אנושיים די הצורך כדי לא לסכן את האנושות. מלבד צפייה ישירה בהתנהגות של בני אדם, המכונות יכולות להיעזר בגישה לכמות עצומה של מידע כתוב ומצולם על מעשיהם של בני אדם (ועל תגובותיהם של אחרים למעשים). תכנון אלגוריתמים שיכולים להבין את המידע הזה קל בהרבה מתכנון מכונות בעלות תבונת־על. וכן, יש תמריצים כלכליים חזקים הן לרובוטים עצמם והן ליצרנים שלהם, להבין את הערכים האנושיים ולהכיר בהם: די ברובוט ביתי אחד שלא תוכנן כהלכה, שיבשל את החתול לארוחת הערב משום שלא השכיל לעמוד על כך שערכו הרגשי חשוב מערכו התזונתי, כדי שתעשיית הרובוטים הביתיים תתמוטט.

מענה לבעיית הבטיחות שיהיה טוב דיו לאפשר התקדמות בבינה המלאכותית הוא אפשרי אבל לא קל. סביר להניח שיש לנו עוד כמה עשורים להתכונן להופעתן של מכונות בעלות תבונת־על. אבל אין לפטור את הבעיה הזאת כלאחר יד, כפי שעושים כמה מן העוסקים בבינה מלאכותית. יש הטוענים שבני אדם ומכונות יכולים להתקיים זה לצד זה כל זמן שיעבדו יחד. הדבר נכון רק אם לשני הצדדים יהיו אותן מטרות. אחרים סבורים שאנחנו יכולים "פשוט לכבות אותן" כאילו מכונות המצוידות בתבונת־על יהיו טיפשות מכדי לחשוב על האפשרות הזאת. ויש גם הסבורים שבכלל לא תהיה בינת־על מלאכותית. ב-11 בספטמבר 1933 הכריז הפיזיקאי הנודע ארנסט רת'רפורד בביטחון גמור ש"כל מי שמצפה להפיק אנרגיה מן הטרנספורמציות של האטומים האלה אומר דברי הבל." למחרת, ב-12 בספטמבר 1933, הגה הפיזיקאי ליאו סילארד את רעיון האתחול של תגובת שרשרת גרעינית באמצעות ניוטרונים.

ראו עוד בנושא:

המכונות הלומדות

73 תגובות ל “האם יש מה לפחד מרובוטים חכמים מאתנו?”

  1. אנונימי

    יריב
    זה נכון מה שכתבת בתגובתך האחרונה. אבל בנתיים חוץ מזה, עד עכשיו, כתבת רק שטויות…

  2. יריב

    ק׳,

    אני לא מתכוון להיכנס איתך לויכוח בנושא זכותך לחשוב מה שאת רוצה וגם אני אמרתי את דעתי, אני חושב שתוך שנים ספורות המגמה כבר תהיה הרבה יותר ברורה ואז נוכל לשוב לדיון הזה בצורה מפוקחת יותר.

  3. ק.

    יריב,
    כתבת: "…כשחולדה תינוקת נולדת מי מכוון עבורה את פונקציית המטרה?"

    הפילוגנזה (ההיסטוריה האבולוציונית) + האונטוגנזה (היסטוריית ההתפתחות הפרטית).

    "…ברגע שיצרנו את הרשת העצבית בהתאם למבנה הנוירונים במוח (וזה בדיוק מה שנעשה בפרויקט מוח האדם) אז כבר יצרנו את הכיוונון שאת מדברת עליו, זה הכל כלול."

    לא. זה ממש לא כלול. שוב התעלמת ממה שהוסבר לך על הידע הנוסף הדרוש מעבר לארכיטקטורה של המח כדי שסימולציה מלאה (כלומר של *כל* המח לרבות הדינאמיקה המדוייקת) תציג תודעה בסגנון כמו שלך ושלי. זה בכלל לא מה שפרוייקט המח האנושי מתיימר להשיג. בניגוד להערכות הזמנים שהיינו חלוקים לגביהם בנושא מועד הצגת התקדמות משמעותית בהבנה ושחזור תודעה, נושא שיוכרע לכאן או לכאן תוך שנים ספורות, דבריך כאן הם פשוט תצריף של טענות שגויות שמבוססות בפשטות על חוסר ידע. צר לי שאתה מתעקש לחזור על השגיאות האלה וגם מעקם את מה שמומחים בתחום אומרים כאילו דבריהם תומכים בשגיאות שלך. אילו היה בך רצון אמיתי לומר דברים מבוססים היית עושה את הדבר המינימלי של להתייעץ ישירות עם מדען\ית שעוסק בתחום לגבי הטענות שהעלית כאן, ובניסוח שבו השתמשת כאן. אני מבטיחה לך שיורידו אותך לקרקע המציאות מהר מאוד.

    בנושא הספציפי הזה אתה מזכיר לי את אפקט דאנינג-קרוגר:
    https://i0.wp.com/digitalintelligencetoday.com/wp-content/uploads/2014/12/screenshot_799.png

    היות ונראה שההשפעה של טיעונים מבוססי נסיון וידע (שהוצגו כאן לא רק על ידי) על עמדתך היא אפסית, אסיים כאן, בתקווה שתעשה את המאמץ לרכוש מעט השכלה ממשית בנושא או לפחות להוועץ ישירות עם מקצוענים בתחום.

  4. נייסים

    יריב
    בודאי שיכולה להתקיים תודעה ללא רגשות (תלוי כמובן בהגדרות שלנו). אבל – זו לא תהיה תודעה שדומה כלל לתודעה של אדם. תחשוב שאתה ניתקל ברובוט – ללא שום הבעה בפנים, שום תגובה לבדיחה, שום התיחסות לאיומים. הרובוט לא מביע דיעה על כלום ולא אכפת לו מכלום. אתה באמת תגיד שיש שם תודעה?

  5. נייסים

    א'
    1. תודעה שתתפתח עם גרויים שונים משלנו תהיה תודעה שונה מאד משלנו. בוא ניקח שמיעה. לא מדובר על להיוולד חרש, אלא על התפתחות אבולוציונית ללא שמיעה. בלי שמיעה, אין משמעות לקולות. לכן – יהיה צורך במערכת שונה כדי שתתריע על איומים (אחד השימושים החשובים של קולות בהתפתחות חברתית). בלי קולות – לא יהיה דיבור וכנראה שגם לא שפה. ובלי שפה, אין זמנים, אין שייכות אין כמעט העברת ידע וכן הלאה.

    2. ראה 1….

    3. אתה מבלבל בין תודעה למודעות עצמית. גם ליצורים פשוטים יש רגשות – פחד, עייפות, חום וקור, קנאה ואהבה. לתינוק יש תודעה עוד לפני שהוא נולד, כך שהדוגמה שלך חסרת משמעות.

  6. יריב

    א׳,

    שוב, רגשות ללא ספק משפיעות על התודעה אבל הן ממש לא הכרחיות לקיום תודעה.

    ״מה שהיום המחשבים הקוגניטיבים עושים זה לחקות את הפעילות החשמלית של המוח (חלקים מסויימים במוח ליתר דיוק) וברור לך שמזה לא תצמח תודעה (אני מקווה לפחות שזה ברור לך גם אם נכפיל עוד ועוד את מספר הניירונים) כי מוח הוא גם שילוב של תהליכים כימיים״

    לא זה ממש לא ברור לי, והתהליכים הכימיים שאתה מדבר עליהם באים לידי ביטוי בעיקר בחוזק הקשרים של הסינפסות וזה בהחלט נילקח בחשבון ברשתות העצביות שהמדענים בפרויקט האירופאי בונים, כמו גם בפרויקטים אחרים .

    החלק שנוצרת בו התודעה הוא קליפת המוח וזה החלק המרכזי שקבוצות המדענים שהזכרתי מנסות לדמות.

  7. א

    יריב
    אני מקווה שלא באמת הייתה רציני לגבי השאלה על הפסיכופט. כי ברור שהם מסוגלים להרגיש (גם אם יש להם בעיה במנגנון של כמה מהרגשות)
    אני חושב שההערות של ניסים דווקא כן חשובות. אם אני מבין נכון את מה שהוא רצה להגיד.
    מה. שהיום המחשבים הקוגניטיבים עושים זה לחקות את הפעילות החשמלית של המוח (חלקים מסויימים במוח ליתר דיוק) וברור לך שמזה לא תצמח תודעה (אני מקווה לפחות שזה ברור לך גם אם נכפיל עוד ועוד את מספר הניירונים) כי מוח הוא גם שילוב של תהליכים כימיים. עכשיו תגיד מה הבעיה בוא נכניס להדמיה גם את התהליכים האלה. פה מתחילה הבעיה. אני אפילו לא בטוח שהמדע יכול להגיד אם הוא מכיר. את כל החומרים שמסתובבים במוח או מה ההשפעה של כל אחד מהם. כדי לבצע הדמיה אתה חייב לדעת איזה השפעה יש לכל חומר על כל סוג תא. אתה צריך להבין הרבה יותר כל תהליך שקורה במוח כדי שתוכל לדמות אותו. כדי שבהדמה תוכל לקבוע שתא x מפריש חומר y שמגיע לתא z וגורם תגובה w. הדוגמאות של ניסים מראות כמה אנחנו רחוקים משם. אנחנו לא יודעים עדיין למה ישנים ואיך בדיוק חומרים מסוימים משפיעים על המוח.

  8. יריב

    התודעה ללא ספק מושפעת מרגשות (כפי שהיא מושפעת מסמים, ומתחושת רעב) אבל אני חושב שתודעה בהחלט יכולה להיות קיימת גם ללא רגשות, וללא השפעה של סמים.

  9. א

    ניסים
    1. לא טענתי שתודעה יכולה להתפתח ללא גירויים. להפך אמרתי שהיא חייבת גירוי מהסביבה אבל זה לא חייב להיות כל הגירויים שקיימים לאדם או ברזולוציה שיש לאדם. תודעה יכולה לצמוח גם עם סוג אחד של גירוי ( נגיד שמיעה בלבד )
    2. שפה לא הכרחית לקיום תודעה אבל היא הכרחית לתדעה אנושית כפי שאנו מכירים. גם לחיות יש תודעה.
    3. רגשות לא נובעות מהתודעה. להפך התודעה מופיעה מאוחר יותר. תינוק מרגע הלידה הוא בעל רגשות עוד בטרם קיבל גירויים מהסביבה ובטרם רכש מודעות עצמית.
    אולי אנחנו מדברים על דברים שונים במילה "גרש"
    אני מתכוון לרגשות הבסיסיים ביותר. פחד, סיפוק, כאב.
    אם תצרח על תינוק בן יומו הוא יבהל ויפחד. הוא גם יכול לשמח כבר בימים הראשונים בחייו. (כל אלה דברים שאף מחשב או אלגוריתם לא מסוגל לעשות היום.)
    הלן קלר היית בעלת מודעות עצמית גם לפני שלמדה לדבר. נכון שברמה נמוכה יותר אבל עובדה שהיא זוכרת את התקופה הזאת. ( בעבר חשבו שאנשים לא זוכרים את התקופה שהם היו תינוקות בגלל החוסר בשפה. הלן קלר היא באמת אחת הדוגמאות להפרכה של התאוריה. היום יודעים שזה בגלל שינויים שהמוח עובר בשנים הראשונות לחייו)

  10. יריב

    ק׳,

    אני לא מתעלם מהטיעונים אני פשוט לא מסכים איתם, וגם מומחה עולמי לחקר המוח בשם הנרי מרקרם לא מסכים איתם והוא קצת מבין בנושא.

    ״תהליך הכוונון הוא משמעותי לא פחות. אתה מתעלם שוב ושוב מהעובדה שאיננו יודעים בכלל כיצד להגדיר מהי תבנית המטרה, שזו תכונה הכרחית באימון רשתות ובלעדיה אין מה שמכוונן את הרשת למה שאתה רוצה שהיא תעשה״

    תגידי לי כשחולדה תינוקת נולדת מי מכוון עבורה את פונקציית המטרה? ברגע שיצרנו את הרשת העצבית בהתאם למבנה הנוירונים במוח (וזה בדיוק מה שנעשה בפרויקט מוח האדם) אז כבר יצרנו את הכיוונון שאת מדברת עליו, זה הכל כלול.

  11. יריב

    א׳,

    ״איך יכולה להיות מודעות עצמית בלי רגשות?״

    אז מה אתה טוען, שלפסיכופטים אין מודעות עצמית?

  12. יריב

    ניסים,

    ״הלן קלר כתבה שעד שלא לימדו אותה שפה, היא כלל לא היית "קיימת". החשיבה שלנו היא בשפה, ובלי היכולת הזו לא תהיה מודעות גבוהה״

    אני מסכים איתך לחלוטין וכבר אמרתי פעמים רבות שלשפה יש לדעתי תפקיד מכריע ביצירת תודעה, רק בעזרת שפה אתה יכול ליצור במוחך את הדיבור הפנימי השקט שהוא חלק בלתי נפרד מהתודעה האנושית.

  13. יריב

    ניסים,

    1. אני לא חושב שאתה ריאלי, אתה כל כך להוט להראות שאני טועה (ושהמשימה קשה ומורכבת מדי) שאתה לא מפסיק לשלוף מהשרוול טיעונים שהם פשוט לא רלוונטים:

    מה זה משנה בכלל שהרשת אצלנו מתחילה מתא בודד? מאיזו בחינה זה רלוונטי? רק אם הרשת מתפתחת בהדרגה מתא בודד אז היא יכולה להיות מודעת? שמע זו תיאוריה ממש מעניינת אבל אני לא חושב שיש לה איזה בסיס. בנינו עד היום כל כך הרבה רשתות נוירונים שלמדו יופי של משימות מאתגרות למרות שהן לא התחילו מתא עצב בודד.

    והשפעה של LSD, שוב אתה מעלה טיעון כל כך לא רלוונטי, מה קשור סמים עכשיו? מי אמר לך שברשת העצבית שניצור לא נוכל לדמות השפעה של סמים?

    2. ״איזה מהדברים שציינתי עושים השבבים של IBM?״

    רשתות הנוירונים בשבב (או בתוכנת המחשב) מתפתחות ולומדות בהתאם לקלטים שהן מקבלות מסביבת המחייה שלהן, דרך החיישנים שמחוברים אליהן.

    3. ״אנחנו לא מבינים את מנגנון השינה״

    אנחנו גם לא מבינים איך מתוך המורכבות של הרשת העצבית במוחנו נוצרת מודעות עצמית, אך עדיין אני טוען שאם נבנה את הרשת כהלכה, אז גם אם היא לא תהייה מדוייקת ב 100% עדיין תיווצר בה תודעה ויווצרו מחשבות. הדיוק של הרשת לא כזה קריטי כל זמן שהבסיס מספיק טוב. עובדה שאנשים עם פגיעות מוח חמורות נשארים בעלי מודעות עצמית, אם הדיוק של מבנה הרשת היה כל כך קריטי אז כל פגיעה הכי קטנה במוח הייתה גורמת לנו לאבד את התודעה, ואנחנו רואים שזה לא מה שקורה בפועל.

    4. בעיות מוסריות זה חשוב ומעניין, אבל כרגע אני מדבר אך ורק על הישימות של רשת עצבית בעלת תודעה אנושית.

  14. אנונימי

    מודעות עצמית ורגשות לא תלויים אחת בשני.
    הרגשות נובעות מתוך צורך לאותת לגוף האם הדבר הוא טוב או רע לגוף.
    מודעות עצמית היא 'פיתוח מאוחר של התודעה'. כלומר, לאחר שהמודעות לסביבה גוברת ( גודלת ) אצל האורגניזם, אז הוא מתחיל לפתח מודעות גם כלפי עצמו.

  15. ניסים

    א'
    הלן קלר כתבה שעד שלא לימדו אותה שפה, היא כלל לא היית "קיימת". החשיבה שלנו היא בשפה, ובלי היכולת הזו לא תהיה מודעות גבוהה.

    אני גם חושב שנושא הרגשות הוא הפוך – אלה הן "תופעות מגיחות" עקב המודעות הגבוהה, ולא להיפך.

  16. א

    יריב
    איך יכול להיות מודעות עצמית בלי רגשות? לא נראה לי שזה אפשרי. המערכת שאתה מציע תוכל אולי להיות ברמה של אדם בביצוע משימות מסוימות (משחקי מחשב, זיהוי פנים, זיהוי דיבור, קבלת החלטות בהינתן תוצאה רצויה ברורה וכו… ) אולי אפילו סביר שתוכל לעבור אותו ולבצע את המשימות טוב יותר מכל אדם. אבל זה עדיין רחוק מאוד מלדמות מח אנושי.
    אני מסכים איתך בנוגע לכך ששאלת הדיוק בגוף האנושי לא רלוונטית. גם הלן קלר פיתחה מודעות עצמית וזה ללא חוש ראיה ושמיעה. אבל אי אפשר לפתח מודעות עצמית ללא רגשות. להופעה של רגש אין קשר לחיבור לגוף רובוטי (בקשר לתודעה אתה צודק) תינוק נולד עם היכולת להרגיש עוד לפני שהוא מקבל גירויים מהסביבה. הוא יכול להרגיש פחד עונג וכאב. בלי זה לא תתפתח תודעה. אמרת "אפילו אם עדיין לא יהיו לה רגשות והיא לא תרגיש עייפה או שמחה, אבל היא כן תהיה אינטליגנטית והיא כן תהיה בעלת תודעה בדיוק כמו של בן אנוש" ואני לא חושב שזה אפשרי. אי אפשר לפתח תודעה של בן אנוש בלי רגשות של בן אנוש כך שהבעיה אינה בהעדר גוף רובוטי ( אם כי אתה צודק שגם הוא הכרחי, ושהוא לא חייב להיות מורכב בהכרח)
    אתה צריך להבין משהו. כל המחשבים הקוגניטיבים היום מדמים חלק מסויים מאוד במוח שאחראי על הלמידה ועיבוד החושים, ואת החלק הזה אנחנו מבינים די טוב יחסית איך הוא עובד. ולכן אנחרנו מסוגלים לכתוב אלגוריתם שמדמה אותו. אולי זה מרגיש כאילו הוא מדמה מוח אנושי אבל הוא מדמה רק אספקט צר ומסויים של המוח ולא יעזור להכפיל אותו או להריץ אותו על מחשב חזק יותר. רגשות לא יופיעו פתאום. אתה תקבל מחשב שלומד במהירות ומזהה פנים בדיוק על אנושי או שיכול ללמד שפה חדשה בכמה דקות על ידי סריקה של אלפי סרטים תוך דקות. אולי הוא אפילו יוכל לדמה שיחה אנושית שאפילו לא תוכל להבדיל. אבל זה עדיין יהיה רק דימוי של שיחה. הוא בסך הכל יקבל קלט ויחשב מה הפלט שהוא צריך לתת. הוא לא "ירצה" לא "יכעס" ולא יהיה מודע לעצמו.

  17. ק.

    יריב,
    חבל שאתה מתעלם מהטיעונים שמעלים בפניך. המשפט הזה שכתבת: "…אם היינו לוקחים את הרשת העצבית של DeepMind (זו שמשחקת מירוצי מכוניות ומשחקי אטארי, ומתוכננת להגיע לרמה של חולדה בתוך פחות משנתיים) או היינו לוקחים את חתיכת המוח שבנו בפרויקט האירופאי (״פרויקט מוח האדם״) והיינו מגדילים אותה לגודל של קליפת מוח אנושית (16 מיליארד נוירונים) ומחברים אותה לרובוט אלמנטרי עם מצלמות וחיישנים, תוך זמן לא רב הרשת הזו הייתה מתחילה להיות מודעת לעצמה. אפילו אם עדיין לא יהיו לה רגשות והיא לא תרגיש עייפה או שמחה, אבל היא כן תהיה אינטליגנטית והיא כן תהיה בעלת תודעה בדיוק כמו של בן אנוש."

    מעיד על חוסר הבנה בסיסית בנושא רשתות נוירונים, הן ברמת הארכיטקטורה, הן מבחינת תהליך הלימוד שלהן והן מבחינת ההתנהגות שהן מייצרות. את חוסר הידע בנושא אתה "ממלא" בהשלכה ואינטרפולציה שגוייה לגמרי של ההישגים (היפים מאוד) שקיימים, התעלמות מהידע שקיים היום ומהבעיות שאיתן מתמודדים אלה שמפתחים רשתות נוירונים ו\או מודלים של מוחות ובאמצעות כמויות של ווישפול ט'ינקינג. אתה לגמרי דתי בנושא וצר לי שאינך רואה זאת. אני בטוחה שאם תעשה את המאמץ הלא מאוד גדול של להתנסות בפיתוח רשתות נוירונים פשוטות יחסית אתה תבין כמה מהנקודות העוורות שלך כמו זו שגודלה של רשת נוירונים, גם אם היא תכונה משמעותית, אין לה שום קשר הכרחי לתכונות שאותה רשת תייצר, כי תהליך הכוונון הוא משמעותי לא פחות. יכולה להיות רשת גדולה ככל שתרצה ושכל מה שהיא תדע לעשות זה לייצר פולס מחזורי וגם זה לא מחוייב המציאות.

    לגבי האפשרות הראשונה, רשת מלאכותית כמו דיפ-מיינד, אתה מתעלם שוב ושוב מהעובדה שאיננו יודעים בכלל כיצד להגדיר מהי תבנית המטרה, שזו תכונה הכרחית באימון רשתות ובלעדיה אין מה שמכוונן את הרשת למה שאתה רוצה שהיא תעשה, וסטטיסטית הסיכוי שתגיע במקרה למשהו כזה הוא אפסי, והוא קטן במהירות עם גודל הרשת. האפשרות השניה של חיקוי פתרון קיים (כמו מח של חולדה) אומר שצריך גם חיקוי מדוייק של הארכיטקטורה של הרשת, גם חיבור ל"גוף וסביבה " *מתאימים* (כי הארכיטקטורה המסויימת הזו עברה אבולוציה יחד עם גוף מסויים ובתוך סביבת גירויים מסויימת! אז אם תחבר לגוף הזה גלגלים במקום רגליים, יכול להיות שהמערכת תצליח לייצר תנועה אבל אין שום סיבה לחשוב שיתפתחו תכונות מסויימות שאולי נרצה בהן (כמו דגמי צעידה או דילוג מעל מכשולים). כדי לחסוך את השלב של ההתפתחות בסביבה המתאימה אתה צריך לדעת לא רק את הארכיטקטורה של המח אלא גם את הדינאמיקה שרצה בתוכו, וזו כבר בעיה הרבה הרבה יותר קשה מחיקוי הארכיטקטורה שרק עכשיו מתחילים בנסיונות חיקוי רציניים.

    דבר ישירות עם מישהו בתחום אם חשובה לך הבנה קצת יותר מבוססת בנושא.

  18. ניסים

    יריב
    איזה מהדברים שציינתי עושים השבבים של IBM? הם מושפעים מ-LSD? הם מתפתחים מתא בודד? על מה אתה מדבר?

    אנחנו לא מבינים את מנגנון השינה, אבל אנחנו יודעים לדמות אותו? לא נראה לי סביר.

    אני חושב שאני וק' ריאלים. העלנו מספר בעיות ואתה חושב שהם זניחות. לדעתי, לפחות, כל בעיה כזו מעלה את הסיבוכיות בסדרי גודל. ויש גם בעיות מוסריות קשות שאתה לגמרי מתעלם מהם.

  19. יריב

    ניסים,

    להערכתי אתה מפריז יותר מדי בקושי ובמורכבות של הבעיה ולכן אתה כזה פסימי. את רוב הדברים שציינת מבצעים גם השבבים הקוגנטיבים של IBM וזה בעצם מה שעושה כל רשת עצבית ממוצעת, היא מתפתחת ולומדת כתוצאה מאירועים שהיא נתקלת בהם, דרך החיישנים שמחוברים אליה, ואם זה רובוט אז דרכו היא חווה את העולם בדיוק כמו בעל חיים או אדם.

    גם את ההשפעה של ההורמונים ניתן לדמות ע״י שינויים מתאימים בסינפסות של הרשת, בדומה להרצאה שקישרתי אליה קודם בה הנרי מרקרם מתאר כיצד הם הביאו את הרשת העצבית שלהם למצב ״שינה״ באמצעות הדמייה של שינויים כימיים מתאימים בחתיכת המוח שהם בנו. לגבי LSD, אנחנו פשוט נדאג שאף אחד לא יתקרב לרשת שלנו עם הסם הזה 🙂

    תקשיב, יש בעולם שלנו לפחות 5 מיליארד בני אדם שמודעים לעצמם, לכל אחד מהם יש רשת עצבית שונה במוחו, לחלק מהאנשים יש פגיעות ראש קשות כתוצאה מגידול או כתוצאה מתאונה, ועדיין המוח שלהם מודע לעצמו. כלומר הכיול של הרשת העצבית עבור תודעה אנושית, לא חייב להיות כזה מדוייק כפי שאתה מנסה להגזים בתיאורים שלך.

    תכלס לא אתה ולא אני יודעים בוודאות, אבל אני מהמר שכבר עם הידע שיש לנו היום, אם היינו לוקחים את הרשת העצבית של DeepMind (זו שמשחקת מירוצי מכוניות ומשחקי אטארי, ומתוכננת להגיע לרמה של חולדה בתוך פחות משנתיים) או היינו לוקחים את חתיכת המוח שבנו בפרויקט האירופאי (״פרויקט מוח האדם״) והיינו מגדילים אותה לגודל של קליפת מוח אנושית (16 מיליארד נוירונים) ומחברים אותה לרובוט אלמנטרי עם מצלמות וחיישנים, תוך זמן לא רב הרשת הזו הייתה מתחילה להיות מודעת לעצמה. אפילו אם עדיין לא יהיו לה רגשות והיא לא תרגיש עייפה או שמחה, אבל היא כן תהיה אינטליגנטית והיא כן תהיה בעלת תודעה בדיוק כמו של בן אנוש.

    בקרוב צפוייה לדעתי אבן דרך משמעותית ראשונה בדרך לשם, אם תוך 3-4 השנים הקרובות נראה רשת עצבית שמתנהגת בדיוק כמו חולדה (אתה וק׳ מאד סקפטים בעניין הזה) אני חושב שזה יגרום לך להיות קצת פחות סקפטי. אז בוא נחכה ונראה לאן העניינים יתפתחו בשנים הקרובות במקום לקשקש כל כך הרבה.

  20. ניסים

    יריב
    התודעה במוח שלנו לא נוצרת אוטומטית – המידע הזה הוא תוצאה של תהליך ההתפתחות של אדם, שמתבצע בזמן שהניורונים מתפתחים, בשילוב כל הארועים שקורים לאדם, כל מה שהוא חש, השפעת ההורמונים וכן הלאה וכן הלאה. התודעה שלנו רגישה ביותר, ויכולה להשתנות בצורה קיצונית עקב שינויים קטנים מאד (כמות מזערית של LSD, שבץ מוחי קטן, עייפות, פחד, רעב, קנאה וכו').

    שום מערכת אלקטרונית לא מתפתחת בצורה כזו. בנוסף – גם אתה אומר שהמכונה הזו לא תהיה חיקוי של האדם (מוח, חושים, עצבים, הורמונים וכן הלאה).

    לכן – אין שום סיבה לחשוב שהתודעה שתגיח ממערכת אלקטרונית תהיה דומה לתודעה של האדם (אולי דווקא תהיה לזה תודעה כמו של מיליארד יתושים?). ובטח שאין שום סיבה לחשוב שהתודעה הזו תהיה אינטליגנטית (אין לנו שום מושג איך לדעת מה רמת האינטליגנציה של אדם מסויים מסריקת MRI.

  21. יריב

    ניסים,

    תהיה יותר ממוקד לא הצלחתי להבין מה רצית לומר בכל הציטוטים שהבאת, ואני אכן עומד מאחוריהם.

    מה שאני טוען זה שהמדענים מפתחים רשת עצבית שממנה תגיח מתישהו תודעה ברמה של אדם, אני טוען שלשם כך הם יהיו חייבים לחבר את הרשת הזו לגוף רובוטי אך הוא ממש לא יצטרך להיות מורכב כמו גוף ביולוגי.

    אני גם טוען שהתופעה של מודעות עצמית תגיח מתוך הרשת הזו גם אם עדיין לא נבין ב 100% כיצד פועל המוח שלנו, ברגע שיהיו מספיק נוירונים ומספיק חיבורים ברשת זה פשוט יקרה באופן ספונטני.

  22. ניסים

    יריב
    כתבת "אני חושב שהטענה הזו ממש לא נכונה וכבר אמרתי לך זאת בשיחות קודמות. כן, נהיה חייבים לחבר את הרשת העצבית לגוף כלשהו על מנת שהיא תלמד ותתפתח, ותפתח דברים כמו תודעה, אבל הגוף הזה ממש לא צריך להיות ברמת מורכבות של גוף ביולוגי, זו טענה מופרכת שאין לה על מה להישען ולדעתי היא ממש לא נכונה."

    במקום אחר טענת שהרובוט יפתח רגשות כמו אהבה….. ובמקום אחר טענת שהמוח יהיה הדמייה של מוח אדם, אפילו הזכרת חיקויי עד לרמת המולקולות.

    אני לא מבין אם אתה חושב שמדענים מפתחים תודעה של אדם בתוך מכונה, או שהם מפתחים מערכת שממנה תגיח תודעה ברמה של אדם.
    כדי לחקות תודעה של אדם, צריך יכולת לפענח את המוח של האדם – ומזה אנחנו רחוקים הרבה עשרות שנים – וזה רק שלב הקריאה.
    ולחשוב שמכונה מורכבת ביותר תפתח דווקא תודעה שדומה לתודעה של אדם? עוד יותר הזוי.

    מוח האדם הוא הדבר הכי מורכב ביקום שאנחנו מכירים. בעוד 10 שנים (20, 30 …. תחליט כבר) נדע לפענח את הדבר הזה וגם לבנות חיקוי שלם שלו? לא יקרה.

הוספת תגובה

  • (will not be published)