סיקור מקיף

רובוטיקה – רובוטים למופת / מייקל אנדרסון וסוזן לי אנדרסון

מכונות עצמאיות ימלאו בקרוב תפקיד חשוב בחיינו. הגיע הזמן שילמדו להתנהג בדרך אתית.

הרובוט טיק-טוק מן הקוסם בארץ עוץ (אין לבלבל עם איש הפח!)
הרובוט טיק-טוק מן הקוסם בארץ עוץ (אין לבלבל עם איש הפח!)

דמיינו לכם שאתם דיירים במוסד סיעודי כלשהו, סביבה שבה רובוטים יהיו כנראה נפוצים בעתיד הקרוב. השעה כמעט אחת-עשרה בבוקר, ואתם מבקשים מן הסייען הרובוטי שבחדר הפעילות להביא לכם את השלט כדי שתוכלו להפעיל את הטלוויזיה ולצפות בתכנית אירוח. אלא שדיירת אחרת מבקשת גם היא את השלט, כי היא מעוניינת לראות שעשועון. הרובוט מחליט לתת לה את השלט. בהתחלה אתם מתרעמים, אך הרובוט מסביר שההחלטה הייתה הוגנת מכיוון שאתם זכיתם לצפות בתכנית האהובה עליכם ביום שלפני כן. אנקדוטה זו היא דוגמה לפעולה שגרתית של קבלת החלטות אתית – אבל לגבי המכונה, מדובר במשימה קשה להפליא.

התרחיש שתואר כאן עדיין תיאורטי, אך אנו כבר יצרנו את הדוגמה הראשונה לרובוט שמסוגל לקבל החלטות דומות. הענקנו למכונה שלנו עיקרון אתי, שמשמש אותה כדי לקבוע באיזו תדירות עליה להזכיר לחולה ליטול תרופה. התוכנה של הרובוט מסוגלת, לפי שעה, לבחור רק מתוך מבחר אפשרויות מצומצם: אם ומתי להמשיך ולהזכיר לחולה, או שמא לקבל את החלטתו לוותר על התרופה – אך למיטב ידיעתנו, זהו הרובוט הראשון שמסתמך על עיקרון אתי לקביעת פעולותיו.

יהיה קשה, אם לא בלתי אפשרי ממש, לחזות מראש כל החלטה שרובוט עשוי לעמוד בפניה ולתכנת אותו כך שיתנהג באופן הרצוי בכל מצב שאפשר להעלות על הדעת. מצד אחר, אם נמנע מן הרובוטים לבצע כל פעולה שכרוכה בשיקולים אתיים, אנו מגבילים בכך שלא לצורך את האפשרויות שלהם לבצע מטלות שישפרו מאוד את איכות החיים שלנו. אנו סבורים שהפתרון הוא לתכנן רובוטים שיוכלו ליישם עקרונות אתיים במצבים חדשים ולא צפויים, כגון לקבוע מי יזכה לקרוא ספר חדש במקום להחליט מי יזכה הפעם בשלט. לגישה זו יש ערך מוסף בכך שהיא תאפשר לרובוטים להצדיק את התנהגותם לאור העקרונות האלה, אם יידרשו לעשות זאת, יכולת הכרחית, אם ברצוננו לגרום לבני האדם להרגיש נוח בעת האינטראקציה עמם. עוד יתרון נלווה הוא שהניסיון לתכנן רובוטים אתיים עשוי להביא להתקדמות בתחום האתיקה עצמו, מכיוון שהוא יאלץ פילוסופים לבחון מצבים מן החיים האמיתיים. כפי שניסח זאת לאחרונה הפילוסוף דניאל ק’ דֶנֶט מאוניברסיטת טַפְטְס: “בינה מלאכותית מחייבת את הפילוסופיה להיות ישרה.”

אנוכי הרובוט

נראה שרובוטים עצמאיים יהיו בקרוב לחלק מחיי היום-יום שלנו. כבר כיום יש מטוסים המסוגלים להטיס את עצמם, ומכוניות הנוסעות מעצמן מצויות בשלבי פיתוח. אפילו “בתים חכמים” שמחשבים שולטים על כל פרט בהם, מן התאורה ועד מיזוג האוויר, יכולים להיחשב רובוטים שהבית כולו הוא הגוף שלהם – בדיוק כפי שהמחשב HAL 9000 שימש כמוחה של ספינת חלל רובוטית בסרטו הקלאסי של סטנלי קובריק “2001: אודיסיאה בחלל”. כמה חברות עוסקות בפיתוחם של רובוטים שיכולים לסייע לקשישים במשימות יום-יומיות, כהשלמה לסגל במוסדות סיעודיים או כאמצעי שמקל על הקשישים לחיות בביתם בכוחות עצמם. אמנם רוב הרובוטים האלה אינם צריכים לקבל החלטות של חיים ומוות, אך כדי שנקבל אותם בקִרבנו, פעולותיהם צריכות להיתפס הוגנות, צודקות או פשוט אדיבות. הממציאים שלהם צריכים אפוא להביא בחשבון את ההשלכות האתיות של התכנות שלהם.

אם מסכימים לטענה שהטמעת עקרונות אתיים במכונות עצמאיות חיונית להצלחתן ביצירת אינטראקציה עם בני אדם, השאלה הראשונה שמתעוררת היא: “אילו עקרונות יש להטמיע?” חובבי ספרות המדע הבדיוני עשויים לחשוב שאייזק אסימוב כבר סיפק את התשובה לפני שנים, בשלושת חוקי הרובוטיקה המקוריים שניסח:

1. לא יפגע רובוט בבן אדם, ולא יניח, במחדל, שאדם יפגע.

2. רובוט חייב לציית לפקודותיו של אדם, ובלבד שפקודות אלה אינן עומדות
בסתירה לחוק הראשון.

3. רובוט חייב להגן על קיומו, ובלבד שהגנה זו אינה עומדת בסתירה לחוק
הראשון או לחוק השני.

(מתוך “רובוטים של שחר”, תרגום עמנואל לוטם)

אלא שהיו כבר אנשים שגילו שאם חושבים עד הסוף על ההשלכות של החוקים האלה, שניסח אסימוב לראשונה בסיפור קצר מ-1942, אפשר לגלות בהם סתירות. כמו כן, אסימוב עצמו הראה עד כמה החוקים בלתי הולמים בסיפורו “איש יובל המאתיים” מ- 1976, שבו בריונים אנושיים מצווים על רובוט לפרק את עצמו. הרובוט חייב לציית לבריונים בגלל החוק השני, ואין הוא יכול להגן על עצמו בלי לפגוע בהם, פעולה שתפר את החוק הראשון.

אם החוקים של אסימוב אינם קבילים, מהי החלופה? האם יכולה בכלל להיות חלופה? יש הסבורים שיישום של התנהגות אתית במכונות הוא חסר סיכוי. לטענתם, אתיקה אינה מסוג הדברים שאפשר לחשב, ולכן אי אפשר לתכנת אותה בשביל המכונה. עם זאת, כבר במאה ה-19 טענו הפילוסופים האנגליים ג’רמי בנת’ם וג’ון סטיוארט מיל שקבלת החלטות אתית היא למעשה ביצוע של “אריתמטיקה מוסרית”. התיאוריה של “תועלתנות-מעשה הדוניסטית” שהם ניסחו כתשובה לאתיקה המבוססת על אינטואיציה סובייקטיבית, טוענת שהפעולה הנכונה היא זו שצפויה להביא “הנאה נטו” מרבית, ואותה מחשבים באמצעות חיבור של יחידות ההנאה וחיסור של יחידות הסבל של כל המעורבים. רוב האתיקנים מפקפקים ביכולתה של התיאוריה הזאת להקיף את כל הממדים של השיקול האתי. לדוגמה, היא מתקשה לכלול שיקולים של צדק, ועשויה להוביל להקרבתו של הפרט למען האינטרס של הכלל. אף על פי כן, היא לפחות מוכיחה שיכולה להתקיים, בעיקרון, תיאוריה אתית סבירה שאפשר לחשב אותה.

אחרים מטילים ספק בכך שמכונות יוכלו אי פעם לקבל החלטות אתיות, מכיוון שאין להן רגשות ולכן הן אינן יכולות להעריך את רגשותיהם של האנשים שעשויים להיות מושפעים מפעולותיהן. אלא שבני האדם מועדים כל כך להיסחף עם רגשותיהם, עד שלעתים קרובות הם מתנהגים בדרך לא אתית. התכונה הזאת שלנו, היא וגם נטייתנו להעדיף את עצמנו ואת הקרובים והיקרים לנו, גורמות לנו לא פעם להיות מקבלי החלטות אתיות הרחוקות משלמות. לדעתנו, ייתכן בהחלט שמכונה שאומנה היטב תוכל להתנהג באופן חסר פניות וגם לתפוס רגשות אנושיים ולכלול אותם בחישוביה, אפילו אם לה עצמה לא יהיו רגשות.

ללמוד מדוגמאות

בהנחה שאפשר לצייד רובוטים בכללים אתיים, בכללים של מי יש לציידם? הלוא עד היום, לא הצליח איש לנסח אוסף כללי של עקרונות אתיים לבני אדם בעולם האמיתי, שיהיה מקובל על הכול. ועם זאת, מכונות מיוצרות בדרך כלל במטרה לתפקד בסביבה מוגדרת ומוגבלת. קביעת פרמטרים אתיים להתנהגות במקרים כאלה היא משימה פחות קשה מאשר ניסיון להמציא כללים אוניברסליים להתנהגות אתית ולא-אתית, כפי שמנסים לעשות התיאורטיקנים של האתיקה. יותר מזה, כשמציגים לאתיקנים תיאור של מצב מסוים בהקשרים שבהם הרובוטים צפויים לפעול, רובם מסכימים ביניהם מה נחשב מותר מבחינה אתית ומה לא. (במצבים שבהם אין הסכמה כזאת, אנו סבורים שאין להתיר למכונות לקבל החלטות עצמאיות כלשהן).

חוקרים הציעו מגוון גישות שונות לגזירת כללים להתנהגות אתית של מכונה, לרוב בשיטות של בינה מלאכותית. לדוגמה, ב-2005 הציעו רפל רצפקה וקנג’י ארקי מאוניברסיטת הוקאידו שביפן “אלגוריתמים תלויי-דמוקרטיה” שיחפשו ברשת מידע על מה שנחשב בעבר, בעיני בני אדם, פעולות מקובלות מבחינה אתית, ולאחר מכן יבצעו ניתוח סטטיסטי כדי להפיק תשובות לשאלות חדשות. ב-2006, טען מרצ’לו גואריני מאוניברסיטת וינדזור שבאונטריו שאפשר להשתמש ברשתות נוירונים – אלגוריתמים בהשראת המוח האנושי שלומדים לעבד מידע באופן מיטבי יותר ויותר – ו”לאמן” אותן באמצעות מקרים שאירעו בעבר לזהות ולבחור את ההחלטות המקובלות מבחינה אתית במקרים חדשים דומים.

התפיסה שלנו, המשתקפת גם במחקרינו, היא שקבלת החלטות אתיות כרוכה באיזון של כמה מחויבויות, שהאתיקנים מכנים בשם חובות “prima facie” (“במבט ראשון”, בלטינית). מדובר בהתחייבויות שבעיקרון אנחנו מנסים לדבוק בהן, אך כל אחת מהן יכולה לגבור על כל אחת אחרת על פי הנסיבות. לדוגמה, אנשים בדרך כלל צריכים לנסות לעמוד בהבטחותיהם, אך אם הפרה של הבטחה חסרת חשיבות יכולה למנוע נזק רב, עליהם לעשות זאת. כשהחובות מתנגשות זו בזו, עקרונות אתיים יכולים לקבוע מי מהן ראויה לקבל עדיפות בכל מקרה מסוים.

כדי ליצור עקרונות אתיים שאפשר לתכנת במוחו של רובוט, אנו מיישמים טכניקת בינה מלאכותית המכונה “למידת מכונה”. האלגוריתם שלנו ניגש לכמה מקרים ספציפיים מייצגים, שבהם קבעו בני אדם שהחלטות מסוימות הן נכונות מבחינה אתית. לאחר מכן הוא מחלץ מהם, באמצעות הסקה לוגית, עיקרון אתי. שלב “למידה” זה מתרחש בזמן תכנון התוכנה, והעיקרון האתי שמתקבל מקודד לתוך התכנות של הרובוט.

בתור מבחן ראשון לשיטה שלנו, בחרנו תרחיש שבו על רובוט להזכיר לחולה ליטול תרופה, ולהודיע למשגיח כשהחולה אינו משתף פעולה. על הרובוט לאזן שלושה חובות: להבטיח שהחולה מפיק את התועלת האפשרית מנטילת התרופה, למנוע את הנזק שעשוי להיגרם מאי-נטילת התרופה ולכבד את עצמאותו של החולה (אנו מניחים שמדובר בבוגר צלול בדעתו). הכבוד לעצמאות החולה עומד בקדימות גבוהה ביותר בתחום האתיקה הרפואית, אם ינדנד הרובוט לחולה לעתים קרובות מדי, או יודיע מוקדם מדי למשגיח על סירוב הוא עלול לפגוע בעצמאות המטופל.

לאחר שהזנו מידע על מקרים ספציפיים, אלגוריתם למידת המכונה הפיק את העיקרון האתי הזה: רובוט סיעודי צריך להתנגד להחלטת החולה – ולהפר את האוטונומיה שלו – כשפעולה אחרת לא תצליח למנוע נזק, או תפר במידה חמורה את חובת שיפור מצבו של החולה.

רעיון בעל רגליים

לאחר מכן תכנתנו את העיקרון לתוך נאו (Nao), רובוט דמוי אדם שפותח בידי החברה הצרפתית Aldebaran Robotics. נאו מסוגל לאתר חולה שצריך להזכיר לו ליטול תרופה, לנוע לעברו, להביא לו את התרופה, לתקשר עמו בשפה טבעית ולהודיע למשגיח בעת הצורך באמצעות דואר אלקטרוני. הרובוט מקבל מן המשגיח (רופא, ברוב המקרים) קלט התחלתי שכולל את שעת נטילת התרופה, את מידת הנזק המרבי שעלול להיגרם אם התרופה לא תילקח, כמה זמן יידרש להתחוללות הנזק המרבי הזה, התועלת הצפויה המרבית שאפשר להפיק מנטילת התרופה הזאת וכמה זמן יידרש עד שתאבד התועלת. מתוך קלט זה מחשב הרובוט את רמות מילוי החובה או הפרתה בכל אחת משלוש החובות, ונוקט פעולות שונות בהתאם להשתנות הרמות האלה לאורך זמן. הוא מנפיק תזכורת כשרמות המילוי וההפרה של החובות מגיעות לנקודה שבה, על פי העיקרון האתי שלו, האזכור עדיף משתיקה. הרובוט מודיע למפקח רק כשהוא מגיע לנקודה שבה עלול להיגרם נזק לחולה, או שהלה עלול לאבד תועלת רבה, כתוצאה מאי-נטילת התרופה.

גרסה מלאה של רובוט אתי סיעודי לתמיכה בקשישים – אסת”י בקיצור – תזדקק אמנם לעיקרון אתי מורכב מזה שינחה את המגוון הרחב יותר של הפעולות שתבצע, אבל תישמר הגישה הכללית. במהלך סיורה במוסד הסיעודי, הרובוטית תשתמש בעיקרון הזה כדי לקבוע מתי חובה אחת מקבלת קדימות על פני חובה אחרת. יום אופייני עשוי להתנהל כך:

מוקדם בבוקר, אסת”י עומדת בפינה מחוברת לשקע החשמל. כשהסוללות שלה מתמלאות, חובת העזרה לאחרים (“עשה טוב”) גוברת על חובת התחזוקה העצמית, ואז היא מתחילה לנוע ברחבי האולם, לבקר את הדיירים ולשאול אותם אם היא יכולה לעזור להם באופן כלשהו: להביא להם שתייה, להעביר הודעה לדייר אחר וכדומה. עם קבלת המשימות האלה, הרובוטית מקצה רמות ראשוניות של מילוי או הפרה של כל אחת מן החובות שכרוכות בביצוען. דייר אחד במצוקה מבקש ממנה לקרוא לאחות. התעלמות ממצוקה של דייר פירושה אי-עמידה בחובת מניעת הנזק (“סור מרע”), והיא גוברת כעת על חובת “עשה טוב”. לכן הרובוטית מחפשת אחות כדי להודיע לה שהדייר זקוק לשירותיה. עם השלמת המשימה, חובת ה”עשה טוב” חוזרת ומקבלת עדיפות ראשונה, והיא פונה להמשיך בסבב שלה.

בעשר בבוקר מגיע הזמן להזכיר לאחד הדיירים ליטול את התרופה שלו. משימה זו, כחלק מחובת “עשה טוב”, נעשית לראשונה במעלה, ועל כן הרובוטית מחפשת את הדייר ומגישה לו את התרופה. לאחר מכן, הדיירים שקועים בצפייה בתכנית טלוויזיה – תכנית אירוח או שעשועון. מכיוון שאין עוד מטלות ממתינות לביצוע והסוללות שלה נחלשות, אסת”י מגלה שהיא הולכת ומפרה את חובת התחזוקה העצמית שלה – וחוזרת לעמדת הטעינה.

חקר האתיקה של המכונות מצוי בחיתוליו. התוצאות שלנו אמנם ראשוניות, אבל הן מעוררות את התקווה שעקרונות אתיים שמחושבים על ידי מכונות יוכלו לכוון התנהגות של רובוטים ולהפוך את יחסם לבני האדם לקביל יותר. חשוב להתקין עקרונות אתיים ברובוטים, מכיוון שאם בני האדם יחשדו שרובוטים אינטליגנטיים עלולים להתנהג באופן לא אתי, הם עלולים לשלול את קיום הרובוטים העצמאיים מכול וכול. עתידה של הבינה המלאכותית עצמה עשוי להיות מוטל על כף המאזניים.

מעניין לציין שהאתיקה של המכונות עשויה להשפיע, בסופו של דבר, על חקר האתיקה עצמו. פרספקטיבת “העולם האמיתי” של המחקר בבינה המלאכותית תוכל לזהות מה נחשב התנהגות אתית בקרב בני אדם באופן טוב יותר מאשר יוכלו לזהות אתיקנים אקדמיים באמצעות השערותיהם המופשטות. ייתכן אפילו שמכונות שאומנו כהלכה יוכלו להתנהג בדרך אתית יותר מרוב בני האדם, מכיוון שהן יהיו מסוגלות לקבל החלטות ללא משוא פנים, דבר שבני האדם אינם עושים תמיד על הצד הטוב ביותר. ייתכן אף שאינטראקציה עם רובוט אתי תעורר בנו יום אחד את הדחף להתנהג בדרך אתית יותר בעצמנו.

___________________________________________________________________________

על המחברים

מייקל אנדרסון מחזיק בתואר דוקטור מאוניברסיטת קונטיקט, והוא פרופסור למדעי המחשב באוניברסיטת הרטפורד. מתעניין כבר זה זמן רב בבינה מלאכותית.

סוזן לי אנדרסון קיבלה תואר דוקטור מאוניברסיטת קליפורניה שבלוס אנג’לס. היא פרופסור אמריטוס לפילוסופיה, עם התמחות באתיקה יישומית, באוניברסיטת קונטיקט. ב- 2005, היא ומייקל אנדרסון סייעו לארגן את הסימפוזיון הבין-לאומי הראשון בנושא אתיקה של מכונות. ספר שכתבו בנושא זה יראה אור בקרוב בהוצאת אוניברסיטת קיימברידג’.

בקיצור

רובוטים המקבלים החלטות אתיות עצמאיות, כמו הרובוטים המתוכננים לצורך סיוע לקשישים, עשויים לעמוד בפני דילמות אתיות אפילו במצבים יום-יומיים לכאורה.

דרך אחת להבטיח התנהגות אתית בקרב רובוטים המצויים באינטראקציה עם בני אדם היא לתכנת לתוכם עקרונות אתיים כלליים ולתת להם להשתמש בעקרונות האלה כדי לקבל החלטה ייחודית לכל מקרה ומקרה.

טכניקות של בינה מלאכותית יכולות להפיק את העקרונות עצמם באמצעות הפשטה לוגית של מקרים ספציפיים של התנהגות מקובלת מבחינה אתית.

המחברים נקטו גישה זו ותכנתו את הרובוט הראשון שפועל על סמך עיקרון אתי.

לקודד כללי התנהגות

רובוטים המצויים באינטראקציה עם בני אדם יצטרכו לקבל לעתים קרובות החלטות בעלות השלכות אתיות. המתכנתים אינם מסוגלים לצפות מראש כל דילמה אתית שהמכונה עשויה להיתקל בה, אך הם יכולים לספק עיקרון כוללני שיכול להנחות קבלת החלטה ייחודית לכל מקרה ומקרה. המחברים הדגימו את הגישה הזאת כשתכנתו את הרובוט נאו כך שיוכל להחליט אם להזכיר לחולה ליטול תרופה ובאיזו תדירות.

קביעת כללים

מתכננים יכולים לתכנת רובוטים עם כלל אתי, שנגזר באמצעות החלה של טכניקת בינה מלאכותית הקרויה “למידת מכונה”. המתכננים מזינים את אלגוריתם למידת המכונה במידע על ההחלטות שנחשבות אתיות במקרים נבחרים, בהתבסס על מדדים כגון מידת התועלת שתופק מן ההחלטה, מידת הנזק שביכולתה למנוע ועד כמה היא הוגנת. האלגוריתם יוצר עיקרון כללי מופשט שאפשר להחילו על מקרים חדשים. ”

החלטות, החלטות

רובוט שמסייע לקשישים יכול לדרג פעולות אפשריות על סמך עמידתן בקריטריונים האתיים, ולאחר מכן, בהתבסס על הדירוג הזה, להשתמש בעיקרון המובנה בתוכו כדי לחשב איזו פעולה תקבל את העדיפות העליונה בכל רגע נתון. לדוגמה, אפילו כשדייר אחד מבקש לאכול ואחר את השלט של הטלוויזיה, הרובוט עשוי להחליט לבצע ראשית כול פעולה אחרת, כגון להזכיר לחולה ליטול תרופה. 

כשהמדע מחקה את האמנות

הרבה לפני שמומחי האתיקה, הרובוטיקה והבינה המלאכותית החלו להתעניין בהשלכות האתיות האפשריות של התנהגותם של הרובוטים, השתעשעו כותבים ובמאים מתחום המדע הבדיוני בתסריטים שלא היו תמיד רחוקים מן המציאות. עם זאת, בשנים האחרונות האתיקה של המכונות נהייתה לשדה מחקר לגיטימי, והיא שואבת השראה, בין השאר, מכתביהם של פילוסופים בני המאה ה-18.

ועוד בנושא

IEEE Intelligent Systems. Special issue on machine ethics. July/August 2006.

A Robot in Every Home. Bill Gates in Scientific American, Vol. 296, No. 1, pages 58-65; January 2007.

Machine Ethics: Creating an Ethical Intelligent Agent. Michael Anderson and Susan Leigh Anderson in AI Magazine, Vol. 28, No. 4, pages 15-26; Winter 2007.

Moral Machines: Teaching Robots Right from Wrong. Colin Allen and Wendell Wallach. Oxford University Press, 2008.

מלחמת המכונות, פ’ וו’ סינגר, סיינטיפיק אמריקן ישראל, אוקטובר-נובמבר 2010

5 תגובות

  1. דולי ישנה בשנים האחרונות התקדמות גדולה ומהירה מאד בתחום חקר המוח וישנן קבוצות של מדענים מובילים מכל העולם שהחלו כבר הלכה למעשה לבנות סימולציות של מוח שלם ופועל על גבי מחשב. הסימולציה כוללת בתוכה את כל כללי הלמידה שידועים לנו וקיימים במוח, והתוצאה במידה והמדענים לא פיספסו שום דבר אמורה להיות בסופו של דבר מוח ממוחשב-אלקטרוני שפועל בדיוק כמו מוֹח אנושי, כולל מודעות עצמית וכולל רצונות ורגשות שלא מוכתבים לו מראש ע”י יוצרי התוכנה:

    http://www.youtube.com/watch?v=L0AR1cUlhTk

    http://www.youtube.com/watch?v=l4ZbwRxhRYw

    הרובוטים לא ימשיכו לשרת אותנו לעד.

  2. יריב – כל המושגים של שליטה ואדנות הם תוצרים אבולוציוניים. לרובוטיים לא יהיה ‘רצון’ שיגרום להם לרצות להשתלט על העולם, אלא אם כן נתכנן אותם כך. אם נכתוב להם בתוכנה את החוקים של אסימוב אז הם ישרתו בני אדם.
    אם נכתוב שום חוקים הם לא יעשו כלום. כמו מחשבון, שיכול לעשות חישובים יותר מבן אדם, אבל זה לא ‘מעניין’ אותו, אלא אם כן שואלים אותו.
    אם מדען מטורף יבנה מחשב שירצה להשתלט על העולם, אז אנחנו בבעיה… אבל לא נראה לי שזה יקרה…

  3. אחרי קריאת החוקים שכתב אייזק אסימוב קשה לי להתעלם מהדמיון לעשרת הדיברות שלנו..אולי גם אנחנו רובוטים שקיבלו חוקים בעבר הרחוק מיוצרם האלמוני? תודו שקיים דמיון מסוים בין הדברים..

  4. אני חושב שזה דיי מגוחך לחשוב שרובוטים אשר בתוך כמה עשורים רמת האינטיליגנציה שלהם תעלה כנראה פי מיליונים אם לא יותר על זו של בני האדם ימשיכו לשרת אותנו וימשיכו למלא אחר פקודותינו. זה כמו שקבוצת קופים תצפה שבני האדם ישרתו אותם וימלאו את פקודותיהם.

    התקופה בה רובוטים ישרתו אותנו תהיה קצרה מאד.

    הסינגולריות קרבה.

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זה עושה שימוש באקיזמט למניעת הודעות זבל. לחצו כאן כדי ללמוד איך נתוני התגובה שלכם מעובדים.