סיקור מקיף

שלושת גלי הבינה המלאכותית שיעצבו את העתיד

סרטון חדש של דארפ”א מנסה להסביר את המציאות בנוגע לבינה המלאכותית, ולהסביר מהן יכולותיה כיום – ומה היא תוכל לעשות בעתיד. המגזין המקוון Motherboard הגדיר את הסרטון כ- “מנתץ את ההייפ” שמסביב לבינה המלאכותית. האם הוא באמת עושה זאת?

איור: PIXABAY.COM
איור: PIXABAY.COM

בחודשים האחרונים כתבתי בבלוג הרבה על בינה מלאכותית ויכולותיה, שלא לדבר על כל הכתיבה הקודמת שלי בספרים כמו “המדריך לעתיד” ו- “השולטים לעתיד” (שיצא לאור באמצע מרץ). בכתבים אלו הבטחתי שהעתיד צופן לנו גדולות ונצורות: בינה מלאכותית שמנתחת רגשות אנושיים, שמפענחת משמעויות וניואנסים חברתיים, שמאפילה על רופאים ועורכי-דין ביכולותיה ואפילו מייתרת חלק גדול מהמטלות שבני-אדם מבצעים כיום.

אני עדיין עומד מאחורי כל התחזיות הללו, אבל כפי שכתבתי – אלו תחזיות לטווח הארוך. ולכן נשאלת השאלה, מהו המצב בשטח כיום. עכשיו. בהווה. כדי לענות על השאלה, יצא לאחרונה סרטון של דרפ”א – סוכנות הביטחון המתקדמת בעולם, שעומדת מאחורי יצירת האינטרנט, רובוטים בעלי רגליים, שווקי תחזיות, מערכת המיקום הגלובלית (או כפי שאנו מכירים אותה בקיצור בשמה כיום – GPSS), ועוד ועוד. מרגע שדרפ”א הוקמה, היא התמקדה בטכנולוגיות ובמיזמים פורצי-דרך, כך שאין פלא שכיום הסוכנות מרכזת מאמצי מחקר גם בתחום הבינה המלאכותית.

בימים האחרונים שחרר המשרד לחדשנות מידע בדרפ”א סרטון חדש, בו מנסה מנהל המשרד להסביר את המציאות בנוגע לבינה המלאכותית, ולהסביר מהן יכולותיה כיום – ומה היא תוכל לעשות בעתיד. המגזין המקוון Motherboard הגדיר את הסרטון כ- “מנתץ את ההייפ” שמסביב לבינה המלאכותית. האם הוא באמת עושה זאת? על כך תוכלו להחליט עד סוף הרשומה.

הסרטון באורך 16 דקות ושווה צפייה, אבל אם אתם מהאנשים שמעדיפים לקרוא, הרשיתי לעצמי לתמצת את הסרטון – ואת מחשבותיי על הנקודות שבו – ברשומה הנוכחית. כפי שדרפ”א עושה בסרטון, נחלק את מערכות הבינה המלאכותית לשלושה סוגים, שכל אחד מהם הגיע אחרי הקודם לו. למעשה, שלושה גלים, שתוצרי כל אחד מהם בעלי יכולות מתקדמות יותר מתוצרי הגל הקודם.

הגל הראשון: ידע מתוכנת

בגל הראשון של הבינה המלאכותית, מומחים תכנתו את האלגוריתמים ואת המחשבים לפי הידע שהיה ברשותם, ולפי החוקים וכללי ההיגיון שפוענחו וגובשו במהלך ההיסטוריה האנושית. בדרך זו, למשל, תוכנתו אלגוריתמים שהצליחו לשחק שחמט כנגד בני-אדם, או תוכנות לתיאום משלוחים. לא מוגזם לומר שרוב המוצרים הממוחשבים בהם אנו משתמשים כיום נסמכים על בינה מלאכותית מסוג זה: ווינדוס, האפליקציות בטלפון החכם שלנו, ואפילו הרמזורים להולכי הרגל בכבישים, שהאור בהם מתחלף לירוק כשאנו לוחצים על כפתור.

דוגמה טובה לדרך בה בינה מלאכותית מסוג זה פועלת, מגיעה מחברת מודריה. ממשלת הולנד, המחויבת לשלם עבור הייצוג המשפטי של בני-זוג ברוב מקרי הגירושין, הבינה שהיא עלולה לפשוט את הרגל אם שיעור הגירושין בחברה ימשיך לעלות. מכיוון שכך, הממשלה שכרה את חברת מודריה – שמתמחה ביצירת מערכות צדק חכמות – כדי לבנות כלי שמסייע לבעל ולאשה להתגרש מבלי צורך בעורך דין.

מודריה פעלה בהתאם למגבלות הגל הראשון של הבינה המלאכותית. היא תמצתה את הידע של עורכי-דין ומומחים בתחום הגירושין, ויצרה פלטפורמה מקוונת בה נשאלים בני-הזוג סדרה של שאלות. שאלות לדוגמה כוללות התייחסות לסוגיית המשמורת על הילדים, לחלוקת הרכוש בין המתגרשים, ועוד. כשבני-הזוג מסיימים לענות על השאלות, המערכת מזהה באופן אוטומטי את איזורי ההסכמה ואי-ההסכמה ביניהם, ומסייעת להכווין את הדיונים ביניהם באופן שיביא למתן מענה מיטבי.

המערכות בגל הראשון של הבינה המלאכותית – זה בו מומחים מסבירים למחשב כיצד לפעול – נוטות להתבסס על כללים הגיוניים וברורים. המערכות בוחנות מספר מרכיבים חשובים של כל מצב חדש בו הן נתקלות, ומגיעות למסקנה מה הפעולה המתאימה ביותר בכל מקרה. אבל מערכות אלו נתקלות בקשיים ניכרים כשהן נדרשות לבחון את העולם שמחוץ למחשב ולהבין מה בדיוק מתרחש בו. הן גם מתקשות בלמידה או בהפשטה – בנטילת ידע שגיבשו, ויישומו מחדש באופן שונה.

אם לסכם, מערכות אלו יכולות ליישם כללי היגיון פשוטים עבור בעיות המוגדרות היטב, אבל אינן מסוגלות ללמוד, ומתקשות מאד להתמודד עם מצבים של אי-ודאות.

כמובן, אתם עשויים לנחור עתה בזלזול ולטעון שזו אינה “בינה מלאכותית” מהסוג עליה חושבים רוב האנשים. אלא שההגדרות של האדם ברחוב בנוגע לבינה מלאכותית משתנות לאורך השנים. אם הייתי שואל אתכם לפני שלושים שנים האם “ווייז” היא בינה מלאכותית, הייתם אומרים לי שהתשובה חיובית במפורש. אחרי הכל, ווייז מסוגלת לתכנן עבורכם נתיב מיטבי למטרה, ולהסביר לכם בקול רם כיצד לפנות בכל צומת בכביש. ואף על פי כן, האדם ברחוב מתייחס כיום ליכולותיה של ווייז כמובנות מאליהן, וטוען שבינה מלאכותית ‘אמיתית’ אמורה להיות מסוגלת להרבה יותר: לנווט גם את הרכב עצמו בכביש, לפתח פילוסופיה מוסרית שמתחשבת ברצונותיו של הנוסע, ולהכין לו קפה בו-זמנית. ובכן, נחשו מה – גם מוצרים ‘פרימיטיביים’ כמו מערכת הצדק של מודריה, או ווייז, מבוססים על בינה מלאכותית, ועל עבודה מאומצת רבה בתחום. מערכות בינה מלאכותית המתבססות על הגל הראשון אחראיות למעשה על כמעט כל המוצרים הממוחשבים בהם השתמשנו בשני העשורים האחרונים.

הגל השני: למידה סטטיסטית

בשנת 2004 פתחה דרפ”א לראשונה את תחרות הנהיגה האוטונומית. במסגרת התחרות הוצע פרס של מיליון דולרים לקבוצה שתצליח לפתח רכב ללא-נהג שיוכל להשלים מסלול באורך 240 קילומטרים. הרכבים נסמכו על בינה מלאכותית מהגל הראשון – כלומר, מבוססת חוקים שהוגדרו על-ידי מומחים – ותוך זמן קצר המחישו את מגבלות השיטה. הרכבים התקשו במיוחד לפענח את התמונות והווידאו ולהסיק מתוכם מה עליהם לעשות. הם לא יכלו להבדיל היטב בין צורות כהות בתמונות, למשל, ולהבין האם מדובר בצל, בסלע, בחפץ במרחק רב או קצר, וכיצד עליהם לפעול. לא מפתיע לגלות שחלק מהרכבים ‘פחדו’ אפילו מהצל של עצמם, או שדמיינו מכשולים בכביש פתוח.

אף אחת מהקבוצות לא הצליחה להשלים את המסלול עד סופו – ולמעשה, הרכב המוצלח ביותר גמע רק 11.9 קילומטרים. זה היה כישלון מהדהד – בדיוק מהסוג שדרפ”א אוהבת לממן, בתקווה שהלקחים והתובנות שיופקו ממנו יביאו ליצירת מערכות מתקדמות יותר.

וזה בדיוק מה שקרה, שנה אחת לאחר מכן, כשדרפ”א חזרה על התחרות – והפעם, חמש קבוצות הגיעו לסוף המסלול בהצלחה, כשהן נסמכות על הגל השני של הבינה המלאכותית: למידה סטטיסטית. מנהל הקבוצה המנצחת, אגב, נחטף כמעט מיד על-ידי גוגל, ועמד מאחורי פיתוח הרכב האוטונומי כפי שאנו מכירים אותו כיום.

הגל השני של בינה מלאכותית מתבסס על למידה סטטיסטית, והוא זה שמאפשר לטלפון שלכם להבין את קולכם, או לזהות פנים של אינדיבידואלים בתמונות. בגל זה, המהנדסים אינם טורחים לגבש כללים מדויקים, אלא מפתחים מודלים סטטיסטיים עבור תחום מסוים של בעיה, ואז מאמנים את המודלים הללו על דוגמאות רבות ושונות, כדי לעדן ולשפר את הדיוק שלהן.

מערכות למידה סטטיסטית מוצלחות במיוחד בהבנת העולם שמסביבן: הן יכולות להבדיל בין אדם אחד למשנהו, או בין הברה להברה. הן מסוגלות גם ללמוד ולהתאים את עצמן למצבים שונים באמצעות אימון הולם. עם זאת, בניגוד למערכות מהגל הראשון, הן מוגבלות דווקא ביכולות הלוגיות שלהן – הן אינן נסמכות על כללים מדויקים, אלא “על מה שעובד מספיק טוב, מספיק מהפעמים”. הן גם אינן מצליחות להעביר ידע מתחום אחד למשנהו באופן יעיל.

בקטגוריה זו נכללות רשתות העצבים המלאכותיות בהן אנו תולים תקוות גדולות כל-כך (ראו כאן). רשתות העצבים המלאכותיות מבוססות על שכבות חישוביות, שבכל אחת מהן מתבצעת פעולה אחרת פשוטה יחסית של עיבוד המידע, ותוצאותיה מועברות לשכבה הבאה לעיבוד נוסף. באמצעות אימון של הרשתות הללו ושל כל אחת מהשכבות, ניתן ‘לאלף’ אותן להפיק את התוצאות הנכונות ביותר. לעתים מלאכת האימון והאילוף דורשת מהרשתות לחזור על ניתוח המידע עשרות-אלפים פעמים, כדי להגיע לשיפור קטן נוסף. אבל בסופו של דבר, דרך זו מצליחה לספק תוצאות מרשימות.

רשתות עצבים מלאכותיות מצליחות להגיע לרמת זיהוי פנים שעולה על זו של בני-אדם, מבדילות בין סוגים שונים של חיות ועצמים בתמונות, שולטות בתנועתם של רכבים אוטונומיים ורחפנים, מתמללות דיבור אנושי ברמה שעולה על זו של טובי המתמללים האנושיים, ומגיעות להישגים מרשימים יותר ויותר גם בתחום התרגום. ההצלחות בתחום משאירות את טובי המומחים לבינה מלאכותית בפה פעור.

למרות כל ההצלחות האלו, אנו רואים שרשתות העצבים המלאכותיות מצליחות במשימות שניתנות להן, אך אינן מנסות להבין או לפענח את הכללים הלוגיים שמאחורי פעולות הניתוח שהן מבצעות. מבחינה זו הן דומות למוח שלנו: אנו יכולים להשליך כדור באוויר ולנבא מראש היכן הוא עומד ליפול, גם מבלי שנחשב את משוואות התנועה הפורמליות של ניוטון – או שנהיה מודעים אפילו לקיומן.

תאמרו עכשיו שאין בכך בעיה אמיתית? שגם אם איננו מסוגלים לחשב את משוואות התנועה של ניוטון, אנו עדיין מגיעים לתוצאות ‘טובות מספיק’? ובכן, מיקרוסופט עשויה שלא להסכים עמכם בנקודה זו. החברה שחררה לרשת החברתית בוט – כלומר, אלגוריתם שנועד לחקות כתיבה אנושית ולהגיב לבני-אדם – שכמעט בוודאות מבוסס על רשתות עצבים מלאכותיות. האלגוריתם, שכונה ‘טאי’, נועד לחקות צעירה אמריקנית בת 19, ולשוחח עם הצעירים בשפתם. הצעירים זינקו על האתגר, והחלו לשלוח לטאי הודעות מאתגרות, בלשון המעטה. הם סיפרו לה על היטלר והצלחותיו הגדולות, בישרו לה שנפילת מגדלי התאומים בניו-יורק הונדסה על-ידי גורמים פנימיים בממשל האמריקני, ועדכנו אותה לגבי תכונותיהם השליליות של מהגרים. וכך, תוך שעות ספורות, טאי החלה לספק תשובות המבוססות על מה שלמדה מהציבור, והסכימה שהיטלר פעל כשורה.

הציוץ הפרובוקטיבי של טאי. מתוך טוויטר.
הציוץ של טאי. מתוך טוויטר.

זו הייתה הנקודה בה מהנדסי מיקרוסופט ניתקו את טאי מהרשת.

הודעתה האחרונה של טאי הייתה שהיא לוקחת פסק זמן כדי “לעכל הכל”. עד כמה שאנו יודעים, היא עדיין מעכלת.

פרשיה זו חושפת את אתגר הסיבתיות. אם במערכות מהגל הראשון יכולנו לחזות מראש היטב כיצד יפעלו בנסיבות מסוימות, הרי שבמערכות מהגל השני איננו מסוגלים כבר להתחקות באופן מדויק אחר הסיבתיות – אחר הדרך המדויקת בה קלט הופך לפלט, ומידע מתורגם להחלטה.

כל זה לא בא לומר שאין תועלת ברשתות העצבים המלאכותיות. כפי שכתבתי, הן מגיעות לתוצאות מרשימות יותר מכל מערכת שהומצאה לפניהן בתחומים כמו עיבוד ראייה, תמלול ותרגום דיבור אנושי ועוד. אלא שברור שכדי שהבינה המלאכותית שנפתח לא תהלל את שמו של היטלר, היא חייבת להשתפר. עלינו לעבור לדור הבא – לגל השלישי (והעתידי) של הבינות המלאכותיות.

הגל השלישי: התאמה לפי הקשר

בגל השלישי, המערכות עצמן יוכלו לגבש מודלים שיסבירו כיצד העולם פועל. במילים אחרות, הן יגלו בעצמן את כללי ההיגיון הבסיסיים שלפיהם הן יפעלו.

נסביר באמצעות דוגמה. נניח שמערכת עצבים מלאכותית מהגל השני בוחנת את התמונה הבאה, ומגיעה למסקנה שמדובר בפרה. איך היא מסבירה את עצמה?

מערכות מהגל השני אינן יכולות באמת לנמק את החלטותיהן – לא יותר מכפי שילד היה יכול להסביר את משוואות התנועה של ניוטון מתוך הבנת התנועה של כדור באוויר. הן יכולות רק להגיד לנו ש- “זוהי התמונה שהתקבלה, ולאחר כל החישובים שערכתי, יש הסתברות של 87 אחוזים שמדובר בפרה”.

מערכות מהגל השלישי אמורות להיות מסוגלות לנמק גם את החלטותיהן. בדוגמת הפרה, המערכת תוכל להסביר שמכיוון שמדובר בעצם בעל ארבע רגליים יש סיכוי גבוה יותר שמדובר בבעל-חיים. מכיוון ששטח הפנים שלו לבן עם כתמים שחורים, יש סיכוי גבוה יותר שמדובר בפרה (או דלמטי). מכיוון שיש לו עטינים וקרניים, הסיכוי שמדובר בפרה גדל עוד יותר בהשוואה לשאר האפשרויות, ולכן זו תהיה התשובה הסופית שתוצג למשתמש, ביחד עם פירוט של כל הנימוקים שהובילו אליה.

פרה. מערכות מהגל השלישי יכולות להסביר שיש סבירות גבוהה שמדובר בפרה מכיוון שיש לה ארבע רגליים, שטח פנים לבן עם כתמים שחורים, עטינים וקרניים. מקור: Keith Weller/USDA.
פרה. מערכות מהגל השלישי יכולות להסביר שיש סבירות גבוהה שמדובר בפרה מכיוון שיש לה ארבע רגליים, שטח פנים לבן עם כתמים שחורים, עטינים וקרניים. מקור: Keith Weller/USDA.

מערכות מהגל השלישי יוכלו גם להסתמך על מודלים שמשלבים תוכן והבנה ממספר מקורות שונים, כדי להגיע למסקנה סופית ומנומקת. הן יוכלו, למשל, לבחון כתיבה אנושית בהסתמכות על מודלים שמתארים את תנועת כף היד במרחב, ובדרך זו להגיע למסקנה בנוגע לכתוב. הן יוכלו גם לאמן את עצמן – כפי שעשתה מערכת אלפא-גו כאשר שיחקה נגד עצמה מיליון משחקי גו, כדי לזהות את הכללים הלוגיים המתאימים ביותר למשחק ברמה גבוהה. בדרך זו היא הייתה יכולה להסביר חלק מהמהלכים בהם נקטה, או לפחות לציין את ההסתברות שאדם היה נוקט במהלך שכזה במצב דומה.

מערכות הגל השלישי יוכלו לבחון כל מצב ממספר נקודות מבט שונות, להבין את משמעותו הרחבה יותר ולגבש תגובה הולמת. מעבר לכך, ייתכן בהחלט שהן יצליחו גם להגיע לרמה של חשיבה מופשטת – אבל כפי שמציין מנהל המשרד לחדשנות המידע בדרפ”א – “יש עוד המון עבודה שצריך לעשות כדי שנוכל לבנות את המערכות האלו”.

מערכות הגל השלישי הן אלו שטומנות בחובן את ההבטחה הגדולה ביותר לעתיד. מערכות הגל השלישי יוכלו לגבש תובנות לגבי הבריאות של כל אדם, באמצעות הסתמכות על מקורות המידע הרבים והשונים שיגיעו מהתיק הרפואי שלו, מהבית החכם בו הוא גר, מהמחשוב הלביש שהוא עונד ומהחיפושים שהוא עורך באינטרנט. מערכות הגל השלישי יוכלו לנתח מצבים מהחיים תוך שימוש גם בכלי חשיבה מופשטים, ויגיעו לתובנות ולמסקנות דומות לאלו שבני-אדם היו מגיעים אליהן.  מערכות הגל השלישי יוכלו אפילו לתכנת את עצמן – לשפר פעם אחר פעם את המודלים שבאמצעותם הן מגיעות לתובנות.

וזהו. עד לכאן מגיעה ידיעת דרפ”א בנוגע למערכות הבינה המלאכותית של ההווה והעתיד.

מה המשמעויות?

הסרטון מסביר מצוין את ההבדלים בין מערכות הבינה המלאכותית, אבל בניגוד למובטח בחלק מהאתרים שסיקרו אותו, הוא אינו “מנתץ את ההייפ” שאופף את הבינה המלאכותית. למעשה, הוא רק מחזק ומספק ביסוס לרעיונות ולחששות של רבים מההוגים בתחום. דרפ”א מבהירה שבכל הנוגע לבינה מלאכותית שעתידה “להשתלט על העולם” – אנחנו עדיין לא שם. אבל זה ברור. אף אחד לא טען שהבינה המלאכותית מתקדמת מספיק כיום כדי לעשות את כל מה שסופרי המדע הבדיוני ורבים מהעתידנים (ואני ביניהם) מצפים שתעשה בעוד כמה עשורים: לפתח מוטיבציה משל עצמה, לקבל החלטות מוסריות, לתפוס את משרותיהם של רוב העובדים האנושיים, ואפילו לפתח את הדור הבא של הבינה המלאכותית.

אבל הגל השלישי עומד לתת לה חלק לא-מבוטל מהיכולות הללו.

כאשר מערכות הגל השלישי מסוגלות לפענח בעצמן את המודלים החדשים שישפרו את פעולתן, הרי שהן יכולות הלכה למעשה לתכנת את הדור הבא של עצמן. כשהן יכולות לפקח על פעילותן באמצעות הבנת הקונטקסט – המשמעות וההשלכות של פעולותיהן – הן מסוגלות להחליף חלק גדול מהעובדים האנושיים, ואולי את כולם. וכשהן יכולות לשנות את המודלים באמצעותן הן מעריכות את משמעויותיהן של פעולות מסוימות, הרי שהמשמעות היא שהן יכולות גם לחשב מחדש את המוטיבציה של עצמן.

כל הדברים האלו לא יתרחשו בשנים הקרובות, ובוודאי לא יגיעו לכדי מימוש מלא בעשרים השנים הקרובות. כאמור, איש אינו טוען אחרת. הטענה העיקרית כיום מצד חוקרים ואנשי הגות המודאגים לגבי עתיד הבינה המלאכותית – סטיבן הוקינג, ניק בוסטרום, אלון מאסק ואחרים – היא שאנו צריכים להתחיל לחשוב כבר עכשיו איך להטמיע אמצעי בקרה בבינות המלאכותיות של הגל השלישי, מהסוג שיתחיל להופיע בכל מקום בעוד עשור או שניים. בהתחשב ביכולותיהן של הבינות המלאכותיות הללו, זו אינה נראית דרישה בלתי-הגיונית.

אבל עבורי השאלה המעניינת באמת, היא איך ייראה הגל הרביעי: זה שאפילו דרפ”א – המקום שמרכז את כל החוקרים שמסתכלים קדימה הרבה מעבר לכולם – לא מדברים עליו עדיין. האם מנגנון קבלת ההחלטות של מערכות הגל הרביעי יתבסס כבר על חיקוי מדויק של המוח האנושי? או אולי הן יסתמכו על מנגנוני קבלת החלטות שאיננו יכולים עדיין להבין בכלל, ויפותחו על-ידי הבינות המלאכותיות של הגל השלישי?

כל הנושאים האלו אינם מוזכרים בסרטון, וכנראה שבצדק. הסרטון נועד להסביר בקצרה ובקלילות את דרכי הפעולה של הבינה המלאכותית בה אנו עושים שימוש כיום, ונעשה שימוש בשנים הקרובות. הוא לא נועד לחקור את העתיד ואת ההשלכות של המערכות האלו. אנחנו אלו שצריכים לחשוב על הנושאים הללו, לדרבן לחקור אותם ולתהות על קנקנם עוד לפני שהם מתממשים.

זוהי העבודה שלנו, לפחות לעת עתה.

לפני שמערכות הגל השלישי יעברו לבצע גם אותה.

7 תגובות

  1. מה שדרפ”א כנראה לא מבינים הוא שהם יוצרים אורגניזם מלאכותי ש”קורא את התסריט, אבל לא צופה בהצגה” !
    אורגניזם כזה, יוכל להבין את העולם רק כאוסף של אינטראקציות בין “נתונים” ולא יבינו את המשמעות שעומדת מאחוריי האינטראקציות הללו.

  2. ראוי לציין שהגל השני שמדובר עליו עוד קיים משנות השמונים (או קודם) רק לא היה כל כך פופולארי כתוצאה משני גורמים עיקריים: המחשבים שלא היו חזקים מספיק וחוסר בכמות המידע הנדרשת ללימוד (רשתות נוירונים).
    הגל השלישי נשמע כמו שילוב חכם ומתבקש של הראשון והשני יחד.
    זה מדהים אבל כל הטכנולוגיה שנקראת AI עד הדור השלישי שמתואר ואפילו הלאה סה”כ מתבססת על התקדמות טבעית של כוח המחשוב והאמצעים לאחסון המידע (חומרה) ולא על שום פריצת דרך בתחום של התוכנה באופן שיודע לחקות מחשבה אנושית. אנחנו לא קרובים יותר היום ממה שהיינו לפני 50 שנה ליצירה של מחשב שבאמת חושב.
    וייז הוא דוגמה לדור ראשון ודי פשוט מבחינת אלגוריתם שאפילו לא מסוגל להתיחס לעלות\תועלת של כבישי אגרה ומסוגל לתעדף מסלול דרך כביש אגרה (או יותר מאחד) אפילו אם זה יחסוך רק כמה שניות.
    כל המונח AI מטעה מיסודו שכן אין באף אחד מהדורות המתוארים ולו שמץ של אינטיליגנציה מלאכותית או אמיתית.

  3. אבי
    “”בינה מלאכותית” תהיה כשהחלטות המחשב יהיו תוצאה של מטרות משלו, שיווצרו באופן אקראי “במוחו””
    גם לבני האדם יש מטרות שלשמם נוצרו. אבל הם, בניגוד למכונות, יכולים לבחור במטרות אחרות.
    “וכשלמחשב יהיו “רגשות” שיושפעו בצורה אקראית מתהליכים אבולוציוניים וצרכים קיומיים כמו שיש לאדם.”
    איך רגשות מצביעות על בינה?

  4. כל השלבים שתוארו אינם מתארים בינה,אלא בסה”כ מתארים מחשבים משוכללים יותר ואלגוריתימים יותר משוכללים ויותר מורכבים.
    זאת עדיין לא ממש “בינה”.
    “בינה מלאכותית” תהיה כשהחלטות המחשב יהיו תוצאה של מטרות משלו, שיווצרו באופן אקראי “במוחו” וכשלמחשב יהיו “רגשות” שיושפעו בצורה אקראית מתהליכים אבולוציוניים וצרכים קיומיים כמו שיש לאדם.

  5. יש אלגוריתמים פרט לרשתות נוירונים שהתוצאה שלהם למעשה AI למרות שהדרך שונה. למשל שימוש שהתחיל לפני כ20 שנה ב fuzzy logic מבוסס על התורה המתמטית של לוטפי זאדה. דוגמה דומה לשלך היא פתרון הבעייה שילד יכול לשמור מקל אנכי עומד על אצבעו לאחר מספר דקות של אימון. המקל יכול ליפול לכל כיוון וכשהוא נופל משתנים המיקום המהירות והתאוצה בשלושה מימדים לכן כדי שרובוט יחזיק מקל על אצבעו הוא צריך לפתור סטים של משוואות דיפרנציאליות בשלשה מימדים במהירות גבוהה ועד שהוא היה מגיע לפתרון המוט היה נופל. אז איך ילד קטן מצליח? במקום משוואות התנועה הוא חושב נופל קצת לכיוון מסויים אזיז קצת בכיוון ההפוך. נופל מהר אזיז מהר וכדומה. הלוגיקה של הילד הומרה למתמטיקה המשמשת היום במערכות בקרה במקום המתמטיקה הקלאסית. זה מאפשר פיתרון בעיות בקרה לא מוגדרות לגמרי במשוואות וגם במהירות מדהימה. משמש בייצוב תמונה במצלמות, בקרת סימולטורים לטיסהוטילים,,מכונות כביסה ומדיחי כלים שמחליטים לבד כמה סבון לצרוך וכמה מים ואיך לעבוד (לדוגמה שטיפה ראשונה עוברת דרך תא פוטואלקטרי הנותן את עצמת הלכלוך, נפח המים שנוסף מחישן ספיקה לעומת משקל התוף נותן את כמות הכביסה וסוג הבד והלוגיקה למשל אם כביסה מלוכלכת בינוני וכמות גדולה וכביסה לא עדינה אז סבון בינוני זמן ארוך וטמפרטורה גבוהה, כמו שאדם היה מחליט). לגבי המכונית האוטונומית היא לא מושלמת אבל יש מערכות כמו שואב אבק של ניטו שמתקרבים לזה (השואב מסתכל מסביבו לומד את העצמים בבית ולפי זה מתכנן מסלול אידאלי לנקיון, אם משהו זז בינתיים כמו כיסא או כלב מתקן בהתאם) ומכסחות דשא חכמות על אותו רעיון.פעם מחשב כיס עם 4 פעולות חשבון היה AI כי אדם לא היה מסוגל לבצע אותם במהירות ודיוק, העתיד של Ai הופך לעבר במהירות מטורפת כי משלבים טכנולוגיות במקביל לגישה מהירה לכמויות ענק של ידע שנצבר. האם זה טוב? לא בטוח. מי שיחזיק בטכנולוגיה המתקדמת יותר ישתמש בה קרוב לודאי להשתלט על אחרים כפי שקרה לאורך ההיסטוריה האנושית.

  6. רובוטריקים מבוסס על סיפור אמיתי? 🙂
    נראה שבתרחיש שבו תרבות (אפילו חייזרית) יוצרת AI שמגיע לסינגולריות, הזן היוצר נמחק (בסופו של דבר, אפילו אם לא במלחמה, אלא פשוט ע”י רבייה שלילית כי למה צריך נשים/גברים כשיש אנדרואידים……והמבין יבין) ואז כל מה שנשאר זה הרובוטים שהם יצרו והדורות הבאים שהם כבר נוצרים בעצמם (שהם עלולים בהחלט להילחם אחד בשני מסיבות כלשהן, כמו למשל מלחמה על משאבי האנרגיה). בקיצור, הרובוטריקים זה תרחיש די סביר בעתיד.

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זה עושה שימוש באקיזמט למניעת הודעות זבל. לחצו כאן כדי ללמוד איך נתוני התגובה שלכם מעובדים.