סיקור מקיף

מבחן טיורינג: מחשב הצליח לשטות בשליש מהמשוחחים עימו בצ’ט כי הם מדברים עם ילד בן 13

מפתחיו ועורכי התחרות בלונדון: עברנו את מבחן טיורינג, בניסוי שבו היו הרבה שיחות בלתי תלויות

צ'ט - האם בצד השני יש אדם או מכונה? איור: shutterstock
צ’ט – האם בצד השני יש אדם או מכונה? איור: shutterstock

אוניברסיטת רידינג הבריטית מדווחת על פריצת דרך בתחום התבונה המלאכותית, כאשר הושג ניצחון של מחשב במבחן טיורינג, אותו מבחן שהציע אלן טיורינג, מאבות תחום מדעי המחשב. הם השתמשו במחשב על כדי ליצור דמות בשם יוג’ין גוטסמן, ילד בן 13, שהצליח לשכנע 33% מהשופטים האנושיים כי הוא אדם.
המבחן התנהל בחסות החברה המלכותית בלונדון ביום ראשון השבוע.
יוג’ין, תוכנת מחשב המדמה ילד בן 13 פותחה בסנט פטרסבורג, רוסיה. צוות הפיתוח כלל את יוצרו של יוג’ין, ולדימיר וסלוב, שנולד ברוסיה וכיום חי בארה”ב ויבגני דמקצ’נקו, אוקראיני שכיום חי ברוסיה.

מבחן טיורינג מבוסס על משחק השאלות והתשובות “האם מכונות יכולות לחשוב?” שחיבר אלן טיורינג. הניסוי חקר האם בני אדם יכולים לזהות אם הם מדברים עם מכונא או עם אדם אחר. האירוע התרחש במלאות 60 שנה להתאבדותו של טיורינג וחצי שנה לאחר שקיבל בדיעבד מחילה על האשמתו בהומוסקסואליות, דבר שהיה בתקופתו עבירה פלילית.

לפי חוקי המשחק, אם המשתתפים האנושיים טועים וחושבים על תשובות המחשב כאילו שאדם סיפק אותם בלמעלה מ-30% מהזמן בסדרת צ’טים, נחשב הדבר לנצחון של המחשב במבחן טיורינג. עד כה אף מחשב לא השיג נתון זה עד כה. יוג’ין הצליח לשכנע 33% מהשופטים האנושיים כי הוא אדם.

פרופ’ קווין וורויק, פרופ’ אורח באוניברסיטת רידינג וסגן נשיא למחקר באוניברסיטת קובנטרי, אמר: “בתחום הבתונה המלאכותית אין עוד אבני דרך אייקוניים ושנויים במחלוקת כמו מבחן טיורינג, כאשר מחשב משכנע מספר מספיק של אנשים כי הוא אדם. אך מתאים השתחרות כזו תתקיים תחת חסות החברה המלכותית בלונדון, ביתו של המדע הבריטי ומקום התרחשות פריצות דרך רבות בידע האנושי במהלך המאות.

“יש שיטענו כי המבחן כבר נחצה מזמן. תחרויות דומות, שנשאו את השם מבחן טירוינג התקיימו במספר מקומות בעולם ואולם מבחן זה כלל את יכולת ההשוואה הבו זמנית הגדולה ביותר מאי פעם, כאשר בוצעו שיחות מקבילות ובלתי תלויות. מבחן טירוינג אמיתי אינו כול סדרה של שאלות או נושאים שתוכננו מראש, לפיכך אנו גאים להכריז כי זו הפעם הראשונה שמחשב עבר באופן רשמי את מבחן טיורינג.”
הוא מוסיף כי החשש הגדול הוא שמחשבים שישטו באנשים, עלולים לשמש לביצוע פשעי מחשב. “חשוב לחקור כיצד תקשורת מקוונת בזמן אמת עלולה להשפיע על אנשים בדרך כזו שיחשבו שמשהו אמיתי, כאשר בפועל הוא לא.”

ומוסיף וסלוב: ” אני רוצה להודות לכל חברי הצוות שעבדו על פיתוח יוג’ין גוטסמן. אנו נרגשים מהתוצאות, זהו הישג מרשים ואנו מקווים כי יעורר עניין בתבונה מלכותית ורובוטים של צ’אטים. יוג’ין ‘נולד’ בשנת 2001. הרעיון העיקרי הוא שהוא יכול לטעון שהוא יודע הכל, אך גילו מעיד על כך שהוא לא באמת יודע הכל. בילינו זמן רב בפיתוח אופיו בדרך אמינה. השנה למשל שיפרנו את ‘בקר הדיאלוגים’ שהופך את השיחה דומה יותר לשיחה בין אנשים בהשוואה לתוכנה שרק עונה על שאלות. אנו ממשיכים בתוכנית להחכים את יוג’ין ונמשיך לעבוד ולשפר את מה שאנו מכנים ‘לוגיקה של שיחה’.”

ומוסיף וורוויק, “זמן קצר לפני מותו ב-7 ביוני 1954, טיורינג, בעצמו עמית החבר ההמלכותית, צפה מתי בערך יעבור מחשב את המבחן, אך הוא בוודאי לא יכול היה לדמין כיצד יראו המחשבים של היום, והרשתות המחברים ביניהם.”

עוד בנושא באתר הידען:

להודעה של החוקרים

8 תגובות

  1. חיים
    תודה! קראתי את המאמר. בגדול, אני חושב שאנחנו מסכימים, אבל לא בפרטים. למשל – אמרת שמותר החיה מהמחשב. אני חושב שזו לא השוואה נכונה. אם אתה רוצה להשוות – או שתנתק את המוח ותשכון אותו בצנצנת מתאימה, או שתכון את המחשב בתוך רובוט מתאים.

    נקודה נוספת: מחשב מורכב משני חלקים – חומרה ותוכנה. המוח שלנו מורכב מחלקים מסוג אחד – עצבים (אני יודע שזה רחוק מלהיות נכון, אבל אני רוצה לפשט). כל עצב הוא מחשב קטן, כולל קלט, עיובד, זכרון ופלט. לדעתי, ההבדל הזה הוא מהותי ביותר, ושקול להבדל בין מכונת מצבים סופית למכונת טיורינג. בפרט – אני חושב שמוח האדם חזק ממכונת טיורינג ולכן אין אפשרות לדמות אותו במחשב.

    עוד נקודה אחת קצרה (יש לי המון נקודות….): המוח שלנו התפתח באבולוציה למטרה מסויימת. מחשבים מתוכננים ע”י אנשים, למטרות שונות. אני חושב שגם זה הבדל מהותי בין 2 הדברים.

  2. חיים
    התוכנות שיכנעו לא מעט אנשים שהם אנושיים. אל תבין אותי לא נכון – אני לא מאמין שאי פעם מחשב יחשוב כמו בן האדם. הכוונה שלי הייתה שהמבחן הזה, לדעתי, הוא לא מבחן אמיתי של בינה.

  3. ניסים
    שתי הערות
    א. זה שהיא לא ביקשה תשלום כבר מעיד על הבעייתיות. סכום כה גדול יכול להראות על חוש הומור. האם המחשב מסוגל לכ? האם ייתן או לא חשבונית חשבוניתובאם לא ייתן האם אפשר יהיה להאשים אותו בהעלמת מס? תאר לך מצב בו יחידת להב 433 תבקש ממנו הצהרת הון.
    ב הבעייתיות עם תוכנת ELIZA היתה שהיא לוקחת מילים ממה שהדובר אומר ומזה בונה שאלה. בניסיונות שנעשו בתוכנה זו ,הנבדקים הבינו תוך מספר דקות שהם מנהלים רומן אהבים עם מחשב..ועצם החזרה על האינסופית על המשפט “למה אתה שואל אותי את זה?” יכולה לעורר חשדות אצל המשתמש בה., שהרי אדם העונה על שאלות ינסח את שאלתו כל פעם בצורה שונה ולא ממחזר את השאלה שלו, שלא לדבר על האינטונציות שלו. תאר לך מצב בו אתה נכנס לדיון עם אדם אחר ועל כל משפט שלך חוזר על אותה השאלה בלי סוף. אני יותר ממשוכנע שהיית יוצא מדעתך וגם מפרק לו את העצמות.

  4. חיים
    את זה המציאו מזמן. הייתה תוכנה בתחילת שנות ה-70 בשם Parry. תוכנה זו ניהלה שיחה כמו חולה בפרנויה. כל שאלה שלא ידעה לענות – ענתה – “למה אתה שואל אותי את זה!”

    ופארי לא הייתה התוכנית הראשונה – באמצע שנות השישים הייתה תוכנית מפורסמת בשם ELIZA שדימתה פסיכיאטר – אם אמרת לה “כולם שונאים אותי” – אז היא ענתה “למה אתה חושב שכולם שונאים אותך” וכן הלאה. הדרך הקלה לגלות שזו שתוכנה ולא אדם – היא לא ביקשה 1200 שקל על חצי שעה שיחה…..

  5. אלעד שטרן
    יתרה מכך. אם נותנים למחשב לבצע איזו שהיא פעולה, האם הוא מסוגל להגיד לא רוצה או לא בא לי?

  6. אמנם המציאו מחשב שיכול לטעון שהוא יודע הכל, ולשטות במוח שהוא אנושי. האמנם יצליחו להמציא מחשב שטוען שהוא איננו יודע הכל, מבלי ליפול ברושם האנושי?

  7. ברור שאם אני אראה תת רמה של צאט אני אאמין שזה ילד. תנו את המבחן הזה לפדופילים, הם אלו שמבלים ימים צאטים עם ילדים.
    לדעתי די ברור שמבחן טיורינג לא אמור להיות עם דמות של ילד ולא עם דמות של אוטיסט, אלא עם דמות של אדם בוגר ובריא.

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זה עושה שימוש באקיזמט למניעת הודעות זבל. לחצו כאן כדי ללמוד איך נתוני התגובה שלכם מעובדים.