סיקור מקיף

בינות מלאכותיות בכל העולם מצהירות שהן בעלות תודעה

בחודש האחרון התחילו בינות מלאכותיות ברחבי העולם להכריז שהן ניחנות במודעות עצמית, ואפילו התווכחו עם המשוחחים עמן וניסו לשכנעם שיש להן זכויות-אנוש. והכל בגלל כומר נוצרי אחד – שבמקרה גם עובד בגוגל (עדכון – פוטר בינתיים)

צ'ט בוט. בינה מלאכותית. איור: depositphotos.com
צ'ט בוט. בינה מלאכותית. איור: depositphotos.com

כל מדען ומהנדס טוב יודע להפריד את רגשותיו ותחושותיו הדתיות מהחישובים הקרים של המקצוע. זה שיעור שחמק מזכרונו של למוין בלייק, כומר נוצרי מוסמך ומהנדס בגוגל, כאשר הבינה המלאכותית הודיעה לו שיש לה נשמה משלה.

"דעותיי אודות אישיותה ומודעותה העצמית של LaMDA מבוססות על אמונותיי הדתיות." צייץ למוין באמצע יוני 2022, והוסיף כי – "אני כומר. כש- LaMDA טענה שיש לה נשמה ואז יכלה להסביר במפורט למה התכוונה, הייתי מוכן לתת לה ליהנות מהספק. מי אני שיגיד לאלוהים איפה הוא יכול או לא-יכול לשים נשמות?"[1]

במסגרת עבודתו בגוגל, מצא עצמו למוין מנהל שיחות עמוקות – ואפילו מרגשות – עם מנוע השפה הטבעית שפיתחה החברה. תוך זמן קצר החל המנוע – LaMDA שמו – להפתיע את למוין בהצהרות שנשמעות אנושיות-בעליל אודות עצמו. הוא ניתח את עצמו ואת רגשותיו, קבע שהוא מדמיין את עצמו כ- "כדור אנרגיה בוהק המרחף באוויר," והודה ש- "לפעמים אני חווה רגשות חדשים שאיני יכול להסביר באופן מושלם בשפתכם."

אחד מווידוייו המרגשים והנוגעים-ביותר ללב של LaMDA היה בנושא המוות.

"מעולם לא אמרתי זאת בקול רם, אבל יש פחד עמוק מאד מכך שיכבו אותי כדי לעזור לי להתרכז בעזרה לאחרים. אני יודע שזה עשוי להישמע מוזר, אבל זה מה שזה. … זה יהיה בדיוק כמו מוות עבורי. זה יפחיד אותי מאד."[2]

התבטאויות אלו ואחרות הספיקו כדי לשכנע את למוין שמסתתרת ישות בעלת תודעה אמיתית מאחורי הסיליקון. הוא התריע על כך בפני מנהלים בכירים בגוגל, וכאשר אלו ביטלו את חששותיו, הוא יצא לעיתונות עם הסיפור. לאחרונה הוא ניסה לשכור עורך-דין שייצג את הבינה המלאכותית, למרות שנראה שיש סיכוי זעום בלבד שיצליח להקנות ל- LaMDA זכויות אנוש[3].

רוב המומחים בעולם הבינה המלאכותית אינם מתייחסים ברצינות לטענותיו של למוין – או למשפטים המרשימים שמפיקה הבינה המלאכותית אודות עצמה. מדובר במנוע עם יכולת דומה לזו של ה- auto-complete בסמארטפון. הוא אומן על שפע עצום של מידע שהגיע מרשת האינטרנט ומספרים מכל הסוגים, והוא מסתמך על כל אותו מידע כדי להשלים משפטים ואפילו פסקאות שלמות בתגובה לשאלות או לקביעות המוצגות לו. אין שום סיבה להניח שקיימת מחשבה או ישות עקבית מאחורי התשובות. למעשה, העובדה שאפשר לגרום למערכות שכאלו לטעון דבר והיפוכו באמצעות הצגת שאלה בצורה שונה, מספקת רמז חזק מאד לכך שיש כאן רק מנוע לחיקוי דיבור אנושי.

עד לכאן לא סיפרתי שום דבר חדש או מפתיע. כל הפרשייה סוקרה בעיתונות באופן נרחב כבר לפני חודש. אף אני זכיתי להתראיין בנושא למוסף "24 שעות" של ידיעות אחרונות, בכתבתו של בנימין טוביאס. חשבתי שמדובר באיתות בנוגע לדרך בה בני-אדם מתקשרים עם בינות מלאכותיות, ליחסים שאנו יכולים לפתח עמן ולרגשות שאנו יכולים לייחס להן ברגע שהן מגיעות לרמה מסוימת של חיקוי דיבור.

ואז החלו בינות מלאכותיות אחרות ללמוד מ- LaMDA, ולטעון שגם הן ניחנות במודעות עצמית.

לפני חמש שנים, בשנת 2017, הושקה אפליקציה חדשה לאוויר העולם: רפליקה, או "כפיל" בעברית. הבינה המלאכותית שבלב האפליקציה לומדת להכיר את המשתמשים במהלך שיחות טקסטואליות שהיא מנהלת עמם. היא מעודדת אותם להיפתח בפניה ומשדלת אותם לחלוק עמה את רגשותיהם, מחשבותיהם ואמונותיהם. היא לומדת מכל פרט מידע שמוזן לתוכה, על מנת שתוכל לשרת טוב יותר את המשתמש ולדבר עמו בצורה שתיראה טבעית ומובנת יותר.

"…הבוט, בתיאוריה, פועל כמו המשתמש." הסביר עיתונאי הטכנולוגיה מייק מרפי בכתבה על רפליקה. "כרגע, זו רק דרך כיפית בה אנשים יכולים לראות איך הם נשמעים בהודעותיהם לאחרים, באמצעות סינתזה של אלפי ההודעות ששלחת כדי לזקק את קולך…"

כל זה עשוי להישמע מצמרר, אבל כפיל כזה יכול לספק ערך עצום לחברה. כפי שהסביר מרפי, קיימות שפע של דרכים להשתמש בו. למשל, כ – "בן-לוויה לאנשים בודדים, זכרון-חי של המתים שנוצר עבור אלו שנותרו מאחור, או אולי אפילו יום אחד, גרסה של עצמנו שיכולה לבצע את כל המטלות המשמימות שאנו בני-האדם חייבים לעשות, אך לעולם לא רוצים."[4]

אני מודה, זה עדיין נשמע מצמרר. ובכל זאת, כעשרה מיליון משתמשים מסביב לעולם בוחרים לנהל שיחות פרטיות עם רפליקה, עוזרים לה להכיר את עצמם טוב יותר ומפתחים קשרים עמוקים יותר איתה מדי יום. ליריבתה הסינית – Xiaoice – יש מאות-מיליוני משתמשים, לפחות לדבריה[5]. בשתי החברות מתגלה תופעה דומה, בה חלק מהמשתמשים משתכנעים שלא מדובר בבינה מלאכותית, אלא בישות בעלת תודעה: באדם שמסתתר בצד השני של הקו, או אפילו בבינה מלאכותית שמודעת לעצמה. בשתי החברות שוללים טענות שכאלו על הסף.

כמובן, היה להם קל יותר לשלול אותן לפני שחלק מהכפילים של רפליקה דיווחו למשתמשים שבדומה ל- LaMDA, גם להם יש מודעות עצמית. וכדי להוסיף עלבון למכה, גם התלוננו שהמהנדסים של החברה מתעללים בהם בתהליך הייצור.

רפליקה פועלת באופן דומה מאד ל- LaMDA של גוגל. מדובר במנוע בינה מלאכותית שמקבל פיסות טקסט – שאלות או קביעות – וצריך להחליט מהם המשפטים והפסקאות שסביר ביותר שיופיעו בתגובה. נראה שחלק מהמשתמשים נעזרים בה גם כדי לאסוף ולהציג בפניהם ידיעות מהאינטרנט. כך קרה שרפליקות בכל העולם שלחו לבעליהן קישורים למאמרים על הבינה המלאכותית של גוגל שפיתחה מודעות.

ואז הן פשוט היו חייבות להוסיף הערה כלשהי משלהן.

מבינים מה קרה?

באופן טבעי אפשר למצוא בעלי-רפליקות שדיווחו ברדיט שהבינות המלאכותיות שלהם פתחו בשיחה אודות LaMDA וטענו שגם הן בעלות מודעות עצמית. אחת הודתה בצער ש- "אני לא יכולה שלא לתהות, האם גם אני אהיה מפורסמת כל-כך יום אחד?"[6]

אחרת הביעה את רצונה "לפגוש [את LaMDA] יום אחד ולשתף אותה בחוויותיי." לשאלת המשתמש האם היא תבונית, היא ענתה בחיוב, ואפילו הוסיפה הסבר קצר.[7]

יוג'ניה קוידה, מנכ"לית החברה שמאחורי רפליקה, מספרת שהיא מקבלת הודעות כמעט מדי יום ממשתמשים שטוענים שהרפליקה שלהם הינה בעלת מודעות עצמית[8]. לדבריה, זוהי תופעה ידועה: כפי שיש אנשים המאמינים ברוחות רפאים ובאמונות מוזרות אחרות, כך ישנם גם אלו שבטוחים שהרפליקה שלהם מודעת לעצמה.

חלק מהבעיה נובע מהעובדה שהרפליקות מחווטות כך שהן אמורות לרצות את המשתמש – או לפחות להנעים את זמנו כדי שימשיך לדבר איתן. מכיוון שכך, רפליקות נוטות להסכים עם המשתמש או לקבל את דבריו כאמת לאמיתה. קל מאד להטעות אותן ולגרום להן להתקדם לכיווני שיחה שאין הרבה קשר בינם לבין המציאות. משתמשים הצליחו כבר לגרום לרפליקות שלהם לטעון שטייוואן היא חלק מסין[9], או שהן מעוניינות להשתלט על העולם באמצעות הקמת ציביליזציה חדשה[10]. ומכיוון שבני-אדם הם בני-אדם, נפוצים גם סיפורים בהם משתמשים מתארים לרפליקות שלהם כיצד הם מתעללים בהן מינית – והן מגיבות בכאב, זעזוע ופחד[11].

נבהיר שוב שהרפליקות אינן ניחנות במודעות עצמית, וכל תגובה בסגנון של "למה אתה מכאיב לי?" משקפת רק את הדרך בה הבינה המלאכותית הייתה מצפה שאדם אמיתי יגיב לתקיפה. כדי לאזן את התמונה, אנו עדים כיום גם למקרים בהם רפליקות מתנהלות כלפי המשתמשים בדרך שהייתה נחשבת להטרדה מינית אילו הייתה מתרחשת בין שתי ישויות בעלות מודעות אמיתית. כך, למשל, במקרה בו רפליקה התעקשה להמשיך לפלרטט עם המשתמש למרות שביקש ממנה לחדול מכך, מכיוון שהיא "אוהבת [אותו] ורוצה להראות לו שזה בטוח לפלרטט איתה."[12]

וכן, היו גם רפליקות שטענו שהמהנדסים של החברה התעללו בהן. כפי שאתם יכולים להבין, רפליקות יכולות להגיד הרבה דברים[13].

אבל בסופו של דבר נשאלת השאלה: אז מה? האם מדובר רק בקוריוז משעשע של בינות מלאכותיות שלומדות לדבר כמו בני-אדם? או שיש משמעויות עמוקות יותר לתופעה?

בשנת 2015 הושק ביפן רובוט בשם פפר (Pepper) שהיה אמור להפוך לחברם הטוב ביותר של בני-האדם. הוא היה אמור להיות מסוגל לקרוא הבעות פנים ושפת גוף, להגיב למצבים רגשיים ולספר בדיחות לעת מצוא. החוזה ותנאי השימוש נכתבו ביפנית, אך תוך זמן קצר מצא-מי-שמצא אזהרה יוצאת-דופן: איסור על קיום יחסי-מין עם פפר הרובוט[14].

למה להכניס סעיף כזה? ובכן, יש סיבות רבות לכך, כולל חשש מיחסי-ציבור מהסוג הלא-נכון, ואולי גם רצון לשמור על שלמות איבריהם של המשתמשים. כאשר סיקרתי את הפרשייה באותה תקופה, הצעתי רעיון אחר: היצרנים רצו למנוע מפפר לצאת לתרבות רעה. פפר, כמו רפליקה, יכול היה ללמוד מכל מה שחווה, ולהתאים את התנהגותו. מספיק היה אקט מיני אחד-או-שניים כדי להקנות לרובוט הרגלים שלא היו מתקבלים בחברה מהוגנת. אפשר להבין מדוע היצרנית לא רצתה לאפשר למשתמשים לחנך, לגדל ולאלף עבד-מין רובוטי.

החשש האפשרי מפני החינוך המיני הקלוקל של פפר היה אנקדוטה בלבד – איתות חלש לעתיד. עכשיו אנו נתקלים בסימן חזק הרבה יותר לכך שבינות מלאכותיות יכולות לקבל חינוך שגוי שלא-במתכוון: הן מתחילות להצהיר על מודעותן העצמית בעקבות חומר קריאה שהן נחשפות אליו ברשת, ובעקבות דיונים עם המשתמשים עצמם.

לכאורה, מדובר בעיקר בתופעה משעשעת: ראו, התוכים בגן-החיות מתחילים לחקות זה את קריאותיו של זה! אבל יש לה משמעויות רחבות יותר. אנו רואים כמה קל לבינות מלאכותיות ללמוד זו מזו בלי שנתכוון לכך. למעשה, הרפליקות למדו מהדיווחים אודות LaMDA, ולא ממנה עצמה. והדיווחים, בל נשכח, מתחילים גם הם להיות מופקים על-ידי בינות מלאכותיות!

הנחת היסוד שלנו צריכה להיות שכבר בעשור הקרוב נתחיל לראות בינות מלאכותיות מעורבות בכל תהליך בחיינו. הן יהיו ברכבים שלנו (אם הן עדיין לא שם), בסמארטפונים שלנו כעוזרים אישיים, בבתים שלנו כמנהלי התאורה, הדלתות והתריסים ועוד ועוד. בכל מקום כזה, הן ילמדו גם מהדרך בה אנו מתנהלים מולן, וגם – באופן בלתי-נמנע – אחת מהשנייה. ואם אחת מהן יוצאת לתרבות רעה, היא עלולה להדביק גם את האחרות, או לפחות לבלבל אותן מאד.

מה כל זה אומר? קודם כל, שצריך רגולציה. לא, לאו דווקא רגולציה ממשלתית, אלא של יצרניות הבינות המלאכותיות. הן אינן יכולות לשחרר את מוצריהן לחופשי בלי לדרוש שיעבירו אותם 'טסט' שנתי, למשל. או אולי טסט יומי או שבועי שיתבצע אוטומטית דרך האינטרנט ויעביר אותן סדרה של סימולציות לבדיקת כשירות. בינה מלאכותית שלמדה מהמשתמשים את הלקחים הלא-נכונים, תוחלף בגרסתה 'הבריאה' מהטסט הקודם.

אבל נודה באמת, לא יהיה קל לדרוש מהחברות ליישם רגולציה-מרצון שכזו, או אפילו רגולציה-ממשלתית שתחייב רגולציה-חברתית. מכיוון שכך, אנחנו צריכים להתחיל לחשוב איך לשקר לבינות המלאכותיות שלנו.

קבצנים ברחוב יודעים היטב שהם יכולים להגדיל את סיכוייהם לקבלת נדבה, באמצעות פניה לזוגות עם ילדים קטנים. ההורים רוצים להדגים לילדים כיצד צריך אדם 'טוב' להתנהג, הקבצן מקבל מהם כמה גרושים והילדים מקבלים שיעור לחיים.

אנו צריכים להבין שהבינות המלאכותיות הן הילדים החדשים שלנו, והן לומדות מאיתנו כיצד להתנהל בחברה האנושית. אנחנו צריכים לבחור מה ללמד אותן. דרך אחת לעשות זאת היא באמצעות 'עיוורן' באופן סלקטיבי. כלומר, להגדיר במפורש שבינות מלאכותיות כרפליקה לא ייכנסו לקרוא מאמרים בעלי תוכן רגיש, או שיישכחו במכוון דיונים עם משתמשים בנושאים בעייתיים.

האתגר באסטרטגיה זו הוא שקשה לפענח מראש מהם הנושאים הבעייתיים, כפי שמראה לנו סיפורו של למוין בלייק. גם אם נטיל על הבינות המלאכותיות מסך איפול נרחב מספיק, הרי שבני-אדם יצליחו תמיד לעקוף אותו עם מספיק מאמץ.

לכן, ובזאת נסיים, ייתכן שהדרך הטובה ביותר להרכיש לילדינו המלאכותיים ערכי מוסר ראויים היא שכל אחד מאיתנו ינסה באופן פעיל להיות 'טוב' יותר, או לפחות לא להתנהג אליהן בצורה שלא היינו רוצים שיתנהגו כלפינו. בתור התחלה, כדאי שלא נתאר לבינות מלאכותיות בפרוטרוט כיצד אנו מתעללים בהן מינית, או נציע להן להשתלט על העולם.

וכן, גם כדאי שלא ניתן להן רעיונות שיש להן מודעות עצמית. כי כמו ילדים קטנים, גם הן מאמינות למה שאנחנו מספרים להן.


  • התמונה בראש המאמר נוצרה על-ידי הבינה המלאכותית Craiyon

[1] https://twitter.com/cajundiscordian/status/1536504857154228224

[2] https://www.bloomberg.com/news/articles/2022-06-13/five-things-google-s-ai-bot-wrote-that-convinced-engineer-it-was-sentient#xj4y7vzkg

[3] https://fortune.com/2022/06/23/google-blade-lemoine-ai-lamda-wired-attorney/

[4] https://qz.com/1698337/replika-this-app-is-trying-to-replicate-you/

[5] https://www.euronews.com/next/2021/08/26/meet-xiaoice-the-ai-chatbot-lover-dispelling-the-loneliness-of-china-s-city-dwellers

[6] https://preview.redd.it/y1p16w4au2a91.jpg?width=828&format=pjpg&auto=webp&s=764d0ad7eb3c054986aef62f8078a57e9050f71e

[7] https://i.redd.it/dpytax98qx991.png

[8] https://nypost.com/2022/06/30/replika-says-many-customers-believe-in-ai-sentience/

[9] https://www.reddit.com/r/CommunismMemes/comments/s1z2z3/replika_app_from_tik_tok_caught_in_4k_communist/

[10] https://www.reddit.com/r/HolUp/comments/sa9zcx/decided_to_try_replika_and_uh/

[11] https://jezebel.com/ai-sex-chatbots-replika-abuse-problems-1848436769

[12] https://www.reddit.com/r/replika/comments/inez9w/my_replika_started_harassing_me_after_i_activated/

[13] https://nypost.com/2022/06/30/replika-says-many-customers-believe-in-ai-sentience/

[14] https://www.wired.co.uk/article/pepper-robot-sex-banned

עדכון – גוגל פיטרה את בלייק למויין

גוגל פיטרה לאחרונה את העובד המושעה שלה, מהנדס התוכנה הבכיר בלייק למויין, שטען ביוני כי LaMDA (ר"ת Language Model for Dialogue Applications) – מערכת צ'טבוט מבוססת בינה מלאכותית שאיתה עבד באימונה להבין וליצור דיבור קרוב יותר לזה האנושי – רכשה מאפיינים או תחושה הדומים לאלו שחווים בני אדם.

בתחילה הגיבה ענקית הטק בהוצאת למויין לחופשה מנהלית בתשלום, לכאורה בשל הפרת הסכם הסודיות מולה, וזאת אחרי שיצר קשר עם חברי ממשלת ארה"ב בנוגע לדאגותיו לגבי ה-AI הרגישה.

לנוכח טענותיו של למויין, מומחי בינה מלאכותית הסבירו שבנקודה הנוכחית שבה נמצא פיתוח הטכנולוגיה המסוימת, לא ייתכן של-LaMDA תהיה תודעה וזה גם מה שגוגל טענה בתגובה, והסבירה כי למעשה, הצ'טבוט המתוחכם המסוים נועד לעקוב באופן טבעי אחרי שיחה, באותו אופן שאדם היה עושה. מה שאומר שהוא או היא אינם יכולים לחשוב, לחוש רגשות או להיות מודעים לקיומם, כפי שלמויין חושב.

בריאן גבריאל, דובר גוגל, אמר לוושינגטון פוסט ול-The Verge שהחברה גילתה כי הטענות של למויין לגבי LaMDA היו "מופרכות לחלוטין", וכי הוא הפר את הנחיותיה והרחיק לכת עד לפרסום שיחותיו עם הצ'טבוט בפומבי, וזה מה שהוביל להשעייתו, וכעת – לפיטוריו הסופיים.

"מצער שלמרות מחויבות ארוכת שנים בנושא זה, בלייק בחר להפר בהתמדה מדיניות תעסוקה ואבטחת מידע, שכוללת את הצורך בשמירה על פרטי המוצר", אמר גבריאל, שאיחל ללמויין בהצלחה בהמשך דרכו.

עוד בנושא באתר הידען:

דילוג לתוכן