סיקור מקיף

הבינות המלאכותיות מתחילות לנהל אותנו

הבינה המלאכותית עוקבת אחר עובדים, לכאורה כדי לדאוג שהם יעשו עבודה טובה. האם יש להתיר למעבידים לעקוב אחר עובדיהם באמצעות בינה מלאכותית?

ראיון עבודה עם בוט. התמונה הוכנה באמצעות DALEE ואינה מהווה תמונה מדעית
ראיון עבודה עם בוט. התמונה הוכנה באמצעות DALEE ואינה מהווה תמונה מדעית

ברכות – אתה מחפש עבודה! סיימת 12 שנות לימוד, צבא, ארבע שנים בטכניון בתואר הנדסי, ועכשיו סוף-סוף אתה מרגיש שאתה יכול להגיש את הרזומה שלך בלי להתבייש. תוך עשר דקות אתה מקבל תשובה והזמנה לראיון. 

מתי הראיון? בעוד שלוש שעות. 

אתה מבין מיד את העניין: אתה סחורה מבוקשת! המראיין בוודאי התלהב כל-כך מכישוריך ומאישיותך המרשימה המתבלטת מתוך הרזומה, שהוא פינה את הלו”ז שלו במיוחד עבורך. המשרה ממש בכף ידך!

מגיעה שעת הריאיון. אתה פותח את מצלמת הווידאו, מתחבר בהתלהבות לאתר ומוצא עצמך יושב מול… אווטאר ממוחשב. הוא מאיר לך פנים מאוירות, ואתה מעז לקוות שאולי באמת יושב שם אדם מצידו השני של המסך. ואז הוא מבהיר לך בעצמו שהוא רק בינה מלאכותית. 

והראיון מתחיל.


אם כל זה נשמע כמו מדע בדיוני, ובכן, הגיע הזמן להתחבר למציאות. כבר היום, בינות מלאכותיות מתחילות לראיין אנשים, לתת להם ציונים ודירוגים, ולהחליט האם לקדמם לשלב הבא בגיוס.

ולטענת העוסקים בדבר, הן גם עושות את זה מצוין.

הפלטפורמה של חברת מיקרו-1 (Micro1) מהווה דוגמא טובה לדרך הגיוס החדשה של עובדים. המעסיקים הפוטנציאליים מפנים את מחפשי העבודה לפלטפורמה, ומגדירים לבינה המלאכותית אלו מיומנויות אמורות להיות לעובד המושלם. הבינה המלאכותית עושה את כל היתר: היא מייצרת אוטומטית שאלות שאמורות לבחון את רמת המומחיות של המרואיין, ואז מציגה לו אותן בשפת הדיבור. היא מקשיבה לדבריו, מתמללת ומתעדת אותם. אם המרואיין מעוניין להתקבל למשרת פיתוח, הבינה המלאכותית מבקשת ממנו להשלים מבחן בזמן-אמת – שנבדק באופן מיידי על-ידי GPT4. 

ומה אם המרואיין מנסה לרמות? למיקרו-1 יש פתרון גם לזה: הפלטפורמה מתחברת למצלמת הווידאו של מחפש העבודה, ומנטרת אותו כדי לוודא שהוא אינו מרמה במבחן. 

עבור מנהלים, השירות של מיקרו-1 עשוי להיראות כמתת-אל. לפי סקר של חברת גלאסדור (Glassdoor), משרה תאגידית ממוצעת כיום בארצות-הברית מושכת בערך 250 מועמדים. מנהלי כוח אדם נאלצים לעבור על מאות עמודים של קורות חיים, רק כדי לבחור בסביבות החמישה מועמדים שיעברו לשלב הראיונות הבא. וגם הראיונות, כמובן, דורשים זמן, תשומת לב והרבה מאד סבלנות.

הבינה המלאכותית יכולה לקצר דרמטית את כל התהליך הזה. במקום לבזבז שעות ארוכות בראיונות, הבינה המלאכותית עושה את כל עבודת הסקירה והראיונות על עשרות או מאות עובדים פוטנציאליים באותו הזמן. ולא רק זה, אלא שהיא מפיקה דו”חות מדוקדקים עם ציונים והסברים אודות הדרך בה הם נקבעו. הציונים אינם מתמקדים רק ברמת ההצלחה במבחן. הם כוללים גם התייחסות ליכולות התקשורת של המועמד, לתשוקה שהפגין ולגישה הכללית שלו לעבודה. הם אפילו מדרגים את הסיכוי שהמועמד רימה בראיון.

בהינתן כל היכולות האלו – אין פלא שהחברה גייסה לאחרונה יותר משלושה מיליון דולרים כבר בשלבי הקיום המוקדמים ביותר שלה. זוהי אחת הדוגמאות המרשימות ביותר לדרך בה בינה מלאכותית יכולה לקבוע את גורלו של עובד – עוד לפני שהוא אפילו התקבל לחברה.

אבל זו אינה הדוגמא היחידה. למעשה, בינות מלאכותיות מתחילות להיות מעורבות כיום בכל תחום בעבודה – אבל הן אינן פועלות בהכרח עבור העובדים, אלא עבור מנהליהם.


פלפלים ואננס ביד הבינה המלאכותית

לפני כמעט חמש שנים הבינה פיצה דומינוס שאם היא רוצה לנצח במרוץ נגד פיצריות אחרות, היא חייבת לשפר את ביצועי עובדיה. לעתים קרובות מדי הם שמו יותר מדי תוספות, או מעט מדי תוספות, או שאלו גלשו בין החצאים. וכמובן, מדי פעם אירעו קטסטרופות אמיתיות, והעובדים התבלבלו בין התוספות. בקיצור, הם עבדו כמו בני-אדם, וכולנו יודעים איך זה נגמר.

ואז הכניסה דומינוס בינה מלאכותית לעסק. 

דומינוס השיקה פרסומות לפיהן המזמינים יכולים לראות את הפיצה שהזמינו עוד בשלבי הכנתה. במקביל, העובדים בסניפים שבאוסטרליה ובניו-זילנד הבחינו במצלמות במטבח שעוקבות אחריהם בזמן הכנת הפיצות. דומינוס הסבירה שהיא “משתמשת בלמידת מכונה מתקדמת, בינה מלאכותית וטכנולוגיית חיישנים לזיהוי סוג פיצה, לאזן את פיזור התוספות ולתקן תוספות.” 

כל זה נשמע נהדר עבור הלקוחות, אבל צריך לזכור שמדובר למעשה בניטור אחר העובדים והתוצרים שהם מוציאים תחת ידיהם. כפי שאפשר להבין, הניטור הזה הוא חרב פיפיות: הוא משרת היטב את הלקוחות ואת המנהלים שיכולים לזהות מוצר פגום ועובדים רשלניים. העובדים, לעומת זאת, עשויים דווקא להיפגע ממנו מכיוון שהוא יכול גם לאמוד את התפוקה האישית של כל אחד מהם. מעבר לכך, מערכת כזו מביאה בהכרח ל- ‘סטנדרטיזציה’ של הכנת הפיצות. כלומר, ברגע שאלמנטים של ההכנה מכומתים בקפידה, ייווצר סטנדרט חדש לפיצה האופטימלית: 13 פטריות בדיוק בפיצה משפחתית אחת, ואם העובד שם ולו פטריה אחת יותר – הוא יינזף על חטאו זה.

לפי דיווחים ברשת, מערכת ‘הבינה המלאכותית של הפיצות’ התרחבה מאז 2019 גם לסניפים בארצות הברית, אבל לא ברור האם היא פועלת גם בישראל. בכל מקרה, ברור שבודק-הפיצות האוטומטי של דומינוס הוא רק דוגמא אחת מני רבות לטכנולוגיית בינה מלאכותית שמפקחת על עובדים. בין האחרות אפשר למנות המצאה של וולמארט שמאזינה לרשרוש השקיות וצפצופי סורקי-הלייזר בקופות כדי לוודא שהקופאיות עושות מלאכתן נאמנה, או צמיד חכם של אמזון שאמור לפקח על תנועת העובדים.

בשני המקרים האחרונים מדובר בפטנטים שהוציאו אותן חברות, וקשה לדעת עד כמה הן משתמשות במכשור הזה באמת. אבל לפחות במקרה אחד, ידוע שנערך מעקב בעזרת בינה מלאכותית אחר יותר משלושה מיליון עובדים.


זו לא פרנויה אם כולם באמת נגדך

חברת אווייר (Aware) הגיעה לאחרונה להישג מרשים: היא עקבה בשנים האחרונות אחר יותר משלושה מיליון עובדים. החברה, שגייסה כבר יותר משישים מיליון דולרים, נשכרת על-ידי חברות על מנת לעקוב כל העת אחר העובדים. לפי הדיווחים, הבינה המלאכותית מנתחת יותר ממאה-מיליון הודעות תוכן מדי יום בשיחות ובפגישות פרטיות בסלאק, במיקרוסופט Teams, בזום ובאפליקציות אחרות. היא מזהה דיבור “רעיל”, ומסוגלת לכמת את תחושות העובדים לגבי נושאים שונים – ולהעביר דיווחים שוטפים למנהלים בכל הדרגים.

אווייר טוענת שהיא רק רוצה לעזור לחברות להבין את רגשות העובדים ברמה הכללית, ולא לעקוב אחר אינדיבידואלים. אלא שהכלים שלה מאפשרים במוצהר למנהלים לקבל מידע מפורט אודות עובדים ספציפיים, במיוחד במקרים בהם אלו מהווים איום על החברה או על חבריהם. מי מחליט מה מהווה איום על החברה או על העובדים האחרים? הנהלת החברה, כמובן. המשמעות היא שמנהלים יכולים להשתמש בשירותים של אווייר באופן עקרוני כדי לעקוב אחרי עובדים מסוימים, ברמה שיש חשש שתוביל אפילו להתנכלות כלפיהם מצד המנהלים.

מי משתמש בשירותים של אווייר? רק כמה מהחברות הגדולות ביותר בארצות הברית: וולמארט, דלתא, טי-מובייל, סטארבאקס ואחרות. גם ענקיות אירופאיות כמו נסטלה החליטו להיעזר בבינה המלאכותית החטטנית של אווייר. 

כמו במקרה של דומינוס, גם כאן מדובר בחרב פיפיות. כן, מעקב אחר רגשות עובדים באופן כללי יכול להוביל לכך שהמנהלים יזהו מכשולים ומהמורות בהתנהלות החברה עוד בשלב מוקדם, ויפעלו כדי לתקן אותם. כן, הם יוכלו גם לזהות בריונים ומטרידנים מכל הסוגים, ולנפות אותם החוצה. אבל במקביל, העובדים יכולים בקלות לאבד גם את הפרטיות שלהם. כל מילה שהם אומרים, כל אימוג’י וכל אות יכולות להיספר ולהיבחן בקפידה. אותם עובדים אינם יכולים כבר לדבר בחופשיות עם עמיתיהם. הם אינם יכולים להחליף דעות על הבוסים או לקטר על עמיתיהם. מצופה מהם רק לעשות את עבודתם, לחייך ולשתוק.

כמו רובוטים.


איומים והזדמנויות

“בוקר טוב, מר זרגחם007,” לעטתי במונוטוניות. “תודה שהתקשרת לתמיכה טכנית. אני נציג שירות מספר 338645. איך אוכל לעזור לך הערב?” תוכנת האדיבות ללקוחות סיננה את קולי, שינתה את הטון ואת ההטעמה כדי לוודא שתמיד נשמעתי שמח ועליז.

“אה, כן…” זרגחם007 התחיל. “בדיוק קניתי את החרב הנדירה הזאת, ועכשיו אני לא יכול אפילו להשתמש בה! … מה לעזאזל מקולקל בחתיכת הזבל הזאת? היא שבורה?”

“אדוני, הבעיה היחידה היא שאתה לגמרי מטומטם מזדיין.” אמרתי.

שמעתי זמזום אזהרה מוכר, והודעה הופיעה במסך שלי: 

הפרת אדיבות – סימנים: מטומטם, מזדיין

התגובה האחרונה הושתקה – ההפרה תועדה

מערכת אדיבות הלקוח… זיהתה את הטבע הלא-הולם של התגובה שלי והשתיקה אותה, כך שהלקוח לא שמע את מה שאמרתי. התוכנה גם תיעדה את “הפרת האדיבות” שלי, והעבירה אותה לטרבור, המשגיח במחלקה שלי, כדי שהוא יוכל להעלות את העניין בסקירת הביצועים הדו-שבועית הבאה שלי.

  • מהספר Ready Player One

בספר “שחקן מספר אחת” מתאר ארנסט קליין עולם עתידני דיסטופי, בו תאגידים עוקבים אחר כל שיחה של עובדיהם עם הלקוחות. לא רק זאת, אלא שהבינה המלאכותית מסוגלת לזהות בזמן-אמת חריגות מדפוס השיחה הרצוי, ואפילו לתקן ולקנוס את העובד על חטאיו. העובד, במקרה זה, אינו אלא מכונה בעצמו, שנדרשת מכונה אחרת – בינה מלאכותית – כדי לכוונן ולהתאים את ביצועיה.

האם זה העתיד שצופנות לנו הבינות המלאכותיות שקובעות האם לגייס אותנו לחברה, האם אנו מדברים באדיבות ובחיוך-רחב עם עמיתינו, וכיצד אנו מפזרים את הפטריות מעל הגבינה בפיצה?

כנראה שכן. ואולי זה לא רעיון כל-כך נורא.

האמת המרה, אחרי הכל, היא שבמשרות רבות העובד אמור לפעול בעיקר כמכונה. בלי יצירתיות, בלי חשיבה עצמאית ובוודאי שבלי להעליב את הלקוחות שהוא אמור לשרת באדיבות. וזה בסדר. זו אינה עבודה מוערכת בדרך-כלל, אבל היא משמשת כמקור הכנסה עבור רבים בעולם. אם חשוב לעובד לרכל על הבוסים שלו, הוא יוכל לעשות זאת בפלטפורמה שאינה נתונה לפיקוח. ואם ממש מתחשק לו להתייחס בזלזול ללקוחות שהוא משרת – ובכן, כנראה שעדיף שהמעסיק שלו ידע שכך העובד מתנהג.

המצב נהיה מורכב יותר במשרות שמחייבות עבודת צוות ודיונים פתוחים, מכיוון שאנו יודעים שמערכות ניטור משפיעות לרעה על נכונותם של עובדים להיפתח בפני חבריהם. אחרי הכל, אם אתה יודע שכל מילה שלך תגיע באופן כמעט מיידי לאוזני הבוס – אתה נזהר הרבה יותר בדבריך. 

“יש לזה השפעה מצננת על מה שאנשים אומרים במקום העבודה.” אמרה אמבא קאק, מנכ”לית מכון “בינה מלאכותית עכשיו” באוניברסיטת ניו יורק, בראיון ל- CNBC. היא הוסיפה והתייחסה לבעיות הפרטיות והאבטחה של מערכות מסוג זה, וטענה כי “אין אף אחד שיכול להגיד לך ברצינות שהאתגרים האלו נפתרו.”

וזה המצב כיום, כאשר הבינות המלאכותיות שמפקחות על העובדים נמצאות תחת שליטתם המלאה של המנהלים. מה יקרה כאשר הן יהפכו להיות אוטונומיות יותר – כפי שכולם מצפים שיקרה – ויוכלו לקבל החלטות מתקדמות יותר בעצמן? למשל, לפטר עובד על סמך הביצועים הכושלים שלו, או בשל התבטאות ‘רעילה’ לגבי מוצר הדגל של החברה?


סמוך, יהיה בסדר

בשנת 2015 הבינה אמזון שמשהו מוזר קורה עם הבינה המלאכותית שלה. שנה לפני כן החלה החברה בנסיונות לדרג מסמכי קורות חיים שהגישו מחפשי עבודה. הגביע הקדוש, לפי מקורות מבפנים שצוטטו ברויטרס, היה להפיק מנוע שמקבל “100 קורות חיים, ויורה החוצה את חמשת המסמכים הטובים ביותר, ואנחנו נשכור אותם.”[1]

הרעיון הבסיסי מוצלח, בסך הכל, אבל הביצוע היה לוקה בחסר. ספציפית, המנוע של אמזון היה מוטה כנגד נשים. הסיבה היא שתעשיית ההייטק מוצפת בגברים, והמנוע אומן על קורות החיים הקיימות והבין – מבלי שאמרו לו במפורש – שאם את אשה, הרי שהסיכויים שלך להיות בהייטק נמוכים יותר.

עד כאן אין שום הפתעה. הטיות שכאלו הן דבר שאפשר היה לצפות לו. למעשה, רוב הסיכויים שהמפתחים של הבינה המלאכותית הבינו שהיא מדרגת באופן שונה נשים וגברים, ופעלו לתיקון העניין באופן אוטומטי. הם בוודאי הגדירו לבינה המלאכותית, למשל, שעליה להתעלם מהמגדר של המועמד או המועמדת. אני מניח שהם פשוט הסתירו אותו מפניה.

מה עשתה הבינה המלאכותית? היא לא התייחסה למגדר, אבל היא מצאה איתותים קטנים שמעידים על המגדר – ופסלה מועמדות על בסיסם. היא קנסה, למשל, מועמדות שכתבו בקורות החיים שלהן שהשתתפו ב- “מועדון השחמט לנשים”. היא הפגינה הטיה דומה נגד אוניברסיטאות של נשים בלבד, והורידה את הדירוג של מועמדות שהגיעו מאוניברסיטאות שכאלו. 

המפתחים ניסו להתמודד גם עם ההטיות האלו של הבינה המלאכותית באמצעות הפיכת שמות התכניות לנייטרליים – “מועדון שחמט” במקום “מועדון שחמט לנשים” – אבל ברור שזה רק פלסטר. הבינה המלאכותית בוודאי הצליחה למצוא דרכים אחרות להבדיל בין קורות חיים של נשים ושל גברים, והמשיכה להעניש את הנשים.

בסופו של דבר, אמזון החליטה לחסל את הפרויקט לאחר שלא הצליחה להפיק ממנו תוצאות אובייקטיביות. אנחנו רואים את אותן בעיות צצות בכל שימוש בבינה המלאכותית: היא מוטה מעצם העובדה שהיא מקבלת תמיד מידע מוטה לאימון. 

הציניקנים יגידו עכשיו ש- ‘הטיה’ אינה תמיד שלילית. נתונים מהארץ מראים, למשל, שנהגים ערבים מבצעים יותר עבירות תנועה עם נפגעים, ומחצית מהנהגים שנהגו במהירות מופרזת שהובילה לתאונה – הם ערבים. אפשר להבין בעל עסק שיראה את הנתונים הללו ויעדיף שלא לשכור ערבים כנהגי שליחויות. 

הבעיה היא שנתונים אפשר לפרש תמיד בכמה דרכים, וקשה לזהות את הניואנסים שבהם. האם ייתכן, למשל, שהסטטיסטיקה אודות תאונות הדרכים במגזר הערבי נובעת מכך שרבים נוהגים שם בטרקטורונים? או אולי בשל תשתיות הכבישים המשובשות והרעועות בכפרים רבים? אם זה המצב, הרי שאנו עלולים להאשים את העובדים הערביים באופן אוטומטי על חטאי נתח אוכלוסייה צר מאד בתוכם, או להוסיף לעוול שהממשלה עושה להם מלכתחילה.

האם בעלי עסק ומנהלים יצליחו להכיל את הניואנסים הסטטיסטיים האלו? האם הם יצליחו לשפוט כל מקרה לגופו? וזאת כאשר בינות מלאכותיות מתדרכות אותם כי – “עליכם להיזהר! עובד זה הגיע מאוכלוסיה בעלת נטיה לתאונות דרכים!”

נראה לי ברור שמנהלים אנושיים יתקשו להתמודד עם עצות והמלצות שכאלו. אנו קשובים תמיד לכל פיסת מידע שאנו מקבלים מ- ‘מקור סמכות’, וכאשר מנהלים יודעים שהכלי הממוחשב עליו הם מסתמכים קיבל אישור מההנהלה העליונה של החברה – הם יבינו שעליהם לשים בו לפחות חלק ממבטחם. קיימים גם מחקרים שמראים שאנשים נוטים לסמוך יותר על רובוטים ובינות מלאכותיות מאשר על בני-אדם אחרים. במקרים מסוימים – כמו בניהול כספים – הם סומכים על הבינות המלאכותיות יותר משהם סומכים על עצמם.

אין מנוס מלקבוע שמהרגע שבינה מלאכותית תספק חוות דעת שלילית בנוגע לעובד מסוים – בלי קשר לסיבה הממשית – המנהל האנושי יושפע ממנה לרעה. הוא יכניס אותה לתהליך קבלת ההחלטות שלו במודע או שלא-במודע, וכנראה שייתן לה משקל גדול. אולי גדול יותר מהראוי.

כאלו אנו, בני-האדם.

אז מה עושים?


הדרך קדימה

מה אפשר לעשות כדי לשלב את הבינה המלאכותית בצמתי ניהול וקבלת החלטות בדרך הטובה ביותר? אפשר לענות על השאלה בשלוש דרכים, שכל אחת מהן נוגעת באתגר אחר.

האתגר הראשון, אם נהיה כנים, הוא לוודא שהחברה לא תתבע בגלל סוגיות של אפליה. כאן התשובה פשוטה, גם אם לא מספקת: צריך לאמן את המנהלים להתייחס בזהירות להמלצותיה של הבינה המלאכותית. במילים אחרות, צריך להנחיל להם מיומנויות חשיבה ביקורתית וללמד אותם אודות המגבלות שלה והמגבלות של הנתונים עליהם היא מסתמכת.

האתגר השני הוא שימור יכולת החדשנות והחשיבה-מחוץ-לקופסא של העובדים בחברה. כאשר העובדים יודעים שעוקבים אחריהם יומם-ולילה, ושהמנהל מסוגל לקבל דיווח אודות כל מילה וכל מעשה שלהם, קיים חשש אמיתי שלא ינסו פתרונות יצירתיים וחדשניים לבעיות קיימות. העובד שיודע שכל תוספת-לתוספת הפיצה שהוא שם נאמדת בקפדנות, לא יוסיף לתוספת – ודומינוס לא תדע לעולם שהלקוחות שלה מעוניינים בתוספת-לתוספת, אך אינם באים על סיפוקם. יש חשיבות בגיוון כדרך לנסות כיוונים חדשים ולשפר את הקיים, ומעקב מתמיד יפגע ביכולתם וברצונם של עובדים לעשות זאת.

התשובה הפשטנית לאתגר הזה היא להימנע לגמרי מניטור השיח והעובדים. אלא שחברה שתעשה זאת עלולה לגלות שאחרות עוקפות אותה בסיבוב. שהפיצות שלה עגולות פחות משל האחרות, שהחצי-פטריות מתערבב עם החצי-זיתים, ושהמנהל בסניף מקלל את העובדים בזמן שהם מכינים את הפיצות. כל הקשיים האלו יעלו להם בלקוחות ובחיכוכים פנימיים. 

מה אפשר לעשות? אי אפשר להימנע מהשימוש בטכנולוגיה לניטור העובדים, אבל צריך לעשות בה שימוש נכון. מנהלים חכמים יגדירו מראש כללים ברורים – ורצוי בשיתוף פעולה עם העובדים עצמם – לגבי סוג המעקב אחר עובדים שיביא את מירב התועלת לחברה, עם פגיעה מינימלית ככל האפשר בעובדים. הם יקפידו שלא לחצות את הקווים שהתוו לעצמם, מכיוון שבסופו של דבר יש חשיבות ומשמעות גם לאושרם של העובדים. עובדים שמרגישים שסומכים עליהם, שמסוגלים לדבר בחופשיות ולהביא רעיונות חדשניים ויצירתיים, יכולים לרומם ולקדם את החברה כולה.

האתגר השלישי הוא שאנו מתקדמים במהירות לתקופה בה בינות מלאכותיות ינהלו מחלקות שלמות, וזמן קצר לאחר מכן – גם ארגונים שלמים. הבינה המלאכותית תהיה המנכ”ל, הסמנכ”ל, ותמלא כל תפקיד ניהולי אחר בחברה. וכן, היא תעקוב, תדרג ותקבל החלטות בעצמה בנוגע לעובדים האנושיים בחברה. כל הטיה שיש לה – תונצח בתוך החברה.

כדי להכין את עצמנו למצב כזה, צריך להחליט שכאשר בינות מלאכותיות מקבלות החלטות שמשפיעות ישירות על חייהם של בני-אדם, ראוי שישמרו על צניעות. הן צריכות לבחון את החלטותיהן בזהירות ולהעבירן דרך סדרה של בינות מלאכותיות אחרות שיספקו חוות דעת נוספות ויעשירו את הדיון הפנימי הממוחשב על ההחלטה. ההחלטה הסופית, כאשר תתקבל, צריכה להיות מגובה בנתונים ולהתחשב גם בטובת החברה – וגם בטובת העובד האינדיבידואל, עד כמה שהדבר אפשרי.

שיהיה לנו בהצלחה, ושכל פיצותינו יהיו תמיד אחידות בתוספותיהן.

עוד בנושא באתר הידען: