ייתכן שלעולם לא נדע אם בינה מלאכותית מודעת, אומר פילוסוף מקיימברידג'

ד"ר טום מקללנד טוען שאין לנו כיום דרך אמינה לבדוק תודעה במכונות, ומזהיר שהאי־ודאות סביב תודעה בבינה מלאכותית עלולה להפוך לכלי הייפ ומיתוג — בעוד שהשאלה האתית המרכזית קשורה דווקא לתחושתיות וליכולת לסבול.

מכונה בעלת תודעה. <a href="https://depositphotos.com. ">המחשה: depositphotos.com</a>
מכונה בעלת תודעה. המחשה: depositphotos.com

ככל שהטענות על “בינה מלאכותית מודעת” נשמעות בקול רם יותר, פילוסוף מאוניברסיטת קיימברידג' טוען שאין לנו די ראיות כדי לדעת אם מכונות מסוגלות להיות מודעות באמת, ועוד פחות מכך אם יש לכך משמעות מוסרית.

ד"ר טום מקללנד (Tom McClelland), מהמחלקה להיסטוריה ולפילוסופיה של המדע באוניברסיטת קיימברידג', אומר שכיום יש לנו מעט מדי ראיות אמינות לגבי מהי בכלל תודעה, ולכן איננו יכולים לשפוט אם בינה מלאכותית חצתה את הסף הזה. בגלל הפער הזה, הוא טוען, דרך אמינה “לבדוק תודעה” במכונות צפויה להישאר מחוץ להישג יד בעתיד הנראה לעין, ואולי לזמן רב מאוד ואף ללא הגבלת זמן.

כשהדיון על תודעה מלאכותית עובר ממדע בדיוני לוויכוח אתי בעולם האמיתי, מקללנד אומר שהעמדה היחידה ש“אפשר להצדיק” היא אגנוסטיות: פשוט לא נוכל לדעת אם בינה מלאכותית מודעת, וייתכן שזה יישאר כך לאורך זמן רב. במילים אחרות, בכל השיח על תודעה בבינה מלאכותית, אין לנו כיום בסיס שמאפשר הכרעה.

מקללנד גם מדגיש שתודעה כשלעצמה לא הופכת מיד את הבינה המלאכותית ל“חשובה מבחינה מוסרית”. לדבריו, מה שחשוב יותר הוא סוג מסוים של תודעה שנקרא תחושתיות (sentience), כלומר חוויות מודעות שיש להן איכות חיובית או שלילית.

“תודעה יכולה לגרום לכך שבינה מלאכותית תפתח תפיסה ותהיה מודעת לעצמה, אבל זה עדיין יכול להיות מצב ניטרלי,” אמר מקללנד. “תחושתיות כוללת חוויות מודעות שהן טובות או רעות, וזה מה שהופך ישות למסוגלת לסבל או להנאה. כאן האתיקה נכנסת לתמונה. גם אם ניצור בטעות בינה מלאכותית מודעת, לא סביר שהיא תהיה סוג התודעה שמטריד אותנו.”

הוא נותן דוגמה: “מכוניות אוטונומיות שחוות את הכביש שלפניהן יהיו דבר עצום. אבל מבחינה אתית, זה לא משנה. אם הן יתחילו להגיב רגשית ליעדים שלהן, זה כבר סיפור אחר.”

טענות על מכונות מודעות


חברות גדולות משקיעות סכומים עצומים בניסיון להגיע ל־AGI (Artificial General Intelligence) — מערכות שנועדו לחשוב ולהסיק מסקנות באופן דמוי־אנושי. חלק מהגורמים טוענים שבינה מלאכותית מודעת יכולה להגיע בקרוב, וכבר מתקיימים דיונים בין חוקרים וממשלות על השאלה כיצד יש להסדיר רגולטורית “תודעת AI”.

אבל לטענת מקללנד, הבעיה בסיסית יותר: אנחנו עדיין לא יודעים מה גורם לתודעה, או מה מסביר אותה. לכן אין לנו יסודות מוצקים כדי לבדוק אם בינה מלאכותית “מחזיקה” בה.

“אם ניצור בטעות בינה מלאכותית מודעת או תחושתית, עלינו להיזהר ולהימנע מפגיעה,” הוא אומר. “אבל להתייחס למה שהוא בפועל כמו טוסטר כאילו הוא מודע, בזמן שיש בעולם יצורים מודעים אמיתיים שאנחנו פוגעים בהם בקנה מידה עצום — גם זו טעות גדולה.”

לדבריו, בוויכוחים על תודעה מלאכותית קיימות שתי אסכולות מרכזיות. מצד אחד, “המאמינים” טוענים שאם מערכת בינה מלאכותית מסוגלת לשכפל את ה‘תוכנה’ של התודעה — כלומר את הארכיטקטורה התפקודית — היא תהיה מודעת, גם אם היא פועלת על שבבי סיליקון ולא על רקמת מוח. מצד שני, “הספקנים” טוענים שתודעה תלויה בתהליכים ביולוגיים מהסוג הנכון בתוך “סובייקט אורגני מגולם”. גם אם ניתן לשחזר על סיליקון את המבנה של התודעה, הם אומרים, זה יהיה רק סימולציה — בלי שהבינה המלאכותית “תידלק” למודעות ממשית.

במאמר שפורסם בכתב העת Mind & Language, מקללנד מנתח את עמדות שני הצדדים ומראה שלדבריו שתיהן עושות “קפיצת אמונה”, מעבר למה שכל גוף ראיות שקיים כיום מצדיק, ואף מעבר למה שסביר שייווצר בעתיד.

למה השכל הישר לא עובד


“אין לנו הסבר עמוק לתודעה,” אומר מקללנד. “אין ראיות שמצביעות על כך שתודעה יכולה לצוץ עם המבנה החישובי הנכון, וגם אין ראיות שתודעה היא בעיקרה תופעה ביולוגית.”

“וגם אין סימן לכך שיש באופק ראיות מספקות,” הוא מוסיף. “בתרחיש האופטימי ביותר, אנחנו במרחק של מהפכה אינטלקטואלית מכל סוג של מבחן תודעה בר־קיימא.”

“אני מאמין שהחתול שלי מודע,” אומר מקללנד. “זה לא מבוסס על מדע או פילוסופיה כמו על שכל ישר — זה פשוט ברור.” אבל, הוא ממשיך, השכל הישר הוא תוצר של היסטוריה אבולוציונית ארוכה שבה לא היו צורות חיים מלאכותיות. לכן אי אפשר לסמוך על השכל הישר כשמדובר ב־AI. מצד שני, גם אם פונים לנתונים ולראיות קשוחות, זה לא פותר את הבעיה.

“אם לא השכל הישר ולא מחקר קשוח יכולים לתת תשובה, העמדה הלוגית היא אגנוסטיות. אנחנו לא יכולים לדעת, ואולי לעולם לא נדע,” הוא אומר. ובכך, הוא מסכם, הדיון על תודעה בבינה מלאכותית נשאר תקוע בתוך ערפל ראייתי.

עם זאת, מקללנד מסייג ומגדיר את עצמו “אגנוסטיקן קשיח־בערך” (hard-ish agnostic): “בעיית התודעה היא אדירה באמת. אבל ייתכן שהיא לא בלתי־פתירה.”

הסיכונים האתיים של הייפ סביב AI


מקללנד טוען שהאופן שבו תעשיית הטק מקדמת “תודעה מלאכותית” דומה לעיתים יותר למיתוג מאשר לדיון מדעי. “יש סיכון שהעובדה שלא ניתן להוכיח תודעה תנוצל על ידי תעשיית ה־AI כדי לטעון טענות מופרכות על הטכנולוגיה שלה. זה הופך לחלק מההייפ, כך שחברות יכולות למכור את הרעיון של ‘רמת חוכמה’ חדשה בבינה מלאכותית.”

לדבריו, להייפ הזה יש גם השלכות אתיות על חלוקת משאבי מחקר. “יש גוף ראיות הולך וגדל שמציע ששרימפס (prawns) עשויים להיות מסוגלים לסבול, ובכל זאת אנחנו הורגים בערך חצי טריליון שרימפס בכל שנה. בדיקת תודעה בשרימפס היא קשה, אבל לא מתקרבת לקושי של בדיקת תודעה ב־AI,” הוא אומר.

מקללנד מספר שעבודתו על תודעה גרמה לאנשים מהציבור לפנות אליו בנוגע לצ'אטבוטים. “אנשים גרמו לצ'אטבוטים שלהם לכתוב לי מכתבים אישיים שמתחננים שאאמין שהם מודעים,” הוא אומר. “זה הופך את הבעיה למוחשית יותר, כשאנשים משוכנעים שיש להם מכונות מודעות שמגיעות להן זכויות, ושאנחנו מתעלמים מזה.”

“אם יש לך קשר רגשי עם משהו, שמבוסס על ההנחה שהוא מודע — והוא לא — זה עלול להיות רעיל ברמה קיומית,” הוא מוסיף. “הרטוריקה המנופחת של תעשיית הטק כנראה מחמירה את זה.”

הפניה למאמר המדעי:
Agnosticism about artificial consciousness” מאת Tom McClelland, 18-12-2025, Mind & Language.

עוד בנושא באתר הידען:

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זו עושה שימוש ב-Akismet כדי לסנן תגובות זבל. פרטים נוספים אודות איך המידע מהתגובה שלך יעובד.