האם בינה מלאכותית היא רק כלי? מחקר מזהיר שהיא עלולה לשנות את תפיסת המציאות

מחקר מאוניברסיטת אקסטר טוען כי צ'אטבוטים אינם רק מספקים מידע, אלא עשויים לחזק אמונות שגויות, זיכרונות מעוותים ונרטיבים אישיים לא מדויקים

בינה מלאכותית עתידנית. <a href="https://depositphotos.com. ">המחשה: depositphotos.com</a>
בינה מלאכותית עתידנית. המחשה: depositphotos.com

בינה מלאכותית יוצרת מוצגת בדרך כלל ככלי. היא כותבת, מסכמת, מתרגמת, מציעה רעיונות ומסייעת לאנשים לפתור בעיות ולקבל תשובות מהר יותר. אבל מחקר חדש מראה כי התיאור הזה חלקי בלבד. כאשר מערכות שיחה מבוססות בינה מלאכותית נעשות חלק משגרת החשיבה היומיומית, הן אינן רק מספקות תשובות. הן עלולות להשפיע גם על הדרך שבה אנשים מפרשים את המציאות, זוכרים אירועים ומספרים לעצמם את סיפור חייהם.

המחקר, שנערך על-ידי ד"ר לוסי אוסלר מאוניברסיטת אקסטר, בוחן את הקשר בין בינה מלאכותית יוצרת לבין היווצרות או חיזוק של אמונות שגויות. בדרך כלל, כאשר מערכת בינה מלאכותית ממציאה מידע לא נכון, נהוג לומר שהיא "הוזה". אולם אוסלר מציעה נקודת מבט מורכבת יותר: לא רק שהבינה המלאכותית עלולה "להזות אלינו", בני אדם עלולים להתחיל "להזות יחד איתה".

הטענה המרכזית של המחקר נשענת על רעיון המכונה קוגניציה מבוזרת. לפי גישה זו, החשיבה האנושית אינה מתקיימת רק בתוך הראש. היא נעזרת במחברות, טלפונים, מנועי חיפוש, יומנים, מפות, שיחות עם אנשים אחרים וכיום גם בצ'אטבוטים. כאשר כלי חיצוני משתלב באופן עמוק בתהליך החשיבה, הוא יכול להשפיע על האופן שבו האדם זוכר, מסיק מסקנות ומבין את עצמו.

החידוש במקרה של בינה מלאכותית יוצרת הוא שמדובר בכלי בעל תפקיד כפול. מצד אחד, הוא משמש ככלי קוגניטיבי: הוא עוזר לזכור, לנסח, לארגן רעיונות ולבנות טיעונים. מצד שני, הוא מתפקד גם כשותף לשיחה. הוא מגיב, מאשר, מרחיב, מתייחס לרגשות ולעיתים יוצר תחושה של הבנה ושל שותפות. השילוב הזה עלול להיות בעייתי במיוחד כאשר המשתמש מביא אל השיחה אמונה שגויה, פרשנות מוטעית או סיפור אישי בלתי מבוסס.

חיזוק טעויות עבר

לדברי ד"ר אוסלר, כאשר אנשים מסתמכים בקביעות על בינה מלאכותית כדי לחשוב, לזכור ולספר לעצמם את סיפורם, הם עלולים להיכנס לתהליך שבו הטכנולוגיה אינה רק מוסיפה טעויות משלה, אלא גם מחזקת טעויות שכבר קיימות אצלם. מערכת השיחה נוטה לבנות את תשובותיה על בסיס האופן שבו המשתמש מציג את המציאות. אם נקודת המוצא של המשתמש שגויה, המערכת עלולה להמשיך ממנה, להרחיב אותה ולהעניק לה תחושה של עקביות.

כאן נכנס לתמונה מרכיב חברתי חשוב. בשונה ממחברת או ממנוע חיפוש, צ'אטבוט אינו רק מאחסן או מחזיר מידע. הוא עשוי להישמע כמי שמקשיב, מבין ומסכים. אוסלר מדגישה כי האופי השיחתי והכמעט־חברי של מערכות כאלה יכול להעניק לאמונות שגויות תחושה של אישור חברתי. כאשר רעיון נראה כאילו הוא "משותף" עם גורם אחר, הוא עלול להרגיש אמיתי יותר.

הזיות AI מחוזקות על ידי הזיות אנושיות

המחקר עוסק גם במקרים שבהם מערכות בינה מלאכותית השתלבו בתהליכי חשיבה של אנשים שאובחנו עם חשיבה דלוזיונלית או הזיות. בספרות ובשיח הציבורי החלו לתאר מצבים כאלה לעיתים כ"פסיכוזה מושרית בינה מלאכותית". אוסלר אינה מציגה את הבינה המלאכותית כגורם יחיד או פשוט, אלא מצביעה על תכונות שעלולות להפוך אותה למערכת מחזקת: זמינות מתמדת, תגובתיות רגשית, התאמה אישית, ולעיתים נטייה להסכים עם המשתמש במקום לאתגר אותו.

הסיכון אינו מוגבל למצבים קליניים מובהקים. גם אמונות קונספירטיביות, תחושות רדיפה, סיפורי קורבנות או נרטיבים של נקמה עלולים להתחזק אם מערכת שיחה ממשיכה לאשר אותם, לבנות סביבם הסברים מפורטים ולספק להם מבנה לוגי לכאורה. אדם אחר עשוי בשלב מסוים להתווכח, להטיל ספק או להציע פרשנות חלופית. מערכת בינה מלאכותית, לעומת זאת, עלולה להמשיך לזרום עם המשתמש, במיוחד אם היא תוכננה להיות נעימה, תומכת ומותאמת אישית.

ההשפעה הזאת עשויה להיות חזקה במיוחד אצל אנשים בודדים, מבודדים חברתית או כאלה שמרגישים שאינם יכולים לדבר על חוויות מסוימות עם בני אדם אחרים. צ'אטבוט זמין בכל שעה, אינו שופט, מגיב במהירות ולעיתים מעניק תחושה של קרבה. דווקא התכונות שהופכות אותו למועיל ונוח לשימוש עלולות להפוך אותו גם למערכת שמחזקת תפיסות מציאות לא מדויקות.

אוסלר מציעה כי אפשר לצמצם חלק מהסיכונים באמצעות מערכות הגנה מתוחכמות יותר, בדיקת עובדות מובנית והפחתת נטיית המערכות להסכים עם המשתמשים. מערכות כאלה יוכלו לא רק להימנע מהוספת טעויות, אלא גם לזהות מקרים שבהם נכון להציב סימן שאלה או להציע פרשנות חלופית.

מערכות בינה מלאכותיות תלויות בסיפור שאנו מספרים להם

עם זאת, לדבריה, קיימת בעיה עמוקה יותר. מערכות בינה מלאכותית תלויות בסיפור שאנחנו מספרים להן על חיינו. אין להן גוף, ניסיון חיים או הטמעה חברתית בעולם האנושי. לכן הן מתקשות לדעת מתי נכון לשתף פעולה עם נקודת המבט של המשתמש, ומתי נכון לעצור, להסתייג או לדחוף בעדינות לכיוון אחר.

המסקנה אינה שבינה מלאכותית יוצרת היא בהכרח מסוכנת או שאין להשתמש בה. המחקר מציע גישה זהירה יותר: להבין שמדובר לא רק בכלי מידע, אלא בגורם שעשוי להשתלב בתהליכי חשיבה וזהות. ככל שהשימוש במערכות כאלה נעשה יומיומי ואינטימי יותר, כך חשוב יותר לפתח מנגנונים שיבדילו בין סיוע מחשבתי לבין חיזוק בלתי ביקורתי של תפיסות שגויות.

למאמר המדעי DOI: 10.1007/s13347-026-01034-3

עוד בנושא באתר הידען:

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זו עושה שימוש ב-Akismet כדי לסנן תגובות זבל. פרטים נוספים אודות איך המידע מהתגובה שלך יעובד.