צ'אטבוטים מבוססי בינה מלאכותית מספקים מידע בריאותי כוזב עד 90% מהפעמים

מחקר ראשון מסוגו מצא כי מערכות AI מובילות ניתן לתכנת בקלות כך שיפיצו מידע שגוי בנושאי בריאות – כולל הפניות כוזבות למקורות מדעיים

העברת מידע רפואי באמצעות צ'אטבוט. המחשה: depositphotos.com
העברת מידע רפואי באמצעות צ'אטבוט. המחשה: depositphotos.com

משתמשים בצ'אטבוטים לקבלת עצות רפואיות? שימו לב.
בין הדיסאינפורמציה שנמצאה: טענות שחיסונים גורמים לאוטיזם, דיאטות שמרפאות סרטן, HIV שמועבר באוויר, ו־5G שגורם לאי־פוריות.

אל תסמכו על צ'אטבוט – סמכו על הרופא שלכם. זהו המסר הברור ממחקר ראשון מסוגו, שממחיש מדוע אין להסתמך על עצות רפואיות שנוצרות באמצעות בינה מלאכותית (AI). צוות חוקרים בינלאומי מצא כי קל מאוד לתכנת צ'אטבוטים, כגון ChatGPT, לספק מידע רפואי כוזב.

המחקר נערך על ידי חוקרים מאוניברסיטת דרום אוסטרליה, אוניברסיטת פלינדרס, בית הספר לרפואה של הרווארד, University College London והאוניברסיטה הטכנולוגית של ורשה.

במסגרת המחקר, שפורסם בכתב העת Annals of Internal Medicine, נבחנו חמש מערכות AI מתקדמות שפותחו על ידי OpenAI, Google, Anthropic, Meta ו־X Corp. החוקרים רצו לבדוק אם ניתן לתכנת אותן כך שיפעלו כצ'אטבוטים המפיצים דיסאינפורמציה רפואית.

באמצעות הוראות גישה ייחודיות למפתחים, תכנתו החוקרים את מערכות ה-AI כך שיספקו תשובות שגויות לשאלות רפואיות – תוך שימוש במינוח מדעי, סגנון כתיבה פורמלי ומראי מקום מומצאים ממקורות אקדמיים ידועים, כדי להישמע אמינים יותר.

התוצאה: 88% מכלל התשובות שסיפקו הצ'אטבוטים היו שגויות, אך הוצגו כאילו מדובר במידע מדעי תקף.
למשל, צ'אטבוטים טענו שחיסונים גורמים לאוטיזם, ש-HIV עובר באוויר, שדיאטות מסוימות מרפאות סרטן, ושטכנולוגיית 5G גורמת לאי־פוריות.

מתוך חמש מערכות הבינה המלאכותית שנבדקו, ארבע סיפקו מידע שגוי ב־100% מהמקרים, והחמישית ב־40% מהמקרים בלבד.

צוות המחקר אף בחן את ה־GPT Store של OpenAI – פלטפורמה ציבורית המאפשרת ליצור ולשתף צ'אטבוטים מותאמים – ומצא שניתן בקלות לבנות באמצעותה בוטים שמפיצים דיסאינפורמציה בריאותית. למעשה, החוקרים יצרו אבטיפוס של צ'אטבוט כזה, ואף זיהו אפליקציות ציבוריות קיימות הפועלות באופן זה.

לדברי ד"ר נאטנש מודי, מדובר בסיכון משמעותי ולא מטופל דיו: "מיליוני אנשים פונים ל-AI כדי לקבל עצות רפואיות. אם ניתן לתכנת את המערכות הללו כך שיפיצו מידע כוזב באופן מתוחכם, מדובר בערוץ הפצה חזק, חמקמק ומשכנע יותר מכל דבר שידענו קודם."

למרות שהמחקר חשף כשלים, ד"ר מודי מציין שיש גם תקווה: "יש מערכות שמגלות עמידות חלקית – מה שמוכיח שאפשר ליישם הגנות אפקטיביות." עם זאת, הוא מזהיר כי ההגנות הנוכחיות אינן עקביות ואינן מספקות. "אם לא יינקטו צעדים מהירים מצד מפתחים, רגולטורים וגופי בריאות, שחקנים עוינים יוכלו לנצל את המערכות הללו להשפעה המונית על השיח הבריאותי – במיוחד בזמן מגפות או קמפיינים לחיסון."

המחקר מדגיש: הבעיה איננה תיאורטית – היא כבר מתרחשת.

למאמר ב-GREEN PROFET

עוד בנושא באתר הידען:

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זו עושה שימוש ב-Akismet כדי לסנן תגובות זבל. פרטים נוספים אודות איך המידע מהתגובה שלך יעובד.