המדע מחפש כללי שקיפות לשימוש בבינה מלאכותית במחקרים

יוזמה בין־לאומית חדשה מבקשת לגבש תקן אחיד לדיווח על שימוש בבינה מלאכותית במחקר מדעי. השאלה אינה רק אם חוקרים השתמשו בבינה מלאכותית, אלא מה בדיוק היא עשתה במאמר.

בינה מלאכותית משתפת פעולה עם חוקרים בשר ודם. <a href="https://depositphotos.com">אילוסטרציה: depositphotos.com</a>
בינה מלאכותית משתפת פעולה עם חוקרים בשר ודם. אילוסטרציה: depositphotos.com

השימוש בבינה מלאכותית במחקר מדעי כבר אינו תרחיש עתידי. חוקרים משתמשים בכלים כאלה לעריכת לשון, סיכום ספרות, כתיבת קוד, ניתוח נתונים, ניסוח טיוטות ולעיתים גם ביצירת תרשימים או תמונות. השאלה שמעסיקה כעת את עולם הפרסום המדעי היא כיצד לדווח על השימוש הזה בצורה שתשמור על אמינות המחקר, בלי להפוך כל שימוש זניח בכלי עזר לכתם על המאמר.

כתבה שפורסמה ב־Science ב־8 במאי 2026 הציגה את הדיון שהתנהל בכנס World Conference on Research Integrity בוונקובר סביב ניסיון לגבש הנחיות אוניברסליות לגילוי שימוש בבינה מלאכותית במחקר. לפי הכתבה, המשתתפים הסכימו שהצורך בשקיפות ברור, אך הוויכוח האמיתי נמצא בפרטים: מתי בדיוק נדרש גילוי, כמה מפורט עליו להיות, והאם יש להבחין בין תיקון ניסוח לבין תרומה ממשית לתוכן המדעי. (science.org)

הרקע לדיון הוא יוזמה בין־לאומית לגיבוש Global Reporting Standard for AI Disclosure in Research, תקן עולמי לדיווח על שימוש ב־AI במחקר. את היוזמה מובילים או תומכים בה גופים מרכזיים בעולם המדעי והמו״לי, ובהם World Conference on Research Integrity Foundation, International Science Council, COPE, STM ו־Global Young Academy. לפי ISC, כיום קיימים פערים גדולים בין תחומים, מדינות ומו״לים באופן שבו נדרש לדווח על שימוש בבינה מלאכותית, ולכן יש צורך בהבנה משותפת ובפורמט אחיד יותר. (International Science Council)

שימוש בטקסונומיה דומה לתיאור תרומות מחברים

היוזמה נבנית בשלושה שלבים: מיפוי צרכים בין דצמבר 2025 לפברואר 2026, הגדרת מה בדיוק צריך להיחשף בין מאי לאוגוסט 2026, וגיבוש נוסח מעודכן של התקן, המכונה Vancouver Standard, עד סוף 2026. המטרה היא ליצור כלי דומה ברוחו ל־CRediT, הטקסונומיה המקובלת לתיאור תרומות מחברים, כך שהצהרות על שימוש ב־AI יהיו ברורות, עקביות וניתנות להשוואה בין כתבי עת ומוסדות.

אחת הבעיות המרכזיות היא ש״שימוש ב־AI״ הוא מושג רחב מדי. מאמר שפורסם ב־Frontiers in Digital Health מציע להבחין בין רמות סיכון שונות: שימוש בסיסי לתיקון שגיאות כתיב ודקדוק, שימוש עמוק יותר לשכתוב טקסט, שימוש ליצירת תוכן מדעי, ושימוש בעל סיכון גבוה יותר לניתוח נתונים או להסקת מסקנות. לפי גישה זו, אין סיבה להתייחס באותה חומרה לכלי שסייע לשפר ניסוח באנגלית ולכלי שהשפיע על ניתוח סטטיסטי או פרשנות מדעית. (Frontiers)

ההבחנה הזאת חשובה גם מבחינה חברתית. חוקרים שאינם דוברי אנגלית כשפת אם עשויים להיעזר ב־AI כדי לנסח מאמר ברור יותר, ובכך לצמצם חסם לשוני בפרסום מדעי. מצד שני, אותם כלים עלולים להמציא עובדות, להציג ביטחון שגוי, ליצור הפניות לא קיימות או להשמיט מחקרים חשובים בסיכומי ספרות. לכן האחריות חייבת להישאר אצל החוקרים בני האדם, ולא לעבור לכלי עצמו.

כאן נכנסת גם שאלת המחברים. COPE, ועדת האתיקה בפרסום, קבעה כבר ב־2023 כי כלי AI אינם יכולים להופיע כמחברים של מאמר מדעי. הסיבה פשוטה: מחבר צריך לשאת באחריות משפטית, אתית ומדעית לתוכן, להסכים לפרסום, לענות לביקורת ולתקן טעויות. מערכת בינה מלאכותית אינה יכולה לעשות זאת. (publicationethics.org)

המו"לים הגדולים אימצו מדיניות לא אחידה

מו״לים גדולים כבר אימצו מדיניות משלהם, אך המדיניות אינה אחידה. Science מציינת במדיניות העריכה שלה כי תמונות, וידאו ומולטימדיה שנוצרו ב־AI אינם מותרים ללא אישור מפורש של העורכים. PLOS מדגישה כי כלי AI אינם יכולים לשמש כבודקים עמיתים או כעורכים מקבלי החלטות, וכי אין להעלות כתבי יד חסויים לכלים חיצוניים. Springer Nature דורשת שקיפות ואחריות אנושית, ומדגישה כי AI יכול לתמוך במחקר אך אינו מחליף מומחיות אנושית.

מחקר חדש על כלי בשם DAISY מציע דרך מעשית יותר להתמודד עם הבעיה. DAISY הוא כלי מבוסס טופס שמסייע לחוקרים לנסח הצהרת AI מסודרת. לפי המאמר, הצהרות שנוצרו בעזרת DAISY היו מלאות וברורות יותר מהצהרות חופשיות, משום שהן פירטו באילו שלבים של המחקר והכתיבה נעשה שימוש בכלים. החוקרים מציינים כי למרות החשש מסטיגמה סביב שימוש ב־AI, השימוש בכלי מובנה לא הפחית את הנוחות של המחברים להצהיר על כך. (arXiv)

המשמעות הרחבה היא שהמדע אינו מנסה לאסור באופן גורף על שימוש בבינה מלאכותית, אלא להכניס אותה למסגרת של שקיפות, אחריות וביקורת. כמו שמאמרים מדעיים כוללים הצהרות על מימון, ניגודי עניינים ותרומת מחברים, ייתכן שבעתיד הם יכללו גם הצהרות מובנות על תפקיד כלי AI בתהליך העבודה.

האתגר יהיה למצוא איזון. גילוי רחב מדי עלול להפוך לטקס פורמלי חסר ערך, שבו כל שימוש במתקן שגיאות מקבל הצהרה ארוכה. גילוי צר מדי עלול להסתיר שימושים שמשפיעים באמת על אמינות הממצאים. התקן החדש שמתגבש בוונקובר ינסה לענות בדיוק על הפער הזה: לא האם נעשה שימוש בבינה מלאכותית, אלא מה היא עשתה, באיזה שלב, ובאיזו מידה היא השפיעה על הידע המדעי שהקוראים מקבלים.

עוד בנושא באתר הידען:

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זו עושה שימוש ב-Akismet כדי לסנן תגובות זבל. פרטים נוספים אודות איך המידע מהתגובה שלך יעובד.