כתבת Science על פרופ’ האני פאריד, מחלוצי הפורנזיקה הדיגיטלית, מציגה את האתגר החדש: דיפ־פייקים שנוצרים במהירות ובזמן אמת, ומחייבים שילוב של זיהוי, חתימות מקור, רגולציה וחינוך למדיה.
במשך שנים, פורנזיקה דיגיטלית עסקה בשאלה שנראתה טכנית יחסית: האם תמונה נערכה, האם סרטון עבר מניפולציה, האם קובץ דיגיטלי משקף אירוע אמיתי. בעידן הבינה המלאכותית היוצרת, השאלה הזאת הפכה לאחת השאלות המרכזיות של החברה הדיגיטלית: איך אפשר לדעת מה אמיתי כאשר כל אדם כמעט יכול ליצור תמונה, קול או וידאו שנראים אמינים?
כתבה שפורסמה ב־Science בסוף אפריל 2026 מציגה את פרופ’ האני פאריד, חוקר מאוניברסיטת קליפורניה בברקלי, כאחד האנשים המזוהים ביותר עם המאבק הזה. פאריד עוסק זה עשרות שנים בפיתוח כלים לזיהוי תמונות וסרטונים מזויפים, אך לפי הכתבה, האתגר הנוכחי שונה מכל מה שקדם לו: דיפ־פייקים שנוצרים במהירות, באיכות גבוהה, ולעיתים גם בזמן אמת. (Scientific Today)
פאריד נחשב לאחד מחלוצי התחום משום שמעבדתו סייעה לבסס את הפורנזיקה הדיגיטלית כתחום מחקר עצמאי. לפי פרופיל המחקר שלו בברקלי, עבודתו מתמקדת בפורנזיקה דיגיטלית, מדע פורנזי, מידע מטעה, ניתוח תמונות ותפיסה אנושית. המטרה היא לפתח שיטות חישוביות ומתמטיות לאימות מדיה דיגיטלית — כלומר לבדוק לא רק מה אנחנו רואים, אלא האם אפשר לסמוך על מקורו ועל שלמותו. (VCR Research)
הקושי המרכזי הוא שהטכנולוגיה התקדמה מהר יותר מכלי הזיהוי. בהרצאה שפורסמה באתר Berkeley News באפריל 2026 אמר פאריד כי בתוך שנה או שנתיים עברנו מעידן שבו מחשב מייצר קובץ סטטי בתוך שניות או דקות, לעידן של דיפ־פייקים אינטראקטיביים המסוגלים לנהל שיחה חיה בזמן אמת. הוא הזהיר כי כלים שבעבר היו זמינים בעיקר למדינות או לארגונים ממומנים היטב הפכו לנגישים כמעט לכל אדם, והדבר משנה את מפת האיומים. (Berkeley News)
הבעיה אינה מסתכמת בתעמולה פוליטית. דיפ־פייקים משמשים גם להונאות התחזות, ניסיונות סחיטה, הטעיית עובדים, פגיעה באמון הציבור ובראיות דיגיטליות. קול משוכפל יכול להישמע כמו קרוב משפחה, מנהל או איש ציבור. שיחת וידאו מזויפת יכולה להיראות כמו פגישה אמיתית. תמונה או סרטון יכולים להופיע ברשת בזמן משבר, עוד לפני שגופי בדיקת עובדות הספיקו להבין מה מקורם.
גם המכון האמריקני לתקנים וטכנולוגיה, NIST, מתייחס לכך כאתגר פורנזי ממשי. במסגרת GenAI: Deepfakes 2026, המכון מציין כי יצירת דיפ־פייקים הפכה לתהליך זול, נגיש ומהיר, וכי תמונה שנלקחה מרשת חברתית יכולה להפוך בתוך שניות לדמות מלאכותית מציאותית. NIST מפתח שיטות הערכה חדשות למערכות זיהוי, בין היתר משום שכלים שנראים טוב במבחנים אקדמיים עלולים לאבד חלק גדול מביצועיהם כאשר הם נתקלים בתנאי שטח אמיתיים.
כאן מתברר שהמאבק בדיפ־פייקים אינו יכול להישען על “גלאי קסם” אחד. מערכות זיהוי מחפשות סימנים סטטיסטיים, חריגות בתנועה, עקבות דחיסה, חוסר עקביות בתאורה, בעיניים, בקול או במטא־דאטה. אבל יוצרי התוכן המזויף לומדים במהירות כיצד לעקוף את הסימנים האלה. לכן התחום נע בין שני כיוונים משלימים: זיהוי בדיעבד של זיופים, ותיעוד מראש של מקור התוכן.
הכיוון השני נקרא Provenance, או מעקב אחר מקור והיסטוריית העריכה של קובץ. תקן C2PA ו־Content Credentials נועדו לאפשר ליוצרים, מצלמות, עורכים ופלטפורמות לצרף למדיה חתימה קריפטוגרפית שמתעדת מתי נוצר הקובץ, באילו כלים נערך, ומה נעשה בו. התקן אינו קובע אם תוכן הוא “אמת” או “שקר”, אלא מספק מסגרת לבדוק האם פרטי המקור והעריכה לא שונו לאחר מכן. (spec.c2pa.org)
עם זאת, גם C2PA אינו פתרון מלא. לפי מסמכי התקן עצמו, הוספת פרטי מקור היא וולונטרית, ואין להסיק שתוכן ללא Content Credentials הוא בהכרח חשוד. בנוסף, התקן אינו מחליף בדיקת עובדות, חינוך למדיה או פורנזיקה דיגיטלית; הוא משלים אותם. לכן הפתרון הסביר יותר הוא מערכת שכבות: סימון מקור, בדיקה פורנזית, מדיניות פלטפורמות, חינוך ציבורי ונהלים ברורים בארגונים.
גם הרגולטורים מתחילים להבין שהבעיה אינה תאורטית. ה־FTC האמריקני כבר ערך אתגר לזיהוי שכפול קול, ובין הפתרונות שהוצגו היו טכנולוגיות לבדיקת “חיות” של קול ולזיהוי דיפ־פייקים קוליים בזמן אמת. הדבר משקף שינוי חשוב: הזיופים כבר אינם רק תמונות וסרטונים, אלא גם שיחות טלפון, הודעות קוליות ומפגשי וידאו. (Federal Trade Commission)
עבור עיתונאים, מדענים ובתי משפט, המשמעות היא שינוי עמוק בתרבות הראיות. בעבר, עצם קיומה של תמונה או הקלטה העניק להן משקל ציבורי חזק. כיום, קובץ דיגיטלי צריך להיבחן בהקשר: מי יצר אותו, איפה פורסם לראשונה, האם יש עותקים מוקדמים יותר, האם קיימים מקורות עצמאיים, האם יש חתימת מקור, ומה אומרים מומחי פורנזיקה. התשובה אינה לוותר על ראיות דיגיטליות, אלא להתייחס אליהן בזהירות רבה יותר.
השורה התחתונה של הדיון סביב פאריד היא שהמאבק בדיפ־פייקים אינו רק טכנולוגי. זו מלחמה על אמון. אם הציבור יאמין לכל סרטון מזויף, שקרים יתפשטו מהר יותר. אם הציבור יפסיק להאמין גם לתיעוד אמיתי, בעלי כוח יוכלו להכחיש כל ראיה לא נוחה בטענה שהיא “AI”. לכן האתגר הגדול אינו רק לזהות זיופים, אלא לשמר מנגנונים שמאפשרים לחברה להסכים על עובדות בסיסיות.
בעידן שבו כל תמונה ניתנת לעריכה וכל קול ניתן לחיקוי, הפורנזיקה הדיגיטלית עוברת משולי המעבדה אל מרכז החיים הציבוריים. העבודה של פאריד ושל חוקרים אחרים בתחום אינה מבטיחה עולם נקי מזיופים, אך היא מציעה דרך מעשית יותר להתמודד איתם: פחות אמונה עיוורת, יותר בדיקה שיטתית; פחות הסתמכות על תחושת בטן, יותר עקבות מקור, אימות ושקיפות.
FAQ מהיר
מהו דיפ־פייק?
דיפ־פייק הוא תמונה, קול או וידאו שנוצרו או שונו באמצעות בינה מלאכותית כך שייראו או יישמעו אמיתיים.
למה קשה לזהות דיפ־פייקים כיום?
כלי היצירה השתפרו מאוד, והם מסוגלים ליצור מדיה מציאותית ואף אינטראקטיבית בזמן אמת. בנוסף, הזיופים משתנים במהירות ומקשים על גלאים ללמוד דפוס קבוע.
מה הפתרון המרכזי?
אין פתרון יחיד. נדרש שילוב של כלים פורנזיים, חתימות מקור כמו Content Credentials, מדיניות פלטפורמות, נהלי אימות בארגונים וחינוך ציבורי לצריכת מידע ביקורתית.