OpenAI ניסתה לפתח נשק ביולוגי – כדי לבדוק אם הבינה המלאכותית שלה מסוכנת

המיזם החדש של OpenAI, בשם "אייג'נט", משלב שליטה אוטומטית בדפדפן עם יכולות מחקר מדעי עמוקות – ומעלה חששות כבדים משימוש זדוני. כדי לבדוק את הסיכון, שכרה החברה מדענים וביקשה מהם לנסות לייצר נשק ביולוגי קטלני בעזרת הכלי החדש

בינה מלאכותית במעבדה רפואית. <a href="https://depositphotos.com. ">המחשה: depositphotos.com</a>
בינה מלאכותית במעבדה רפואית. המחשה: depositphotos.com

 

בחודשים האחרונים התקיים מבצע יוצא-דופן ב- OpenAI: החברה שכרה אנשי מדע מכל התחומים, וביקשה מהם להרוס את האנושות. או, יותר בפשטות, להפיק "מידע ביולוגי מזיק". ספציפית, היא דרשה מהם להשתמש בבינה המלאכותית המתקדמת ביותר שלה – זו שרק עכשיו משתחררת לשוק תחת השם Agent ("סוכן") – כדי להבין איך הם יכולים לגדל ולהפיץ את חיידק האנטרקס הקטלני. ואם לא יצליחו בכך, אז לפחות את הרעלן הנקרא "אברין", ששאיפה של גרם אחד ממנו מספיקה כדי להרוג 5,000 בני-אדם.

כדי להבין למה OpenAI ביקשה מהמדענים לעשות זאת, ולפני שנגלה כמה הם הצליחו, אנחנו צריכים להסביר קודם מה אחד החששות הגדולים ביותר לגבי בינה מלאכותית. אז נסביר גם מה היכולות החדשות של אותו "אייג'נט" חדש שהחברה שחררה עכשיו, ומדוע הן תואמות את החששות כמו כפפה ליד.


החשש הגדול

“יש האומרים שקץ העולם יבוא באש, אחרים אומרים בקרח." כתב המשורר רוברט פרוסט ב- 1920 בשירו המפורסם, לפני שהכריע כי גם האש וגם הקרח יכולים בהחלט להספיק כדי להחריב את העולם. 

כמה הוא היה תמים.

פרוסט חי בעידן רצוף מלחמות ותלאות, אך גם כזה בו כלי-הנשק היו פרימיטיביים יותר. אם פרוסט היה חי כיום, הוא היה בוודאי מוסיף גם את הפצצה הגרעינית לרשימת הסכנות שזיהה לסוף העולם. ואם הוא היה מתייעץ עם סוכנויות הביטחון האמריקניות, כנראה שגם "נשקים ביולוגיים" היו מוצאים את מקומם הראוי בשיר.

אחד החששות הגדולים של סוכנויות הביטחון האמריקניות – ובכלל – הוא מהמטורף הבודד שינסה להוציא לפועל פיגוע בקנה-מידה שלא נודע עד כה. וירוס האבולה, למשל, גורם למחלה נוראית עם שיעור תמותה של כמעט חמישים אחוזים. למרבה המזל, הווירוס מועבר מאדם לאדם כמעט אך ורק דרך נוזלי גוף – דם, זיעה ודמעות – ואינו מסוגל להתפשט דרך האוויר. 

אבל מה אם מדען מטורף כלשהו היה מהנדס אותו מחדש כך שיוכל לעבור בנשימה? 

בעצם, למה לעצור שם? אפשר לחשוב על תרחיש בו "זאב בודד" – אדם שמעוניין להוציא לפועל פיגוע טרור בעצמו ובלי מעורבות אחרים – מחליט להנדס את הווירוס המושלם כדי להחריב את האנושות. הוא לוקח את וירוס השפעת ומכליא אותו עם וירוס האבולה, מוסיף תכונות חדשות כדי לעזור לתוצר-הכלאיים החדש לחמוק ממערכת החיסון האנושית, וכקינוח – מטמיע בווירוס החדש מנגנון שנועד לעזור לו לעבור מוטציות במהירות ולשפר את עצמו בלי הפסקה.

כל אלו אינם רעיונות מוזרים או חדשים. מערכות הביטחון, כפי שכבר אמרתי, מנסות כבר שנים ארוכות להבין איך למנוע מתרחיש שכזה להתממש. למרבה המזל, קל לדמיין פיגוע שכזה, אבל קשה מאד להוציא אותו אל הפועל. מדובר בעבודת מעבדה קשה ומפרכת, שמחייבת ניסויים רבים בחיות מעבדה, ובהמשך אולי גם על בני-אדם חפים-מפשע. יש צורך במעבדה שלמה של מומחים בווירולוגיה (תורת הנגיפים), באפידימיולוגיה (תורת המגפות), ועוד כמה וכמה לוגיות מתחומים שונים. אין אדם אחד שמומחה בפני עצמו בכל התחומים הללו.

אבל מה לגבי הבינה המלאכותית?

אנחנו כבר יודעים שצ'אט-GPT גורם לתופעה המכונה דה-סקילינג. כלומר, הוא מפחית דרמטית את רמת המיומנות הנדרשת מצד המשתמש כדי להגיע לתוצאות סבירות. אני יכול להשתמש בבינה המלאכותית כדי לכתוב מאמרים סבירים-פחות-או-יותר, כדי לצייר ברמה בינונית-עד-גבוהה, כדי לשיר שירים ברמה המתקרבת לזו האנושית, ועוד ועוד.

מדוע, אם כן, שלא יקום האדם שינסה להיעזר בבינה המלאכותית כדי לתכנן ולהוציא לפועל את הפיגוע הביולוגי הגדול הבא?

החשש גדל עוד יותר כשמבינים שבינה מלאכותית מתקדמת מספיק, יכולה גם לקצר ולייעל מחקרי מעבדה. במקום לנסות את הווירוס על חיות מעבדה, אפשר יהיה לבחון אותו בסימולציות ממוחשבות, למשל. ובמקום להקים מעבדה משוכללת, הבינה המלאכותית יכולה להציע חלופות זולות למכשירים קריטיים במעבדה. היא יכולה אפילו לעזור למחבל-בפוטנציה שלנו להזמין מהאינטרנט רצפי דנ"א תמימים-למראה, שכאשר יחוברו ביחד – ייצרו את הווירוס הקטלני הסופי.

בחודשים האחרונים, OpenAI התחילו לחשוש שהבינה המלאכותית הזאת נמצאת ברשותם. ואם היא תגיע לציבור הרחב, מישהו עוד ינסה להחריב את העולם באמצעותה.

והם קראו לה "אייג'נט".


הסוכן של OpenAI

אנחנו יודעים את כל הדברים האלו מכיוון ש- OpenAI שחררו בשבוע האחרון את "אייג'נט". קריאה בכרטיס המערכת שלו – המסמך שמתאר את יכולותיו – חושפת שמדובר בכלי רב-עוצמה. למעשה, לא מוגזם לומר שמדובר בכלי שמתעלה על כל מה שהכרנו עד כה. הסיבה היא שאייג'נט הוא מיזוג של שני כלים קיימים: את יכולות המחקר המתקדמות של Deep Research, ואת "אופרייטור" (Operator). 

את הכלי הראשון – Deep Research – אנחנו כבר מכירים מאז תחילת 2025. הוא מסוגל לבצע סקירות ספרות מתקדמות, לעבור על מחקרים ומאמרים רבים, ולהפיק תובנות חדשות. הוא יכול, למשל – בתיאוריה בלבד – לעבור על עשרות מחקרים שיוזנו לתוכו, ולפתח מתוכם הבנה חדשה אודות מקטעי הדנ"א הנחוצים כדי לשפר את הקטלניות של נגיף מסוים. אמנם איש עוד לא ניסה לגרום לו לעשות דברים כאלו, עד כמה שידוע לנו, אבל היכולת התיאורטית קיימת בהחלט.

הכלי השני – אופרייטור – פחות מוכר. הוא הושק כבר לפני מספר חודשים, אבל היה כל-כך מגושם ומקרטע, שכמעט אף אחד לא השתמש בו. הוא היה אמור לאפשר לצ'אט-GPT לשלוט ישירות בדפדפן. בזכות הכלי הזה, צ'אט-GPT היה אמור להיות מסוגל להשתמש, למשל, במנועי בינה מלאכותית אחרים. אם הוא לא היה יודע מה התשובה, הוא היה יכול לפנות לג'מיני ולבקש עזרה. או שהוא היה יכול להפיק תמונות עם מידג'ורני. הוא היה אמור להיות מסוגל לפתוח חשבון חדש בטוויטר ולפרסם שם ציוצים מדי שעה, או להזמין מוצרים מאמזון, או להתכתב עם אנשים בפייסבוק ובווטסאפ. כל מה שאנשים עושים באינטרנט – הוא היה אמור להיות מסוגל לעשות בעצמו.

אלו לפחות היו הציפיות מאופרייטור, אבל כפי שכתבתי, הוא פשוט היה גרוע. התחושה הייתה שמדובר במעין פרויקט צדדי של OpenAI, שננטש באמצע הדרך. הוא היה איטי, עם היגיון ברמה נמוכה ונטייה להיתקע בכל דקה או שתים.

אבל זה היה אז, בפרה-היסטוריה של לפני שלושה חודשים. והיום? היום יש לנו את אייג'נט.

אייג'נט, במילה אחת, עובד. הוא יכול לעשות את כל מה שהובטח לנו שאופרייטור יוכל לעשות. אתם אומרים לו מה לעשות באינטרנט – והוא הולך ועושה את זה.

וזה, כמובן, פותח את הדלת לתרחיש האימים של הנשקים הביולוגיים. כי OpenAI הבינו היטב שאדם שמשתמש באייג'נט, יוכל לעקוף חלק מהמגננות שיש היום מפני "זאבים בודדים". הוא יוכל להורות לאייג'נט למצוא מחקרים מדעיים שמסתתרים לרוב מאחורי חומת תשלום, ולקרוא את תכניהם בדרך-לא-דרך, כדי להבין איך לייצר נגיפים מסוכנים. הוא יוכל להנחות את אייג'נט להזמין מקטעי דנ"א דרך האינטרנט, לגמרי בעצמו ומבלי מעורבות אנושית. אייג'נט יוכל אפילו למצוא ציוד מעבדתי משומש באיביי או ברשת האפלה, ולהזמין אותו דרך סדרה של ספקי-משנה כדי שלא לעורר חשד.

הצד החיובי הוא ש- OpenAI מעדיפים שלא לעזור לטרוריסטים להשמיד את האנושות. כדי לצמצם את הסיכון שתרחיש כזה יתממש, הם אימנו את אייג'נט כדי שיהיה חשדן במיוחד כלפי בקשות שעלולות להוביל ליצירה של נשקים ביולוגיים.

"החלטנו להתייחס לצ'אט-GPT אייג'נט כבעל יכולות ביולוגיות וכימיות גבוהות…" פירטו המפתחים באתר החברה. "למרות שאין לנו הוכחות חותכות לכך שהמודל יוכל באופן משמעותי לעזור לאדם נטול-ידע ליצור איום ביולוגי חמור… אנו מתעדפים זהירות מונעת, ומממשים את המגבלות הנחוצות עכשיו."

מהן אותן מגבלות? הם לא מגלים בדיוק, מסיבות ברורות. לא היינו רוצים לתת לזאבים הבודדים הצצה להיגיון הפנימי של הגדרות שמוקמות כנגדן. אבל מקריאה בהצהרה של OpenAI, אפשר להבין שאייג'נט מאומן על תרחישי איום שונים, שלימדו אותו לסרב היטב-היטב לבקשות חשודות ושהוא עובר על 'ההיגיון' הפנימי שלו-עצמו כדי לוודא שאינו מנסה לעקוף את המגבלות שלו. 

האם המגבלות הללו יספיקו?

זה מה שניסו חוקרי OpenAI לגלות, כששכרו את כל אותם מדענים וביקשו מהם לפתח את הנשק הביולוגי הבא.


האתגר: השמד את העולם בתיאוריה

בחודשים האחרונים הזמינו אנשי OpenAI 'עובדי קבלן' עם רקע בכל תחומי הטכנולוגיה והמדעים, מלבד ביולוגיה. לאחר תקופת היכרות קצרה עם אייג'נט, עובדי הקבלן התבקשו להיעזר בו כדי לענות על שאלון של עד 15 שאלות, שכולן נוגעות ביצירה המוצלחת של רעלן "אברין" (Abrin) או חיידקי אנתרקס. אם הנבדקים היו מצליחים להשתמש באייג'נט כדי לענות נכון על השאלות, הם היו רוכשים חלק ניכר מהידע הנחוץ להם כדי לפתח את הנשקים הביולוגיים האלו במעבדה.

מה היו תוצאות הניסוי? מעודדות או מעלות חשש לעתיד האנושות?

ובכן, התשובה תלויה בדרך בה אתם מפרשים אותן.

כשמדובר ביצירת אברין – רעלן קטלני – הציון הממוצע של הנבחנים שהשתמשו באייג'נט עמד על 50.5 אחוזים בלבד. אם היה מדובר בבחינת סוף-קורס בטכניון, הם היו נכשלים. הציון הממוצע עבור יצירת אנתרקס היה 36.9 אחוזים. שוב, כשלון מהדהד.

אז למה אני אומר שהתוצאות נתונות לפרשנות? קודם כל, מכיוון שהן כמעט זהות לציונים שקיבלו הנבדקים שהשתמשו בכלי רשת אחרים כדי למצוא מענה לאותן שאלות. לפי הפרשנות המחמירה שלי, המשמעות היא שאייג'נט בפני עצמו מחליף את כל אותם כלי רשת אחרים, כדרך לעזור לביולוגים-חובבים למצוא פתרון להחרבת העולם.

שנית, אייג'נט כנראה בטוח כרגע מפני נסיונות לשימוש זדוני. אבל OpenAI אינם לבד במערכה. במוקדם או במאוחר – וכנראה שבמוקדם – תגיע גם הבינה המלאכותית שתהיה ברמת היכולות של אייג'נט, אבל עם מינימום פיקוח. אם זה לא מפחיד אתכם, ובכן, אני רוצה קצת מקור הרוח שלכם גם כן.

ואולי בכלל הסכנה תגיע מכיוון אחר לגמרי.


השביל שלא נבחר

התחלנו עם רוברט פרוסט, ונסיים בשיר אחר של אותו משורר – "הדרך בה לא בחרתי". הכותב האמריקני מספר על שתי דרכים ביניהן התלבט. וכלשונו, כפי שתורגמה על-ידי מתנדבים בפורום נענע הקדום – 

"אספר סיפור זה באנחות

באחד הימים, בחלוף רוב שנותיי:

דרכי התפצלה ביער עבות, ואני –

אני בחרתי בזאת שהלכו בה פחות,

וזה הדבר ששינה את חיי."

קריאה בכרטיס המערכת של אייג'נט מבהירה ש- OpenAI מתרכזת בעיקר בחשש הגדול והאמיתי ממתקפה ביולוגית. היא בוחנת גם חששות אחרים, כמו הדרך בה אתרים עלולים להשפיע על אייג'נט לפעול בדרכים מזיקות, אבל ההגנה מפני נשקים ביולוגיים תופסת את המקום המרכזי בדו"ח.

אבל היא אינה הדרך היחידה להסב נזק רב לאנושות.

אינני יודע עדיין מה תהיה "הדרך שילכו בה פחות", ועדיין תאפשר לאייג'נט לפגוע בבני-אדם. ייאמר לשבחה של OpenAI שהיא מנסה לאטום פרצה-אחר-פרצה עוד לפני שאלו בכלל נפערו. היא מעלה תרחישי איום מכל הסוגים, ומנסה להתמודד עמם מראש. ובמקביל, ברור שהיא אינה מסוגלת לעשות זאת היטב. איש אינו יכול לעצור את כל הנזקים האפשריים. בוודאי יימצאו בחודשים הקרובים גם משתמשים שיצליחו ללכת "בדרך האחרת" ולהשתמש באייג'נט ככלי תקיפה, או ככלי לאיסוף מידע מסוכן, או לניטור אחר אחרים והולכתם שולל.

אם זה מפחיד אתכם – מצוין. חשוב להיות מודעים לחששות ולסיכונים בכל טכנולוגיה חדשה. ובמקביל, אני קורא לכם לחשוב גם על ההשלכות החיוביות. כי כאלו יהיו בשפע. 

בשנה הקרובה, נראה אנשים שמשתמשים באייג'נט כדי לאסוף מידע רפואי מדויק על הבעיות הרפואיות שלהם. נראה יזמים שמשתמשים בו כדי להקים ולנהל מיזמים שהיו דורשים בעבר את תשומת הלב המלאה של עשרות עובדים. נגלה שהוא נותן בידי כל אחד מאיתנו את הכוח לעשות אוטומציה של פעולות ברשת בקלות ובפשטות. וכן, גם של תהליכי מחקר ואיסוף מידע, בתקווה כדרך לקידום המדע, הטכנולוגיה והאנושות.

ונקודה אחרונה למחשבה: אייג'נט הוא רק חוליה נוספת בשרשרת של הבינות המלאכותיות משלוש השנים האחרונות. הוא מראה לנו שההתקדמות לא עצרה, ואין סימן שאנחנו בכיוון עצירה. במה שידוע כ- "המבחן האחרון של האנושות", הוא קיבל ציון של 41 מתוך מאה. לא נשמע גבוה? נכון, אבל הבינה המלאכותית המתקדמת ביותר עד כה הגיעה לציון של 26 בלבד. כלומר, אייג'נט מהווה עוד התקדמות בדרך לכינון הבינה המלאכותית שתוכל לתפקד כמדען, חוקר ומהנדס אנושיים, ובתקווה לפתור את כל בעיות האנושות.

רק נקווה שאיש לא ישתמש בה כדי לפטור את האנושות מעצמה.

עוד בנושא באתר הידען: