סיקור מקיף

בינה מלאכותית: מדיניות ממשלתית בישראל ובמערב

כל הנסיונות להסדיר את תחום הבינה המלאכותית היו במקרה הטוב חובבנים, קובעת חטיבת המחקר של הכנסת. יש לבנות רגולציות חדשות ולהקציב להם תקציב הולם

המשך הדיווח על המלצות חטיבת המחקר של הכנסת. לחלק הראשון

רגולציה של בינה מלאכותית יוצרת.  <a href="https://depositphotos.com. ">המחשה: depositphotos.com</a>
רגולציה של בינה מלאכותית יוצרת. המחשה: depositphotos.com

החלטת ממשלה 212 מאוגוסט 2021 הטילה על שרת החדשנות, המדע והטכנולוגיה להוביל את מדיניות הממשלה בתחום הבינה המלאכותית בנושאי רגולציה, מדיניות מידע ונתונים, אתיקה, שיתוף פעולה בין-לאומי אזרחי והטמעה במגזר הציבורי האזרחי ועוד. לשם מימוש מטרות אלה, הוחלט להקים צוות בין-משרדי בהובלת מנכ”לית משרד החדשנות, המדע והטכנולוגיה שיעסוק בנושא הבינה המלאכותית ויגיש המלצות בתחום. עוד נקבע בהחלטה, כי יש לאשר את מתווה פורום תל”מ (תשתיות לאומיות למדע) לבינה מלאכותית ומדעי הנתונים בהתאם להמלצות הוועדה שמינה הפורום (ראו להלן.) המלצות מתווה תל”מ כוללות: “פיתוח הון אנושי מחקרי בתחומי הליבה של טכנולוגיית הבינה המלאכותית; הקמת מרכז חישוב על-לאומי לשימוש המגזר הציבורי הרחב, התעשייה והאקדמיה; קידום יכולות עיבוד שפה טבעית בעברית ובערבית; יצירת סביבה רגולטורית מאפשרת להתפתחות תחומים אלה, ועוד.”

ביולי 2022 פורסם כי ישראל גיבשה “תוכנית לאומית לבינה מלאכותית” בהובלה של משרד החדשנות, המדע והטכנולוגיה ורשות החדשנות הפועלת במסגרת המשרד. התוכנית הלאומית האמורה, גובשה בעקבות עבודה של ועדת בינה מלאכותית ומדע הנתונים שהגישה את מסקנותיה ליו”ר פורום תל”ם בדצמבר 2020. עוד טרם עבודת הוועדה האמורה, בוצעו עבודות גם על ידי מומחים נוספים, בהן דוח בנושא “אתיקה ורגולציה של בינה מלאכותית” שנכתב כחלק מהמיזם הלאומי למערכות נבונות ובטוחות, ודוח “המיזם הלאומי למערכות נבונות בטוחות להעצמת הביטחון הלאומי והחוסן המדעי-טכנולוגי: אסטרטגיה לאומית לישראל.” צוות המיזם החל לעסוק בנושא בשנת ,2018 אך הדוח פורסם רק ב.2020- יצוין, כי במתווה שהוצע במסגרת המיזם הלאומי האמור, הומלץ לתקצב את המיזם ב10- מיליארדי ש”ח למשך 5 שנים, ולהקים מינהלת לאומית ייעודית לניהולו במשרד ראש הממשלה. לעומת זאת, בדוח ועדת בינה מלאכותית ומדע הנתונים, גובה ההקצאה הנדרש היה נמוך משמעותית – כ- 5.2 מיליארד ש”ח, והוצע לבססו על גופים קיימים.
יצוין כי למרות שכאמור פורסם כי גובשה “תוכנית לאומית לבינה מלאכותית” על בסיס המלצות פורום תל”מ, לא מצאנו פרסום מלא של מתווה התוכנית ולא ברור מה סך התקציב המיועד לתוכנית. לפי ד”ר זיו קציר, מנהל תוכנית תל”מ לבינה מלאכותית, ההשקעה הכוללת במתווה עומדת על מיליארד ש”ח בשתי פעימות (בתקציבים שאושרו עד כה, כולל תקצוב .)2024-2023

התוכנית הלאומית הישראלית

לטעת גורמים שנטלו חלק בתכנון המיזם הלאומי למערכות נבונות, היקפה המוגבל של התוכנית הלאומית שהתקבלה פוגע ביכולתה של ישראל למצב עצמה כשחקן מוביל, משפיע ובעל כוח שוק בתחום הבינה המלאכותית – בדומה לעוצמה של ישראל בתחום הסייבר, הנובעת מהזיהוי המוקדם וריכוז המאמץ בתחום הסייבר. ראש הממשלה, חה”כ בנימין נתניהו התייחס לנושא ב5- ביוני 2023 וציין כי יכנס בימים הקרובים צוותי חשיבה כדי לדון על המדיניות הלאומית של מדינת ישראל בנושא הבינה המלאכותית, הן בתחום האזרחי והן בתחום הביטחוני. זאת במטרה להפוך את ישראל למעצמה לאומית בתחום הבינה המלאכותית, כפי שהיא בתחום הסייבר.

גיבוש המדיניות הלאומית שהתקבלה נעשה בין השאר על רקע התיאור המופיע בדוח ועדת בינה מלאכותית ומדע הנתונים לפיו קיים בישראל פער ניכר בין המחקר והפיתוח (להלן: המו”פ) המתקדם בתחומי הבינה המלאכותית לבין חסר באסטרטגיה ממשלתית בתחום שבא לידי ביטוי גם במחסור בתשתיות חישוב הולמות. כותבי הדוח הגיעו למסקנה כי “קיים צורך קריטי בייזום תוכנית לאומית שתתווה פתרון מערכתי לקידום המו”פ בתחום בינה
מלאכותית ומדע הנתונים. יש למדינת ישראל את הפוטנציאל וההזדמנות להיות מדינה מובילה בתחום. קיומה של תוכנית לאומית בתחום בינה מלאכותית ומדע הנתונים, חיוני לחוסנה של מדינת ישראל ויתרום להעמקת המחקר האקדמי, להרחבת הבסיס התעשייתי, ליצירת הזדמנויות כלכליות משמעותיות ולקידום דרמטי של היכולות הביטחוניות הישראליות”.

באוקטובר 2022 פרסמה שרת החדשנות, המדע והטכנולוגיה דאז מסמך מדיניות להערות הציבור תחת הכותרת “מדיניות רגולציה ואתיקה בתחום הבינה המלאכותית.” לפי המסמך “אין מקום בעת הזו לקידום רגולציה באמצעות חקיקה רוחבית שהיא ייחודית לתחום הבינה המלאכותית. יוער כי ייתכן ומדיניות זו תשתנה ככל שתחום הבינה המלאכותית יתפתח ויתבסס ומשמעויותיו תתבהרנה.”

בין העקרונות האתיים המפורטים במסמך: בינה מלאכותית תשמש לקידום צמיחה, פיתוח בר-קיימא והמובילות הישראלית בתחום החדשנות; האדם במרכז: כיבוד זכויות יסוד ואינטרסים ציבוריים; שוויון ומניעת אפליה פסולה; שקיפות והסברתיות; אמינות, עמידות, אבטחה ובטיחות, ו-אחריותיות.

בנייר עמדה של המכון הישראלי לדמוקרטיה בנושא, נטען בין היתר כי: )1 הגישה במסמך המדיניות הממשלתי לפיה די באסדרה רכה ואתית בלבד לא עולה בקנה אחד עם ההתפתחויות בעולם ותוביל לפתיחת פער מיותר בין ישראל למדינות המפותחות; )2 המסמך מתעלם מסוגיית שימושי בינה מלאכותית במגזר הציבורי ומתמקד בהסדרת השוק הפרטי; )3 ההתייחסות להסדרת בינה מלאכותית כשלעצמה, בהתעלם מהסדרת טכנולוגיות משיקות, כמו פרטיות וסייבר והכשל בהסדרתן – היא בעייתית.

החלטת ממשלה 173 מפברואר 2023 תחת הכותרת “חיזוק המובילות הטכנולוגית של ישראל” מאשרת את התוכנית הלאומית לבינה מלאכותית ובכללה: האצת המחקר הבסיסי והיישומי בתחום; יצירת קפיצת מדרגה
לתעשייה הישראלית בפיתוח תשתיות לתחום והטמעה של יישומי בינה מלאכותית במגזר הציבורי האזרחי לייעולו. לפי ההחלטה: משרד האוצר יקצה תקציב הרשאה להתחייב שלא יעלה על 500 מיליון ש”ח, והגופים החברים בפורום תל”מ יעמידו את תקציב המתווה המיועד להקצאה על-ידם והוא ימומש בשנים 2023 עד .2026 כאמור, לפי ד”ר זיו קציר, מנהל תוכנית תל”מ לבינה מלאכותית, ההשקעה הכוללת במתווה עומדת על מיליארד ש”ח בשתי
פעימות. יובהר, כי לא סקרנו במסמך את פעילות הממשלה בפועל בתחומי הבינה המלאכותית, אך בין השאר אושרה תמיכה בכ- 5.5 מיליוני ש”ח ליצירה והנגשה של מאגרי מידע בעברית וערבית שאמורים לשמש תשתית למודלי שפה; פורסמו קןלות קוראים לפיתוח כלי תוכנה בתחומי חישוב על ובינה מלאכותית ולהקמת מעבדת מו”פ להסברתיות, שימור פרטיות ולמידה מבוזרת, הוקם צוות בין משרדי לבחינת השימוש בבינה מלאכותית במגזר הפיננסי; ונחתם מזכר לשיתוף פעולה בין הכנסת לרשות החדשנות בתחומי עיבוד שפה טבעית, על בסיס הנגשת מאגרי מידע של הכנסת.

אדם שם בקלפי פתק ועליו כתוב FAKE. הופק באמצעות דאלי 2. רעיון: אבי בליזובסקי
אדם שם בקלפי פתק ועליו כתוב FAKE. הופק באמצעות דאלי 2. רעיון: אבי בליזובסקי

.4 בינה מלאכותית: מידע ראשוני על יוזמות רגולציה בעולם

בעוד כאמור לעיל, העמדה הממשלתית הרשמית האחרונה שפורסמה בנושא תמכה ברגולציה רכה ולא ביוזמת חקיקה מקיפה לנושא, באירופה קיימת טיוטת חוק מקיפה בנושא בינה מלאכותית. לפי פרסום של הפרלמנט האירופי
עיקרי טיוטת החקיקה כוללים הבחנה בין רמות שונות של סיכון שמציבות מערכות בינה מלאכותית. כך למשל, מערכות ברמת סיכון גבוהה מאוד לבני אדם, בהן: מערכות המשתמשות במסרים מניפולטיביים או תת-הכרתיים, מנצלות בני אדם או משמשות ל”דירוג חברתי” (לפי התנהגויות, מצב כלכלי-חברתי ועוד,) ייאסרו בשימוש.

שימושים אסורים נוספים המוצעים בטיוטת החקיקה, כוללים גם: זיהוי ביומטרי מרחוק בזמן אמת במקומות ציבוריים; זיהוי ביומטרי מרחוק למפרע, למעט עבור רשויות אכיפה ובנסיבות של פשעים חמורים ובכפוף לאישור משפטי; מיון ביומטרי המתבסס על מאפיינים רגישים (כגון מגדר, אתניות, אזרחות, דת או עמדה פוליטית;) “מערכות שיטור מנבא” policing) ;(Predictive מערכות “זיהוי רגשות” לאכיפת חוק, לניהול גבולות, במקום העבודה ובמוסדות חינוך ועוד.

על פי הטיוטה, מערכות המוגדרות ככאלה שיש בהן סיכון גבוה כוללות כאלה שמזיקות לבריאות, לבטיחות או לזכויות היסוד של בני אדם או לסביבה; מערכות בינה מלאכותית שמשפיעות על בוחרים בקמפיינים פוליטיים; ו”מערכות
המלצה” שמשמשות רשתות חברתיות שלהן 45 מיליוני משתמשים ומעלה.

עוד על פי הטיוטה, ספקים של מודלי בסיס Models Foundation בתחום הבינה המלאכותית יצטרכו להתחייב להגן על זכויות יסוד, בריאות, ביטחון, הגנת הסביבה, הדמוקרטיה ושלטון החוק; לאמוד ולמתן סיכונים; לעמוד בדרישות שונות ואף לרשום את המודלים במאגר אירופי. מודלים בסיסיים יוצרים כמו GPT יידרשו בדרישות שקיפות נוספות בהן: חובת גילוי שהתוכן נוצר על ידי בינה מלאכותית; עיצוב המודל כך שלא יצרוך תוכן לא חוקי ולא יפרסם סיכומים של מידע או נתונים מוגנים בזכויות יוצרים ששימשו לאימון המודל. עם זאת, כדי לעודד חדשנות, מוצע להחריג מן החוק פעילויות לשם מחקר ורכיבי בינה מלאכותית שמונגשים תחת רישיון בקוד פתוח. החוק אמור לעודדסביבות ניסוי נשלטות ו”קופסאות חול רגולטוריות” שישמשו לבחינה מוקדמת טרם פריסתם.

בשונה מהעמדה הכוללנית והאקטיבית המסתמנת בכיווני הרגולציה של האיחוד האירופי, עד כה, טרם גובשה מסגרת או תפיסה דומה ברגולציה בארצות הברית (בהיבט זה, יתכן כי המצב דומה לגישות השונות להגנת הפרטיות בין אירופה לבין בארה”ב,) אף כי גם בארצות הברית מתקיימים דיונים בנושא הצורך ברגולציה על בינה מלאכותית.

ארצות הברית

בפברואר 2019 פרסם הבית הלבן צו נשיאותי תחת הכותרת “שימור ההובלה האמריקאית בבינה מלאכותית.” הצו קובע חמישה עקרונות: )1 להוביל פריצות דרך טכנולוגיות בבינה מלאכותית בכלל המגזרים: ממשל פדרלי, תעשייה ואקדמיה כדי לקדם גילויים מדעיים, תחרותיות כלכלית וביטחון לאומי; )2 להוביל פיתוח סטנדרטים ולהסיר חסמים לבדיקה ויישום של טכנולוגיות בינה מלאכותית; )3 להכשיר את העובדים למיומנות בפיתוח והטמעה של טכנולוגיות בינה מלאכותית כדי להכשיר אותם להווה ועתיד התעסוקה; )4 לטפח את אמון הציבור ובטחונו בטכנולוגיות בינה מלאכותית, ולהגן על חירויות אזרחיות, פרטיות וערכים אמריקאים; )5 לקדם סביבה בינלאומית התומכת במחקר וחדשנות אמריקאית בתחום הבינה המלאכותית.

בהמשך לצו הנשיאותי האמור, פרסם המשרד הנשיאותי לניהול ותקציב (OMB) בנובמבר 2020 מזכר הנחיות לרגולציה על יישומי בינה מלאכותית לראשי הסוכנויות. בין השאר נכתב במזכר כי על הסוכנויות להימנע מרגולציה או פעולות אחרות שיסכנו את החדשנות והצמיחה של תחום הבינה המלאכותית ולהימנע מלנקוט גישה זהירה שתגדיר למערכות בינה מלאכותית סטנדרט גבוה ובלתי אפשרי שימנע מהחברה לנצל את היתרונות שלה, ושיכולה לפגוע במעמדה של ארצות הברית כמובילה בתחום הבינה המלאכותית. המזכר מתייחס לשורת עקרונות מנחים לעיצוב רגולציה בהם: אמון הציבור במערכות בינה מלאכותית; שיתוף ציבור, יושרה מדעית ואיכות המידע; הערכה וניהול סיכונים; תועלות ועלויות; גמישות; הוגנות ואי-אפליה; גילוי נאות ושקיפות, בטיחות ובטחון ושיתופי פעולה בין סוכנויות. לפי סקירה של מכון ברוקינגס בנושא, הגישה במזכר משקפת מדיניות של צמצום רגולציה מחד, והסמכתן של הרשויות והסוכנויות הפדרליות לפעול בתחומי אחריותן בכלים רגולטוריים ולא רגולטוריים בהתאם לגישה מבוססת רמת סיכון. למרות שהמזכר דרש מהסוכנויות הממשלתיות הרלבנטיות לקבוע תוכנית לרגולציה של בינה מלאכותית, רק חלק קטן מ- 41 הסוכנויות הרלבנטיות עשו זאת עד כה.

הבית הלבן מתערב

באוקטובר 2022 פרסם הבית הלבן תוכנית ל”הצעת חוק זכויות בבינה מלאכותית” rights) of bill ,(AI המתבססת על חמישה עקרונות: מערכות בטוחות ואפקטיביות; הגנה מפני אפליה אלגוריתמית; הגנת מידע; התרעה והסבר וחלופות אנושיות. מן הסקירה של מכון ברוקינגס עולה כי התוכנית האמורה מתמקדת בצמצום הסיכונים לכלכלה ולזכויות אדם עקב מערכות בינה מלאכותית – בשונה מהמיקוד של תוכניות ממשלתיות קודמות בהזדמנויות לחברה
ולכלכלה. כמו כן, בשלב זה התוכנית היא בגדר המלצה בלבד ויש הבדלים במידת יישומה בסוכנויות פדרליות שונות. יצוין כי בינואר 2023 פרסם המכון הלאומי לסטנדרטים וטכנולוגיה (NIST) מסמך מסגרת להערכת סיכונים בבינה מלאכותית.

עדותו של סם אלטמן בקונגרס

רובוטים במקום העבודה. עובד באמצעות דאלי 2. רעיון: אבי בליזובסקי
רובוטים במקום העבודה. עובד באמצעות דאלי 2. רעיון: אבי בליזובסקי

במאי 2023 העיד מנכ”ל חברת הבינה המלאכותית OpenAI סם אלטמן בפני ועדת משנה של הסנאט לפרטיות, טכנולוגיה וחוק. בעדותו ציין אלטמן כי לשיטתו רגולציה על בינה מלאכותית היא חיונית כדי לתמרץ בטיחות של מערכות בינה מלאכותית לצד ההגנה על אפשרותם של אנשים להשתמש בהן ולהפיק מהן תועלת. כדי לוודא את השמירה על בטיחות, בפרט בחברות המפתחות מודלים חזקים של בינה מלאכותית, יש לוודא כי הן עומדות בדרישות בטיחות הולמות, כולל בדיקות פנימיות וחיצוניות בטרם פרסום. הוא קרא לממשלת ארצות הברית לשקול שילוב של רישוי או רישום של מודלי בינה מלאכותית מעל רף ביצועים מסוים, לצד תמריצים לגופים שיעמדו בדרישות האמורות.

עם זאת, בשל הדינמיות של תחום הבינה המלאכותית, נדרש משטר רגולטורי גמיש מספיק כדי להתאים להתפתחויות הטכנולוגיות ולבחון הליך שמשלב את כלל בעלי העניין כדי לפתח ולעדכן תדיר סטנדרטים של בטיחות, תנאי הערכה, כללי חשיפה, תהליכי תיקוף. בנוסף, לטענתו על מעצבי מדיניות לבחון כיצד להטמיע רגולציית רישוי ברמה גלובאלית כדי לוודא שיתופי פעולה בינלאומיים בנושא בטיחות בבינה מלאכותית ואף לבחון הקמת ארגון – בין-ממשלתי לפיקוח והגדרת סטנדרטים. יצוין כי נושא הבינה המלאכותית נדון כיום בקונגרס האמריקני בהקשרים שונים ובוועדות שונות, ובתוך כך מתקיימים דיונים על הצורך ברגולציה על תחום זה. כך למשל, בדיון של ועדת הסנאט לביטחון המולדת בו נדונו היתרונות והסיכונים של השימוש בטכנולוגיות אלו על ידי סוכנויות הממשל והצורך בהכשרה הולמת לעובדיהן.

עוד בנושא באתר הידען:

תגובה אחת

  1. חז”ל אמרו, ” צבת בצבת עשויה ” כדאי לבקש מהבינה המלאכותית AI לבדוק ולהציע איך להישמר מסכנותיה .😄

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זה עושה שימוש באקיזמט למניעת הודעות זבל. לחצו כאן כדי ללמוד איך נתוני התגובה שלכם מעובדים.