סיקור מקיף

האיחוד האירופי אישר טיוטת חוק להסדרת הבינה המלאכותית – כך זה יעבוד

ביום רביעי, 14 ביוני, הצביע הפרלמנט האירופי על אישור טיוטת הצעה משלו לחוק הבינה המלאכותית, חקיקה שנמצאת שנתיים בהתהוות, בשאיפה לעצב סטנדרטים גלובליים ברגולציה של בינה מלאכותית

מאת נלו כריסטיאניני, פרופסור לבינה מלאכותית, אוניברסיטת באת’

האיחוד האירופי והבינה המלאכותית. <a href="https://depositphotos.com. ">המחשה: depositphotos.com</a>
האיחוד האירופי והבינה המלאכותית. המחשה: depositphotos.com

בימים אלה, המילה “סיכון” מופיעה לעתים קרובות באותו משפט בו אומרים “בינה מלאכותית” (AI). בעוד שמעודד לראות את מנהיגי העולם שוקלים את הבעיות הפוטנציאליות של AI, יחד עם היתרונות התעשייתיים והאסטרטגיים שלה, עלינו לזכור כי לא כל הסיכונים שווים.

ביום רביעי, 14 ביוני, הצביע הפרלמנט האירופי על אישור טיוטת הצעה משלו לחוק הבינה המלאכותית, חקיקה שנמצאת שנתיים בהתהוות, בשאיפה לעצב סטנדרטים גלובליים ברגולציה של בינה מלאכותית.

לאחר שלב סופי של משא ומתן, שנועד ליישב טיוטות שונות שהופקו על-ידי הפרלמנט האירופי, הנציבות והמועצה, החוק צריך להיות מאושר לפני סוף השנה. זו תהיה החקיקה הראשונה בעולם שתוקדש להסדרת בינה מלאכותית כמעט בכל מגזרי החברה.

מכל הדרכים שבהן ניתן לגשת לרגולציה של בינה מלאכותית, ראוי לשים לב שהחקיקה הזו עוסקת כולה במושג הסיכון. לא הבינה המלאכותית עצמה נמצאת תחת פיקוח, אלא האופן שבו משתמשים בה בתחומים ספציפיים של החברה, שכל אחד מהם נושא בעיות פוטנציאליות שונות. ארבע קטגוריות הסיכון, הכפופות לחובות משפטיות שונות, הן: בלתי קביל, גבוה, מוגבל ומינימלי.

מערכות הנחשבות כמאיימות על זכויות יסוד או ערכי האיחוד האירופי, יסווגו כבעלות “סיכון בלתי קביל” וייאסרו. דוגמה לסיכון כזה יהיו מערכות AI המשמשות ל“שיטור חזוי”. זהו השימוש בבינה מלאכותית כדי לבצע הערכות סיכונים של אנשים, בהתבסס על מידע אישי, כדי לחזות אם הם צפויים לבצע פשעים.

מקרה שנוי יותר במחלוקת הוא השימוש בטכנולוגיית זיהוי פנים באמצעות מצלמות רחוב בזמן אמת. מקרה זה נוסף גם הוא לרשימת הסיכונים הפסולים והשימוש בו יתאפשר רק כדי לזהות פשע לאחר שהתבצע ותחת צו בית משפט.

מערכות המסווגות כ”בסיכון גבוה” תהיינה כפופות לחובת שקיפות וצפויות להירשם במאגר מידע מיוחד. תהיינה גם דרישות ניטור או ביקורת שונות.

סוגי היישומים שאמורים להיות מסווגים בסיכון גבוה כוללים AI שיכול לשלוט בגישה לשירותים בחינוך, תעסוקה, מימון, בריאות ותחומים קריטיים אחרים. שימוש בבינה מלאכותית בתחומים כאלה אינו נתפס כבלתי רצוי, אך פיקוח הוא חיוני בשל הפוטנציאל שלו להשפיע לרעה על בטיחות או זכויות יסוד.

הרעיון הוא שאנחנו צריכים להיות מסוגלים לסמוך על כך שכל תוכנה שמקבלת החלטות לגבי המשכנתא שלנו תיבדק בקפידה לפי החוקים האירופיים כדי להבטיח שאנחנו לא מופלים לרעה על בסיס פרטים אישיים כמו מין או רקע אתני – לפחות אם אנחנו חיים באיחוד האירופי.

מערכות AI “בסיכון מוגבל” יהיו כפופות לדרישות שקיפות מינימליות. באופן דומה, מפעילים של מערכות בינה מלאכותית גנרטיבית – למשל, בוטים המייצרים טקסט או תמונות – יצטרכו להצהיר כי המשתמשים מתקשרים עם מכונה.

עם התקדמות תהליך החקיקה במוסדות האירופאיים שהתחיל בשנת 2019, החקיקה הפכה ספציפית ומפורשת יותר ויותר לגבי הסיכונים הפוטנציאליים של פריסת AI במצבים רגישים – יחד עם האופן שבו ניתן לנטר ולהפחית אותם. עוד הרבה עבודה צריכה להיעשות, אבל הרעיון ברור: אנחנו צריכים להיות ספציפיים אם אנחנו רוצים להנות מיתרונות הבינה המלאכותית.

סכנת הכחדה?

לעומת זאת, לאחרונה פורסמו עצומות הקוראות להתייחס ל”סכנת הכחדה” לכאורה שמציבה הבינה המלאכותית, מבלי לספק פרטים נוספים. פוליטיקאים שונים השמיעו דעות אלה. מדובר בסיכון ארוך טווח וכפי שכבר ציינו מומחים הוא כללי מדי, וסוג כזה של סיכונים לא זוכה להתייחסות בחוק.

אם “סיכון” הוא “הנזק הצפוי” שעלול לנבוע ממשהו, מוטב שנתמקד בתרחישים אפשריים שהם גם מזיקים וגם סבירים, משום שהם נושאים את הסיכון הגבוה ביותר. אירועים מאוד לא סבירים, כמו התנגשות אסטרואיד, לא צריכים לקבל עדיפות על-פני אירועים סבירים יותר, כגון השפעות של זיהום.

במובן זה, טיוטת החקיקה שאושרה זה עתה על-ידי הפרלמנט האירופי פחות זוהרת אך יש בה יותר תוכן מאשר כמה מהאזהרות האחרונות על AI. היא מנסה להלך על הקו הדק שבין הגנה על זכויות וערכים, מבלי למנוע חדשנות, והתייחסות ספציפית הן לסכנות והן לדרך להתמודד עימם. על-אף שהחוק המסתמן רחוק מלהיות מושלם, הוא לפחות מספק פעולות קונקרטיות.

השלב הבא בתהליך החקיקה הזה, יהיה קיום דיאלוגים בין שלושת הצדדים – שבהם הטיוטות הנפרדות של הפרלמנט, הוועדה והמועצה יאוחדו לטקסט סופי. בשלב זה צפויות להתרחש פשרות. החוק שיתקבל ייכנס לתוקף, ככל הנראה בסוף 2023, לפני תחילת הקמפיין לבחירות הבאות באירופה.

לאחר שנתיים-שלוש, החוק ייכנס לתוקף וכל עסק הפועל בתוך האיחוד האירופי יצטרך לעמוד בו. ציר הזמן הארוך הזה מציב כמה שאלות משלו, כי אנחנו לא יודעים איך AI, או העולם, ייראו בשנת 2027.

בואו נזכור שנשיאת הנציבות האירופית, אורסולה פון דר ליין, הציעה לראשונה  את התקנה הזו בקיץ 2019, רגע לפני מגיפה, מלחמה ומשבר אנרגיה. זה היה עוד לפני ש-ChatGPT גרם לפוליטיקאים ולתקשורת לדבר באופן קבוע על סיכון קיומי מבינה מלאכותית.

עם זאת, החוק כתוב בצורה כללית מספיק שעשויה לעזור לו להישאר רלוונטי לזמן מה. זה עשוי להשפיע על האופן שבו חוקרים ועסקים ניגשים לבינה מלאכותית גם מחוץ לאירופה.

מה שברור, עם זאת, הוא שכל טכנולוגיה טומנת בחובה סיכונים, ובמקום לחכות שמשהו שלילי יקרה, מוסדות אקדמיים וקובעי מדיניות מנסים לחשוב קדימה על השלכות המחקר. בהשוואה לאופן שבו אימצנו טכנולוגיות קודמות – כמו דלקי מאובנים – מדובר במידה מסוימת של התקדמות.

למאמר ב-THE MARKER

עוד בנושא באתר הידען:

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זה עושה שימוש באקיזמט למניעת הודעות זבל. לחצו כאן כדי ללמוד איך נתוני התגובה שלכם מעובדים.