סיקור מקיף

האיחוד האירופי וארה”ב מקדמים מהלכים לטיפול באתיקה בבינה מלאכותית

עם זאת ישנם הבדלים גדולים בין שתי הגישות במרכיבים רבים. בין היתר בהעדר עונשי מאסר מחייבים בארה”ב לעומת האיחוד האירופי, ובביזור הגדול של הסמכויות בארה”ב לעומת רגולציה רוחבית באירופה

אתיקה של בינה מלאכותית.   <a href="https://depositphotos.com. ">המחשה: depositphotos.com</a>
אתיקה של בינה מלאכותית. המחשה: depositphotos.com

ארה”ב הכריזה בסוף ינואר 2023 על קידום מהלך לטיפול באתיקה בבינה מלאכותית, כחודשיים לאחר מהלך דומה של האיחוד האירופי.

חוק הבינה המלאכותית (AIA) של האיחוד האירופי, שאושר על ידי מועצת האיחוד האירופי ב-6 בדצמבר ואמור להידון על ידי הפרלמנט האירופי כבר בחודש מרץ, יסדיר יישומים, מוצרים ושירותים של בינה מלאכותית תחת היררכיה מבוססת סיכון: ככל שהסיכון גבוה יותר, כך הכלל מחמיר יותר.

אם תאושר, ה-AIA של האיחוד האירופי תהיה הרגולציה הרוחבית הראשונה בעולם – בכל המגזרים והיישומים – של AI.

לעומת זאת, בארה”ב אין חוק פדרלי ספציפי להסדרת השימוש בבינה מלאכותית, אך הרגולציה תסתמך במקום זאת על חוקים, תכנונים, מסגרות, תקנים ותקנות קיימים שניתן לתפור יחד כדי להנחות את השימוש האתי בבינה מלאכותית. ההנחיות הללו מכסות פעילות של ממשלות וארגונים, אך אינן מציעות הגנה לצרכנים שנעשה להם עוול כאשר נעשה שימוש בבינה מלאכותית נגדם.

בנוסף לעבודת הטלאים של הפעולות פדרליות, ממשלות מקומיות ומדינתיות מחוקקות חוקים לטיפול בהטיית בינה מלאכותית בתעסוקה, כמו בעיר ניו יורק ובמדינת קליפורניה כולה, ובביטוח, כפי שעולה מחוק בקולורדו. שום חוק מקומי שהוצע או נחקק לא גורר אחריו עונש מאסר כלשהו. בשנת 2016, הוטל על אריק לומיס מוויסקונסין עונש מאסר של שש שנים שהתבסס, בין השאר, על תוכנת בינה מלאכותית, על פי דיווח בניו יורק טיימס. לומיס טען כי זכויותיו להליך הוגן הופרו משום שלא יכול היה לבדוק או לערער על האלגוריתם של התוכנה.

ההנחיה הפדרלית מגיעה מהמכון הלאומי לתקנים וטכנולוגיה (NIST). המסגרת ההתנדבותית של NIST נועדה לסייע  לארגונים לנהל סיכוני בינה מלאכותית שעלולים להשפיע על אנשים, ארגונים וחברה בארה”ב. המסגרת עושה זאת על ידי שילוב שיקולי אמינות, כגון יכולת הסבר וצמצום של הטיה מזיקה, במוצרים, בשירותים ובמערכות של בינה מלאכותית.

“בטווח הקצר, מה שאנחנו רוצים לעשות זה לטפח אמון”, אמרה אלהאם טבסי, ראש המטה במעבדה לטכנולוגיית מידע ב- NIST בראיון ל-EETIMES. “ואנחנו עושים זאת על ידי הבנה וניהול של הסיכונים של מערכות בינה מלאכותית, כך שהן יכולות לסייע בשמירה על חירויות וזכויות אזרח ולשפר את הבטיחות ובמקביל לספק וליצור הזדמנויות לחדשנות.”

בטווח הארוך יותר, “אנחנו מדברים על המסגרת כמציידת צוותי בינה מלאכותית, בין אם הם בעיקר אנשים המתכננים , מפתחים או פורסים בינה מלאכותית, לחשוב על בינה מלאכותית מנקודת מבט שלוקחת בחשבון סיכונים והשפעות”, אמרה ריבה שוורץ, מדענית מחקר במעבדת ה-IT של NIST.

באוקטובר 2022 פרסם הבית הלבן את התוכנית למגילת זכויות AI ובה הוא מפרט חמישה עקרונות שינחו את השימוש האתי בבינה מלאכותית:

  • מערכות צריכות להיות בטוחות ויעילות.
  • אלגוריתמים ומערכות לא צריכים להפלות.
  • יש להגן על אנשים מפני נוהלי נתונים פוגעניים ולשלוט באופן השימוש בנתונים שלהם.
  • מערכות אוטומטיות צריכות להיות שקופות.
  • ביטול הצטרפות למערכת בינה מלאכותית לטובת התערבות אנושית צריך להיות אופציה.

תגובה אחת

  1. ארה”ב מדרדרת את העולם כמו שהוא אל סופו.
    הדרך לאפוקליפסה ברורה.
    המטומטמים שלחו בשנת 77 חללית ליקום עם הכתובת של כדור הארץ.
    כאילו העולם שלהם, וכאילו הם יודעים למי זה יגיע.
    וכמובן גם בלי מחשבה שהוא עלול להיות עויין לנו.
    מקווה שאלוהים יעשה להם סוף ליפני שיצליחו להרוס את העולם.

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זה עושה שימוש באקיזמט למניעת הודעות זבל. לחצו כאן כדי ללמוד איך נתוני התגובה שלכם מעובדים.