סיקור מקיף

אילון מאסק, סטיב ווזניאק ורבים נוספים במכתב פתוח: בינה מלאכותית חזקה מסוכנת לדמוקרטיה

חותמי המכתב קוראים להפסקה של שישה חודשים בפיתוח מערכות חזקות יותר מה-GPT-4 החדש של OpenAI.  “יש לפתח מערכות AI חזקות רק ברגע שנהיה בטוחים שההשפעות שלהן יהיו חיוביות והסיכונים שלהן יהיו ניתנים לניהול”, נכתב במכתב

התמונה הופקה באמצעות תוכנת Artssy AI. הגדרת מילות המפתח artificial intelligence, Autonomous weapons, Surveillance, cyber threats, Unemployment, Threat to democracy
התמונה הופקה באמצעות תוכנת Artssy AI. הגדרת מילות המפתח artificial intelligence, Autonomous weapons, Surveillance, cyber threats, Unemployment, Threat to democracy

למעלה מאלף מומחי בינה מלאכותית ובכירים בתעשיית הטכנולוגיה שהבולטים בהם היו אילון מאסק מנכ”ל נוירולינק, וסטיב ווזניאק, ממייסדי אפל. המכתב, שהונפק על ידי מכון Future of Life קרא להשהות את פיתוח הבינה המלאכותית המתקדמת עד שפרוטוקולי בטיחות משותפים לעיצובים כאלה יפותחו,  יבוקרו על ידי מומחים עצמאיים וייושמו.

המכון הוקם במשותף על ידי הפיזיקאי מקס טגמרק מ-MIT ומייסד סקייפ ג’אן טאלין, והיה בין הארגונים הקולניים ביותר שקראו לרגולציה רבה יותר של השימוש ב-AI.

חותמי המכתב קוראים להפסקה של שישה חודשים בפיתוח מערכות חזקות יותר מה-GPT-4 החדש של OpenAI.  “יש לפתח מערכות AI חזקות רק ברגע שנהיה בטוחים שההשפעות שלהן יהיו חיוביות והסיכונים שלהן יהיו ניתנים לניהול”, נכתב במכתב.

במכתב הם מונים  את הסיכונים העיקריים הטמונים בטכנולוגית הבינה המלאכותית:

  • כלי נשק אוטונומיים: ניתן להשתמש בבינה מלאכותית כדי ליצור כלי נשק אוטונומיים שיכולים לפעול ללא פיקוח אנושי, מה שמוביל לאפשרות של נזק לא מכוון.
  • מעקב: ניתן להשתמש בבינה מלאכותית כדי ליצור מערכות מעקב מתוחכמות שעלולות לפלוש לפרטיותם של אנשים ולהפר את חירויות האזרח שלהם.
  • אבטחת סייבר: ניתן להשתמש בבינה מלאכותית כדי ליצור איומי סייבר חדשים, כגון דיפ-פייק, שיכולים לשמש למניפולציה של אנשים ולערער את האמון במוסדות.
  • אבטלה: בינה מלאכותית עלולה להוביל לאובדן מקומות עבודה, במיוחד בתעשיות המסתמכות במידה רבה על עבודת כפיים או על משימות שגרתיות.
  • הטיה ואפליה: אלגוריתמים של בינה מלאכותית עלולים להנציח או להחריף בשוגג הטיות חברתיות ואפליה, מה שיוביל ליחס לא הוגן לקבוצות מסוימות.
  • ·שליטה: בינה מלאכותית עלולה להוביל לריכוז כוח בידי כמה אנשים או ארגונים, מה שעלול לערער ערכים ועקרונות דמוקרטיים.
אילון מאסק בהכרזה על הרובוט של טסלה, 2021.  <a href="https://depositphotos.com. ">המחשה: depositphotos.com</a>
אילון מאסק בהכרזה על הרובוט של טסלה, 2021. המחשה: depositphotos.com

בינה מלאכותית חזקה יכולה להיות מסוכנת לדמוקרטיה בכמה אופנים. למשל, בעזרתה  אפשר יהיה להשתמש בנתונים ובאלגוריתמים כדי להניע ולהשפיע על דעות הציבור והבחירות הפוליטיות. בנוסף, היא יכולה לשמש בידי חברות וממשלות כלי לפרסם מידע מזויף ולהשפיע על פעולות והחלטות של הציבור והממשלות. כמו כן, הבינה המלאכותית יכולה לגרום לחוסר שוויון באפשרויות שימוש במידע ובהשתתפות בטכנולוגיות חדשות, מה שיוביל לגישה למידע ולהשפעה בלעדיות למספר קטן של אנשים או חברות. לכן, חשוב להבין את הסיכונים הפוטנציאליים של בינה מלאכותית חזקה ולפעול כדי ליישם פרוטוקולי בטיחות ופיקוח על השימוש בטכנולוגיה זו.

מאסק הצהיר לעתים קרובות כי לבינה מלאכותית יש פוטנציאל לעלות על האינטליגנציה האנושית ולהפוך לאיום על האנושות. הוא השווה את הבינה המלאכותית ל”זימון השד” והזהיר כי בינה מלאכותית עלולה להוביל לאיום קיומי על האנושות אם לא תוסדר כראוי.

בשנת 2014 ייסד מאסק את OpenAI, חברת מחקר המוקדשת לפיתוח בינה מלאכותית כללית. עם זאת, בשנת 2018 התפטר מאסק ממועצת המנהלים של OpenAI, בנימוק של חששות לגבי הכיוון של הארגון וניגודי עניינים פוטנציאליים.

בשנת 2015, מאסק ייסד את Neuralink, חברה המתמקדת בפיתוח טכנולוגיה שיכולה למזג את המוח האנושי עם בינה מלאכותית. המטרה של Neuralink היא ליצור ממשק ישיר בין המוח האנושי למחשבים, ולאפשר לבני אדם לשלוט בטכנולוגיה באמצעות המחשבות שלהם. המטרה הסופית היא לשפר את האינטליגנציה והיכולות האנושיות באמצעות בינה מלאכותית. 

מעורבותו של מאסק בבינה מלאכותית נבעה מחששותיו לגבי הסיכונים הפוטנציאליים שהיא מציבה לאנושות. הוא ייסד את OpenAI ואת Neuralink כדי להבטיח שהבינה המלאכותית תפותח באופן שיועיל לאנושות ושהסיכונים הפוטנציאליים שלה ימוזערו. עם זאת, התפטרותו מ-OpenAI מעידה על כך שהוא לא היה מרוצה מהכיוון של החברה ומאמין שיש לעשות יותר כדי להסדיר את השימוש בבינה המלאכותית.

סטיב ווזניאק, המייסד השותף של אפל, הביע גם הוא לא אחת את חששותיו לגבי הבינה המלאכותית. 

למכתב הפתוח

עוד בנושא באתר הידען:

9 תגובות

  1. עד עכשיו אנחנו לא מבינים מה זה המוח כמכלול. באותה מידה שהקדמונים לא התייחסו לקיומו ולא חשולתת הסבר כלשהו לערכו או לתפקודו. מבחינתם היה ניתן להחליפו בערימת חציר. אנחנו עדיין מגששים באפלה מבחינת תפקודו ויכולותיו. זה מתיחס למוח האבולוציוני שמשותף לכל היצורים על כדור הארץ ועוד לא הזכרנו את האפשרות לקיום תודעה מסתיימת בצמחים.

  2. אעצבר, אני חושב שאתה מנסה לתאר את המונח קוואליה (Qualia), או תחושה סובייקטיבית.
    ואתה מרמז לכך שלמכונה אין בהכרח תודעה.

    אבל גם בלי תודעה, יכולה להיות לה אינטליגנציה, ומכאן הסכנה, לא מהתודעה.

    נ.ב. גם ללא אינטליגנציה יש סכנה, כמו שצמחים ללא מערכת עצבים עובדים על חרקים עם מערכת עצבים וגורמים להם להאביק אותם ללא תמורה של צוף ע”י חקיינות של צמח עם צוף. כך בינה מלאכותית לא חכמה במיוחד, יכולה לתמרן בני אדם חכמים; ראה ערך אלגוריתמים של מדיה חברתית. מונח זה לקוח מאריק איינשטיין Outtelligence על משקל Intelligence.

  3. הבעיה האמיתית היא שתוכנות כאלה יכולות לעבור את “מבחן טיורינג”, לא בגלל שהתוכנות “חמכות”, אלא בגלל שאנשים נהיים פחות חכמים.

    אנשים כמו נוסטרדמוס ועצבר הם דוגמה טובה לכך….

  4. מוזר דווקא שסוכן כאוס כמו מאסק מזהיר מפני בינה מלאכותית. ברמה העקרונית הוא צודק, צריכה להיות רגולציה בתחום. אממה, האיום על תהליכים דמוקרטיים כבר קיים, ויש לא מעט אנשים שעושים זאת ללא בינה מלאכותית. מהפייק ניוז של הימין המטורלל בארה”ב, דרך הפצת קונספירציות בפודקסט של רוגן, עד הספינים שנתניהו בנה את הקריירה שלו.
    יש פחד נוסף שאנשים ברמה של מאסק לא מדברים עליו, וזה אובדן הרלוונטיות.

  5. זה אפילו לא קרוב לבינה מלאכותית רק כלי עזר לעיצוב מדיה וחיפוש נוח בגוגל, רק כשתוכנה תוכל ליצור בעצמה בינה תוכנה יותר מתקדמת ממנה וכך הלאה

  6. ידיעה מלאכותית וידיעה טבעית
    לנוגע בגוש קרח מגיעה ידיעה טבעית – ששמה המוסכם נוצר מצירוף האותיות ק ר .
    ידיעה טבעית כזו תגיע לכל אדם ,הנוגע בגוש קרח.
    אי אפשר לתאר במלים ידיעה טבעית כזו, כי כל מלה היא רק צירופי אותיות, ובצירוף אותיות אין כל ידיעה.
    לצירוף אותיות יש רק תפקיד פשוט, והוא לשמש שם של משהו..

    שפת המלים היא רעש הנוצר מצירופי אותיות, והתפקיד היחידי של צירוף אותיות , הוא להיות שם.
    צירוף האותיות ק ר הוא שם של ידיעה טבעית הבאה לאדם, בעקבות מגע בגוש קרח.
    אי אפשר למסור בעזרת צירופי אותיות אחרים את הידיעה הטבעית שבאה לאדם בעקבות מגע בגוש קרח.
    רק המעשה של מגע בגוש קרח, מביא לעושה המעשה ידיעה ברורה, ששמה המוסכם הוא צירוף האותיות ק ר .

    ידיעות הבאות לאדם בעקבות מעשה שהוא עושה, הן הידיעות הברורות ביותר, ולכל ידיעה כזו יש שם מוסכם הנוצר מצירוף אותיות שרירותי.
    ידיעות כאלה הן ידיעות טבעיות.

    מכשיר ששמו המוסכם מד חום, הנוגע בגוש קרח, לעולם לא ישיג את הידיעה הטבעית ששמה המוסכם בנוי מצירוף האותיות ק ר .
    למכשיר הנוגע בגוש קרח – באה ידיעה מלאכותית.
    לאדם הנוגע בגוש קרח – באה ידיעה טבעית.

    ידיעה טבעית היא פלא, ואין כל אפשרות לתאר את הפלא הזה בעזרת צירופי אותיות .
    האדם נולד עם ידיעה טבעית, וגם לנמלה יש ידיעה טבעית משלה.
    למכשיר אין ידיעה טבעית.
    למכשיר יש ידיעה מלאכותית.

    יש הבדל תהומי בין ידיעת האדם, לידיעת המכונה.
    יש הבדל תהומי בין בינה טבעית לבינה מלאכותית.
    יש הבדל תהומי בין צירופי אותיות שהם שמות מוסכמים לידיעות טבעיות הבאות אל האדם בעקבות מעשה שהוא עושה, לסתם צירופי אותיות הנובעות מהסכמה אנושית (הגדרות)
    שפת המלים האנושית, היא רעש הנוצר מצירופי אותיות, כאשר התפקיד היחידי לצירוף אותיות – הוא רק שם.
    א.עצבר

  7. הפחד הוא שגם תוכנות ה AI יגלו בסוף שכמה מהמנהיגים שלנו הם טיפשים

  8. כשמה כן היא אללה יסתור. נזכרו עכשיו כשברור כבר. אבל קשה לסמוך עליהם.

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אתר זה עושה שימוש באקיזמט למניעת הודעות זבל. לחצו כאן כדי ללמוד איך נתוני התגובה שלכם מעובדים.