[זוהי תמונה חופשית מאתר Pixabay]
המחבר (ראו תמונה משמאל), רועי צזנה, הוא דוקטור לננו-טכנולוגיה; עמית בסדנת יובל נאמן למדע, טכנולוגיה וביטחון באוניברסיטת תל אביב, ומרצה בפקולטה להנדסה ביו-רפואית בטכניון. בוגר קורס המנהלים של אוניברסיטת הסינגולריות ומחבר הספר המדריך לעתיד.
[התמונה: מאלבום התמונות הפרטי של המחבר]
האתרים של ד"ר רועי צזנה
* * *
ההיסטוריה מלאה במקרים בהם טכנולוגיה חדשה ופורצת-דרך - או אוסף של טכנולוגיות כאלו - משנה לחלוטין את חיי האנשים, עד כדי כך שאלו שחיו לפני התפתחות הטכנולוגיות אינם יכולים להבין כלל את דרך חשיבתם של בני הדורות הבאים. הנקודה בה מתרחש אותו מפנה חשיבתי מכונה "סינגולריות" או "נקודה סינגולרית" – מונח המגיע במקור ממתמטיקה ומתאר נקודה שאיננו יכולים להבין מה מתרחש בה.
[להרחבה בנושא סינגולריות, לחצו כאן]
אני קורא את דו"ח "התכנית האסטרטגית הלאומית למו"פ בינה מלאכותית של ארצות הברית" מסוף 2016, ופתאום נתקל בפסקה הבאה -
"מערכות בינה מלאכותית עשויות בסופו של דבר להגיע לרמה של "שיפור עצמי רקורסיבי (חוזר)", בה שינויים משמעותיים בתכנה יבוצעו על-ידי התכנה עצמה, ולא על-ידי מתכנתים אנושיים. על מנת לוודא את בטיחותן של מערכות המשפרות-עצמן, אנו קוראים למחקר נוסף לפיתוח:
- ארכיטקטורות לניטור-עצמי שבוחנות את העקביות ההתנהגותית של המערכות ותאימותן למטרות המקוריות של המפתחים האנושיים;
- אסטרטגיות בידוד שימנעו שחרורן של מערכות [בינה מלאכותית] בזמן שהן נבדקות;
- למידת ערכים, שתאפשר למערכת [בינה מלאכותית] להבין את הערכים, המטרות והרצונות של המשתמשים;
-
מסגרות ערכים שיהיו עמידות לשינוי-עצמי."
[זוהי תמונה חופשית מאתר Pixabay]
בקיצור, ממשלת ארצות הברית מתכוננת לבינות מלאכותיות שיוכלו לשפר את עצמן, וקוראת לפיתוח מנגנונים ל- 'כליאתן' מצד אחד, ולהתאמתן לערכי מוסר אנושיים כדי לוודא שלא יצאו מכלל שליטה. הסינגולריות אולי לא מעבר לפינה, אבל אנחנו במפורש בדרך לשם.
קיימות זמן רב תוכנות שיכולות לשנות את החוקים והכללים על פי תנאים משתנים בשטח, אבל תוכנה לא יכולה לשנות את עצמה. היא תפסיק לעבוד ברגע שהיא תעשה את זה וכמובן תהיה פתוחה לוירוסים