דובי קננגיסר – לא מעודכן ולא במקרה

Humanoid Engineering


בויינט מספרים שהרשויות בדרום קוריאה שוקדות על פיתוח קוד אתי לרובוטים, שיתבסס בחלקו על שלושת החוקים של אסימוב ועד עוד כמה דברים שוליים כמו המלצותיה של הרשות האירופית לחקר הרובוטיקה, שלא נשמעים מגניבים כמו משהו שמבוסס על ספרי מד”ב.

הסיבה שזה מעניין, היא המטרה מאחורי פיתוח קוד אתי: לא, כמו אצל סופרי המד”ב, כדי למנוע השתלטות של הגזע הרובוטי על כדור הארץ, אלא בעיקר כדי למנוע שימוש בלתי חוקי ברובוטים, ושמירה על המידע ששמור בזכרון שלהם. הופ – זה כבר משהו מיוחד. לא רק שהרובוט צריך להמנע מפגיעה ישירה בבני אדם במעשה או במחדל, כמו בחוק הראשון של אסימוב, אלא הוא גם צריך להבין מספיק טוב את ההשלכות של כל פעולה שלו כדי למנוע פגיעה בעקיפין בבני אדם ובפרטיותם. המשימה הזו מספיק קשה בשביל בני אדם – לבקש מרובוט לעשות אותו דבר זה פחות או יותר להצהיר שפיתחנו בינה מלאכותית מושלמת.

אבל נניח שזה יצליח לקוריאנים, והם יבנו רובוטים עם קוד אתי שימנע מהם לחשוף מידע פרטי למי שאינו מורשה. תחשבו על הפיתוח הנוכלי הבא: הנדסת אנוש לרובוטים. הנדסת הומנואידים. מי שמכיר את נושא הנדסת האנוש יודע שמדובר בטכניקות שמטרתן לפרוץ לתוך מערכות מוגנות לא באמצעות פריצת ההגנות הממוחשבות, אלא על-ידי שכנוע אנשים שמורשים לגשת למערכת לתת לאפשר לכם גישה פנימה. למשל, אתם יכולים להציג את עצמכם כאנשי תמיכה ולבקש לאשרר את הסיסמא של המשתמש, או אחת ממגוון שיטות קצת יותר מוצלחות שמוצעות בקישור למעלה. הרבה פעמים זה הרבה יותר קל לקבל את הסיסמא למערכת מוגנת מאשר לפצח את ההגנות. אתרי פישינג הפכו את זה להונאה בקנה מידה בינלאומי.

עכשיו תחשבו אותו דבר, אבל בשביל רובוטים. במקום לנסות להגיע לתוך המידע המוצפן בזכרון של הרובוט, אפשר לנסות לשכנע אותו שמותר לכם לגשת למידע הזה, או שבכך שהם לא יחשפו את המידע הם יגרמו במחדל לפגיעה בנפש (“מהר! הבעלים שלך הולך להתאבד! אני חייב את קוד הכניסה לדוא”ל שלו כדי למצוא איפה הוא מתכנן לעשות את זה!”).

האם יתכן שההאקרים ה”טכנולוגיים” וההאקרים ה”חברתיים” יפגשו יום אחד באמצע הדרך, אצל הרובוטים?