בתשובה לשוטה הכפר הגלובלי, 02/11/15 16:18
הלכה למעשה 667115
לא הבנתי - במצב שבו שוק הביטוח מחולק בין מספיק חברות, והן לא מתאגדות לאיזה תקן, לחברת ביטוח כדאי למזער את הנזק ללקוח שלה, גם על חשבון נזק גדול יותר לאחרים, לא?

ואם בשתי הפסקאות הראשונות היית רציני - לא, גם כשאנחנו מדברים על ארץ אחרת ואנשים שאני לא מכיר, לא נראה לי הגיוני לקודד גישה תועלתנית לחיי אדם. אבל אנחנו גולשים לכיוון מה ראוי, ובתגובתי הקודמת דיברתי על מה אני מעריך שיקרה בפועל: (א) אני לא חושב שהרבה מהנדסי תוכנה ומנהלים שלהם יסכימו להיכנס לפינות האלו. אני מכיר היטב מהנדס תוכנה אחד שלא יסכים. (ב) אנחנו משלמים לפילוסופים ומומחי אתיקה, אבל לא מקבלים מהם תפוקה שיש לה נפקות מעשית יציבה, (ג) אני בספק רב אם הטכנולוגיה באמת צריכה להוביל לשם. בשביל לממש במכונית החלטות כאלו אתה צריך יכולות מחשוביות ומכניות גבוהות מאוד. אתה יכול כבר להשקיע אותן בלהוריד עוד יותר את הסיכון להגיע למצב תאונה שבו יש דילמה.

אם אתה שואל אותי מה ראוי - בהינתן (ב) ו-(ג), אני חושב שלא ראוי שמהנדסי תוכנה ומנהליהם ייכנסו לפינות האלה.
הלכה למעשה 667119
לא, חברת הביטוח צריכה לשלם לצד ג'.
המטרה של כל חברות הביטוח שהנזק שנגרם באחריות הלקוח שלהם יקטן ככל האפשר. בין אם נזק לעצמו או לאחרים.
הלכה למעשה 667138
אה, ביטוח צד ג', נכון.
הלכה למעשה 667121
מבחינת הקושי המוסרי של המתכנת - מה ההבדל בין זה לבין האחריות המוסרית של מהנדס הרכב שעיצב את הפגוש וקובע מה יקרה להולך רגל בתאונה?

ומה אם המשתמש האנושי בנהג האוטומטי בוחר את רמת האלטרואיזם שהוא מעדיף בין 1 ל 10?

האם מבחינתך הקושי המוסרי נובע מהבחירה שמתבצעת ע"י המתכנת או עצם העיסוק בנושא?

אם מתכנתים יותר רגישים להחלטות מוסריות ממהנדסי מכונות זה מעלה כמה שאלות מעניינות. אולי זה בגלל התחושה שהמתכנת מייצר משהו דמוי סוכן שעושה בדיוק מה שהמתכנת הגדיר לו לעשות, ואילו המהנדס מייצר אובייקט שכל אחד יכול לעשות בו מה שהוא רוצה.
הלכה למעשה 667139
לומר שמעצב הפגוש "קובע מה יקרה להולך רגל בתאונה" זה דמגוגי (אני יודע שלא בכוונה). אין מחירון חיי אדם מוחלט שמוצמד להחלטות עיצוביות של הפגוש. יש בכלל בעיצוב פגושים טרייד-אוף של בטיחות מול משהו? לא מנסים פשוט לעשות אותם הכי בטוחים שאפשר, במסגרת גבולות גזרה [הא!] כלליים של עיצוב ומחיר? אולי לגבולות הגזרה האלה משמעות בטיחותית כלשהי, אבל גם אם כן זה לא משהו שמעצב הפגוש מתמודד איתו חזיתית [הא!] בזמן שהוא עובד.

מה אם המשתמש בוחר בין 1 ל-‏10? אני כופר בדיוק בזה שאנחנו קרובים בכלל ליכולת טכנולוגית, שלא לדבר על צורך טכנולוגי, לתכנת שליטה כזו. אולי נגיע לשם יום אחד רחוק, אולי לא.

אני חושב שהעניין הקריטי כאן הוא שאנחנו - ואני מניח שגם מהנדסי המכוניות האוטומטיות היום - לא יכולים באמת לשלוט באיזושהי רמה של סבירות בתוצאות של אלגוריתמי היגוי שונים במצב של תאונה מתקרבת תוך שלוש שניות ואובדן בלמים. עכשיו אתם אומרים לי "כן, אבל בוא רגע בשביל הצחוקים וההחכמה האינטלקטואלית נניח שכן יש שליטה ודאית." אז לא: חוסר הידיעה הזה הוא קריטי לכל המחשבה המוסרית שלנו. אני לא יודע אם שמים על זה מספיק דגש בפילוסופיה של המוסר. אולי צריך לתת לזה שם: "עיקרון אי הודאות". זאת אולי הבעיה בדילמות קרונית: אומרים לאנשים לקבל החלטה מוסרית בסיטואציה שזרה למחשבה המוסרית שלהם. היא זרה להם, ואולי הם לא מודעים לזה, לא בזה שפתאום יש להם שליטה על מה יקרה לאחרים, אלא בזה שאנחנו זורקים עליהם ודאות (או אי-ודאות שמנוסחת בהסתברויות מספריות מדויקות) שבתוצאות ההחלטות שלהם.

אני לא אומר שאי ודאות זה טוב. יותר ידע זה יותר טוב. אולי יום אחד נגיע ליכולת ואפילו לצורך לתכנת מכונות להתנהגות בדילמות קרונית. אם וכאשר ילדינו יהיו שם, "החוש המוסרי" שלהם יהיה שונה משלנו עכשיו. אני חושב שהדבר הנכון הוא... לחכות ולראות מה יראה להם נכון באותו מצב. אנחנו יכולים לנחש, אבל אני בספק אם אנחנו יכולים לשפוט אותם. ההיסטוריה הטכנולוגית כבר חידדה את חושינו המוסריים כשהמצאנו את הרובה, את פצצת המצרר, את פצצת האטום, וגומר.

חזרה לעמוד הראשי המאמר המלא

מערכת האייל הקורא אינה אחראית לתוכן תגובות שנכתבו בידי קוראים