בתשובה לערן בילינסקי, 24/11/01 8:41
גם מכונות טועות 44553
א. אתה מראה כי, למעשה, לא הבנת את טיעון הודו-סין משום שאתה חוזר על הכשל שבשבילו יש צורך בטיעון זה.

אם ישנה מערכת פורמלית המסוגלת לדבר סינית, למערכת פורמלית זו יש אישיות. בפרט, יש לה גם צבע אהוב. *אין קשר בין הצבע האהוב של המערכת לצבע האהוב של האיש שעוקב אחרי ההוראות!*. האיש לא יודע סינית, ולא איתו אנחנו מדברים. אנחנו מדברים עם המערכת הפורמלית ("כל הודו"). קל לראות את הבלבול שלך, כשאתה אומר: "התשובה שקודדה בסינית הייתה 'כחול' בעוד שהתשובה הנכונה (הצבע שבאמת חביב על האדם שנשאל) היא דווקא 'אדום"': לא שאלנו את האיש - שאלנו את המערכת! האיש עובד לפי מערכת כללים דטרמיניסטית, זוכר? כך שגם אם נחליף את האיש במישהו אחר (באדון סירל למשל, שהצבע החביב עליו הוא סגול מזעזע) התשובה תשאר אותה תשובה - משום שהוא עוקב אחר אותם הכללים, מדמה את אותה המערכת הפורמלית, ולמערכת פורמלית זו, הצבע האהוב הוא "כחול" - בלי קשר לשאלת הצבע האהוב על האדם שמדמה את פעולתה.

ב. לגבי מהירות מילוט - יש כאן בהחלט סף מדוייק. אם תטוס במהירות נמוכה מ- X קמ"ש - תיפול חזרה לכדוה"א (בשל הכבידה). אם תטוס במהירות גבוהה מ- X קמ"ש - לא תיפול. או שכן, או שלא, והכל בגלל הבדל של 0.01% במהירות - סף, חד וחלק. וכבר ציינתי שישנם ספים נוספים בטבע. שוב - כאן מדובר בסף שקל לנו לחשב אותו ולהבינו; במקרה של תבונה, אפילו לא ברור לנו מהו הנתון שאותו יש למדוד, קל וחומר מה הסף שהוא צריך לעבור. אבל אין פירוש הדבר שאין כאן סף.
גם מכונות טועות 44593
אם כך, באמת לא הבנתי את טיעון הודו-סין. בוא ננסה שוב.

האם אפשר לתמצת את "הודו-סין" ב"אם זה מגיב בצורה שנראית אינטיליגנטית אז זה אינטיליגנטי"?
גם מכונות טועות 44601
לא ממש קשור, אז אני מניח שהתשובה לשאלתך היא "לא".

הטיעון של סירל היה: מערכת פורמלית לא יכולה להיות תבונית. הוכחה: ע"י ניסוי מחשבתי המראה כי אם קיימת מערכת פורמלית כזו, אז אדם יכול לחקות את פעולתה - ובכך לדבר סינית, למרות שאינו דובר סינית.

השגיאות של סירל: א. אם קיימת מערכת פורמלית כזו, אזי אדם המחקה את פעולתה של מערכת פורמלית כזו אינו הופך לדובר סינית. הוא פשוט "מנוע" של מכונה, והמכונה דוברת סינית. ב. אם קיימת מערכת פורמלית כזו, היא ודאי כה מורכבת שאדם יחיד פשוט לא יוכל לחקות את פעולתה.

ניסיון התיקון של סירל היה "שאלת הודו-סין" (לא שם רשמי, אגב), והוא התייחס רק לשגיאה השניה: במקום אדם אחד, ניקח אומה שלמה.

התשובה שקיבל סירל: אם ניקח אומה שלמה, אז אין כאן כל אבסורד. אם קיימת מערכת פורמלית תבונית, ואומה שלמה תדמה את פעולתה, אזי האומה תהווה יחידה תבונית. הניסוי המחשבתי לא מוביל לסתירה.

בוא נעזוב לרגע את תחום הבינה ונעבור למשהו פשוט יותר. סירל משהו שמקביל ל: אם ישנו אלגוריתם לפענוח קובץ של סרט QuickTime, וניתן לאדם להריץ אלגוריתם זה עם דף, עפרון ומחק במקום מסך (נניח שהסרט בשחור-לבן), האם התוצאה תהיה סרט, על הנייר? ובכלל, האלגוריתם דורש התמרות פורייה, והאיש שלנו לא יודע אפילו מה זו פונקציה! זהו אבסורד, לטענתו.

אבל זהו לא אבסורד, למעט ציר הזמן (נקבל frame של הסרט כל כמה חודשים או שנים). אז במקום איש אחד קח אומה שלמה, במקום דף ועפרון (כלומר במקום המסך) - אין לי כרגע דימוי מתאים (אולי מטריצה של אנשים שיכולים ללבוש חולצות בצבעים שונים?), ותקבל frame כל שעה (נניח). התוצאה היא סרט - בקצב איטי, כמובן, אבל סרט. אפילו אם אף אחד מהעובדים לא יודע שום דבר על התמרות פורייה. אין כאן אבסורד.

שגיאת ההבנה של סירל היא בקו שבין "האדם" לבין "המערכת שהאדם מהווה חלק ממנה". מערכת הידע של כל אחד מהצדדים היא בלתי-תלויה, משום שהאדם לא תורם מהידע שלו למערכת (הוא פועל כאוטומט). אם המערכת פשוטה מספיק, אולי יזלוג ידע מהמערכת אל האדם (כמו במקרה הכפל), וזאת משום שמעצם טבעו, אדם לא יכול להיות אוטומט מבלי להרהר במעשיו.
גם מכונות טועות 44605
וחוץ ממה שטל אמר, תשובה ישירה יותר לשאלתך, האם זה אינטליגנטי.
התשובה היא: אולי. לא בטוח, אבל לא בטוח שלא (בניגוד לסירל, שטוען שבטוח שלא).

חזרה לעמוד הראשי

מערכת האייל הקורא אינה אחראית לתוכן תגובות שנכתבו בידי קוראים