בתשובה לערן בילינסקי, 22/11/01 9:34
הודו-סין 44362
הבעיה עם הרדוקציה היא שהיא מדלגת על הבעיה הבסיסית ביותר של ניסוי "החדר הסיני".

נניח שתוכנה על מחשב מודרני תצליח לדמות בינה אנושית במידה שתאפשר לה לדבר סינית. סירל אומר: הבה וניתן לאדם "להריץ" את התוכנה עם ניירת, בחדר. הופלה! החדר מדבר סינית.

אבל כדי לדמות מחשב מודרני ע"י פעולות עם ניירת, בחדר, ידרשו שנות חיים של אדם כדי לבצע את ה-boot, פחות-או-יותר. האיש ימות מזקנה לפני שיספיק לבצע parsing ולו למשפט יחיד. מה גם שמסד הנתונים שיהיה מחובר לתוכנה (ראה פרוייקט Cyc למשל) הוא כזה, ש*חדר* של ניירת ודאי לא יספיק. ספריית-ענק, עיר שלמה של ספרים (ומחברות!), נשמע הרבה יותר סביר.

ועל כך ענה סירל: אוקיי - אז לא איש בחדר, אלא *כל הודו*. כל הודו תשתתף בניסוי, וכל אחד מההודים יבצע הוראות "על-פי הספר" כדי לבצע את פעולות המחשב, עם ניירת.

אוקיי. כעת, האם הודו מבינה סינית? (זאת מתוך הנחה שכל ההודים דוברי הסינית הוגלו לפקיסטאן כדי שלא יפריעו לניסוי).

והתשובה - *כן*. הודו, המערכת כולה, תהיה כעת תבונית ותבין סינית - והספקן לא יוכל להצביע על אדם בודד ולומר: אז איך *הוא* לא מבין סינית? - כי איש לא טען שהוא דובר סינית. *כל המערכת* דוברת סינית, כמכלול, ולא אף חלק נפרד שלה. השאלה, לגבי אדם בודד, תהיה שקולה לבחינת נוירון במוח שלי והצגת השאלה: "אז איך *זה* לא יודע עברית?".

בנוסף יש לזכור שאנו משתמשים כאן בבני-אדם כדי לדמות אוטומטים. אבל אדם אינו מסוגל לפעול כאוטומט, מבלי להרהר במעשיו. אם תבנה מערכת מחשב מדהימה שמבינה סינית, שהיא כה פשוטה עד שיוכל אדם בחדר לדמותה בקלילות (דבר שאיש לא טוען שהוא אפשרי!), הבעיה היא שאותו האדם לא יוכל לפעול לחלוטין כאוטומט, ולהריץ את המערכת, מבלי להרהר במעשיו *ולהגיע לתובנות בנוגע למעשיו*. תובנות אלו עשויות לגרום לו להבין סינית בעצמו - *בלי קשר, ובנפרד מכך*, שגם המערכת כולה (האדם + הניירת + החדר) מבינה סינית.

למה הדבר דומה? בוא ונחזור לדוגמת הכפל שלך. קח ילד בכיתה ב' שלמד "חיבור ארוך", ואינו יודע דבר וחצי דבר על כפל. למד אותו לבצע "כפל ארוך". מדובר בתהליך פשוט הדורש הבנת חיבור בלבד. הילד יודע כעת להכפיל, אך אינו יודע מהו כפל, ומה פירוש הסימנים שהוא מפיק! שאל אותו: "כמה זה 234@3435", אם להשתמש בסימון שלך, והוא יוכל די בקלות לתת לך תשובה; שאל אותו כמה הם 7 פעמים 5, ולא ידע. הילד (המודעות שלו) לא יודע להכפיל, אך "המערכת" (הילד כ"אוטומט") יודעת לתת תשובות לשאלות של כפל.

(בחרתי בכפל ארוך ולא בהגדרת הכפל שלך משום שבשיטה שלך הסיכוי לטעות גבוה משמעותית - משום שאנשים הם אוטומטים גרועים).

לגבי טיעון "איפה הסמנטיקה": אם ביצעת רדוקציה של היכולת-לדבר-סינית למערכת פורמלית (קרי, מערכת מחשב כפי שאנו מכירים אותה), הרי ש*אין* סמנטיקה. הסמנטיקה היא חלק מהסינטקס, ונובעת ממנו. ושוב אנו שבים לטיעוני "סף". נושאי סף הם תופעה מוכרת בטבע - שים כמות מסויימת של חומר רדיואקטיבי בחדר, ולא יקרה כלום. שים יותר מדי (מסה קריטית), ו-בום. (אולי יש גם צורך בתוספת אנרגיה? לא זוכר. אבל גם כאן, יש סף נדרש של אנרגיה). אז נכון, אנחנו לא יודעים *למה* או *מה גורם* לסף הנדרש לתודעה (או אפילו *מהו* הסף), אבל אין משמעות הדבר שהסף לא קיים.
גם מכונות טועות 44540
אני ממש לא מבין את הבעיה שאתה מציג. האדם משמש אותנו ככלי לדימוי אותה מכונת טיורינג שנמצאת ברקע ומבצעת פעולות סינטקטיות. גם למכונת טיורינג מעשית יקח המון זמן כנראה לבצע את החישובים הנ"ל, ואולי גם עייפות החומר או קצרים חשמליים יגרמו לה לטעות באיזשהו שלב אבל אני לא מייחס לזה חשיבות כיוון שכל הניסוי המחשבתי הוא אבסטרקטי. לכן, טיעונים בנוסח "הודו-סין" מיותרים מבחינתי, במיוחד לאור העובדה שכוחו החישובי של חישוב מקבילי (כידוע לך) שקול לחישוב טורי.

אם נחזור לדוגמת הכפל, אזי אני מסכים - מבחוץ נראה לנו כי הילד (המערכת) יודע לבצע כפל, אבל טענתי היא שלדעת איך לבצע כפל לא שקול "להבין מה זה כפל". כמובן שכשהדוגמא היא כפל זה נראה מעט צולע אבל כאשר מדובר על שפה ראינו שיש לנו בעיה, למשל בדוגמא שהביא מתחתנו נועם - נאמר שהשאלה תהיה "מה הצבע החביב עליך?" - התשובה שקודדה בסינית הייתה "כחול" בעוד שהתשובה הנכונה (הצבע שבאמת חביב על האדם שנשאל) היא דווקא "אדום". ברור לי שלמרות שכלפי חוץ נדמה כי המכונה ענתה תשובה אינטיליגנטית זו לא התשובה הנכונה. אם ניקח את ההצעה הקודמת (נדמה לי של דובי) ונאמר שהאדם ישתמש במילון סיני-עברי כדי לתרגם את השאלות לעברית ואז לתרגם את השאלות לסינית אזי בסך הכל העברנו את השאלה למקום אחר (כמו ב"פנאספרמייה מכוונת...) - מה זה "אדום" ומה זה "לאהוב אדום" וכו' כלומר חזרה לעולם הסמנטי (מבחינתי כמובן).

אישית אני סבור שכנראה לא ניתן לבצע רדוקציה מלאה של היכולת לדבר סינית למערכת פורמלית, I was not proved otherwise yet... אשר לשאלת הסף, הרבה תופעות (איני יודע אם כולם) שנראות לנו כתופעות סף הן בעצם תופעות שקול כוחות. ניקח למשל את מהירות הבריחה מכדור הארץ. מהירות הבריחה היא תוצר של שקול הכוחות הפועל על גוף שנזרק בכיוון מעלה. העובדה שמעל מהירות מסויימת אותו גוף ימשיך עד אינסוף אינה בעצם תופעת סף אלא תופעה רציפה, ואנחנו כבני אדם בוחרים להוסיף לה משמעות. כאן תבוא ודאי ותטען כי העולם הוא דיסקרטי עקב המסקנות שלך מתורת הקוונטים ואני אענה שלאו דווקא - רגשות אינם דיסקרטיים, מחשבות אינן דיסקרטיות, גם חלומות לא - אבל חזרנו כאן בעצם לוויכוח המקורי.
גם מכונות טועות 44553
א. אתה מראה כי, למעשה, לא הבנת את טיעון הודו-סין משום שאתה חוזר על הכשל שבשבילו יש צורך בטיעון זה.

אם ישנה מערכת פורמלית המסוגלת לדבר סינית, למערכת פורמלית זו יש אישיות. בפרט, יש לה גם צבע אהוב. *אין קשר בין הצבע האהוב של המערכת לצבע האהוב של האיש שעוקב אחרי ההוראות!*. האיש לא יודע סינית, ולא איתו אנחנו מדברים. אנחנו מדברים עם המערכת הפורמלית ("כל הודו"). קל לראות את הבלבול שלך, כשאתה אומר: "התשובה שקודדה בסינית הייתה 'כחול' בעוד שהתשובה הנכונה (הצבע שבאמת חביב על האדם שנשאל) היא דווקא 'אדום"': לא שאלנו את האיש - שאלנו את המערכת! האיש עובד לפי מערכת כללים דטרמיניסטית, זוכר? כך שגם אם נחליף את האיש במישהו אחר (באדון סירל למשל, שהצבע החביב עליו הוא סגול מזעזע) התשובה תשאר אותה תשובה - משום שהוא עוקב אחר אותם הכללים, מדמה את אותה המערכת הפורמלית, ולמערכת פורמלית זו, הצבע האהוב הוא "כחול" - בלי קשר לשאלת הצבע האהוב על האדם שמדמה את פעולתה.

ב. לגבי מהירות מילוט - יש כאן בהחלט סף מדוייק. אם תטוס במהירות נמוכה מ- X קמ"ש - תיפול חזרה לכדוה"א (בשל הכבידה). אם תטוס במהירות גבוהה מ- X קמ"ש - לא תיפול. או שכן, או שלא, והכל בגלל הבדל של 0.01% במהירות - סף, חד וחלק. וכבר ציינתי שישנם ספים נוספים בטבע. שוב - כאן מדובר בסף שקל לנו לחשב אותו ולהבינו; במקרה של תבונה, אפילו לא ברור לנו מהו הנתון שאותו יש למדוד, קל וחומר מה הסף שהוא צריך לעבור. אבל אין פירוש הדבר שאין כאן סף.
גם מכונות טועות 44593
אם כך, באמת לא הבנתי את טיעון הודו-סין. בוא ננסה שוב.

האם אפשר לתמצת את "הודו-סין" ב"אם זה מגיב בצורה שנראית אינטיליגנטית אז זה אינטיליגנטי"?
גם מכונות טועות 44601
לא ממש קשור, אז אני מניח שהתשובה לשאלתך היא "לא".

הטיעון של סירל היה: מערכת פורמלית לא יכולה להיות תבונית. הוכחה: ע"י ניסוי מחשבתי המראה כי אם קיימת מערכת פורמלית כזו, אז אדם יכול לחקות את פעולתה - ובכך לדבר סינית, למרות שאינו דובר סינית.

השגיאות של סירל: א. אם קיימת מערכת פורמלית כזו, אזי אדם המחקה את פעולתה של מערכת פורמלית כזו אינו הופך לדובר סינית. הוא פשוט "מנוע" של מכונה, והמכונה דוברת סינית. ב. אם קיימת מערכת פורמלית כזו, היא ודאי כה מורכבת שאדם יחיד פשוט לא יוכל לחקות את פעולתה.

ניסיון התיקון של סירל היה "שאלת הודו-סין" (לא שם רשמי, אגב), והוא התייחס רק לשגיאה השניה: במקום אדם אחד, ניקח אומה שלמה.

התשובה שקיבל סירל: אם ניקח אומה שלמה, אז אין כאן כל אבסורד. אם קיימת מערכת פורמלית תבונית, ואומה שלמה תדמה את פעולתה, אזי האומה תהווה יחידה תבונית. הניסוי המחשבתי לא מוביל לסתירה.

בוא נעזוב לרגע את תחום הבינה ונעבור למשהו פשוט יותר. סירל משהו שמקביל ל: אם ישנו אלגוריתם לפענוח קובץ של סרט QuickTime, וניתן לאדם להריץ אלגוריתם זה עם דף, עפרון ומחק במקום מסך (נניח שהסרט בשחור-לבן), האם התוצאה תהיה סרט, על הנייר? ובכלל, האלגוריתם דורש התמרות פורייה, והאיש שלנו לא יודע אפילו מה זו פונקציה! זהו אבסורד, לטענתו.

אבל זהו לא אבסורד, למעט ציר הזמן (נקבל frame של הסרט כל כמה חודשים או שנים). אז במקום איש אחד קח אומה שלמה, במקום דף ועפרון (כלומר במקום המסך) - אין לי כרגע דימוי מתאים (אולי מטריצה של אנשים שיכולים ללבוש חולצות בצבעים שונים?), ותקבל frame כל שעה (נניח). התוצאה היא סרט - בקצב איטי, כמובן, אבל סרט. אפילו אם אף אחד מהעובדים לא יודע שום דבר על התמרות פורייה. אין כאן אבסורד.

שגיאת ההבנה של סירל היא בקו שבין "האדם" לבין "המערכת שהאדם מהווה חלק ממנה". מערכת הידע של כל אחד מהצדדים היא בלתי-תלויה, משום שהאדם לא תורם מהידע שלו למערכת (הוא פועל כאוטומט). אם המערכת פשוטה מספיק, אולי יזלוג ידע מהמערכת אל האדם (כמו במקרה הכפל), וזאת משום שמעצם טבעו, אדם לא יכול להיות אוטומט מבלי להרהר במעשיו.
גם מכונות טועות 44605
וחוץ ממה שטל אמר, תשובה ישירה יותר לשאלתך, האם זה אינטליגנטי.
התשובה היא: אולי. לא בטוח, אבל לא בטוח שלא (בניגוד לסירל, שטוען שבטוח שלא).
גם מכונות טועות 44573
מה זה מכונת טיורינג?
גם מכונות טועות 44590
חיפוש נוסף בגוגל עשוי להציע מקורות קצת יותר פשוטים להבנה. אני פשוט לקחתי את "יותר מזל משכל".
גם מכונות טועות 44595
סלח לי על שאני לא עונה ביתר פירוט, הלינק הבא באתר "הידען" מספק הסבר קצר וממצה:
שפת הקודש 44597
המ... זה מה שקורה כשאתה עונה לכמה תגובות, אני רואה שדובי שם כבר לינק. הלינק שלי בעברית!

חזרה לעמוד הראשי

מערכת האייל הקורא אינה אחראית לתוכן תגובות שנכתבו בידי קוראים