בתשובה לירדן ניר, 22/11/01 0:01
עם הגב לים? 44273
עדיין לא הבנתי מדוע המערכת לדעתך מבינה סינית אבל האיש שלמד את חוקי השפה הסינית לא.

ברשותך אחזור על הטענה שהבאתי בשם סרל - ניתן לעשות רדוקציה לחדר הסיני ל"איש שלמד את חוקי השפה הסינית" - אותו אדם למד בעל-פה את ספר החוקים של השפה הסינית והוא יודע איזו תשובה לתת לכל שאלה שמגיעה אליו בסימנים סיניים. עם זאת, אין לו שמץ של מושג מה המשמעות של הסימנים שהוא מוציא החוצה. במערכת הזו (שאני מקווה שנסכים שהיא שקולה למערכת המקורית) אין הבדל בין האדם ל"כלל המערכת". האם האדם מבין לדעתך את השפה הסינית?

אגב, למרות ההצעות שלך בפסקה האחרונה אני עדיין חלוק עליך גם בנקודה זו. אחת המסקנות שמציג סרל היא שסינטקס אינו גורר סמנטיקה. כלומר, סרל (לו אתה מקבל את דעותיו) פוסל את האפשרות שמהירות החישוב מהווה גורם במעבר הזה, אני חושב (אני צריך לחשוב על זה עוד) שגם בכימיה לא נמצא מפלט כיוון שגם שם עדיין מדובר על סט של כללים סינטקטיים, הניתנים לניסוח (אולי בצורת משוואות) אבל עדיין סינטקטיים בלבד.
עם הגב לים? 44302
בוא נתאר לנו אדם שאינו יודע אנגלית. הוא רוכש ספר תחביר אנגלי, ומילון עברי-אנגלי אנגלי-עברי. הוא לומד בעל-פה את חוקי האנגלית, ויושב ומתרגם טקסטים מאנגלית לעברית בעזרת המילון. האם הוא מבין אנגלית? לדעתי - לא. הוא לא *מבין* אנגלית, הוא צריך לתרגם את אוסף הסימנים הזה למשהו שהוא כן מכיר (עברית), ואז הוא יכול להבין את הטקסט.
אוקיי, שנייה הפסקה. בואו ננסה להמציא מילה עברית ל"mind". על בסיס מוח ושכל, אני חושב שניתן להמציא מילה מתאימה באותו משקל. "תדע" (teda) יכולה להיות אופציה, אבל היא לא ברורה מספיק. מה לגבי הבן (heven)? יש את השכל (brain) ויש את ההבן (mind). לצורך הודעה זו זה יספיק. אם רוצים, אפשר לפתח בהמשך.
אז יאללה, נמשיך. איפה הייתי? המוח של האיש מכיל את חוקי האנגלית, אבל הם לא הוטמעו בהבן שלו - התודעה שלו אינה מבינה באופן אינטואיטיבי (בלי שלב התרגום) את האנגלית. אם כן, המערכת של הבן+חוקי האנגלית (+המילון), מבינה אנגלית, למרות שהמערכת המוגבלת יותר של ההבן (שאינו כולל כל מה שיש בשכל) אינה מבינה אנגלית.

אגב, עכשיו שאני מסתכל על זה - יש לנו שתי מילים: מוח ושכל. אפשר לעשות דיפרנציאציה (ייחוד?) של המילים הללו. מוח ישמש כ-brain, ושכל (מאותו שורש כמו השכלה) יהיה mind. למרות שגם כאן יכולה להיות בעיה. נו, טוב.
סמנטיקה בגרוש 44306
לדעתי מוטב לעקוב אחר התפשרות המתרגם לספרו של סרל, אשר תרגם "נפש, מוח ומדע" את "Mind, Brain & Science".
יש לי אותו כאן אם מישהו מעוניין בציטוטים.
סמנטיקה בגרוש 44317
נפש מושג טעון מידי - ולא כך הוא במקרה של mind. לא טוב.
סמנטיקה בגרוש 44330
מיינד- אולי ''דעת''.

(אאוט אוף היז מיינד- יצא מדעתו).
סמנטיקה בגרוש 44338
אכן, רעיון מוצלח. אוויל שכמותי. המצאתי "תדע" אבל לא חשבתי על דעת. אימצתי. קבלי ח"ח. (:
בתור חולה נפש, 44510
לא, לא, לא.

mind כולל גם רגשות, רשמים חושיים ודברים כאלה, שלא מסתרדים טוב עם "דעת" (וגם "תדע" ודומיו לא ממש רומזים לכך).
הפילוסופים העבריים כבר די מתרגלים להשתמש ב"נפש" לצורך זה, תוך מודעות לחסרונות. נכון שיש לזה אסוציאציות מטעות, לא נורא. מבהירים פעם אחת על מה מדובר (המונח "בעיית הגוף-נפש" מאוד מאוד עוזר), ואפשר להמשיך לדון. עם עוד קצת התרגלות, כבר בכלל לא תהיה בעיה. רק שלא נמשיך בכל דיון, ספר ומאמר לנסות להמציא את הגלגל מחדש.
עם הראש לשם 44309
אני מסכים שהאדם שהבאת אינו מבין אנגלית, אבל רק בגלל התנאי שהוספת בסיפא. מצד שני, אני לא יכול להתעלם מהעובדה שהוא ביצע קישור למידע סמנטי (עברית) בשכל שלו, כלומר ביצע מיפוי מהסינטקס לסמנטיקה. העובדה שהוא בחר שלא "לזכור" או "ללמוד" את החוקים היא סתם עצלות לצורך הטיעון. אם הוא ימשיך שלא לזכור את המידע הסמנטי הנובע מהמיפוי אזי הוא באמת לא מבין אנגלית, אבל זה לא התהליך שאני חש שאני מבצע כאשר אני מדבר אנגלית, או שביצעתי כאשר למדתי אנגלית (או עברית). בראשית הייתה הסמנטיקה בשכל שלי, אחר כך קישרתי אותה למילים בעברית ומאוחר יותר למילים באנגלית, אבל הסמנטיקה עדיין קיימת (לפחות עבורי). איך היא הגיעה לשם? איך היא מגיעה עכשיו לשם ומתווספת כאשר אני לומד דברים חדשים? לא יודע.
עם הראש לשם 44319
אני חושש שאינני מבין את השימוש שלך במושגים סינטקס (תחביר, בעברית, אגב) וסמנטיקה. אם תוכל להסביר לי, אוכל לענות לך.
מה זה אומר "מיפוי מהסינטקסט לסמנטיקה"?

עבורי, תהליך למידה של שפה חדשה, נגיד צרפתית, עובד כך: אני קורא את המשפט, מנסה לאתר בו מבנים תחביריים שאני מכיר מהחוקים שלמדתי, ואז מתרגם את המילים לשפה שאני מכיר (עברית או אנגלית). אז אני מבין את המשפט. בד"כ, אני לא אבין את המשפט "אינטואיטיבית" באותו אופן שאני מבין עברית או אנגלית. או, במילים אחרות: לא יכול להיווצר מצב שאני מבין משפט בצרפתית בלי שאוכל לתרגם אותו לעברית או אנגלית. יכול להיות שאני אבין משפט באנגלית בלי שאוכל לתרגם אותו לעברית. לא יכול להיות שאני מכיר מילה בצרפתית בלי לדעת מה התרגום שלה לאנגלית או עברית, אבל כן יכול להיות שאני מכיר מילה באנגלית בלי שאכיר את את התרגום שלה לעברית.
זה ההבדל בין "לזכור בעל-פה" לבין "להבין" שפה.
עם הגב לים? 44307
I have an interesting response for you: I claim that said person would have to understand Chinese. He cannot do what you claim he does without knowing Chinese. Once he has gotten to the level in which he can converse intelligently in Chinese, he speaks Chinese, and that's that.
עם הגב לים? 44312
ובכן, אני לא מסכים איתך, אבל זה נובע מהנחות היסוד השונות שלנו (ואנחנו חוזרים על עצמנו) - אני (בשם סרל)טוען שהבנת שפה לא שקולה להבנת התחביר שלה כיוון שהתחביר לא מכיל בתוכו את המשמעות. ראה למשל את הדוגמא שהבאתי על הכפל.
עם הגב לים? 44398
רגע רגע רגע... נדמה לי שמשהו לא הובן לי.
אני חשבתי שבחדר הסיני, האדם יכול להגיב באופן שנראה אינטליגנטי כלפי חוץ למסרים שמובאים לו. מה עוזר לאדם המידע על סמנטיקה, כשהוא רוצה להגיב להודעה בשפה כלשהי? מכונה שמכירה רק סינטקס תוכל רק לומר לך האם משפט מסויים הוא בעל משמעות בעברית או לא, ולא תוכל להגיב אליו.
עם הגב לים? 44541
ראה תשובתי לנועם.
הודו-סין 44362
הבעיה עם הרדוקציה היא שהיא מדלגת על הבעיה הבסיסית ביותר של ניסוי "החדר הסיני".

נניח שתוכנה על מחשב מודרני תצליח לדמות בינה אנושית במידה שתאפשר לה לדבר סינית. סירל אומר: הבה וניתן לאדם "להריץ" את התוכנה עם ניירת, בחדר. הופלה! החדר מדבר סינית.

אבל כדי לדמות מחשב מודרני ע"י פעולות עם ניירת, בחדר, ידרשו שנות חיים של אדם כדי לבצע את ה-boot, פחות-או-יותר. האיש ימות מזקנה לפני שיספיק לבצע parsing ולו למשפט יחיד. מה גם שמסד הנתונים שיהיה מחובר לתוכנה (ראה פרוייקט Cyc למשל) הוא כזה, ש*חדר* של ניירת ודאי לא יספיק. ספריית-ענק, עיר שלמה של ספרים (ומחברות!), נשמע הרבה יותר סביר.

ועל כך ענה סירל: אוקיי - אז לא איש בחדר, אלא *כל הודו*. כל הודו תשתתף בניסוי, וכל אחד מההודים יבצע הוראות "על-פי הספר" כדי לבצע את פעולות המחשב, עם ניירת.

אוקיי. כעת, האם הודו מבינה סינית? (זאת מתוך הנחה שכל ההודים דוברי הסינית הוגלו לפקיסטאן כדי שלא יפריעו לניסוי).

והתשובה - *כן*. הודו, המערכת כולה, תהיה כעת תבונית ותבין סינית - והספקן לא יוכל להצביע על אדם בודד ולומר: אז איך *הוא* לא מבין סינית? - כי איש לא טען שהוא דובר סינית. *כל המערכת* דוברת סינית, כמכלול, ולא אף חלק נפרד שלה. השאלה, לגבי אדם בודד, תהיה שקולה לבחינת נוירון במוח שלי והצגת השאלה: "אז איך *זה* לא יודע עברית?".

בנוסף יש לזכור שאנו משתמשים כאן בבני-אדם כדי לדמות אוטומטים. אבל אדם אינו מסוגל לפעול כאוטומט, מבלי להרהר במעשיו. אם תבנה מערכת מחשב מדהימה שמבינה סינית, שהיא כה פשוטה עד שיוכל אדם בחדר לדמותה בקלילות (דבר שאיש לא טוען שהוא אפשרי!), הבעיה היא שאותו האדם לא יוכל לפעול לחלוטין כאוטומט, ולהריץ את המערכת, מבלי להרהר במעשיו *ולהגיע לתובנות בנוגע למעשיו*. תובנות אלו עשויות לגרום לו להבין סינית בעצמו - *בלי קשר, ובנפרד מכך*, שגם המערכת כולה (האדם + הניירת + החדר) מבינה סינית.

למה הדבר דומה? בוא ונחזור לדוגמת הכפל שלך. קח ילד בכיתה ב' שלמד "חיבור ארוך", ואינו יודע דבר וחצי דבר על כפל. למד אותו לבצע "כפל ארוך". מדובר בתהליך פשוט הדורש הבנת חיבור בלבד. הילד יודע כעת להכפיל, אך אינו יודע מהו כפל, ומה פירוש הסימנים שהוא מפיק! שאל אותו: "כמה זה 234@3435", אם להשתמש בסימון שלך, והוא יוכל די בקלות לתת לך תשובה; שאל אותו כמה הם 7 פעמים 5, ולא ידע. הילד (המודעות שלו) לא יודע להכפיל, אך "המערכת" (הילד כ"אוטומט") יודעת לתת תשובות לשאלות של כפל.

(בחרתי בכפל ארוך ולא בהגדרת הכפל שלך משום שבשיטה שלך הסיכוי לטעות גבוה משמעותית - משום שאנשים הם אוטומטים גרועים).

לגבי טיעון "איפה הסמנטיקה": אם ביצעת רדוקציה של היכולת-לדבר-סינית למערכת פורמלית (קרי, מערכת מחשב כפי שאנו מכירים אותה), הרי ש*אין* סמנטיקה. הסמנטיקה היא חלק מהסינטקס, ונובעת ממנו. ושוב אנו שבים לטיעוני "סף". נושאי סף הם תופעה מוכרת בטבע - שים כמות מסויימת של חומר רדיואקטיבי בחדר, ולא יקרה כלום. שים יותר מדי (מסה קריטית), ו-בום. (אולי יש גם צורך בתוספת אנרגיה? לא זוכר. אבל גם כאן, יש סף נדרש של אנרגיה). אז נכון, אנחנו לא יודעים *למה* או *מה גורם* לסף הנדרש לתודעה (או אפילו *מהו* הסף), אבל אין משמעות הדבר שהסף לא קיים.
גם מכונות טועות 44540
אני ממש לא מבין את הבעיה שאתה מציג. האדם משמש אותנו ככלי לדימוי אותה מכונת טיורינג שנמצאת ברקע ומבצעת פעולות סינטקטיות. גם למכונת טיורינג מעשית יקח המון זמן כנראה לבצע את החישובים הנ"ל, ואולי גם עייפות החומר או קצרים חשמליים יגרמו לה לטעות באיזשהו שלב אבל אני לא מייחס לזה חשיבות כיוון שכל הניסוי המחשבתי הוא אבסטרקטי. לכן, טיעונים בנוסח "הודו-סין" מיותרים מבחינתי, במיוחד לאור העובדה שכוחו החישובי של חישוב מקבילי (כידוע לך) שקול לחישוב טורי.

אם נחזור לדוגמת הכפל, אזי אני מסכים - מבחוץ נראה לנו כי הילד (המערכת) יודע לבצע כפל, אבל טענתי היא שלדעת איך לבצע כפל לא שקול "להבין מה זה כפל". כמובן שכשהדוגמא היא כפל זה נראה מעט צולע אבל כאשר מדובר על שפה ראינו שיש לנו בעיה, למשל בדוגמא שהביא מתחתנו נועם - נאמר שהשאלה תהיה "מה הצבע החביב עליך?" - התשובה שקודדה בסינית הייתה "כחול" בעוד שהתשובה הנכונה (הצבע שבאמת חביב על האדם שנשאל) היא דווקא "אדום". ברור לי שלמרות שכלפי חוץ נדמה כי המכונה ענתה תשובה אינטיליגנטית זו לא התשובה הנכונה. אם ניקח את ההצעה הקודמת (נדמה לי של דובי) ונאמר שהאדם ישתמש במילון סיני-עברי כדי לתרגם את השאלות לעברית ואז לתרגם את השאלות לסינית אזי בסך הכל העברנו את השאלה למקום אחר (כמו ב"פנאספרמייה מכוונת...) - מה זה "אדום" ומה זה "לאהוב אדום" וכו' כלומר חזרה לעולם הסמנטי (מבחינתי כמובן).

אישית אני סבור שכנראה לא ניתן לבצע רדוקציה מלאה של היכולת לדבר סינית למערכת פורמלית, I was not proved otherwise yet... אשר לשאלת הסף, הרבה תופעות (איני יודע אם כולם) שנראות לנו כתופעות סף הן בעצם תופעות שקול כוחות. ניקח למשל את מהירות הבריחה מכדור הארץ. מהירות הבריחה היא תוצר של שקול הכוחות הפועל על גוף שנזרק בכיוון מעלה. העובדה שמעל מהירות מסויימת אותו גוף ימשיך עד אינסוף אינה בעצם תופעת סף אלא תופעה רציפה, ואנחנו כבני אדם בוחרים להוסיף לה משמעות. כאן תבוא ודאי ותטען כי העולם הוא דיסקרטי עקב המסקנות שלך מתורת הקוונטים ואני אענה שלאו דווקא - רגשות אינם דיסקרטיים, מחשבות אינן דיסקרטיות, גם חלומות לא - אבל חזרנו כאן בעצם לוויכוח המקורי.
גם מכונות טועות 44553
א. אתה מראה כי, למעשה, לא הבנת את טיעון הודו-סין משום שאתה חוזר על הכשל שבשבילו יש צורך בטיעון זה.

אם ישנה מערכת פורמלית המסוגלת לדבר סינית, למערכת פורמלית זו יש אישיות. בפרט, יש לה גם צבע אהוב. *אין קשר בין הצבע האהוב של המערכת לצבע האהוב של האיש שעוקב אחרי ההוראות!*. האיש לא יודע סינית, ולא איתו אנחנו מדברים. אנחנו מדברים עם המערכת הפורמלית ("כל הודו"). קל לראות את הבלבול שלך, כשאתה אומר: "התשובה שקודדה בסינית הייתה 'כחול' בעוד שהתשובה הנכונה (הצבע שבאמת חביב על האדם שנשאל) היא דווקא 'אדום"': לא שאלנו את האיש - שאלנו את המערכת! האיש עובד לפי מערכת כללים דטרמיניסטית, זוכר? כך שגם אם נחליף את האיש במישהו אחר (באדון סירל למשל, שהצבע החביב עליו הוא סגול מזעזע) התשובה תשאר אותה תשובה - משום שהוא עוקב אחר אותם הכללים, מדמה את אותה המערכת הפורמלית, ולמערכת פורמלית זו, הצבע האהוב הוא "כחול" - בלי קשר לשאלת הצבע האהוב על האדם שמדמה את פעולתה.

ב. לגבי מהירות מילוט - יש כאן בהחלט סף מדוייק. אם תטוס במהירות נמוכה מ- X קמ"ש - תיפול חזרה לכדוה"א (בשל הכבידה). אם תטוס במהירות גבוהה מ- X קמ"ש - לא תיפול. או שכן, או שלא, והכל בגלל הבדל של 0.01% במהירות - סף, חד וחלק. וכבר ציינתי שישנם ספים נוספים בטבע. שוב - כאן מדובר בסף שקל לנו לחשב אותו ולהבינו; במקרה של תבונה, אפילו לא ברור לנו מהו הנתון שאותו יש למדוד, קל וחומר מה הסף שהוא צריך לעבור. אבל אין פירוש הדבר שאין כאן סף.
גם מכונות טועות 44593
אם כך, באמת לא הבנתי את טיעון הודו-סין. בוא ננסה שוב.

האם אפשר לתמצת את "הודו-סין" ב"אם זה מגיב בצורה שנראית אינטיליגנטית אז זה אינטיליגנטי"?
גם מכונות טועות 44601
לא ממש קשור, אז אני מניח שהתשובה לשאלתך היא "לא".

הטיעון של סירל היה: מערכת פורמלית לא יכולה להיות תבונית. הוכחה: ע"י ניסוי מחשבתי המראה כי אם קיימת מערכת פורמלית כזו, אז אדם יכול לחקות את פעולתה - ובכך לדבר סינית, למרות שאינו דובר סינית.

השגיאות של סירל: א. אם קיימת מערכת פורמלית כזו, אזי אדם המחקה את פעולתה של מערכת פורמלית כזו אינו הופך לדובר סינית. הוא פשוט "מנוע" של מכונה, והמכונה דוברת סינית. ב. אם קיימת מערכת פורמלית כזו, היא ודאי כה מורכבת שאדם יחיד פשוט לא יוכל לחקות את פעולתה.

ניסיון התיקון של סירל היה "שאלת הודו-סין" (לא שם רשמי, אגב), והוא התייחס רק לשגיאה השניה: במקום אדם אחד, ניקח אומה שלמה.

התשובה שקיבל סירל: אם ניקח אומה שלמה, אז אין כאן כל אבסורד. אם קיימת מערכת פורמלית תבונית, ואומה שלמה תדמה את פעולתה, אזי האומה תהווה יחידה תבונית. הניסוי המחשבתי לא מוביל לסתירה.

בוא נעזוב לרגע את תחום הבינה ונעבור למשהו פשוט יותר. סירל משהו שמקביל ל: אם ישנו אלגוריתם לפענוח קובץ של סרט QuickTime, וניתן לאדם להריץ אלגוריתם זה עם דף, עפרון ומחק במקום מסך (נניח שהסרט בשחור-לבן), האם התוצאה תהיה סרט, על הנייר? ובכלל, האלגוריתם דורש התמרות פורייה, והאיש שלנו לא יודע אפילו מה זו פונקציה! זהו אבסורד, לטענתו.

אבל זהו לא אבסורד, למעט ציר הזמן (נקבל frame של הסרט כל כמה חודשים או שנים). אז במקום איש אחד קח אומה שלמה, במקום דף ועפרון (כלומר במקום המסך) - אין לי כרגע דימוי מתאים (אולי מטריצה של אנשים שיכולים ללבוש חולצות בצבעים שונים?), ותקבל frame כל שעה (נניח). התוצאה היא סרט - בקצב איטי, כמובן, אבל סרט. אפילו אם אף אחד מהעובדים לא יודע שום דבר על התמרות פורייה. אין כאן אבסורד.

שגיאת ההבנה של סירל היא בקו שבין "האדם" לבין "המערכת שהאדם מהווה חלק ממנה". מערכת הידע של כל אחד מהצדדים היא בלתי-תלויה, משום שהאדם לא תורם מהידע שלו למערכת (הוא פועל כאוטומט). אם המערכת פשוטה מספיק, אולי יזלוג ידע מהמערכת אל האדם (כמו במקרה הכפל), וזאת משום שמעצם טבעו, אדם לא יכול להיות אוטומט מבלי להרהר במעשיו.
גם מכונות טועות 44605
וחוץ ממה שטל אמר, תשובה ישירה יותר לשאלתך, האם זה אינטליגנטי.
התשובה היא: אולי. לא בטוח, אבל לא בטוח שלא (בניגוד לסירל, שטוען שבטוח שלא).
גם מכונות טועות 44573
מה זה מכונת טיורינג?
גם מכונות טועות 44590
חיפוש נוסף בגוגל עשוי להציע מקורות קצת יותר פשוטים להבנה. אני פשוט לקחתי את "יותר מזל משכל".
גם מכונות טועות 44595
סלח לי על שאני לא עונה ביתר פירוט, הלינק הבא באתר "הידען" מספק הסבר קצר וממצה:
שפת הקודש 44597
המ... זה מה שקורה כשאתה עונה לכמה תגובות, אני רואה שדובי שם כבר לינק. הלינק שלי בעברית!
עם הגב לים? 44400
לא ממש הבנתי את הדוגמה שלך, אתה יכול להסביר אותה?
במיוחד נראה בעיני מוזר המשפט: "אותו אדם למד בעל-פה את ספר החוקים של השפה הסינית והוא יודע איזו תשובה לתת לכל שאלה שמגיעה אליו בסימנים סיניים."
אם למשל שואלים בסינית את אותו אדם מהו הצבע האהוב עליו, איך הוא יכול לענות? לא יתכן שלימדו אותו איזה תשובה לתת לשאלה שרק הוא יודע את התשובה עליה.
עם הגב לים? 44488
האם אתה מכיר את טיעון החדר הסיני? אם כן, אזי הרעיון היה לבטל את ההפרדה בין "האדם" לבין "ספר-החוקים" ו "החדר" ובכך להתמודד עם הטענה "למרות שהאדם לא מבין סינית המערכת בכללותה מבינה סינית". הטענה היא ש"הבנת סינית" לא שקולה ל"אוטומט שמבצע מניפולציה על סמלים מתוך אוסף חוקים ידוע מראש". האמת, השאלה שלך מראה דוגמא נוספת מדוע החדר הסיני לא "מבין סינית". נניח שלאותו אדם יש צבע אהוב - אדום למשל, ואילו התשובה המובנה במערכת לשאלה בסינית "מהו הצבע האהוב עליך?" היא התשובה (בסינית!) "כחול". אין לאדם שום אמצעי לקשר בין המידע בסינית למידע שיש כבר ברשותו (כלומר הצבע שבאמת אהוב עליו). אמנם נעשים ניסיונות ליצור בסיסי מידע שיתחרו בשכל האנושי (כדוגמת פרוייקט CYC שטל הזכיר בתגובה שמעלינו) אולם אני רחוק מלהשתכנע שמישהו יצר כלי שמאפשר לבצע למידה כללית לא מונחה כדוגמת זו שאני חווה בשכלי.
עם הגב לים? 44520
אם האדם למד לענות על שאלות בסינית כמו שענתה התוכנה, ואם זו אכן היתה תוכנה שמבינה סינית, אז כן: האדם מבין סינית. אבל יכול להיות שהוא לא יודע שהוא מבין סינית. זה נשמע מאוד מוזר, אבל כל מה שקרה כאן הוא מוזר: האיש הזה למד לשוחח בסינית במסלול שעוקף את המסלול הנורמלי שבו עושים זאת אנשים (קרי, למידת סינית...), ודי בוודאות בכלל אינו אפשרי.

אבל הבה נלך צעד אחורה. כאמור, אני לא בטוח שאני מבין למה אתה מתכוון ב"תחביר" לעומת "סמנטיקה". כשאני חושב "סמנטיקה" - משמעות - אני מוכן להסתפק במה שאפשר לקרוא לו "מושגים". אם התוכנה האמורה מתרגמת את הסמל הסיני של "מים" למבנה נתונים מסוים, שקשור למבני הנתונים שנקרא להם "נוזל", "שקוף", "ים" וכולי, אני חושב שנוח לומר על התוכנה שהיא אכן *מבינה* סינית. ודי בטוח שכל תוכנה שתוכל לשוחח בסינית תענה על התנאי הזה (אחרת היא פשוט תיפול על שאלות כמו "האם יש מים בים?").

כאן אתה אולי תטען שהתוכנה הזו לא *באמת* מבינה, אלא רק כמטאפורה. אני מניח שהסיבה לכך היא שלמכונה אין תודעה - אילו היית משתכנע שיש לה תודעה, אני מניח שהיית מעניק לה את התואר "מבינה". כלומר, אתה פשוט מכניס את התודעה להגדרה של הבנה. ניחא, אין לי עניין להתווכח על הגדרות. אז אנחנו חוזרים לשאלה, האם תיתכן תוכנה של תודעה, ואם כן - האם תיתכן תוכנה כזו במכונת טיורינג. וכאן אני לא רואה איך "החדר הסיני" שופך אור על השאלה. ניסוי המחשבה של סירל ניסה לצמצם את השאלה לשאלה על הבנת טקסט, ולשים אדם בתוך התוכנה כדי לשכנע אותנו שאין הבנה, כשאנו אמורים להשתכנע בזכות העובדה שלאדם יש תודעה. נסיון מאוד מגניב מצד סירל, אבל נסיון שנכשל - כי הוא מיקם את התודעה של האדם במקום הלא נכון בשרשרת הפעולות של התוכנה - כשלב בדרך, ולא כמשהו *שמכיל* את התוכנה, ומכיל אותה בדרך הנורמלית שבה המוח שלנו מכיל את מנגנוני הבנת הטקסט (ומקשר אותם למושגים ולתודעה).

הבה נחזור לפסקה הראשונה: לאדם שלנו, שמחקה את התוכנה, קיימים באיזשהו אופן במוחו מבני הנתונים שציינתי (מים, נוזל, שקוף), אולם אלו לא מבני הנתונים הנורמליים שקיימים לנו עבור מושגים אלו. כלומר, יש לאותו אדם כפילות: יש לו המושג של "מים" שרכש בילדות, והוא מקושר לתודעה שלו כמו שאנו מכירים; ויש לו מבנה נתונים של "מים" שקיבל כשלמד בעל פה את התוכנה, אבל מבנה נתונים זה אינו מקושר לתודעה שלו. לכן, כאמור, הוא מבין סינית אבל לא יודע שהוא מבין.

אני חושש שאני מתחיל לדבר סינית בעצמי.
סינית זה ממש כמו סינית 44793
שינסה ללמוד סינית...
זה משימה כמעט בלתי אפשרית מכיוון שאין בה אותיות אלא מילים ומכיוון שיש 4 דרכי הגיה שונות לכל צליל שנותן משמעות שונה.
ומדברת מישהי שלא אוהבת להכשל וניסתה שנה שלמה!! (אבל אני גם לא אוהבת לדפוק את הראש בקיר אז הפכתי לרציונלית יותר אחרי שנה...)

אני יודעת שהשפה עצמה לא הייתה העניין, פשוט לא יכולתי להתאפק.. (סליחה)

חזרה לעמוד הראשי

מערכת האייל הקורא אינה אחראית לתוכן תגובות שנכתבו בידי קוראים