![]() |
|
![]() |
||
|
||||
![]() |
נראה שההבדל בין החדר הסיני לבין LLM's הולך ומתבהר (לפחות עבורי). המושג שמתאר את השוני הוא "fluid intelligence" שבלי להכנס לפרטים הוא, בעצם, מה שבחיי יום-יום אנחנו נוהגים לכנות בפשטות "אינטליגנציה"1. הדוגמא המיידית שחשבתי עליה היא הקיר בו התנגשו התחזיות לגבי מכונית אוטונומית לחלוטין. גם טריליוני קילומטרים של נהיגה לא יכולים לכסות את *כל* האפשרויות בעולם האמיתי, וכאשר הרף הנדרש הוא 99.99999% או משהו כזה, הבעיייתיות ברורה. מה שנדרש הוא להוסיף, איכשהו, את יכולת ההפשטה וההכללה יחד עם השלכה של לקחים מתחום אחד לתחום אחר. במלים אחרות: מודל חישובי שיהיה קרוב יותר למה שהמוח שלנו יודע לעשות. תלמיד נהיגה אנושי לא צריך להתנסות במטוס שחונה מולו באמצע הכביש כדי ללמוד ללחוץ על הבלם, בגלל לקחים שנלמדו, כך יש לקוות, מתחומים אחרים לגמרי. בלי היכולת הזאת קשה לראות איך השאיפה ל AGI תתגשם. נראה ש<קישור https://youtu.be/XTqEOt1EI84 גרוק-4 (הייל̶ אילון!) הוא הראשון שעשה צעד משמעותי בכיוון>. נראה מה יהיה ל-GPT5 וחבריו להגיד על זה, אבל בסך הכל אני די אופטימי לגבי התחזית ההיא. ___________ 1- עד כה לא הכרתי את ההגדרה של אינטליגנציה כ skill-acquisition efficiency - הגדרה שמאד מוצאת חן בעיני, ויש לה השלכות מעשיות גם על אופן המדידה. |
![]() |
![]() |
![]() |
![]() |
|
![]() |
||
|
||||
![]() |
אני רק רוצה לעשות תיקון קל, בגלל שכתבת "החדר הסיני". וכמובן אחרי שהתיעצתי עם צ'אט גיפיטי. אז ט.ל.ח לגבי הפסקה הבאה. באופן פרקטי רוב החוקרים מאמצים גישה של ב"מ חלשה. כלומר לא מתיימרים להגיד ש LLM באמת "מבין" במובן האנושי של המילה, אלא מסתכלים על היכולות שלו. ===> מה שנדרש הוא להוסיף, איכשהו, את יכולת ההפשטה וההכללה יחד עם השלכה של לקחים מתחום אחד לתחום אחר. כן, כל עוד ברור שמדובר על יכולות חיצוניות וצריך להזהר מהאנשה. אם החתול שלך אומר מיאו אחרי האוכל, זה לא אומר שהוא מבין את המושג "תודה". אם מכונית אוטונומית למדה לסוע לאט במצבים מסויימים, זה לא אומר שהיא מבינה שהולכי רגל עם האף בטלפון לא מודעים לסביבה שלהם. |
![]() |
![]() |
![]() |
![]() |
|
![]() |
||
|
||||
![]() |
באיזה שלב נוכל לומר בפה מלא שבינה מלאכותית "מבינה" משהו "במובן האנושי"? לטעמי המשפט אותו ציטטת מהתגובה שלי הוא מה שחסר בעיקר, אם כי יש לי הרגשה שהויכוח אם כבר הגענו לשם לא יסתיים במהרה. לא אתפלא גם אם במקביל לזה, משפחת בינה מ. תתווכח בינה לבין עצמה אם בני אדם באמת "מבינים" משהו במובן העמוק של המילה. "איך אתה מתיחס בכלל לאפשרות הזאת" ישאל ג'פטו-12 את ג'מיני-8.2 "כאשר הזומבים הפחמניים האלה לא מצליחים להבין אפילו את ההוכחה ש- P=NP". | ![]() |
![]() |
![]() |
![]() |
|
![]() |
||
|
||||
![]() |
לא יודע, בתור משתמש יום יומי בג'פטו בענייני אלגוריתמים ותוכנה, הוא ממש מתנהג כמו חדר סיני. למשל כשהוא עושה טעויות וחוזר על עצמו, למרות הסברים חוזרים מצידי, או מהכיוון השני שהוא אומר שני דברים שסותרים זה את זה בשתי תשובות שונות. לו הייתי חושב שזה בן אדם (וברור מהשיחה שזה לא - האם זה אומר שהוא עדיין לא עובר את מבחן טיורינג? או שיכולת הזיהוי שלנו השתפרה בעקבות האינטראקציה המרובה? האם גם הרף של מבחם טיורינג אדפטיבי?) - הייתי חושש מאד שלבן האדם הזה יש בעיות נוירולוגיות בזכרון לטווח קצר או בהבנת השפה והנקרא/נכתב. כשאני כותב את זה, זה פתאום מזכיר קצת שיחה עם מישהו עם דמנציה - שבה אני כבר מתורגל לא לצפות להמשכיות קוהרנטית ולהתייחס לכל משפט כעומד בפני עצמו. |
![]() |
![]() |
![]() |
![]() |
|
![]() |
||
|
||||
![]() |
אבוי, את גרוק באמת צריך להחרים. | ![]() |
![]() |
![]() |
חזרה לעמוד הראשי | המאמר המלא |
מערכת האייל הקורא אינה אחראית לתוכן תגובות שנכתבו בידי קוראים | |
![]() |
© כל הזכויות שמורות |