בתשובה ליוסי השחור, 16/12/05 18:06
אני רק ניטפוקים 354991
ניסיתי, אבל לא הצלחתי לרסן את הסטטיסטיקאי שבי. כמה הערות:

MLE הוא לא אלגוריתם, אלא פשוט ערך/ים שמביא/ים למקסימום פונקציה מסוימת.

ה- MLE הוא לפעמים מוטה (למשל ה-MLE של השונות של התפלגות נורמלית) ולפעמים לא (למשל ה-MLE של התוחלת של התפלגות נורמלית). תחת תנאים חלשים יחסית, הוא חסר-הטייה אסימפטוטית.

משפט גאוס מרקוב, שמדבר על אמד בעל סטיית תקן מינימלית מבין כל האמדים *חסרי ההטייה* (ולא העקביים), דן בכלל במודל הרגרסיה הלינארית, ולכן אינו קשור במישרין לענייננו.

אפשר להראות שאמדי נראות מירבית הם יעילים (בעלי סטיית תקן מינימלית) אסימפטוטית, והדבר נובע ממשפט קרמר-ראו.
אני רק ניטפוקים 354993
טוב שלא הצלחת. תודה על הנטפוקים.
אני רק ניטפוקים 355010
בינתיים הסתדר לי בראש העניין של MLE. אני מבין שההנחה שיש 7 ממתינים "ממקסמת" את ההסתברות שהראשון שתשאל יהיה מס' 7. אבל עדיין יש לי הרגשה שמשהו פגום בדוגמה שהובאה ב-תגובה 354902 . הרגשתי היא שערכי ההסתברות שחושבו שם עבור ...,x=7,8,9 אינם ברי השוואה ולכן בדיקה סטטיסטית נכונה תראה שאין הבדל בנראות (likelihood) של 7 או 8 או ... ממתינים.
אני רק ניטפוקים 355024
הפעם אני לא ממש מבין, למה הם לא ברי השוואה?
אני רק ניטפוקים 355042
זו בעיקר הרגשה אי-נוחות לא מנומקת. אתה מעמיד אותי את בין 2 ברירות לא נוחות. אפשרות אחת היא להישאר בעמדת ספקנות בלתי מנומקת ו"מעליבה" ללא הצדקה. האפשרות השנייה היא להסתכן בכך שקלוני המתמטי (המתמטיקה שלי בסיסית והחלידה מחוסר שימוש)יחשף ע"י המתמטיקאים המקצועיים קוראי האייל (אולי יובל נוב הסטטיסטיקאי יגאל אותי ממצוקתי?).
אסתכן ואנסה להסביר:
א. בניגוד למה שסטודנטים מתחומים אחרים יכולים להתרשם, המתמטיקה אינה נסיון לבטא בצורה טכנית ולא-מובנת ללא-מתמטיקאים, עובדות טריביאליות. המתמטיקה היא נסיון להגיע בעזרת פורמליזם טכני ולא-מובן ללא-מתמטיקאים לתובנות חדשות ולא-טריביאליות.
ב. כפי שהסברתי, החישוב שלך מבטא ע"י השימוש בפורמליזם הסטטיסטי של MLE את העובדה הטריביאלית שככל שמספר הדגימות האפשריות עולה, הסיכוי שהדגימה הראשונה היא 7 יורד. זה לא אומר שהחישוב שלך אינו תשובה מצויינת במבחן בסטטיסטיקה השואל אותך מהי האפשרות בעלת MLE מירבי מבין ...,N=7,8,9.
ג. הבעיה היא שהחישוב שלך אומר משהו על ההסתברות עבור N=n שהדגימה הראשונה היא X1=7. הוא אינו נותן הערכה כמותית למה היא ההסתברות של N=n כאשר X1=7. כדי שתוכל להשוות בין המדגמים השונים אתה צריך לכמת בדרך כלשהי את ההסתברות הזו. נראה שבדוגמה שלך אין דרך לעשות זאת.
ד. הביטוי הפורמלי של מה שניסיתי להגיד הוא שלסכום ההסתברויות שחישבת אין שום משמעות.
אני רק ניטפוקים 355147
בשמחה אנסה לעזור.

שורש העניין הוא העובדה כי *פרמטר* של התפלגות, בשונה מ*תצפיות* הלקוחות מאותה התפלגות ומגדלים שאנחנו מחשבים מהן, הוא פשוט מספר קבוע, ואין בו שום דבר אקראי; נכון, אנחנו לא יודעים מהו המספר הזה (ולכן נאלצים לאמוד אותו מהתצפיות), אבל שוב - בפרמטר עצמו אין שום דבר אקראי ‏1.

דוגמת הממתינים בתור היא קצת לא אינטואיטיבית, לטעמי, להמחשת הנקודה, אז נעבור לרגע לדוגמא אחרת. קיבלנו שק ענק מלא פיסטוקים, חלקם פתוחים וחלקם סגורים. אילו היה לנו זמן וסבלנות למיין את הפיסטוקים, היינו יכולים לדעת בדיוק את אחוז הפיסטוקים הסגורים; אבל אין לנו, ואנחנו עדיין מעוניינים לאמוד את האחוז הזה, שנקרא לו p. נניח שמותר לנו רק לקחת פיסטוק אקראי מהשק, לבחון אותו, להחזיר, לקחת אחד אחר, וכך הלאה עשר פעמים. עוד נניח שעשינו זאת, וקיבלנו פ-פ-פ-ס-פ-ס-פ-פ-ס-ס (להלן: המדגם). חשוב להבין שבנקודה הזו אין משמעות לשאלות נוסח "מהי ההסתברות ש- p > 0.2 לאור המדגם?"; המספר p, שהוא בדיוק הפרמטר של ההתפלגות "פתוח או סגור" בדגימת פיסטוק יחיד, הוא מספר קבוע, ואין לו התפלגות משל עצמו - אם נתאמץ ונמיין את כל השק, נמצא בדיוק מהו.

מה עושים עכשיו? אפשר (אבל לא חייבים) לאמוד את p בשיטת הנראות המירבית. *אילו* היה ידוע ש- p = 0.2, למשל, אז ההסתברות לקבל את המדגם שקיבלנו היא

L(0.2) = (0.2)^4*(0.8)^6 = 4.19*10^-4

אילו היה ידוע ש- p = 0.6, אז ההסתברות לקבל את המדגם שקיבלנו היא

L(0.7) = (0.7)^4*(0.3)^6 = 1.75*10^-4

וכן הלאה. הפונקציה L נקראת "פונקצית הנראות", ואמד הנראות המירבית של p (הלא הוא ה-MLE) הוא המספר שמביא את L למקסימום, כלומר, המספר ש"תחתיו" מה שראינו הוא הכי סביר. במקרה שלנו, לא מסובך להראות שה-MLE הוא 0.4. לאמדי נראות מירבית יש תכונות סטטיסטיות "טובות", ולכן הם מאוד נפוצים.

דוגמת הממתינים בתור שקולה לסיפור הבא: קיבלנו שק עם מספר לא ידוע N של פיסטוקים, אבל מישהו (מטורף מספיק, מן הסתם) טרח וכתב על כל אחד מהם מספר סידורי מ-‏1 עד N. שוב, בהינתן מספיק זמן, היינו יכולים גם אנחנו לדעת בדיוק מהו N (פשוט נספור את הפיסטוקים), אבל נניח שאין לנו, ואנחנו מוציאים שלושה פיסטוקים אקראיים מהשק ומסתכלים על המספרים הסידוריים שלהם, והם 1000, 1500 ו-‏3600. הפרמטר פה הוא N, ופונקציית הנראות שלו היא אפס עבור N < 3600, ואחד חלקי N עבור N >= 3600. ה-MLE יהיה לכן 3600. באופן יותר כללי: בהינתן k תצפיות מהתפלגות אחידה על פני 1,...,N, ה-MLE של N הוא התצפית המקסימלית. כש- k = 1, האמד הזה יהיה בדיוק המספר היחיד שדגמנו.

אתה כתבת ב-ג' שהיית רוצה לדעת מהי ההסתברות ש- N = n בהינתן שהמספר (היחיד) שדגמנו הוא 7; מקווה שהצלחתי לשכנע אותך שלדבר בעצם אין משמעות.

אנקדוטה היסטורית: במהלך מלחה"ע השנייה, בעלות הברית אמדו את המספר הכולל של הטנקים הנאצים על סמך המספרים הסידוריים של הטנקים שלהם שנלכדו בקרב, בדרך דומה למה שעשינו כאן.

ועוד שלוש הערות:

1. האבחנה בין מה אקראי (ולכן יש טעם לדבר על ההתפלגות שלו) ומה לא בהסקה סטטיסטית היא לא אינטואיטיבית, ואני עצמי, למשל, הפנמתי אותה במלוא עומקה רק אחרי הקורס הראשון שלקחתי בססטיסטיקה.

2. האבחנה הנ"ל, על כל קשייה, בעצם לא קשורה לשיטת הנראות המירבית; גם כשמשתמשים בשיטות אחרות, היא קיימת.

3. לא תמיד זה "טוב" להשתמש באמדי נראות מרבית. למשל, כשמנסים לאמוד את N מהדוגמא השנייה כש-k (גודל המדגם) הוא נמוך, "כדאי" להכפיל את התצפית המקסימלית ב- (k+1)/k, מטעמים שלא אכנס אליהם כאן.
____________________
1 יש ענף בסטטיסטיקה שנקרא "סטטיסטיקה ביסייאנית" בו מניחים שלפרמטרים יש התפלגות, אבל אז צריך לדבר על הפרמטרים של התפלגות הפרמטרים. בואו נעזוב את זה.
תורת האמידה 355154
אני רק ניטפוקים 355155
טוב, אני נכנע לתורת האמידה.
בהדגמה של חישוב MLE מחשבים זכיות במשחק של 20 הטלות בעלות התפלגות בינומיאלית עם 0.75 סיכויי זכייה. מקבלים 16 זכיות. חישוב ה-MLE "אומד" שסיכוי הזכייה היה 0.8. אבל הנתון הסטטיסטי המשעותי יותר הוא ה- percent confidence interval האומר שיש 90% הסתברות שסיכוי הזכייה היה בין 0.56 ל-‏0.94. האם ניתן לקבל הערכה דומה לדוגמת הממתינים?
אני רק ניטפוקים 355162
כן, אפשר לחשב רווח סמך (confidence interval בעברית) לפרמטר/ים של התפלגות אחידה.

שתי הערות:

1. דומני שהתבלבלת, והתכוונת לכתוב 95% ולא 90%, אחרת המספרים לא מסתדרים לי.

2. הניסוח "יש 90% הסתברות שסיכוי הזכייה היה בין 0.56 ל-‏0.94" הוא בעצם חסר מובן. סיכוי הזכייה, שמסומן בד"כ ב-p, הוא קבוע שאין בו שום דבר אקראי, ולכן אין לו הסתברות של 90% (או 95%, או מה שזה לא יהיה) להיות בתחום זה או אחר. ניסוח מדויק יותר הוא "כשהפעלנו (פעם אחת) פרוצדורה המפיקה מרווחים אקראיים בעלי הסתברות של 95%, כל אחד, להכיל את p, קיבלנו את המרווח (0.56,0.94)".
אני רק ניטפוקים 355401
צודק. זה 95%.
אני חושב על רווח הסמך כך: אם תשחק את המשחק שהוגדר למעלה הרבה מאוד פעמים עם p אקראי מתוך התפלגות אחידה ותתחשב רק במשחקי ה-‏16 זכיות, ואם תחזור על כך מספר מספיק של פעמים, ערך התצפית של מספר המשחקים שבהם p היה מחוץ לרווח הסמך הוא 5%.
אני רק ניטפוקים 355432
אם הבנתי אותך כהלכה, אז אין זה נכון לחשוב כך על רווחי סמך, והמשפט שרשמת הוא שגוי מתמטית.

רווחי סמך "רגילים", מהסוג בו השתמשת בתגובה 355155, *לא* מדברים על מצב בו לפרמטר יש התפלגות (אחידה או אחרת). שוב - הפרמטר הוא מספר קבוע, אך לא ידוע לנו. בסטטיסטיקה בייסיאנית המצב שונה, אבל כאמור, בוא נעזוב את זה.

הפרשנות שצריך לתת לרווחי סמך (במקרה הבינומי עם n = 20) היא כדלהלן: מישהו בחר, לא משנה איך, במספר p בין אפס לאחד; אתה צופה במספר רב של תצפיות בלתי תלויות מהתפלגות בינומית עם פרמטרים 20 ו-p, ועל בסיס כל תצפית, בונה רווח סמך של 95% ל-p ע"פ הנוסחה המתאימה (הרווחים יהיו שונים זה מזה, משום שהתצפיות הן שונות זו מזו). אז, בערך 95% מהרווחים שבנית יכילו את p, ובערך 5% לא.
אני רק ניטפוקים 355504
טוב, ברור שאנו חלוקים בנקודה זו. ברור שהפרמטר p אינו המשתנה האקראי, אבל אנו חלוקים אם יש משמעות ל"התפלגות" של בחירת הפרמטר. הדוגמה שהבאתי היא הדוגמה של מטלב לפונקציה mle. החישוב של ה-pci שם לא מסובך במיוחד, אבל אני כבר שכחתי את כל הסטטיסטיקה שלי. בכל אופן נראה לי שה"נוסחה המתאימה" שם היא בערך שימוש בהתפלגות F עבור הפרמטר (כאשר התפלגות F כמו התפלגות הסטודנט הידועה הן התפלגויות שבד"כ מייחסים לקומבינציות של פילוגים אקראיים עם פילוגים של הפרמטרים שלהם אאז"נ). אתה יכול להסתכל בקוד המקור ולבדוק אם החישוב מתיישב עם הפרשנות שלך (אני לא כל כך הבנתי אותה). אם תרצה אני יכול לשלוח לך את קוד החישוב. בכל אופן יהיה נחמד אם תרענן את זכרוני מהי התפלגות F, ואיך היא קשורה לפרמטרים של פילוג בינומי, אם בכלל.
אני רק ניטפוקים 355680
לפרמטר p אין התפלגות, וגם אין "התפלגות". שוב - הוא סתם מספר קבוע, ולא משנה איך הוא נבחר.

אני אנסה להסביר טוב יותר למה התכוונתי בתגובה הקודמת, ואיך צריך לפרש רווחי סמך במקרה שלנו.

ניקח לדוגמא את המספר 0.61 (סתם מספר שבחרתי). סיבוב ראשון: נגריל משתנה מקרי בינומי עם פרמטרים 20 ו- 0.61, ונניח שקיבלנו 9; נשלוף את הנוסחה (או פונקציית המטלב) המתאימה, ונחשב את רווח הסמך המתאים ל- p כאן, שהוא (0.23,0.68). סיבוב שני: נגריל משתנה מקרי בינומי נוסף עם פרמרטרים 20 ו- 0.61 (כן, שוב 0.61), ונניח שעכשיו קיבלנו 14; רווח הסמך השני יהיה (0.46,0.88). סיבוב שלישי: נגריל, נניח, 11, ונקבל ממנו רווח סמך (0.32,0.77). וכך הלאה וכך הלאה.

תורת האמידה מוכיחה שאחרי מספר רב של סיבובים, בערך 95% מרווחי הסמך יכללו את המספר 0.61 ובערך 5% לא ‏1. אילו היינו חוזרים על כל הסיפור עם 0.289 במקום 0.61, אז שוב: בערך 95% מרווחי הסמך יכללו את המספר 0.289 ובערך 5% לא. וכן הלאה ‏2.

פונקציית המטלב mle משתמשת בפונקציה binofit, והחישובים בזו האחרונה מתיישבים בדיוק עם הדברים שכתבתי לעיל. אפשר לקרוא על החישובים יותר בנוחות ב- http://www.statsresearch.co.nz/pdf/confint.pdf . תזכורת: לשיטת הנראות המירבית אין קשר לפרשנות של רווחי סמך.

על התפלגות F אפשר לקרוא, למשל, ב- http://mathworld.wolfram.com/F-Distribution.html . הקשר היחיד שלה שאני מכיר להתפלגות הבינומית הוא דרך רווחי הסמך עליהם אנחנו מדברים, ואתה מוזמן לקרוא עליו בלינק הקודם שצירפתי.

אם אני מבין נכון את מה שכתבת בתגובה 355401, אז אתה מציע את הנרטיב הבא: בכל סיבוב, אנחנו מגרילים p מתוך התפלגות אחידה על [0,1], ואז מגרילים משתנה מקרי בינומי עם פרמטרים 20 ו- p; אז, בטווח הארוך, ב-‏95% מהסיבובים בהם קיבלנו 16 (אנחנו מתעלמים מהסיבובים בהם לא קיבלנו 16), p היה בין 0.56 ל-‏0.94.

זה פשוט לא נכון. חישבתי ומצאתי שבתנאים הנ"ל, פרופורציית הסיבובים בהם p היה בין 0.56 ל-‏0.94 (מתוך הסיבובים בהם קיבלנו 16) היא 98%, ולא 95% (מקווה שלא טעיתי בחישוב, יש שם כל מיני פונקציות בתא וכאלה).

_______________
1 ההתפלגות הבינומית היא התפלגות בדידה, דבר הגורר סיבוך טכני נוסף ב"פרשנות" של רווחי סמך, אבל בוא נעזוב את זה. העיקרון מאחורי מה שכתבתי הוא מדויק.
2 זה נכון שגם אם נבחר p חדש בכל סיבוב (לא משנה איך), אז בטווח הארוך, 95% מהרווחים יכללו את p של הסיבוב שלהם, אבל זה לא לב העניין.
אני רק ניטפוקים 355743
יובל, היות והלינק שצרפת http://www.statsresearch.co.nz/pdf/confint.pdf ממש מפתח את הקשר בין רווחי הסמך של פילוג בינומי לפונקציית F (כלומר מפתח את מה שקראת "הנוסחה המתאימה"), אני חושב שמוטב ששנינו נקבל את ההגדרה שלו לרווח הסמך (נוסחאות 1 ו-‏2): עבור פילוג בינומי עם n משחקים ו-x הצלחות ונניח שהסמך שלנו הוא 95%. רווח סמך של (Φ,Ψ) אומר שההסתברות שהמשתנה האקראי X (מספר ההצלחות) בפילוג של n משחקים עם סיכוי הצלחה p=Φ, יהיה גדול מ-x הוא 2.5% (ומשהו מקביל עבור Ψ). אני חושב שזה תואם את ההגדרות שלך (אין פילוג על הפרמטרים).
לגבי ההגדרה שלי יש לי את האפשרות לחשב בעצמי או להאמין לך (98%). אני בוחר כמובן באפשרות הקלה ומרים ידיים (בפרט שאני חושב שהבנתי את ההגדרה שלמעלה).
וחוב אחרון: יוסי השחור ואתה צדקתם בעניין חוסר המשמעות של ההסתברות של מספר הממתינים להיות כזה או אחר. כל העיסוק פה הוא סביב ההסתברות שהנשאל הראשון שלך יהיה מספר כזה או אחר בתור.
גול עצמי? 355784
שאלה ליובל נוב
בדוגמת התור, או הפיסטוקים, או הטנקים: אם נאמוד את N כממוצע המדגם כפול שתיים, האם היעילות תקטן?
גול עצמי? 355788
לפני שאני עונה: למה אתה קורא "המדגם" (האם שואלים רק איש אחד בתור, או כמה?), ולמה בדיוק אתה מתכוון ב"יעילות"?
גול עצמי? 355847
אם שואלים רק איש אחד אז הוא המדגם, אבל נניח ששואלים מספר אנשים. וב'יעילות' אני מתכוון לשונות קטנה (ניסיתי להשתמש במונחים שלך).
גול עצמי? 355889
השונות (וכמובן גם סטיית התקן) של האמד "פעמיים הממוצע" היא גבוהה מזו של האמד "התצפית הגבוהה ביותר", ולכן במובן זה האמד השני עדיף. הנ"ל נכון גם אם המדגם הוא של ממתין/פיסטוק/טנק בודד, וגם אם "מתקנים" את האמד השני לאמד חסר הטייה על-ידי כפל ב- n+1 חלקי n (פה n זה גודל המדגם).

במונחים של יעילות, אומרים במקרה זה כי *היעילות היחסית* של האמד "התצפית הגבוהה ביותר" היא גדולה מ-‏1, יחסית לאמד "פעמיים הממוצע" (יעילות יחסית זה סתם יחס שונויות). כשאומרים על אמד שהוא "יעיל" - לא ביחס לאמד אחר, אלא סתם, יעיל - מתכוונים שהשונות שלו משיגה את החסם התחתון על שונות אמדים שמציב אי-שוויון קרמר-ראו. הנקודה היא שמשפט קרמר-ראו לא חל על המקרה שלנו, משום שפונקצית הצפיפות של ההתפלגות האחידה לא עומדת בתנאי המשפט (היא לא "חלקה" מספיק), ונוצר מצב מבורך בו השונות של שני האמדים דנן היא *עוד יותר* נמוכה מהחסם התחתון.
תודה על ההבהרה 355897
אני רק ניטפוקים 355787
ההגדרה לרווח סמך שבלינק היא שקולה לתיאור שנתתי, והשקילות נובעת מהדואליות בין רווחי סמך לבין מה שנקרא "בחינת השערות". הופתעתי לגלות שקשה למצוא לינק פשוט שיסביר את השקילות (הרעיון הוא מאד יסודי בסטטיסטיקה, והסטודנטים בקורס המבוא שאני מלמד הסמסטר בדיוק נבחנו עליו, בין השאר, היום). הנה משהו לא אופטימלי: http://www.itl.nist.gov/div898/handbook/prc/section1...
אני רק ניטפוקים 355789
מעצבן, נכון?
אתה מוזמן לכתוב את [[רווח סמך]] בויקיפדיה.
סיכוי טוב יותר 371322
מאחר ואין זה נכון לדבר על "הסתברות לסיכוי הזכייה", הנה משהו שעלה בראשי לפני כמה שנים ושיכול אולי לסייע כאן. זה התחיל מן השאלה "מה הסיכוי שהסיכוי הוא אכן הסיכוי?", שהתבררה כשאלה הלא נכונה. לבסוף הגעתי לנוסח: "כיצד נגלם בסיכוי גם את גודל המדגם על פיו הוא מחושב?". בתקופה האחרונה אף עשיתי בתוצאת שתובא להלן שימוש כדי למיין שכיחויות משוערות של ארועים, שכל אחת מהן חושבה עפ"י מדגם בגודל אחר.

אז ככה: לא פעם בחיים (לפחות אלו שלי) צריכים אנו להעריך סיכויים על סמך ניסיון מועט בלבד. כיצד אנו עושים זאת? כאשר מדובר בהתרחשות שקרתה די פעמים, נניח משחק במכונת מזל היפותטית אותה ניסינו מאה פעמים שב40 מהן זכינו, אנו נוהגים לקבוע את סיכוי הזכיה בניסיון הבא כשכיחות ההצלחות עד כה, שבמקרה זה הינה 40/100. האם זה נכון? מדוע אם כך אין זה עובד גם במספרים קטנים? – למשל האם לאחר ניסיון בודד שהצליח סיכוי ההצלחה בניסיון הבא (באותם התנאים) הוא 1? שהרי אם כך, הרי כדאי לנו להמר על הצלחה בהגרלה הבאה בכל כספנו, ואף ללוות לשם כך סכומים נוספים. ומה אם מתוך שלושה ניסיונות היינו מקבלים שתי הצלחות? האם די בכך כדי לטעון שהסיכוי להצלחה לפי מידע זה, הוא שני שליש, בדיוק כבשני מיליון הצלחות מתוך שלושה מיליון ניסיונות? האין בכמות הניסיון שרכשנו ולא רק בשכיחות ההצלחות, כדי להשפיע על הסיכוי להצלחה בניסיון הבא?

ננסה לנסח זאת באופן מדוייק יותר. בהנתן הגרלה חוזרת בסיכוי קבוע p שאינו ידוע, נשאל את עצמנו, לאחר N ניסיונות מתוכן הצלחנו n פעמים, מאילו pים יכולה היתה תוצאה זו להתקבל. התשובה היא כמובן ש*כל* p ממשי בין אפס לאחד יכול להניב כל N וn כנ"ל. בפרט, הסיכוי שp, על סמך N וn הנ"ל יהיה בעל כל ערך נתון – הוא אפס. בנסיבות מצערות אלה, כל שאנו יכולים לצפות אם כן הוא לחפש את הערך הקרוב ביותר לp האמיתי והלא ידוע, על סמך תוצאות הניסיונות.

בקיצור נמרץ (שיפורט לפי דרישה): נגדיר אם כן את הערך הקרוב ביותר לp כזה שסטייתו הריבועית ממנו מינימלית. כידוע, עבור התפלגות נתונה, הקבוע סביבו הסטיה הריבועית היא מינימלית הוא ממוצע ההתפלגות. לכן נמצע על p. לפי משפט Bayes ‏1, ממוצע זה הוא האינטגרל לפי p של p כפול הביטוי להתפלגות הבינומית הניתן ב(2) ב http://mathworld.wolfram.com/BinomialDistribution.ht... , חלקי האינטגרל על הביטוי, ללא כפל נוסף בp (נירמול). התוצאה (המפתיעה, לפחות אותי) אינה n/N, אלא ...
(n+1)/(N+2)
אותה אכנה בחיבה סטי ( - סיכוי טוב יותר).
כלומר, לאחר n הצלחות מתוך N ניסיונות, אם אין ידע רלוונטי נוסף, או חסרה היכולת לשקלל ידע כזה, הניחוש הטוב ביותר עבור הסיכוי הצלחה בניסוי הבא שנערך באותם באותם התנאים - הינו סטי ולא שכיחות ההצלחות עד כה.

תכונות סטי: ככל שN וn גדלים, אך שומרים על אותו היחס, כך סטי שואף לשכיחות המצטברת n/N, כאשר הטייתו ממנה היא תמיד לכיוון הערך חצי. סכום סטי והסטי של האירוע המשלים (כלומר, אם מגדירים את ההצלחה ככישלון ולהיפך) – הוא 1. בפרט, אם השכיחות היא חצי – כך גם סטי.

מה זה אומר בחיי היום-יום? למשל, אפילו 100% הצלחות עד כה אינן מעניקות להצלחה בפעם הבאה סיכוי של 1 (קרל פופר...), אלא רק שאיפה אליו. פסימי? לאו דווקא, דבר זה נכון גם במקרה ההפוך: גם 0 הצלחות משאירות תמיד סיכוי להצלחה בפעם הבאה! (כמובן, ללא ידע נוסף). אפילו עבור אפס ניסיונות עם אפס הצלחות נקבל תוצאה משמעותית – הסיכוי להצלחה זהה לסיכוי לכישלון, דהיינו 1/2 ולא 0/0 הלא מוגדר.

לבסוף: צריך לציין שאיזה אידיוט שלא היה לו מספיק שכל להגות בעצמו שום דבר בעל ערך, גנב ממני את הרעיון והציג אותו כשלו, לאחר שחזר אל תקופתו, במכונת הזמן שהוא בנה, שגם אותה הוא בטח גנב ממישהו בעתיד. הוא קורא לעצמו "גאוס". חוץ מזה, בטח ישנה דרך פשוטה יותר לקבל את סטי, ללא אינטגרלים ונוסחאות נסיגה.
1בראש http://www25.brinkster.com/ranmath/bayes01.htm . בסופו של עמוד זה לעומת זאת, ניתן למצוא הסתייגות מן התוצאה שלהלן.
אני רק ניטפוקים 355178
0.6 או 0.7? תחליט.
_____________
זה ילמד אותך למצוא אצלי שגיאות!
אני רק ניטפוקים 355322
אופס, 0.7 כמובן.
אני רק ניטפוקים 355218
זה מזכיר לי שאלה על קוביה לא סימטרית שדנו בה לא מזמן.

חזרה לעמוד הראשי המאמר המלא

מערכת האייל הקורא אינה אחראית לתוכן תגובות שנכתבו בידי קוראים