במתמטיקה של הסתברות, מאורעות הן בלתי תלויים אם הידיעה שאחד קרה (או לא קרה) לא משנה את ההסתברות של השני. באופן דומה, שני משתנים מקריים בלתי תלויים אם ידיעת ערך של אחד לא משנה את ההסתברויות של הערכים בשני.
שני מאורעות A ו־B בלתי תלויים אם ההסתברות ששניהם יקרו שווה למכפלת ההסתברויות שלהם בנפרד: P(A∩B) = P(A)·P(B). מכאן שאם P(B) ≠ 0 אז P(A|B) = P(A) (חוק בייס), כלומר התניה אינה משנה את ההסתברות.
דוגמה: אם שני ומיכל ממלאות ניחושים שונים בלוטו, ידיעת זכייתה של אחת מורידה את ההסתברות של השנייה לאפס, אלה תלויים. לעומת זאת, האם מיכל זכתה בעבר אינה משנה את ההסתברות שהיא תזכה בהגרלה הבאה, ולכן אותם מאורעות בלתי תלויים.
הערה: מאורעות זרים (שאינם יכולים לקרות יחד) הם בדרך כלל תלויים, כי ידיעת אחד מבטיחה שאחר לא יקרה, למעט מקרים שבהם הסתברויות מסוימות הן אפס.
קבוצה של n מאורעות היא בלתי תלויה בזוגות אם כל זוג בתוכה בלתי תלוי. היא בלתי תלויה הדדית אם לכל תת־קבוצה של מאורעות מתקיים שגם ההסתברות של חיתופן שווה למכפלת ההסתברויות של כל אחד מהם. כלומר, לא מספיק שכל זוג יהיה בלתי תלוי; יש לבדוק גם חיתוכים של שלושה ומעלה. אי־תלות הדדית גוררת אי־תלות בזוגות, אבל לא להפך.
בשפה של משתנים מקריים, X ו־Y בלתי תלויים אם פונקציית ההתפלגות המצטברת המשותפת שלהם מפרידה למכפלה של שני פונקציות חד־ממדיות: F_{X,Y}(x,y) = F_X(x)·F_Y(y). אם קיימת פונקציית צפיפות, אז בלתי תלויים אם f_{X,Y}(x,y) = f_X(x)·f_Y(y). משמעות הדבר היא שבמקום לעבוד עם פונקציה דו־ממדית משותפת, אפשר לעבוד עם שתי פונקציות נפרדות, מה שמקל על החישובים.
הגדרה של אי־תלות הדדית למספר משתנים דומה: ההתפלגות המשותפת שווה למכפלה של ההתפלגויות היחידות לכל צירוף נקודות. שוב, אי־תלות בזוגות היא תנאי הכרחי אך לא מספיק.
דוגמה: אם X ו־Y מקבלים ±1 בסיכוי שווה והם בלתי תלויים, נגדיר Z = X·Y. אז כל זוג מתוך {X,Y,Z} יהיה בלתי תלוי, אך השלישיה כולה אינה בלתי תלויה כי ערך Z נקבע על ידי X ו־Y יחד.
שני משתנים נקראים בלתי מתואמים (חסרי קורלציה) אם E[XY] = E[X]·E[Y], כאשר E[] היא התוחלת. אי־תלות קשה לעיתים לבדוק כי היא דורשת ידיעה מלאה של ההתפלגות. לכן בודקים לעתים חוסר קורלציה כמדד חלש יותר של חוסר קשר. אם משתנים בלתי תלויים אז הם גם בלתי מתואמים, אבל ההפך לא נכון.
עבור משתנים גאוסיים במשותף (כלומר, פונקציית הצפיפות המשותפת רב־נורמלית), חוסר קורלציה כבר אומר אי־תלות סטטיסטית: אם הם חסרי קורלציה אז הם גם בלתי תלויים. חשוב שהמשתנים יהיו גאוסיים ביחד, לא רק כל אחד בנפרד. במקרים שאין פונקציית צפיפות יש להשתמש בכלי כמו פונקציה אופיינית.
דוגמה קצרה: אם X הוא נורמלי סטנדרטי ו־B מקבל ±1 באופן בלתי תלוי, נגדיר Y = B·X. אז X ו־Y הם שניהם גאוסיים בנפרד וחסרי קורלציה, אך הם תלויים סטטיסטית כי Y^2 = X^2, וערך אחד מגביל את השני.
אי־תלות היא מצב שבו ידיעת אחד הדברים לא משנה את הסיכוי של השני. סיכוי = הסתברות שזה יקרה.
שני מאורעות בלתי תלויים אם הסיכוי ששניהם יקרו שווה לסיכוי של האחד כפול הסיכוי של השני. כלומר, הם לא משפיעים אחד על השני.
דוגמה: אם שני ומיכל משחקות לוטו עם ניחושים שונים, אם אחת זכתה זה משפיע על הסיכוי של השנייה, אלה תלויים. אבל האם מיכל זכתה בעבר לא ישנה את הסיכוי שהיא תזכה הפעם, אלו בלתי תלויים.
קבוצה של מאורעות יכולה להיות בלתי תלויה בזוגות אך לא כשהבוחנים יחד שלוש ואפילו יותר. לכן לפעמים צריך לבדוק גם קבוצות גדולות, לא רק זוגות.
משתנה מקרי זה דבר שנותן מספר לפי מזל או ניסוי. שני משתנים מקריים בלתי תלויים אם אפשר להסתכל על כל אחד בנפרד בלי לאבד מידע על השני. ואז אפשר לעבוד עם הסתברויות של כל אחד לבד.
דוגמה לילדים: אם X ו־Y מקבלים רק את הערכים +1 או −1, ונקבל Z = X·Y, אז כל זוג מבין X,Y,Z יכול להיראות בלתי תלוי. אבל אם יודעים את X ו־Y ביחד, יודעים בדיוק את Z. לכן השלוש לא בלתי תלויות.
אם E[XY] = E[X]·E[Y], קוראים לזה בלתי מתואמים או חסרי קורלציה. זה אומר שאין קשר פשוט של ממוצעים. עצם זה שאינם מתואמים לא מבטיח שהם בלתי תלויים, אבל אם הם באמת בלתי תלויים אז הם גם בלתי מתואמים.
כשמשתנים הם גאוסיים ביחד (זה סוג של התפלגות כמו פעמון), אז אם הם חסרי קורלציה הם גם בלתי תלויים. זה מקרה מיוחד שנוח לעבוד איתו.
תגובות גולשים