مقدار چشمداشتی محتویات تعریف ریاضی ویژگیها منابع منوی ناوبریcited workExpected valueExpected valueو
میانگینمیانگین حسابیمیانگین هندسیمیانگین همسازمیانهمددامنهانحراف معیارضریب تغییراتصدکدامنه بین چارکیواریانسچولگیکشیدگیگشتاورال-گشتاوردادههای گروهبندیشدهتوزیع فراوانیجدول پیشایندینمودار میلهایدونمودارهنمودار جعبهاینمودار کنترلهمبستگینگارنمودار جنگلیبافتنگارنمودار Q-Qنمودار توالینمودار پراکنشنمودار ساقه و برگنمودار راداریاندازه تأثیرخطای استانداردتوان آماریتعیین اندازه نمونهطراحی آزمایشآزمایش تصادفیانتساب تصادفیتکرار آزمایشبلوکبندیآزمایش عاملیطراحی بهینهتوزیع نمونهگیریآماره بسندهفراتحلیلآماره ترتیبیآماره کاوشیمقدار رکوردکامل بودنخانواده نماییآزمون جایگشتیآزمون تصادفیدنتوزیع نمونهایبوتاسترپینگآماره Uکاراییآمار باثباتاحتمال بیزیاحتمال پیشیناحتمال پسینبازه مورد قبولعامل بیزبرآوردگر بیزیبرآوردگر بیشینهگر احتمال پسینضریب همبستگی پیرسونهمبستگی جزئیاختلاطضریب تشخیصرگرسیون ساده خطی(en)کمینه مربعات خطیمدل خطی عمومی(en)رگرسیون خطی بیزی(en)خانواده نماییرگرسیون لجستیکرگرسیون دوجملهای(en)پواسونکاپای کوهنجدول پیشایندیمدل گرافیرگرسیون پواسونآزمون مکنمارتجزیهتخمین روندفرایند ماناتصحیح فصلیبودنهموارسازی نمایی(en)همجمعیعلیت گرانجرآماره Q(en)آماره دوربین-واتسون(en)خودهمبستگیتابع خودهمبستگی جزئی(en)تابع خودهمبستگی تقاطعی(en)آرمامدل آریماگارچاتورگرسیو برداریتخمین طیفیتحلیل فوریهموجکتابع بقا(en)برآوردگر کاپلان-مهیرآزمون لگرتبهای(en)نرخ خرابیمدل خطرهای متناسب(en)مدل زمان خرابی شتابیده(en)بیوانفورماتیکزیستسنجشیکارآزمایی بالینیمطالعاتهمهگیرشناسیآمار پزشکیآکچوئریسرشماریآمار جرم(en)آمار جمعیتشناسی(en)اقتصادسنجیآمار ملی(en)آمار رسمیجامعه آماریروانسنجی
اصطلاحات قمارنظریه احتمالاتنظریه توزیعهای احتمالی
نظریه احتمالاتمتغیر تصادفیحاصلضربفرایند تصادفیتاسمتغیر تصادفیتابع چگالی احتمالقریب به یقینعدد حقیقینامساوی چبیشفبازی رولتشرطبندیتوزیع احتمالمقدار مورد انتظارضرب داخلیانتگرال ریمانتابع توزیع تجمعیویژگیهاامید ریاضی شرطیتابعهای محدباندازهگیریمیانگین حسابیمونت کارلومکانیک کلاسیکمرکز جرممکانیک کوانتومماتریستوزیع گسستهتوزیع نماییتصاعد هندسیقرن هفدهمقرنهانجیبزادهبلیز پاسکالریاضیدانریاضی داناناصول اولیه
مقدار چشمداشتی
پرش به ناوبری
پرش به جستجو
در نظریه احتمالات، امید ریاضی یا همان مقدار چشم داشتی(Expected value)، که با نامهای میانگین مقدار مورد انتظار یا ارزش مورد انتظار نیز شناخته میشوند، مقدارِ قابل انتظاری است از یک متغیر تصادفی ِگسسته که برابر است با مجموع حاصلضرب احتمالِ وقوع هر یک از حالات ممکن در مقدار آن حالت. در نتیجه میانگین برابر است با مقداری که بهطور متوسط از یک فرایند تصادفی با بینهایت تکرار انتظار میرود. به بیان سادهتر، مقدار چشم داشتی از یک متغیر تصادفی، مقدارِ میانگینِ تعداد دفعاتِ مشاهده شدهٔ یک وضعیت است. به عنوان مثال، در پرتاب یک سکه، برای بدست آوردن احتمال مشاهدهٔ هر سمت از یک سکه (شیر یا خط)، میتوان این کار را به دفعات زیاد انجام داد. اکنون میانگین تعداد دفعاتِ مشاهدهٔ هرکدام از حالتها (شیر یا خط)، برابر است با مقدار چشم داشتی(Expected value) یا همان امید ریاضی.
بطور مثال برای تاس داریم:
- E[X]=16×1+16×2+16×3+16×4+16×5+16×6=3.5displaystyle mathbb E [X]=frac 16times 1+frac 16times 2+frac 16times 3+frac 16times 4+frac 16times 5+frac 16times 6=3.5
یعنی اگر بینهایت بار تاس را پرت کنیم، مقدار میانگین بدست آمده به سمت عدد ۳٫۵ میل خواهد کرد.
محتویات
۱ تعریف ریاضی
۲ ویژگیها
۲.۱ ثابتها
۲.۲ یکنوایی
۲.۳ خطی بودن
۲.۴ میانگین احتمال شرطی
۲.۵ نامساوی
۲.۵.۱ تعریف
۲.۵.۲ متغیر تصادفی پیوسته یک متغیره
۳ منابع
تعریف ریاضی
مقدار چشم داشتی (امید ریاضی) یک متغیر تصادفی به صورت زیر تعریف میشود:
E[X]=∫xfX(x)dxdisplaystyle mathbb E [X]=int xf_X(x)dx
که در آن fX(x)displaystyle f_X(x) تابع چگالی احتمال متغیر تصادفی Xdisplaystyle X است. برای متغیرهای تصادفی گسسته تعریف بالا به صورت زیر بازنویسی میشود:
E[X]=∑i=1nxipX(xi)displaystyle mathbb E [X]=sum _i=1^nx_ip_X(x_i)
ویژگیها
ثابتها
مقدار چشم داشتی (امید ریاضی) یک عدد ثابت برابر با همان عدد ثابت است؛ یعنی اگر cdisplaystyle c عددی ثابت باشد، آنگاه: E(c)=cdisplaystyle operatorname E (c)=c.
یکنوایی
اگر برای دو متغیر تصادفی Xdisplaystyle X و Ydisplaystyle Y داشته باشیم X≤Ydisplaystyle Xleq Y، آنگاه با احتمال قریب به یقین داریم: E(X)≤E(Y)displaystyle operatorname E (X)leq operatorname E (Y).
خطی بودن
عملگر امید ریاضی خطی است یعنی برای هر دو متغیر تصادفی Xdisplaystyle X و Ydisplaystyle Y و هر عدد حقیقی adisplaystyle a و bdisplaystyle b و cdisplaystyle c داریم:
- E(X+c)=E(X)+cdisplaystyle operatorname E (X+c)=operatorname E (X)+c,
- E(X+Y)=E(X)+E(Y)displaystyle operatorname E (X+Y)=operatorname E (X)+operatorname E (Y),
- E(aX)=aE(X)displaystyle operatorname E (aX)=aoperatorname E (X),
و یا:
- E(aX+b)=aE(X)+bdisplaystyle operatorname E (aX+b)=aoperatorname E (X)+b,
- E(aX+bY)=aE(X)+bE(Y)displaystyle operatorname E (aX+bY)=aoperatorname E (X)+boperatorname E (Y),
میانگین احتمال شرطی
نامساوی
اگر متغیر تصادفی Xdisplaystyle X همواره کوچکتر یا مساوی متغیر تصادفی Ydisplaystyle Y باشد، امید ریاضی Xdisplaystyle X کوچکتر یا مساوی امید ریاضی Ydisplaystyle Y خواهد بود:
اگر X≤Ydisplaystyle Xleq Y آنگاه E[X]≤E[Y]displaystyle mboxE[X]leq mboxE[Y]
در یک حالت خاص اگر Ydisplaystyle Y را با |X|X مقایسه کنیم، میدانیم که X≤Ydisplaystyle Xleq Y و −X≤Ydisplaystyle -Xleq Y. پس میتوان نتیجه گرفت که E[X]≤E[Y]displaystyle mboxE[X]leq mboxE[Y] و E[−X]≤E[Y]displaystyle mboxE[-X]leq mboxE[Y]. بنا به خاصیت خطی امید ریاضی داریم −E[X]≤E[Y]displaystyle -mboxE[X]leq mboxE[Y].
در نتیجه قدر مطلق مقدار چشم داشتی (امید ریاضی) یک متغیر تصادفی، کوچکتر یا مساوی امید ریاضی قدر مطلق متغیر تصادفی است.
- |E(X)|≤E(|X|)leq operatorname E (
تعریف
متغیر تصادفی گسسته، حالت متناهی فرض کنید که متغیر تصادفی Xdisplaystyle X بتواند مقدار x1displaystyle x_1 با احتمال p1displaystyle p_1، مقدار x2displaystyle x_2 با احتمال p2displaystyle p_2، و غیره تا مقدار xkdisplaystyle x_k با احتمال pkdisplaystyle p_k را بگیرد. پس امید انی متغیر تصادفی Xdisplaystyle X به صورت زیر تعریف میشود:
- E[X]=x1p1+x2p2+…+xkpk.displaystyle operatorname E [X]=x_1p_1+x_2p_2+ldots +x_kp_k;.
چون جمع همهٔ احتمالات pi برابر یک است p1 + p2 + … + pk = ۱ (بنابر این میتوان مقدار مورد انتظار را به صورت میانگین وزن دار به همراه pi’sهایی که وزن هستند دید:
- E[X]=x1p1+x2p2+…+xkpkp1+p2+…+pk.displaystyle operatorname E [X]=frac x_1p_1+x_2p_2+ldots +x_kp_kp_1+p_2+ldots +p_k;.
اگر همهٔ جوابهای xi دارای احتمال یکسان باشند (یعنی p1 = p2 = … = pk), پس میانگین وزن دار به میانگین ساده تبدیل میشود. این شهودی است: مقدار مورد انتظار یک متغیر تصادفی میانگین همهٔ مقادیری است که میتوان گرفت؛ بنابراین، این مقدار مورد انتظار، مقداری است که شما انتظار دارید روی میانگین اتفاق بیفتد. اگر جوابهای xidisplaystyle x_i هم احتمال نباشند، بنابراین ممکن است میانگین ساده جایگزین میانگین وزن دار (که بعضی از جوابهای محتمل تر از بقیه را در نظر میگیرد) شود؛ ولی با این حال این شهود و کشف به همین صورت باقی میماند: مقدار مورد انتظار X، مقداری است که انتظار میرود روی میانگین اتفاق بیفتد.
مثال ۱- فرض کنید X جواب یک تاس شش گوشه را نشان دهد. Xdisplaystyle X تعداد خالهای روی وجه بالایی تاس بعد از پرتاب است میباشد. مقادیر ممکن برای X، ۱، ۲، ۳، ۴، ۵و۶ (که همگی دارای احتمال برابر ۱/۶ هستند) میباشند. امید Xبرابر است با:
- E[X]=1⋅16+2⋅16+3⋅16+4⋅16+5⋅16+6⋅16=3.5.displaystyle operatorname E [X]=1cdot frac 16+2cdot frac 16+3cdot frac 16+4cdot frac 16+5cdot frac 16+6cdot frac 16=3.5.
اگر تاس n بار پرتاب شود و میانگین نتایج محاسبه شوند پس با افزایش n، میانگین به مقدار مورد انتظار همگرا خواهد بود. به این موضوع قانون قوی مقادیر بزرگ میگویند. برای مثال دنبالهٔ ده تاس به صورت ۲, ۳, ۱, ۲, ۵, ۶, ۲, ۲, ۲, ۶ است که میانگین آنها برابر ۳٫۱ با فاصلهٔ ۰٫۴ از مقدار مورد انتظار ۳٫۵ میباشند. همگرایی نسبتاً پائین است. احتمالی که میانگین در بین محدودهٔ ۳٫۵ ± ۰٫۱ افت میکند برای ده پرتاب ۲۱٫۶٪ و برای هزار پرتاب ۹۳٫۷٪ است. شکل که برای توضیح میانگینهای دنبالههای طولانیتر پرتابها نشان داده شده را ببینید و توجه کنید که چطور آنها به مقدار مورد انتظار ۳٫۵ همگرا میشوند. عموماً نسبت همگرایی را میتوان از طریق مثلاً نامساوی چبیشف و نظریهٔ بری-اسن (Berry-Esseen theorem) به سختی کمیکرد.
مثال ۲- بازی رولت شامل یک توپ کوچک و یک چرخ با ۳۸ پاکت شماره گذاری شده در اطراف لبهٔ آن است. همانطور که این چرخ میچرخد، توپ بهطور تصادفی به چرخش در میآید تا در یکی از این پاکتها متوقف شود. فرض کنید متغیر تصادفی X جواب یک شرطبندی ۱دلاری (شرط مستقیم) رانشان دهد. اگر این شرط برنده شود (که با احتمال ۱/۳۸ اتفاق میافتد)، حاصل ۳۵ دلار میشود. در غیر اینصورت بازیکن شرط را میبازد. سود مورد انتظار از این چنین شرطی به صورت زیر خواهد بود:
- E[gain from $1 bet]=−$1⋅3738 + $35⋅138=−$0.0526.displaystyle operatorname E [,textgain from $1text bet,]=-$1cdot frac 3738 + $35cdot frac 138=-$0.0526.
متغیر تصادفی گسسته، حالت قابل شمارش فرض کنیدXیک متغیر تصادفی گسستهای باشد که مقادیر x
1, x
۲, … به ترتیب با احتمالات، p
1, p
۲, … را در خود میگیرد. پس مقدار مورد انتظار این متغیر تصادفی جمع متناهی زیر میباشد:
- E[X]=∑i=1∞xipi,displaystyle operatorname E [X]=sum _i=1^infty x_i,p_i,
مشروط بر اینکه این سری مطلقاً همگرا است (که این جمع باید در صورتی متناهی باشد که ما همهٔ x
i's را با مقادیر قدرمطلقشان جایگزین کنیم). اگر این سری مطلقاً همگرا نباشد می گوئیم که مقدار مورد انتظار X وجود ندارد.
برای مثال فرض کنید که متغیر تصادفی X شامل مقادیر ۱, −۲, ۳, −۴, … به ترتیب با احتمالات c/12, c/22, c/32, c/42, … ,باشد که c = 6/π2 یک ثابت نرمالیزه است که مطمئن میسازد که مجموع احتمالات برابر یک است. پس جمع متناهی زیر همگرا است و جمعش برابر ln(2) ≃ ۰٫۶۹۳۱۵. میباشد:
- ∑i=1∞xipi=c(1−12+13−14+…)displaystyle sum _i=1^infty x_i,p_i=c,bigg (1-frac 12+frac 13-frac 14+ldots bigg )
با این حال صحیح نیست که ادعا کنیم مقدار مورد انتظار X با این مقدار برابر است در حقیقت E[X] وجود ندارد جون این سری مطلقاً همگرا نیست (سریهای هارمونیک را ببینید).
متغیر تصادفی پیوسته یک متغیره
اگر توزیع احتمال Xdisplaystyle X در یک تابع چگالی احتمال f(x)displaystyle f(x)، صدق کند پس میتوان مقدار مورد انتظار را به صورت زیر محاسبه کرد:
- E[X]=∫−∞∞xf(x)dx.displaystyle operatorname E [X]=int _-infty ^infty xf(x),operatorname d x.
تعریف عمومی
عموماً اگر Xیک متغیر تصادفی تعریف شده روی یک فضای احتمال (Ω, Σ, P), باشد پس مقدار مورد انتظار X (که به صورت E[X], <X>, X or E[X], مشخص میشود) به صورت انتگرال لبسگو تعریف میشود:
- E[X]=∫ΩXdP=∫ΩX(ω)P(dω)displaystyle operatorname E [X]=int _Omega X,operatorname d P=int _Omega X(omega ),P(operatorname d omega )
وقتی که این انتگرال وجود داشته باشد، پس به صورت امید X تعریف میشود. توجه کنید که هیچ متغیر تصادفی اصلاً مقدار مورد انتظار متناهی ندارد چون ممکن نیست که این انتگرال مطلقاً همگرا باشد؛ بعلاوه برای بعضی این اصلاً تعریف نشدهاست (مثلاً توزیع کوشی). دو متغیر با توزیع احتمال یکسان، مقدار مورد انتظار یکسانی خواهند داشت در صورتی که این انتگرال تعریف شده باشد
این موضوع مستقیماً از تعریف حالت گسسته پیروی میکند که اگر Xیک متغیر تصادفی ثابت باشد (یعنی X = b برای چند تا مقدار حقیقی ثابت b) پس مقدار مورد انتظارX نیز bخواهد بود.
مقدار مورد انتظار یک تابع دلخواه X, g(X), نسبت به تابع چگالی احتمال ƒ(x) از طریق ضرب داخلی ƒ و g بدست میآید.
- E(g(X))=∫−∞∞g(x)f(x)dx.displaystyle operatorname E (g(X))=int _-infty ^infty g(x)f(x),operatorname d x.
بعضی مواقع به این قانون آماری ناخودآگاه میگویند. بااستفاده از نمایشها به صورت انتگرال ریمان – استیلتجس و انتگرالگیری جزئی میتوان این فرمول را به صورت زیر دوباره بیان کرد:
E(g(X))=∫a∞g(x)dP(X≤x)=g(a)+∫a∞g′(x)P(X>x)dxdisplaystyle operatorname E (g(X))=int _a^infty g(x),mathrm d operatorname P (Xleq x)=g(a)+int _a^infty g'(x)operatorname P (X>x),mathrm d x if P(g(X)≥g(a))=1displaystyle operatorname P (g(X)geq g(a))=1,
E(g(X))=∫−∞ag(x)dP(X≤x)=g(a)−∫−∞ag′(x)P(X≤x)dxdisplaystyle operatorname E (g(X))=int _-infty ^ag(x),mathrm d operatorname P (Xleq x)=g(a)-int _-infty ^ag'(x)operatorname P (Xleq x),mathrm d x if P(g(X)≤g(a))=1displaystyle operatorname P (g(X)leq g(a))=1.
چون در این حالت ویژه، α یک عدد حقیقی مثبت را نشان میدهد پس:
- E(|X|α)=α∫0∞tα−1P(|X|>t)dt.displaystyle operatorname E (left
به ویژه برای α = ۱ این به شکل زیر کاهش مییابد در صورتی که Pr[X ≥ ۰] = ۱, باشد (که F تابع توزیع تجمعی X است).
اصطلاحات متداول
- وقتی که شخصی از قیمت مورد انتظار، ارتفاع مورد انتظار و غیره صحبت میکند یعنی اینکه مقدار مورد انتظار یک متغیر تصادفی آن یک قیمت یا یک ارتفاع و غیره است.
- وقتی که شخصی از تعداد مورد انتظار تلاشهای مورد نیاز برای موفق شدن صحبت میکند، ممکن است شخص بهطور محافظه کارانه آن را به صورت نسبت معکوس احتمال موفقیت برای اینچنین تلاشی تقریب بزند (یعنی مقدار مورد انتظار توزیع هندسی).
ویژگیها
ثابتها
مقدار مورد انتظار یک ثابت مساوی باخود ثابت است یعنی اگر cیک ثابت است پس E[c] = c است.
یکنوایی
اگر X وY متغیرهای تصادفی هستند به طوریکه X ≤ Y است، پس E[X] ≤ E[Y].
خطی بودن
عملگر مقدار مورد انتظار (یا عملگر امید ریاضی) E در مورد زیر خطی است:
- E(X+c)=E(X)+cdisplaystyle operatorname E (X+c)=operatorname E (X)+c,
- E(X+Y)=E(X)+E(Y)displaystyle operatorname E (X+Y)=operatorname E (X)+operatorname E (Y),
- E(aX)=aE(X)displaystyle operatorname E (aX)=aoperatorname E (X),
توجه داشته باشید که نتیجهٔ دوم حتی اگر X از لحاظ آماری مستقل از Y نباشد، معتبر و دست است. با ترکیب نتایج حاصل از سه معادلهٔ قبلی، ما میتوانیم به نتیجهٔ زیر برسیم:
- E(aX+b)=aE(X)+bdisplaystyle operatorname E (aX+b)=aoperatorname E (X)+b,
- E(aX+bY)=aE(X)+bE(Y)displaystyle operatorname E (aX+bY)=aoperatorname E (X)+boperatorname E (Y),
برای هر کدام از متغیرهای تصادفی Xو Y (که باید در همان فضای احتمال تعریف شوند) و هر عدد adisplaystyle aو bdisplaystyle bنتیجهٔ بالا در نظر گرفته میشود.
امید ریاضی مکرر
امید ریاضی برای متغیرهای تصادفی گسسته
برای هر کدام از متغیرهای تصافی گسستهٔ X, Y ما ممکن است امید ریاضی شرطی را تعریف کنیم:
- E(X|Y)(y)=E(X|Y=y)=∑xx⋅P(X=x|Y=y).Y=y).
که بدین معنی است E[X|Y](y) یک تابعY است.
پس امید ریاضی x در معادلهٔ زیر صدق میکند:
- EY[EX|Y=y(x)]=displaystyle operatorname E _Yleft[operatorname E _Y=y(x)right]=
- =E(E(X|Y))=∑yE(X|Y=y)⋅P(Y=y)displaystyle =operatorname E left(operatorname E (X
- =∑y(∑xx⋅P(X=x|Y=y))⋅P(Y=y)displaystyle =sum limits _yleft(sum limits _xxcdot operatorname P (X=x
- =∑y∑xx⋅P(X=x|Y=y)⋅P(Y=y)Y=y)cdot operatorname P (Y=y),
- =∑y∑xx⋅P(Y=y|X=x)⋅P(X=x)X=x)cdot operatorname P (X=x),
- =∑xx⋅P(X=x)⋅(∑yP(Y=y|X=x))displaystyle =sum limits _xxcdot operatorname P (X=x)cdot left(sum limits _yoperatorname P (Y=y
- =∑xx⋅P(X=x)displaystyle =sum limits _xxcdot operatorname P (X=x),
- =E(X)displaystyle =operatorname E (X)
- =EX(x).displaystyle =operatorname E _X(x).
بنابر این معادلهٔ زیر برقرار است:[۱]
- E(X)=E(E(X|Y)).displaystyle operatorname E (X)=operatorname E left(operatorname E (X
یعنی:
- EX(x)=EY[EX|Y=y(x)].displaystyle operatorname E _X(x)=operatorname E _Yleft[operatorname E _Y=y(x)right].
طرف راست معادله به امید ریاضی مکرر اشاره دارد و گاهی اوقات قانون برج یا احتمال برج نامیده شدهاست.
این پیش فرض در قانون کل امید ریاضی مورد توجه قرار گرفتهاست.
امید مکرر برای متغیرهای تصادفی پیوسته
در مورد متغیرهای پیوسته، نتایج ما کاملاً قابل قیاس هستند. تعریف امید ریاضی شرطی از نابرابریها، تابعهای چگالی و انتگرالها استفاده میکند تا با نابرابریها، تابعهای جزئی و مجموعها به ترتیب جایگزین کند. اما نتیجهٔ اصلی هنوز برقرار است:
- E(X)=E(E(X|Y)).displaystyle operatorname E (X)=operatorname E left(operatorname E (X
نابرابریها
اگر یک متغیر تصادفی x همیشه کمتر یا مساوی با متغیر تصادفی دیگری Y باشد، پس امید ریاضی (یا مقدار مورد انتظار) کمتر یا مساوی با مقدار مورد انتظار Y است.
اگر X ≤ Y, است، پس E[X] ≤ E[Y]. است.
به ویژه، اگر y را با |X| منطبق کنیم، میدانیم X ≤ Yو−X ≤ Y. است. از اینرو ما میدانیم E[X] ≤ E[Y] و E[-X] ≤ E[Y]. با توجه به خطی بودن امید ریاضی ما میدانیم -E[X] ≤ E[Y] است. از اینرو، مقدار مطلق امید ریاضی یک متغیر تصادفی کمتر یا مساوی با مقدار مطلق آن است:
- |E(X)|≤E(|X|)leq operatorname E (
غیر ضربی
اگر تابع چگالی احتمال مشترک (یا توأم) x و y را در نظر بگیریم (مثلاً j(x,y)) پس امید ریاضی xy بدین صورت است:
- E(XY)=∫∫xyj(x,y)dxdy.displaystyle operatorname E (XY)=int int xy,j(x,y),dx,dy.
بهطور کلی، عملگر مقدار مورد انتظار ضربی نیست، یعنی E[XY] لزوماً با E[X]·E[Y] مساوی نیست. در حقیقت، مقداری که نمیتواند ضرب شود، را کوواریانس مینامند:
- Cov(X,Y)=E(XY)−E(X)E(Y).displaystyle operatorname Cov (X,Y)=operatorname E (XY)-operatorname E (X)operatorname E (Y).
از اینرو، این ضرب هنگامیکه Cov(X, Y) = ۰ است، برقرار است، در آن کوواریانس، XوY گفته میشود نا همبسته هستند (متغیرهای مستقل یک مورد مهم متغیرهای نا همبسته هستند).
حالا اگر X و Y مستقل هستند، پس با توجه به تعریف j(x,y) = ƒ(x)g(y) در اینجا f و g در واقع PDFهای حاشیهای برای X و Yهستند. پس:
- E(XY)=∫∫xyj(x,y)dxdy=∫∫xyf(x)g(y)dydx=[∫xf(x)dx][∫yg(y)dy]=E(X)E(Y)displaystyle beginalignedoperatorname E (XY)&=int int xy,j(x,y),dx,dy=int int xyf(x)g(y),dy,dx\&=left[int xf(x),dxright]left[int yg(y),dyright]=operatorname E (X)operatorname E (Y)endaligned
and Cov(X, Y) = ۰.
مشاهده کنید که استقلال X و Y مورد نیاز است تا این معادله نوشته شود: j(x,y) = ƒ(x)g(y), و این باید دومین تساوی بالا را ثابت کند. تساوی سوم از یک کاربرد اولیه و اصلی تئوری نوبینی-تونلی پیروی میکند.
ناوردایی تابعی
بهطور کلی، عملگر امید ریاضی و تابعهای متغیرهای تصادفی تبدیل نیم شوند یعنی:
- E(g(X))=∫Ωg(X)dP≠g(E(X)),displaystyle operatorname E (g(X))=int _Omega g(X),operatorname d Pneq g(operatorname E (X)),
یک نا تساوی مهم برای این موضوع نا تساوی جنسن است، که شامل مقدارهای مورد انتظار تابعهای محدب میشود.
استفادهها و کاربردها
مقدارهای مورد انتظار توانهای Xگشتاورهای Xمینامند؛ گشتاورها نزدیک به میانگین X در واقع مقدارهای مورد انتظار توانهای X − E[X] هستند. گشتاورهای بعضی از متغیرهای تصادفی میتوانند برای تعیین توزیعهایشان از طریق تابع تولیدی گشتاوریشان استفاده شوند.
برای تخمین تجربی مقدار مورد انتظار یک متغیر تصادفی، ما بهطور پیوسته مشاهدات متغیر را اندازهگیری میکنیم و میانگین حسابی نتایج را محاسبه میکنیم. اگر مقدار مورد انتظار وجود دارد، این فرایند مقدار مورد انتظار حقیقی را با یک شیوهٔ غیر تعصبی و غیر طرفدارانه را تخمین میزند و ویژگی به حداقل رساندن مجموع مربعهای باقیماندهها دارد (جمع تفاضلهای مربع بین مشاهدات و تخمین) قانون اعداد بزرگ نشان داد که تحت شرایط نسبتاً مناسب، هنگامیکه اندازهٔ نمونه بزرگتر میشود واریانس این تخمین کوچکتر میشود.
این ویژگی در بسیار از مصارف استفاده میشود مانند: مسائل کلی تخمین آماری و آموزش ماشین، بریا تخمین مقدارهای (احتمالی) سود از طریق متود ها/روشهای مونت کارلو، زیرا اکثر مقدارهای (کمیتهای) سود میتواند از لحاظ امید ریاضی نوشته شوند یعنی، در اینجا تابع شاخصی برای مجموعهٔ است.
در مکانیک کلاسیک، مرکز جرم یک مفهوم مشابه امید ریاضی است. برای مثال، فرض کنید X یک متغیر تصادفی گسسته با مقدارهای xi و احتمالات مرتبط pi است، حالا یک میلهٔ بدون وزن که بر روی آن وزنها در موقعیتهای xi در طول میله قرار گرفتهاند و جرم آنها pi است (که مجموع آنها یک است) نقطه که در آن میله متعادل E[X] است.
مقدارهای مورد انتظار میتوانند همچنین برای محاسبهٔ واریانس به وسیلهٔ فرمولهای محاسباتی واریانس استفاده شوند.
- Var(X)=E(X2)−(E(X))2.displaystyle operatorname Var (X)=operatorname E (X^2)-(operatorname E (X))^2.
یک کاربرد بسیار مهم مقدار مورد انتظار در زمینهٔ مکانیک کوانتوم است. مقدار مورد انتظار یک عملگر (یا اپراتور) مکانیکی کوانتوم A^displaystyle hat A که در بردار حالت کوانتوم |ψ⟩displaystyle کار میکند، به این صورت نوشته میشود:⟨A^⟩=⟨ψ|A|ψ⟩displaystyle langle hat Arangle =langle psi . . ابهام در A^displaystyle hat A میتواند با استفاده از (ΔA)2=⟨A^2⟩−⟨A^⟩2displaystyle (Delta A)^2=langle hat A^2rangle -langle hat Arangle ^2 محاسبه شود.
امید ماتریسها
اگر Xdisplaystyle X یک ماتریس m×ndisplaystyle mtimes n ماتریس، باشد پس مقدار مورد انتظار ماتریس به صورت ماتریس مقادیر مورد انتظار تعریف میشود:
- E(X)=E(x1,1x1,2⋯x1,nx2,1x2,2⋯x2,n⋮⋮⋱⋮xm,1xm,2⋯xm,n)=(E(x1,1)E(x1,2)⋯E(x1,n)E(x2,1)E(x2,2)⋯E(x2,n)⋮⋮⋱⋮E(xm,1)E(xm,2)⋯E(xm,n)).displaystyle operatorname E (X)=operatorname E beginpmatrixx_1,1&x_1,2&cdots &x_1,n\x_2,1&x_2,2&cdots &x_2,n\vdots &vdots &ddots &vdots \x_m,1&x_m,2&cdots &x_m,nendpmatrix=beginpmatrixoperatorname E (x_1,1)&operatorname E (x_1,2)&cdots &operatorname E (x_1,n)\operatorname E (x_2,1)&operatorname E (x_2,2)&cdots &operatorname E (x_2,n)\vdots &vdots &ddots &vdots \operatorname E (x_m,1)&operatorname E (x_m,2)&cdots &operatorname E (x_m,n)endpmatrix.
از این در ماتریسهای کوواریانس استفاده میشود
فرمولها برای حالتهای ویژه
توزیع گسسته ای که فقط مقادیر صحیح غیر منفی را میگیرد
وقتی که یک مقدار تصادفی فقط مقادیر داخل 0,1,2,3,...displaystyle 0,1,2,3,...را میگیرد پس میتوانیم از فرمول زیر برای محاسبهٔ امیدش (حتی وقتی که این امید نا متناهی باشد) استفاده کنیم:
- E(X)=∑i=1∞P(X≥i).displaystyle operatorname E (X)=sum limits _i=1^infty P(Xgeq i).
اثبات:
- ∑i=1∞P(X≥i)=∑i=1∞∑j=i∞P(X=j)displaystyle beginalignedsum limits _i=1^infty P(Xgeq i)&=sum limits _i=1^infty sum limits _j=i^infty P(X=j)endaligned
با مبادلهٔ توان مجموع همانطور که ادعا میکردیم، داریم:
- ∑i=1∞P(X≥i)=∑j=1∞∑i=1jP(X=j)=∑j=1∞jP(X=j)=E(X)displaystyle beginalignedsum limits _i=1^infty P(Xgeq i)&=sum limits _j=1^infty sum limits _i=1^jP(X=j)\&=sum limits _j=1^infty j,P(X=j)\&=operatorname E (X)endaligned
این جواب میتواند یک میانبر محاسباتی مفید باشد. برای مثال فرض کنید که ما یک سکهای را بالا میاندازیم که احتمال عدد آمدن آن pباشد. با چند پرتاب میتوان اولین خطها (نه آنهایی که شامل خود خط هستند) را انتظار داشت؟ فرض کنید X این تعداد را نشان دهد. توجه کنید که ما فقط دنبالهها را میشماریم و خطهایی که آزمایش را پایان میدهند را نمیشماریم. ما میتوانیم داشته باشیم که X = ۰. امید Xرا میتوان از طریق محاسبه کرد. این بدین خاطر است که تعداد پرتابهای سکه حداقل دقیقاً i هستند (در زمانی که اولین پرتابهای i دنبالهها را بدست آوردهاست). این امر، امید یک متغیر تصادفی را با یک توزیع نمایی منطبق میسازد. ما از این فرمول برای تصاعد هندسی استفاده کردیم:
∑k=1∞rk=r1−r.displaystyle sum _k=1^infty r^k=frac r1-r.
توزیع پیوستهای که مقادیر غیر منفی را میگیرد
مثل حالت گسستهای که قبلاً گفته شده وقتی که یک متغیر تصادفی پیوستهای مثلX فقط مقادیر غیر منفی را میگیرد پس میتوانیم از فرمول زیر برای محاسبهٔ امیدش استفاده کنیم (حتی وقتی که امید نامتناهی باشد):
- E(X)=∫0∞P(X≥x)dxdisplaystyle operatorname E (X)=int _0^infty P(Xgeq x);dx
اثبات: ابتدا فرض کنید که X یک چگالی برابر fX(x)displaystyle f_X(x) داشته باشد. ما دو تکنیک ارائه میکنیم:
- با استفاده از انتگرالگیری جزئی (حالت ویژهای از بخش ۱٫۴ بالا):
- E(X)=∫0∞(−x)(−fX(x))dx=[−x(1−F(x))]0∞+∫0∞(1−F(x))dxdisplaystyle operatorname E (X)=int _0^infty (-x)(-f_X(x));dx=left[-x(1-F(x))right]_0^infty +int _0^infty (1-F(x));dx
و کروشهٔ آن به صفر میرسد چون 1−F(x)=o(1/x)displaystyle 1-F(x)=o(1/x) به طوری که x→∞displaystyle xto infty .
- با استفاده از یک مبادله در مرتبهٔ انتگرالگیری:
- ∫0∞P(X≥x)dx=∫0∞∫x∞fX(t)dtdx=∫0∞∫0tfX(t)dxdt=∫0∞tfX(t)dt=E(X)displaystyle int _0^infty P(Xgeq x);dx=int _0^infty int _x^infty f_X(t);dt;dx=int _0^infty int _0^tf_X(t);dx;dt=int _0^infty tf_X(t);dt=operatorname E (X)
در حالتی که هیچ چگالی وجود نداشته باشد دیده میشود که:
- E(X)=∫0∞∫0xdtdF(x)=∫0∞∫t∞dF(x)dt=∫0∞(1−F(t))dt.displaystyle beginalignedoperatorname E (X)=int _0^infty int _0^x;dt;dF(x)=int _0^infty int _t^infty dF(x);dt=int _0^infty (1-F(t));dt.endaligned
تاریخ
نظریهٔ مقدار مورد انتظار در اواسط قرن هفدهم از مطالعه مشکل معروف امتیازات منشأ گرفتهاست. مشکل این بود: چگونه باید پولهای شرطبندی شده را بهطور عادلانه بین دو بازیکنی که قبل از اینکه بازی کاملاً تمام شود مجبور هستند بازی را تمام کنند تقسیم کرد؟ این مشکل قرنها مورد بحث و بررسی قرار گرفت و راه حلها و پیشنهادهای جنجالبرانگیز زیادی پیشنهاد شدند. این نظریه برای اولین بار توسط یک نجیبزاده ی فرانسوی دومر ((de Mere در سال ۱۶۵۴ به بلیز پاسکال ارائه شد. دومر اظهار نظر کرد که این مشکل نمیتواند حل شود و این نشان میدهد ریاضی نمیتواند در دنیای واقعی استفاده شود و کمبود دارد. پاسکال، که یک ریاضیدان بود، برانگیخته شد و تصمیم گرفت این مشکل را برای همیشه حل کند. اولین موضوع را از طریق نامههای معروفی با پیر دو فرما (Pierre de fermat) در میان گذاشت. بعد از مدت زمان کوتاهی هر دوی آنها به دو راه حل مجزا رسیدند. آنها این مشکل را با دو راه حل محاسباتی متفاوت حل کردند، اما نتیجهٔ آنها یکسان بود زیرا محاسبات شان بر اساس اصول پایه و اساسی یکسانی بود. این اصل پایه این بود که مقدار یک یود آینده باید مستقیماً با شانس به دست آوردن آن مساوی باشد. این اصل به نظر هر دوی آنها کاملاً طبیعی بود. آنها از اینکه به راه حل رسیده بودند بسیار خوشحال بودند و از اینرو این باعث شد آنها متقاعد شوند بالاخره این مشکل را توانستهاند حل کنند. با این حال آنها یافتههایشان را منتشر نکردند. آنها تنها به تعدادی از دوستان مشترک محققشان در پاریس اطلاع دادند. سه سال بعد در سال ۱۶۵۷ یک ریاضیدان آلمانی کریستیان هیگنز، که به پاریس سفر کرده بود، یک مقاله در مورد نظریهٔ احتمال با نام (de ratiociniis in ludo ale) چاپ کرد. در آن مقاله هیگنز مسئله امتیازات را در نظر گرفته بود و یک راه حل بر اساس همان اصلی که پاسکال و فرما دنبال کرده بودند پیشنهاد کرد. او همچنین نظریه امید را با اضافه کردن قوانین مربوط به چگونه محاسبه کردن امیدها در موقعیتهای پیچیدهتر از مسئلهٔ اصلی، گسترش داد. هینگز در مقدمهٔ مقاله اش نوشت: باید گفته شود که بریا بعضی مواقع، بعضی از بهترین ریاضی دانان از فرانسه قبلاً به حل آن پرداخته بودند بنابراین هیچکس نباید افتخار ابداع این نظریه را به من نسبت دهد. این به من تعلق ندارد. اما این دانشمندان، اگر چه هر دو یکدیگر را از طریق پرسیدن سوالات دشوار از یکدیگر در معرض آزمایش قرار داده بودند ولی روشهایشان را از هم پنهان کرده بودند. از اینرو من از همان اصول اولیه شروع کردم تا به حل این مسئله رسیدم و بدین دلیل غیرممکن است تأیید کنم که از همان اصول آنها آغاز به کار کردم. اما در نهایت من در بسیاری از موارد بدین نتیجه رسیدم که پاسخهایم با آنها متفاوت هستند. از اینرو هیگنز در طی سفرش به فرانسه از اظهار نظر دومر در سال ۱۶۵۵ مطلع شد، بعداً در سال ۱۶۵۶ از طریق ارتباط با کارکاوی دریافت که روش او کاملاً همانند پاسکال است، بنابراین قبل از اینکه مقاله اش برای چاپ برود، او از ارجحیت و پیش قدمی پاسکال در این زمینه آگاه بود.
پاسکال و هیگنز هیچکدام کلمهٔ امید را با مفهوم امروزی استفاده نکردند. به خصوص شانس یا امید من برای بردن هر چیزی مساوی با به دست نیاوردن آن است… اگر من انتظار دارم a یا b را به دست بیاورم، شانس بدست آوردن هر کدام از آنها مساوی است، مقدار امید من (a+b)/2 است. بیش از صد سال قبل، در سال ۱۸۱۴ پیرسایمون لاپلاس مقالهٔ خود را با عنوان "Théorie analytique des probabilités" منتشر کرد، در آنجا مفهوم مقدار مورد انتظار (یا امید ریاضی) بهطور واضح توضیح داده شد.
استفاده از حرف E به معنی مقدار مورد انتظار است که به نظریهٔ انتخاب و شانس دابیلیو. ای وایت ورت بر میگردد این سمبل در زمانی که بریا همهٔ نویسندگان انگلیسی، آلمانی و فرانسوی E به معنی انتظار شد.
منابع
↑ Sheldon M Ross. "§3.4: Computing expectations by conditioning". cited work. p. 105 ff. ISBN 0-12-598062-0..mw-parser-output cite.citationfont-style:inherit.mw-parser-output qquotes:"""""""'""'".mw-parser-output code.cs1-codecolor:inherit;background:inherit;border:inherit;padding:inherit.mw-parser-output .cs1-lock-free abackground:url("//upload.wikimedia.org/wikipedia/commons/thumb/6/65/Lock-green.svg/9px-Lock-green.svg.png")no-repeat;background-position:right .1em center.mw-parser-output .cs1-lock-limited a,.mw-parser-output .cs1-lock-registration abackground:url("//upload.wikimedia.org/wikipedia/commons/thumb/d/d6/Lock-gray-alt-2.svg/9px-Lock-gray-alt-2.svg.png")no-repeat;background-position:right .1em center.mw-parser-output .cs1-lock-subscription abackground:url("//upload.wikimedia.org/wikipedia/commons/thumb/a/aa/Lock-red-alt-2.svg/9px-Lock-red-alt-2.svg.png")no-repeat;background-position:right .1em center.mw-parser-output div[dir=ltr] .cs1-lock-subscription a,.mw-parser-output div[dir=ltr] .cs1-lock-limited a,.mw-parser-output div[dir=ltr] .cs1-lock-registration abackground-position:left .1em center.mw-parser-output .cs1-subscription,.mw-parser-output .cs1-registrationcolor:#555.mw-parser-output .cs1-subscription span,.mw-parser-output .cs1-registration spanborder-bottom:1px dotted;cursor:help.mw-parser-output .cs1-hidden-errordisplay:none;font-size:100%.mw-parser-output .cs1-visible-errorfont-size:100%.mw-parser-output .cs1-subscription,.mw-parser-output .cs1-registration,.mw-parser-output .cs1-formatfont-size:95%.mw-parser-output .cs1-kern-left,.mw-parser-output .cs1-kern-wl-leftpadding-left:0.2em.mw-parser-output .cs1-kern-right,.mw-parser-output .cs1-kern-wl-rightpadding-right:0.2em
مشارکتکنندگان ویکیپدیا. «Expected value». در دانشنامهٔ ویکیپدیای انگلیسی، بازبینیشده در ۱۹ فوریه ۲۰۰۸.
- مشارکتکنندگان ویکیپدیا. «Expected value». در دانشنامهٔ ویکیپدیای انگلیسی، بازبینیشده در ۳۰ ژوئیهٔ ۲۰۱۲.
Casella، George؛ Berger، Roger L. (۲۰۰۱). «۱». Statistical Inference. Duxbury Press. شابک ۰۵۳۴۲۴۳۱۲۶..mw-parser-output cite.citationfont-style:inherit.mw-parser-output qquotes:"""""""'""'".mw-parser-output code.cs1-codecolor:inherit;background:inherit;border:inherit;padding:inherit.mw-parser-output .cs1-lock-free abackground:url("//upload.wikimedia.org/wikipedia/commons/thumb/6/65/Lock-green.svg/9px-Lock-green.svg.png")no-repeat;background-position:right .1em center;padding-right:1em;padding-left:0.mw-parser-output .cs1-lock-limited a,.mw-parser-output .cs1-lock-registration abackground:url("//upload.wikimedia.org/wikipedia/commons/thumb/d/d6/Lock-gray-alt-2.svg/9px-Lock-gray-alt-2.svg.png")no-repeat;background-position:right .1em center;padding-right:1em;padding-left:0.mw-parser-output .cs1-lock-subscription abackground:url("//upload.wikimedia.org/wikipedia/commons/thumb/a/aa/Lock-red-alt-2.svg/9px-Lock-red-alt-2.svg.png")no-repeat;background-position:right .1em center;padding-right:1em;padding-left:0.mw-parser-output div[dir=ltr] .cs1-lock-subscription a,.mw-parser-output div[dir=ltr] .cs1-lock-limited a,.mw-parser-output div[dir=ltr] .cs1-lock-registration abackground-position:left .1em center;padding-left:1em;padding-right:0.mw-parser-output .cs1-subscription,.mw-parser-output .cs1-registrationcolor:#555.mw-parser-output .cs1-subscription span,.mw-parser-output .cs1-registration spanborder-bottom:1px dotted;cursor:help.mw-parser-output .cs1-hidden-errordisplay:none;font-size:100%.mw-parser-output .cs1-visible-errorfont-size:100%.mw-parser-output .cs1-subscription,.mw-parser-output .cs1-registration,.mw-parser-output .cs1-formatfont-size:95%.mw-parser-output .cs1-kern-left,.mw-parser-output .cs1-kern-wl-leftpadding-left:0.2em.mw-parser-output .cs1-kern-right,.mw-parser-output .cs1-kern-wl-rightpadding-right:0.2em
ردهها:
- اصطلاحات قمار
- نظریه احتمالات
- نظریه توزیعهای احتمالی
(RLQ=window.RLQ||[]).push(function()mw.config.set("wgPageParseReport":"limitreport":"cputime":"0.572","walltime":"0.808","ppvisitednodes":"value":3220,"limit":1000000,"ppgeneratednodes":"value":0,"limit":1500000,"postexpandincludesize":"value":324293,"limit":2097152,"templateargumentsize":"value":36704,"limit":2097152,"expansiondepth":"value":16,"limit":40,"expensivefunctioncount":"value":33,"limit":500,"unstrip-depth":"value":1,"limit":20,"unstrip-size":"value":8756,"limit":5000000,"entityaccesscount":"value":0,"limit":400,"timingprofile":["100.00% 443.733 1 -total"," 76.99% 341.619 15 الگو:Navbox"," 37.55% 166.610 1 الگو:آمار"," 36.25% 160.849 1 الگو:Navbox_with_collapsible_groups"," 24.00% 106.511 1 الگو:پانویس"," 22.16% 98.336 1 الگو:Cite_book"," 22.09% 98.021 1 الگو:یادکرد_کتاب"," 12.51% 55.519 32 الگو:پم"," 5.23% 23.188 2 الگو:یادکرد-ویکی"," 2.16% 9.597 5 الگو:Frac2"],"scribunto":"limitreport-timeusage":"value":"0.174","limit":"10.000","limitreport-memusage":"value":4520418,"limit":52428800,"cachereport":"origin":"mw1294","timestamp":"20190705050850","ttl":2592000,"transientcontent":false););"@context":"https://schema.org","@type":"Article","name":"u0645u0642u062fu0627u0631 u0686u0634u0645u200cu062fu0627u0634u062au06cc","url":"https://fa.wikipedia.org/wiki/%D9%85%D9%82%D8%AF%D8%A7%D8%B1_%DA%86%D8%B4%D9%85%E2%80%8C%D8%AF%D8%A7%D8%B4%D8%AA%DB%8C","sameAs":"http://www.wikidata.org/entity/Q200125","mainEntity":"http://www.wikidata.org/entity/Q200125","author":"@type":"Organization","name":"u0645u0634u0627u0631u06a9u062au200cu06a9u0646u0646u062fu06afu0627u0646 u067eu0631u0648u0698u0647u0654 u0648u06ccu06a9u06ccu200cu0645u062fu06ccu0627","publisher":"@type":"Organization","name":"Wikimedia Foundation, Inc.","logo":"@type":"ImageObject","url":"https://www.wikimedia.org/static/images/wmf-hor-googpub.png","datePublished":"2008-02-20T01:16:06Z","dateModified":"2019-06-22T11:40:47Z"(RLQ=window.RLQ||[]).push(function()mw.config.set("wgBackendResponseTime":125,"wgHostname":"mw1320"););