Skip to main content

مقدار چشم‌داشتی محتویات تعریف ریاضی ویژگی‌ها منابع منوی ناوبریcited workExpected valueExpected valueو

میانگینمیانگین حسابیمیانگین هندسیمیانگین همسازمیانهمددامنهانحراف معیارضریب تغییراتصدکدامنه بین چارکیواریانسچولگیکشیدگیگشتاورال-گشتاورداده‌های گروه‌بندی‌شدهتوزیع فراوانیجدول پیشایندینمودار میله‌ایدونمودارهنمودار جعبه‌اینمودار کنترلهمبستگی‌نگارنمودار جنگلیبافت‌نگارنمودار Q-Qنمودار توالینمودار پراکنشنمودار ساقه و برگنمودار راداریاندازه تأثیرخطای استانداردتوان آماریتعیین اندازه نمونهطراحی آزمایشآزمایش تصادفیانتساب تصادفیتکرار آزمایشبلوک‌بندیآزمایش عاملیطراحی بهینهتوزیع نمونه‌گیریآماره بسندهفراتحلیلآماره ترتیبیآماره کاوشیمقدار رکوردکامل بودنخانواده نماییآزمون جایگشتیآزمون تصادفیدنتوزیع نمونه‌ایبوت‌استرپینگآماره Uکاراییآمار باثباتاحتمال بیزیاحتمال پیشیناحتمال پسینبازه مورد قبولعامل بیزبرآوردگر بیزیبرآوردگر بیشینه‌گر احتمال پسینضریب همبستگی پیرسونهمبستگی جزئیاختلاطضریب تشخیصرگرسیون ساده خطی(en)کمینه مربعات خطیمدل خطی عمومی(en)رگرسیون خطی بیزی(en)خانواده نماییرگرسیون لجستیکرگرسیون دوجمله‌ای(en)پواسونکاپای کوهنجدول پیشایندیمدل گرافیرگرسیون پواسونآزمون مک‌نمارتجزیهتخمین روندفرایند ماناتصحیح فصلی‌بودنهموارسازی نمایی(en)هم‌جمعیعلیت گرانجرآماره Q(en)آماره دوربین-واتسون(en)خودهمبستگیتابع خودهمبستگی جزئی(en)تابع خودهمبستگی تقاطعی(en)آرمامدل آریماگارچاتورگرسیو برداریتخمین طیفیتحلیل فوریهموجکتابع بقا(en)برآوردگر کاپلان-مه‌یرآزمون لگ‌رتبه‌ای(en)نرخ خرابیمدل خطرهای متناسب(en)مدل زمان خرابی شتابیده(en)بیوانفورماتیکزیست‌سنجشیکارآزمایی بالینیمطالعاتهمه‌گیرشناسیآمار پزشکیآکچوئریسرشماریآمار جرم(en)آمار جمعیت‌شناسی(en)اقتصادسنجیآمار ملی(en)آمار رسمیجامعه آماریروان‌سنجی


اصطلاحات قمارنظریه احتمالاتنظریه توزیع‌های احتمالی


نظریه احتمالاتمتغیر تصادفیحاصل‌ضربفرایند تصادفیتاسمتغیر تصادفیتابع چگالی احتمالقریب به یقینعدد حقیقینامساوی چبیشفبازی رولتشرط‌بندیتوزیع احتمالمقدار مورد انتظارضرب داخلیانتگرال ریمانتابع توزیع تجمعیویژگی‌هاامید ریاضی شرطیتابع‌های محدباندازه‌گیریمیانگین حسابیمونت کارلومکانیک کلاسیکمرکز جرممکانیک کوانتومماتریستوزیع گسستهتوزیع نماییتصاعد هندسیقرن هفدهمقرن‌هانجیب‌زادهبلیز پاسکالریاضی‌دانریاضی داناناصول اولیه












مقدار چشم‌داشتی




از ویکی‌پدیا، دانشنامهٔ آزاد






پرش به ناوبری
پرش به جستجو


در نظریه احتمالات، امید ریاضی یا همان مقدار چشم داشتی(Expected value)، که با نام‌های میانگین مقدار مورد انتظار یا ارزش مورد انتظار نیز شناخته می‌شوند، مقدارِ قابل انتظاری است از یک متغیر تصادفی ِگسسته که برابر است با مجموع حاصل‌ضرب احتمالِ وقوع هر یک از حالات ممکن در مقدار آن حالت. در نتیجه میانگین برابر است با مقداری که به‌طور متوسط از یک فرایند تصادفی با بی‌نهایت تکرار انتظار می‌رود. به بیان ساده‌تر، مقدار چشم داشتی از یک متغیر تصادفی، مقدارِ میانگینِ تعداد دفعاتِ مشاهده شدهٔ یک وضعیت است. به عنوان مثال، در پرتاب یک سکه، برای بدست آوردن احتمال مشاهدهٔ هر سمت از یک سکه (شیر یا خط)، می‌توان این کار را به دفعات زیاد انجام داد. اکنون میانگین تعداد دفعاتِ مشاهدهٔ هرکدام از حالت‌ها (شیر یا خط)، برابر است با مقدار چشم داشتی(Expected value) یا همان امید ریاضی.
بطور مثال برای تاس داریم:


E[X]=16×1+16×2+16×3+16×4+16×5+16×6=3.5displaystyle mathbb E [X]=frac 16times 1+frac 16times 2+frac 16times 3+frac 16times 4+frac 16times 5+frac 16times 6=3.5

یعنی اگر بی‌نهایت بار تاس را پرت کنیم، مقدار میانگین بدست آمده به سمت عدد ۳٫۵ میل خواهد کرد.




محتویات





  • ۱ تعریف ریاضی


  • ۲ ویژگی‌ها

    • ۲.۱ ثابت‌ها


    • ۲.۲ یکنوایی


    • ۲.۳ خطی بودن


    • ۲.۴ میانگین احتمال شرطی


    • ۲.۵ نامساوی

      • ۲.۵.۱ تعریف


      • ۲.۵.۲ متغیر تصادفی پیوسته یک متغیره




  • ۳ منابع




تعریف ریاضی


مقدار چشم داشتی (امید ریاضی) یک متغیر تصادفی به صورت زیر تعریف می‌شود:


E[X]=∫xfX(x)dxdisplaystyle mathbb E [X]=int xf_X(x)dx


که در آن fX(x)displaystyle f_X(x) تابع چگالی احتمال متغیر تصادفی Xdisplaystyle X است. برای متغیرهای تصادفی گسسته تعریف بالا به صورت زیر بازنویسی می‌شود:


E[X]=∑i=1nxipX(xi)displaystyle mathbb E [X]=sum _i=1^nx_ip_X(x_i)



ویژگی‌ها



ثابت‌ها


مقدار چشم داشتی (امید ریاضی) یک عدد ثابت برابر با همان عدد ثابت است؛ یعنی اگر cdisplaystyle c عددی ثابت باشد، آنگاه: E⁡(c)=cdisplaystyle operatorname E (c)=c.



یکنوایی


اگر برای دو متغیر تصادفی Xdisplaystyle X و Ydisplaystyle Y داشته باشیم X≤Ydisplaystyle Xleq Y، آنگاه با احتمال قریب به یقین داریم: E⁡(X)≤E⁡(Y)displaystyle operatorname E (X)leq operatorname E (Y).



خطی بودن


عملگر امید ریاضی خطی است یعنی برای هر دو متغیر تصادفی Xdisplaystyle X و Ydisplaystyle Y و هر عدد حقیقی adisplaystyle a و bdisplaystyle b و cdisplaystyle c داریم:


E⁡(X+c)=E⁡(X)+cdisplaystyle operatorname E (X+c)=operatorname E (X)+c,

E⁡(X+Y)=E⁡(X)+E⁡(Y)displaystyle operatorname E (X+Y)=operatorname E (X)+operatorname E (Y),

E⁡(aX)=aE⁡(X)displaystyle operatorname E (aX)=aoperatorname E (X),

و یا:


E⁡(aX+b)=aE⁡(X)+bdisplaystyle operatorname E (aX+b)=aoperatorname E (X)+b,

E⁡(aX+bY)=aE⁡(X)+bE⁡(Y)displaystyle operatorname E (aX+bY)=aoperatorname E (X)+boperatorname E (Y),


میانگین احتمال شرطی



نامساوی


اگر متغیر تصادفی Xdisplaystyle X همواره کوچکتر یا مساوی متغیر تصادفی Ydisplaystyle Y باشد، امید ریاضی Xdisplaystyle X کوچکتر یا مساوی امید ریاضی Ydisplaystyle Y خواهد بود:


اگر X≤Ydisplaystyle Xleq Y آنگاه E[X]≤E[Y]displaystyle mboxE[X]leq mboxE[Y]


در یک حالت خاص اگر Ydisplaystyle Y را با |X|X مقایسه کنیم، می‌دانیم که X≤Ydisplaystyle Xleq Y و −X≤Ydisplaystyle -Xleq Y. پس می‌توان نتیجه گرفت که E[X]≤E[Y]displaystyle mboxE[X]leq mboxE[Y] و E[−X]≤E[Y]displaystyle mboxE[-X]leq mboxE[Y]. بنا به خاصیت خطی امید ریاضی داریم −E[X]≤E[Y]displaystyle -mboxE[X]leq mboxE[Y].


در نتیجه قدر مطلق مقدار چشم داشتی (امید ریاضی) یک متغیر تصادفی، کوچکتر یا مساوی امید ریاضی قدر مطلق متغیر تصادفی است.


|E⁡(X)|≤E⁡(|X|)leq operatorname E (


تعریف


متغیر تصادفی گسسته، حالت متناهی فرض کنید که متغیر تصادفی Xdisplaystyle X بتواند مقدار x1displaystyle x_1 با احتمال p1displaystyle p_1، مقدار x2displaystyle x_2 با احتمال p2displaystyle p_2، و غیره تا مقدار xkdisplaystyle x_k با احتمال pkdisplaystyle p_k را بگیرد. پس امید انی متغیر تصادفی Xdisplaystyle X به صورت زیر تعریف می‌شود:


E⁡[X]=x1p1+x2p2+…+xkpk.displaystyle operatorname E [X]=x_1p_1+x_2p_2+ldots +x_kp_k;.

چون جمع همهٔ احتمالات pi برابر یک است p1 + p2 + … + pk = ۱ (بنابر این می‌توان مقدار مورد انتظار را به صورت میانگین وزن دار به همراه pi’sهایی که وزن هستند دید:


E⁡[X]=x1p1+x2p2+…+xkpkp1+p2+…+pk.displaystyle operatorname E [X]=frac x_1p_1+x_2p_2+ldots +x_kp_kp_1+p_2+ldots +p_k;.

اگر همهٔ جواب‌های xi دارای احتمال یکسان باشند (یعنی p1 = p2 = … = pk), پس میانگین وزن دار به میانگین ساده تبدیل می‌شود. این شهودی است: مقدار مورد انتظار یک متغیر تصادفی میانگین همهٔ مقادیری است که می‌توان گرفت؛ بنابراین، این مقدار مورد انتظار، مقداری است که شما انتظار دارید روی میانگین اتفاق بیفتد. اگر جواب‌های xidisplaystyle x_i هم احتمال نباشند، بنابراین ممکن است میانگین ساده جایگزین میانگین وزن دار (که بعضی از جواب‌های محتمل تر از بقیه را در نظر می‌گیرد) شود؛ ولی با این حال این شهود و کشف به همین صورت باقی می‌ماند: مقدار مورد انتظار X، مقداری است که انتظار می‌رود روی میانگین اتفاق بیفتد.
مثال ۱- فرض کنید X جواب یک تاس شش گوشه را نشان دهد. Xdisplaystyle X تعداد خال‌های روی وجه بالایی تاس بعد از پرتاب است می‌باشد. مقادیر ممکن برای X، ۱، ۲، ۳، ۴، ۵و۶ (که همگی دارای احتمال برابر ۱/۶ هستند) می‌باشند. امید Xبرابر است با:


E⁡[X]=1⋅16+2⋅16+3⋅16+4⋅16+5⋅16+6⋅16=3.5.displaystyle operatorname E [X]=1cdot frac 16+2cdot frac 16+3cdot frac 16+4cdot frac 16+5cdot frac 16+6cdot frac 16=3.5.

اگر تاس n بار پرتاب شود و میانگین نتایج محاسبه شوند پس با افزایش n، میانگین به مقدار مورد انتظار همگرا خواهد بود. به این موضوع قانون قوی مقادیر بزرگ می‌گویند. برای مثال دنبالهٔ ده تاس به صورت ۲, ۳, ۱, ۲, ۵, ۶, ۲, ۲, ۲, ۶ است که میانگین آن‌ها برابر ۳٫۱ با فاصلهٔ ۰٫۴ از مقدار مورد انتظار ۳٫۵ می‌باشند. همگرایی نسبتاً پائین است. احتمالی که میانگین در بین محدودهٔ ۳٫۵ ± ۰٫۱ افت می‌کند برای ده پرتاب ۲۱٫۶٪ و برای هزار پرتاب ۹۳٫۷٪ است. شکل که برای توضیح میانگین‌های دنباله‌های طولانی‌تر پرتاب‌ها نشان داده شده را ببینید و توجه کنید که چطور آن‌ها به مقدار مورد انتظار ۳٫۵ همگرا می‌شوند. عموماً نسبت همگرایی را می‌توان از طریق مثلاً نامساوی چبیشف و نظریهٔ بری-اسن (Berry-Esseen theorem) به سختی کمی‌کرد.
مثال ۲- بازی رولت شامل یک توپ کوچک و یک چرخ با ۳۸ پاکت شماره گذاری شده در اطراف لبهٔ آن است. همان‌طور که این چرخ می‌چرخد، توپ به‌طور تصادفی به چرخش در می‌آید تا در یکی از این پاکت‌ها متوقف شود. فرض کنید متغیر تصادفی X جواب یک شرط‌بندی ۱دلاری (شرط مستقیم) رانشان دهد. اگر این شرط برنده شود (که با احتمال ۱/۳۸ اتفاق می‌افتد)، حاصل ۳۵ دلار می‌شود. در غیر اینصورت بازیکن شرط را می‌بازد. سود مورد انتظار از این چنین شرطی به صورت زیر خواهد بود:


E⁡[gain from $1 bet]=−$1⋅3738 + $35⋅138=−$0.0526.displaystyle operatorname E [,textgain from $1text bet,]=-$1cdot frac 3738 + $35cdot frac 138=-$0.0526.

متغیر تصادفی گسسته، حالت قابل شمارش فرض کنیدXیک متغیر تصادفی گسسته‌ای باشد که مقادیر x
1
, x
۲
, … به ترتیب با احتمالات، p
1
, p
۲
, … را در خود می‌گیرد. پس مقدار مورد انتظار این متغیر تصادفی جمع متناهی زیر می‌باشد:


E⁡[X]=∑i=1∞xipi,displaystyle operatorname E [X]=sum _i=1^infty x_i,p_i,

مشروط بر اینکه این سری مطلقاً همگرا است (که این جمع باید در صورتی متناهی باشد که ما همهٔ x
i
'
s را با مقادیر قدرمطلقشان جایگزین کنیم). اگر این سری مطلقاً همگرا نباشد می گوئیم که مقدار مورد انتظار X وجود ندارد.
برای مثال فرض کنید که متغیر تصادفی X شامل مقادیر ۱, −۲, ۳, −۴, … به ترتیب با احتمالات c/12, c/22, c/32, c/42, … ,باشد که c = 6/π2 یک ثابت نرمالیزه است که مطمئن می‌سازد که مجموع احتمالات برابر یک است. پس جمع متناهی زیر همگرا است و جمعش برابر ln(2) ≃ ۰٫۶۹۳۱۵. می‌باشد:


∑i=1∞xipi=c(1−12+13−14+…)displaystyle sum _i=1^infty x_i,p_i=c,bigg (1-frac 12+frac 13-frac 14+ldots bigg )

با این حال صحیح نیست که ادعا کنیم مقدار مورد انتظار X با این مقدار برابر است در حقیقت E[X] وجود ندارد جون این سری مطلقاً همگرا نیست (سری‌های هارمونیک را ببینید).



متغیر تصادفی پیوسته یک متغیره


اگر توزیع احتمال Xdisplaystyle X در یک تابع چگالی احتمال f(x)displaystyle f(x)، صدق کند پس می‌توان مقدار مورد انتظار را به صورت زیر محاسبه کرد:


E⁡[X]=∫−∞∞xf(x)d⁡x.displaystyle operatorname E [X]=int _-infty ^infty xf(x),operatorname d x.

تعریف عمومی
عموماً اگر Xیک متغیر تصادفی تعریف شده روی یک فضای احتمال (Ω, Σ, P), باشد پس مقدار مورد انتظار X (که به صورت E[X], <X>, X or E[X], مشخص می‌شود) به صورت انتگرال لبسگو تعریف می‌شود:


E⁡[X]=∫ΩXd⁡P=∫ΩX(ω)P(d⁡ω)displaystyle operatorname E [X]=int _Omega X,operatorname d P=int _Omega X(omega ),P(operatorname d omega )

وقتی که این انتگرال وجود داشته باشد، پس به صورت امید X تعریف می‌شود. توجه کنید که هیچ متغیر تصادفی اصلاً مقدار مورد انتظار متناهی ندارد چون ممکن نیست که این انتگرال مطلقاً همگرا باشد؛ بعلاوه برای بعضی این اصلاً تعریف نشده‌است (مثلاً توزیع کوشی). دو متغیر با توزیع احتمال یکسان، مقدار مورد انتظار یکسانی خواهند داشت در صورتی که این انتگرال تعریف شده باشد
این موضوع مستقیماً از تعریف حالت گسسته پیروی می‌کند که اگر Xیک متغیر تصادفی ثابت باشد (یعنی X = b برای چند تا مقدار حقیقی ثابت b) پس مقدار مورد انتظارX نیز bخواهد بود.
مقدار مورد انتظار یک تابع دلخواه X, g(X), نسبت به تابع چگالی احتمال ƒ(x) از طریق ضرب داخلی ƒ و g بدست می‌آید.


E⁡(g(X))=∫−∞∞g(x)f(x)d⁡x.displaystyle operatorname E (g(X))=int _-infty ^infty g(x)f(x),operatorname d x.

بعضی مواقع به این قانون آماری ناخودآگاه می‌گویند. بااستفاده از نمایش‌ها به صورت انتگرال ریمان – استیلتجس و انتگرال‌گیری جزئی می‌توان این فرمول را به صورت زیر دوباره بیان کرد:



  • E⁡(g(X))=∫a∞g(x)dP⁡(X≤x)=g(a)+∫a∞g′(x)P⁡(X>x)dxdisplaystyle operatorname E (g(X))=int _a^infty g(x),mathrm d operatorname P (Xleq x)=g(a)+int _a^infty g'(x)operatorname P (X>x),mathrm d x if P⁡(g(X)≥g(a))=1displaystyle operatorname P (g(X)geq g(a))=1,


  • E⁡(g(X))=∫−∞ag(x)dP⁡(X≤x)=g(a)−∫−∞ag′(x)P⁡(X≤x)dxdisplaystyle operatorname E (g(X))=int _-infty ^ag(x),mathrm d operatorname P (Xleq x)=g(a)-int _-infty ^ag'(x)operatorname P (Xleq x),mathrm d x if P⁡(g(X)≤g(a))=1displaystyle operatorname P (g(X)leq g(a))=1.

چون در این حالت ویژه، α یک عدد حقیقی مثبت را نشان می‌دهد پس:


E⁡(|X|α)=α∫0∞tα−1P⁡(|X|>t)d⁡t.displaystyle operatorname E (left

به ویژه برای α = ۱ این به شکل زیر کاهش می‌یابد در صورتی که Pr[X ≥ ۰] = ۱, باشد (که F تابع توزیع تجمعی X است).
اصطلاحات متداول


  • وقتی که شخصی از قیمت مورد انتظار، ارتفاع مورد انتظار و غیره صحبت می‌کند یعنی اینکه مقدار مورد انتظار یک متغیر تصادفی آن یک قیمت یا یک ارتفاع و غیره است.

  • وقتی که شخصی از تعداد مورد انتظار تلاش‌های مورد نیاز برای موفق شدن صحبت می‌کند، ممکن است شخص به‌طور محافظه کارانه آن را به صورت نسبت معکوس احتمال موفقیت برای اینچنین تلاشی تقریب بزند (یعنی مقدار مورد انتظار توزیع هندسی).

ویژگی‌ها
ثابت‌ها
مقدار مورد انتظار یک ثابت مساوی باخود ثابت است یعنی اگر cیک ثابت است پس E[c] = c است.


یکنوایی
اگر X وY متغیرهای تصادفی هستند به طوریکه XY است، پس E[X] ≤ E[Y].


خطی بودن
عملگر مقدار مورد انتظار (یا عملگر امید ریاضی) E در مورد زیر خطی است:


E⁡(X+c)=E⁡(X)+cdisplaystyle operatorname E (X+c)=operatorname E (X)+c,

E⁡(X+Y)=E⁡(X)+E⁡(Y)displaystyle operatorname E (X+Y)=operatorname E (X)+operatorname E (Y),

E⁡(aX)=aE⁡(X)displaystyle operatorname E (aX)=aoperatorname E (X),

توجه داشته باشید که نتیجهٔ دوم حتی اگر X از لحاظ آماری مستقل از Y نباشد، معتبر و دست است. با ترکیب نتایج حاصل از سه معادلهٔ قبلی، ما می‌توانیم به نتیجهٔ زیر برسیم:


E⁡(aX+b)=aE⁡(X)+bdisplaystyle operatorname E (aX+b)=aoperatorname E (X)+b,

E⁡(aX+bY)=aE⁡(X)+bE⁡(Y)displaystyle operatorname E (aX+bY)=aoperatorname E (X)+boperatorname E (Y),

برای هر کدام از متغیرهای تصادفی Xو Y (که باید در همان فضای احتمال تعریف شوند) و هر عدد adisplaystyle aو bdisplaystyle bنتیجهٔ بالا در نظر گرفته می‌شود.
امید ریاضی مکرر
امید ریاضی برای متغیرهای تصادفی گسسته
برای هر کدام از متغیرهای تصافی گسستهٔ X, Y ما ممکن است امید ریاضی شرطی را تعریف کنیم:


E⁡(X|Y)(y)=E⁡(X|Y=y)=∑xx⋅P⁡(X=x|Y=y).Y=y).

که بدین معنی است E[X|Y](y) یک تابعY است.
پس امید ریاضی x در معادلهٔ زیر صدق می‌کند:


EY⁡[EX|Y=y⁡(x)]=displaystyle operatorname E _Yleft[operatorname E _Y=y(x)right]=
=E⁡(E⁡(X|Y))=∑yE⁡(X|Y=y)⋅P⁡(Y=y)displaystyle =operatorname E left(operatorname E (X
=∑y(∑xx⋅P⁡(X=x|Y=y))⋅P⁡(Y=y)displaystyle =sum limits _yleft(sum limits _xxcdot operatorname P (X=x
=∑y∑xx⋅P⁡(X=x|Y=y)⋅P⁡(Y=y)Y=y)cdot operatorname P (Y=y),
=∑y∑xx⋅P⁡(Y=y|X=x)⋅P⁡(X=x)X=x)cdot operatorname P (X=x),
=∑xx⋅P⁡(X=x)⋅(∑yP⁡(Y=y|X=x))displaystyle =sum limits _xxcdot operatorname P (X=x)cdot left(sum limits _yoperatorname P (Y=y
=∑xx⋅P⁡(X=x)displaystyle =sum limits _xxcdot operatorname P (X=x),
=E⁡(X)displaystyle =operatorname E (X)
=EX⁡(x).displaystyle =operatorname E _X(x).

بنابر این معادلهٔ زیر برقرار است:[۱]


E⁡(X)=E⁡(E⁡(X|Y)).displaystyle operatorname E (X)=operatorname E left(operatorname E (X

یعنی:


EX⁡(x)=EY⁡[EX|Y=y⁡(x)].displaystyle operatorname E _X(x)=operatorname E _Yleft[operatorname E _Y=y(x)right].

طرف راست معادله به امید ریاضی مکرر اشاره دارد و گاهی اوقات قانون برج یا احتمال برج نامیده شده‌است.
این پیش فرض در قانون کل امید ریاضی مورد توجه قرار گرفته‌است.
امید مکرر برای متغیرهای تصادفی پیوسته
در مورد متغیرهای پیوسته، نتایج ما کاملاً قابل قیاس هستند. تعریف امید ریاضی شرطی از نابرابری‌ها، تابع‌های چگالی و انتگرال‌ها استفاده می‌کند تا با نابرابری‌ها، تابع‌های جزئی و مجموع‌ها به ترتیب جایگزین کند. اما نتیجهٔ اصلی هنوز برقرار است:


E⁡(X)=E⁡(E⁡(X|Y)).displaystyle operatorname E (X)=operatorname E left(operatorname E (X

نابرابری‌ها
اگر یک متغیر تصادفی x همیشه کمتر یا مساوی با متغیر تصادفی دیگری Y باشد، پس امید ریاضی (یا مقدار مورد انتظار) کمتر یا مساوی با مقدار مورد انتظار Y است.
اگر XY, است، پس E[X] ≤ E[Y]. است.
به ویژه، اگر y را با |X| منطبق کنیم، می‌دانیم XYوXY. است. از اینرو ما می‌دانیم E[X] ≤ E[Y] و E[-X] ≤ E[Y]. با توجه به خطی بودن امید ریاضی ما می‌دانیم -E[X] ≤ E[Y] است. از اینرو، مقدار مطلق امید ریاضی یک متغیر تصادفی کمتر یا مساوی با مقدار مطلق آن است:


|E⁡(X)|≤E⁡(|X|)leq operatorname E (

غیر ضربی
اگر تابع چگالی احتمال مشترک (یا توأم) x و y را در نظر بگیریم (مثلاً j(x,y)) پس امید ریاضی xy بدین صورت است:


E⁡(XY)=∫∫xyj(x,y)dxdy.displaystyle operatorname E (XY)=int int xy,j(x,y),dx,dy.

به‌طور کلی، عملگر مقدار مورد انتظار ضربی نیست، یعنی E[XY] لزوماً با E[X]·E[Y] مساوی نیست. در حقیقت، مقداری که نمی‌تواند ضرب شود، را کوواریانس می‌نامند:


Cov⁡(X,Y)=E⁡(XY)−E⁡(X)E⁡(Y).displaystyle operatorname Cov (X,Y)=operatorname E (XY)-operatorname E (X)operatorname E (Y).

از اینرو، این ضرب هنگامیکه Cov(X, Y) = ۰ است، برقرار است، در آن کوواریانس، XوY گفته می‌شود نا همبسته هستند (متغیرهای مستقل یک مورد مهم متغیرهای نا همبسته هستند).
حالا اگر X و Y مستقل هستند، پس با توجه به تعریف j(x,y) = ƒ(x)g(y) در اینجا f و g در واقع PDFهای حاشیه‌ای برای X و Yهستند. پس:


E⁡(XY)=∫∫xyj(x,y)dxdy=∫∫xyf(x)g(y)dydx=[∫xf(x)dx][∫yg(y)dy]=E⁡(X)E⁡(Y)displaystyle beginalignedoperatorname E (XY)&=int int xy,j(x,y),dx,dy=int int xyf(x)g(y),dy,dx\&=left[int xf(x),dxright]left[int yg(y),dyright]=operatorname E (X)operatorname E (Y)endaligned

and Cov(X, Y) = ۰.
مشاهده کنید که استقلال X و Y مورد نیاز است تا این معادله نوشته شود: j(x,y) = ƒ(x)g(y), و این باید دومین تساوی بالا را ثابت کند. تساوی سوم از یک کاربرد اولیه و اصلی تئوری نوبینی-تونلی پیروی می‌کند.
ناوردایی تابعی
به‌طور کلی، عملگر امید ریاضی و تابع‌های متغیرهای تصادفی تبدیل نیم شوند یعنی:


E⁡(g(X))=∫Ωg(X)d⁡P≠g(E⁡(X)),displaystyle operatorname E (g(X))=int _Omega g(X),operatorname d Pneq g(operatorname E (X)),

یک نا تساوی مهم برای این موضوع نا تساوی جنسن است، که شامل مقدارهای مورد انتظار تابع‌های محدب می‌شود.
استفاده‌ها و کاربردها
مقدارهای مورد انتظار توان‌های Xگشتاورهای Xمی‌نامند؛ گشتاورها نزدیک به میانگین X در واقع مقدارهای مورد انتظار توان‌های X − E[X] هستند. گشتاورهای بعضی از متغیرهای تصادفی می‌توانند برای تعیین توزیع‌هایشان از طریق تابع تولیدی گشتاوریشان استفاده شوند.
برای تخمین تجربی مقدار مورد انتظار یک متغیر تصادفی، ما به‌طور پیوسته مشاهدات متغیر را اندازه‌گیری می‌کنیم و میانگین حسابی نتایج را محاسبه می‌کنیم. اگر مقدار مورد انتظار وجود دارد، این فرایند مقدار مورد انتظار حقیقی را با یک شیوهٔ غیر تعصبی و غیر طرفدارانه را تخمین می‌زند و ویژگی به حداقل رساندن مجموع مربع‌های باقی‌مانده‌ها دارد (جمع تفاضل‌های مربع بین مشاهدات و تخمین) قانون اعداد بزرگ نشان داد که تحت شرایط نسبتاً مناسب، هنگامیکه اندازهٔ نمونه بزرگتر می‌شود واریانس این تخمین کوچکتر می‌شود.
این ویژگی در بسیار از مصارف استفاده می‌شود مانند: مسائل کلی تخمین آماری و آموزش ماشین، بریا تخمین مقدارهای (احتمالی) سود از طریق متود ها/روش‌های مونت کارلو، زیرا اکثر مقدارهای (کمیت‌های) سود می‌تواند از لحاظ امید ریاضی نوشته شوند یعنی، در اینجا تابع شاخصی برای مجموعهٔ است.
در مکانیک کلاسیک، مرکز جرم یک مفهوم مشابه امید ریاضی است. برای مثال، فرض کنید X یک متغیر تصادفی گسسته با مقدارهای xi و احتمالات مرتبط pi است، حالا یک میلهٔ بدون وزن که بر روی آن وزن‌ها در موقعیت‌های xi در طول میله قرار گرفته‌اند و جرم آنها pi است (که مجموع آنها یک است) نقطه که در آن میله متعادل E[X] است.
مقدارهای مورد انتظار می‌توانند همچنین برای محاسبهٔ واریانس به وسیلهٔ فرمول‌های محاسباتی واریانس استفاده شوند.


Var⁡(X)=E⁡(X2)−(E⁡(X))2.displaystyle operatorname Var (X)=operatorname E (X^2)-(operatorname E (X))^2.

یک کاربرد بسیار مهم مقدار مورد انتظار در زمینهٔ مکانیک کوانتوم است. مقدار مورد انتظار یک عملگر (یا اپراتور) مکانیکی کوانتوم A^displaystyle hat A که در بردار حالت کوانتوم |ψ⟩displaystyle کار می‌کند، به این صورت نوشته می‌شود:⟨A^⟩=⟨ψ|A|ψ⟩displaystyle langle hat Arangle =langle psi . . ابهام در A^displaystyle hat A می‌تواند با استفاده از (ΔA)2=⟨A^2⟩−⟨A^⟩2displaystyle (Delta A)^2=langle hat A^2rangle -langle hat Arangle ^2 محاسبه شود.
امید ماتریس‌ها
اگر Xdisplaystyle X یک ماتریس m×ndisplaystyle mtimes n ماتریس، باشد پس مقدار مورد انتظار ماتریس به صورت ماتریس مقادیر مورد انتظار تعریف می‌شود:


E⁡(X)=E⁡(x1,1x1,2⋯x1,nx2,1x2,2⋯x2,n⋮⋮⋱⋮xm,1xm,2⋯xm,n)=(E⁡(x1,1)E⁡(x1,2)⋯E⁡(x1,n)E⁡(x2,1)E⁡(x2,2)⋯E⁡(x2,n)⋮⋮⋱⋮E⁡(xm,1)E⁡(xm,2)⋯E⁡(xm,n)).displaystyle operatorname E (X)=operatorname E beginpmatrixx_1,1&x_1,2&cdots &x_1,n\x_2,1&x_2,2&cdots &x_2,n\vdots &vdots &ddots &vdots \x_m,1&x_m,2&cdots &x_m,nendpmatrix=beginpmatrixoperatorname E (x_1,1)&operatorname E (x_1,2)&cdots &operatorname E (x_1,n)\operatorname E (x_2,1)&operatorname E (x_2,2)&cdots &operatorname E (x_2,n)\vdots &vdots &ddots &vdots \operatorname E (x_m,1)&operatorname E (x_m,2)&cdots &operatorname E (x_m,n)endpmatrix.

از این در ماتریس‌های کوواریانس استفاده می‌شود
فرمول‌ها برای حالت‌های ویژه
توزیع گسسته ای که فقط مقادیر صحیح غیر منفی را می‌گیرد
وقتی که یک مقدار تصادفی فقط مقادیر داخل 0,1,2,3,...displaystyle 0,1,2,3,...را می‌گیرد پس می‌توانیم از فرمول زیر برای محاسبهٔ امیدش (حتی وقتی که این امید نا متناهی باشد) استفاده کنیم:


E⁡(X)=∑i=1∞P(X≥i).displaystyle operatorname E (X)=sum limits _i=1^infty P(Xgeq i).

اثبات:


∑i=1∞P(X≥i)=∑i=1∞∑j=i∞P(X=j)displaystyle beginalignedsum limits _i=1^infty P(Xgeq i)&=sum limits _i=1^infty sum limits _j=i^infty P(X=j)endaligned

با مبادلهٔ توان مجموع همان‌طور که ادعا می‌کردیم، داریم:


∑i=1∞P(X≥i)=∑j=1∞∑i=1jP(X=j)=∑j=1∞jP(X=j)=E⁡(X)displaystyle beginalignedsum limits _i=1^infty P(Xgeq i)&=sum limits _j=1^infty sum limits _i=1^jP(X=j)\&=sum limits _j=1^infty j,P(X=j)\&=operatorname E (X)endaligned

این جواب می‌تواند یک میانبر محاسباتی مفید باشد. برای مثال فرض کنید که ما یک سکه‌ای را بالا می‌اندازیم که احتمال عدد آمدن آن pباشد. با چند پرتاب می‌توان اولین خط‌ها (نه آنهایی که شامل خود خط هستند) را انتظار داشت؟ فرض کنید X این تعداد را نشان دهد. توجه کنید که ما فقط دنباله‌ها را می‌شماریم و خط‌هایی که آزمایش را پایان می‌دهند را نمی‌شماریم. ما می‌توانیم داشته باشیم که X = ۰. امید Xرا می‌توان از طریق محاسبه کرد. این بدین خاطر است که تعداد پرتاب‌های سکه حداقل دقیقاً i هستند (در زمانی که اولین پرتاب‌های i دنباله‌ها را بدست آورده‌است). این امر، امید یک متغیر تصادفی را با یک توزیع نمایی منطبق می‌سازد. ما از این فرمول برای تصاعد هندسی استفاده کردیم:
∑k=1∞rk=r1−r.displaystyle sum _k=1^infty r^k=frac r1-r.
توزیع پیوسته‌ای که مقادیر غیر منفی را می‌گیرد
مثل حالت گسسته‌ای که قبلاً گفته شده وقتی که یک متغیر تصادفی پیوسته‌ای مثلX فقط مقادیر غیر منفی را می‌گیرد پس می‌توانیم از فرمول زیر برای محاسبهٔ امیدش استفاده کنیم (حتی وقتی که امید نامتناهی باشد):


E⁡(X)=∫0∞P(X≥x)dxdisplaystyle operatorname E (X)=int _0^infty P(Xgeq x);dx

اثبات: ابتدا فرض کنید که X یک چگالی برابر fX(x)displaystyle f_X(x) داشته باشد. ما دو تکنیک ارائه می‌کنیم:


  • با استفاده از انتگرال‌گیری جزئی (حالت ویژه‌ای از بخش ۱٫۴ بالا):
E⁡(X)=∫0∞(−x)(−fX(x))dx=[−x(1−F(x))]0∞+∫0∞(1−F(x))dxdisplaystyle operatorname E (X)=int _0^infty (-x)(-f_X(x));dx=left[-x(1-F(x))right]_0^infty +int _0^infty (1-F(x));dx

و کروشهٔ آن به صفر می‌رسد چون 1−F(x)=o(1/x)displaystyle 1-F(x)=o(1/x) به طوری که x→∞displaystyle xto infty .


  • با استفاده از یک مبادله در مرتبهٔ انتگرال‌گیری:
∫0∞P(X≥x)dx=∫0∞∫x∞fX(t)dtdx=∫0∞∫0tfX(t)dxdt=∫0∞tfX(t)dt=E⁡(X)displaystyle int _0^infty P(Xgeq x);dx=int _0^infty int _x^infty f_X(t);dt;dx=int _0^infty int _0^tf_X(t);dx;dt=int _0^infty tf_X(t);dt=operatorname E (X)

در حالتی که هیچ چگالی وجود نداشته باشد دیده می‌شود که:


E⁡(X)=∫0∞∫0xdtdF(x)=∫0∞∫t∞dF(x)dt=∫0∞(1−F(t))dt.displaystyle beginalignedoperatorname E (X)=int _0^infty int _0^x;dt;dF(x)=int _0^infty int _t^infty dF(x);dt=int _0^infty (1-F(t));dt.endaligned

تاریخ
نظریهٔ مقدار مورد انتظار در اواسط قرن هفدهم از مطالعه مشکل معروف امتیازات منشأ گرفته‌است. مشکل این بود: چگونه باید پول‌های شرط‌بندی شده را به‌طور عادلانه بین دو بازیکنی که قبل از اینکه بازی کاملاً تمام شود مجبور هستند بازی را تمام کنند تقسیم کرد؟ این مشکل قرن‌ها مورد بحث و بررسی قرار گرفت و راه حل‌ها و پیشنهادهای جنجال‌برانگیز زیادی پیشنهاد شدند. این نظریه برای اولین بار توسط یک نجیب‌زاده ی فرانسوی دومر ((de Mere در سال ۱۶۵۴ به بلیز پاسکال ارائه شد. دومر اظهار نظر کرد که این مشکل نمی‌تواند حل شود و این نشان می‌دهد ریاضی نمی‌تواند در دنیای واقعی استفاده شود و کمبود دارد. پاسکال، که یک ریاضیدان بود، برانگیخته شد و تصمیم گرفت این مشکل را برای همیشه حل کند. اولین موضوع را از طریق نامه‌های معروفی با پیر دو فرما (Pierre de fermat) در میان گذاشت. بعد از مدت زمان کوتاهی هر دوی آن‌ها به دو راه حل مجزا رسیدند. آن‌ها این مشکل را با دو راه حل محاسباتی متفاوت حل کردند، اما نتیجهٔ آن‌ها یکسان بود زیرا محاسبات شان بر اساس اصول پایه و اساسی یکسانی بود. این اصل پایه این بود که مقدار یک یود آینده باید مستقیماً با شانس به دست آوردن آن مساوی باشد. این اصل به نظر هر دوی آن‌ها کاملاً طبیعی بود. آن‌ها از اینکه به راه حل رسیده بودند بسیار خوشحال بودند و از اینرو این باعث شد آن‌ها متقاعد شوند بالاخره این مشکل را توانسته‌اند حل کنند. با این حال آن‌ها یافته‌هایشان را منتشر نکردند. آن‌ها تنها به تعدادی از دوستان مشترک محققشان در پاریس اطلاع دادند. سه سال بعد در سال ۱۶۵۷ یک ریاضی‌دان آلمانی کریستیان هیگنز، که به پاریس سفر کرده بود، یک مقاله در مورد نظریهٔ احتمال با نام (de ratiociniis in ludo ale) چاپ کرد. در آن مقاله هیگنز مسئله امتیازات را در نظر گرفته بود و یک راه حل بر اساس همان اصلی که پاسکال و فرما دنبال کرده بودند پیشنهاد کرد. او همچنین نظریه امید را با اضافه کردن قوانین مربوط به چگونه محاسبه کردن امیدها در موقعیت‌های پیچیده‌تر از مسئلهٔ اصلی، گسترش داد. هینگز در مقدمهٔ مقاله اش نوشت: باید گفته شود که بریا بعضی مواقع، بعضی از بهترین ریاضی دانان از فرانسه قبلاً به حل آن پرداخته بودند بنابراین هیچ‌کس نباید افتخار ابداع این نظریه را به من نسبت دهد. این به من تعلق ندارد. اما این دانشمندان، اگر چه هر دو یکدیگر را از طریق پرسیدن سوالات دشوار از یکدیگر در معرض آزمایش قرار داده بودند ولی روش‌هایشان را از هم پنهان کرده بودند. از اینرو من از همان اصول اولیه شروع کردم تا به حل این مسئله رسیدم و بدین دلیل غیرممکن است تأیید کنم که از همان اصول آن‌ها آغاز به کار کردم. اما در نهایت من در بسیاری از موارد بدین نتیجه رسیدم که پاسخ‌هایم با آن‌ها متفاوت هستند. از اینرو هیگنز در طی سفرش به فرانسه از اظهار نظر دومر در سال ۱۶۵۵ مطلع شد، بعداً در سال ۱۶۵۶ از طریق ارتباط با کارکاوی دریافت که روش او کاملاً همانند پاسکال است، بنابراین قبل از اینکه مقاله اش برای چاپ برود، او از ارجحیت و پیش قدمی پاسکال در این زمینه آگاه بود.
پاسکال و هیگنز هیچ‌کدام کلمهٔ امید را با مفهوم امروزی استفاده نکردند. به خصوص شانس یا امید من برای بردن هر چیزی مساوی با به دست نیاوردن آن است… اگر من انتظار دارم a یا b را به دست بیاورم، شانس بدست آوردن هر کدام از آن‌ها مساوی است، مقدار امید من (a+b)/2 است. بیش از صد سال قبل، در سال ۱۸۱۴ پیرسایمون لاپلاس مقالهٔ خود را با عنوان "Théorie analytique des probabilités" منتشر کرد، در آنجا مفهوم مقدار مورد انتظار (یا امید ریاضی) به‌طور واضح توضیح داده شد.
استفاده از حرف E به معنی مقدار مورد انتظار است که به نظریهٔ انتخاب و شانس دابیلیو. ای وایت ورت بر می‌گردد این سمبل در زمانی که بریا همهٔ نویسندگان انگلیسی، آلمانی و فرانسوی E به معنی انتظار شد.



منابع




  1. Sheldon M Ross. "§3.4: Computing expectations by conditioning". cited work. p. 105 ff. ISBN 0-12-598062-0..mw-parser-output cite.citationfont-style:inherit.mw-parser-output qquotes:"""""""'""'".mw-parser-output code.cs1-codecolor:inherit;background:inherit;border:inherit;padding:inherit.mw-parser-output .cs1-lock-free abackground:url("//upload.wikimedia.org/wikipedia/commons/thumb/6/65/Lock-green.svg/9px-Lock-green.svg.png")no-repeat;background-position:right .1em center.mw-parser-output .cs1-lock-limited a,.mw-parser-output .cs1-lock-registration abackground:url("//upload.wikimedia.org/wikipedia/commons/thumb/d/d6/Lock-gray-alt-2.svg/9px-Lock-gray-alt-2.svg.png")no-repeat;background-position:right .1em center.mw-parser-output .cs1-lock-subscription abackground:url("//upload.wikimedia.org/wikipedia/commons/thumb/a/aa/Lock-red-alt-2.svg/9px-Lock-red-alt-2.svg.png")no-repeat;background-position:right .1em center.mw-parser-output div[dir=ltr] .cs1-lock-subscription a,.mw-parser-output div[dir=ltr] .cs1-lock-limited a,.mw-parser-output div[dir=ltr] .cs1-lock-registration abackground-position:left .1em center.mw-parser-output .cs1-subscription,.mw-parser-output .cs1-registrationcolor:#555.mw-parser-output .cs1-subscription span,.mw-parser-output .cs1-registration spanborder-bottom:1px dotted;cursor:help.mw-parser-output .cs1-hidden-errordisplay:none;font-size:100%.mw-parser-output .cs1-visible-errorfont-size:100%.mw-parser-output .cs1-subscription,.mw-parser-output .cs1-registration,.mw-parser-output .cs1-formatfont-size:95%.mw-parser-output .cs1-kern-left,.mw-parser-output .cs1-kern-wl-leftpadding-left:0.2em.mw-parser-output .cs1-kern-right,.mw-parser-output .cs1-kern-wl-rightpadding-right:0.2em


مشارکت‌کنندگان ویکی‌پدیا. «Expected value». در دانشنامهٔ ویکی‌پدیای انگلیسی، بازبینی‌شده در ۱۹ فوریه ۲۰۰۸.


  • مشارکت‌کنندگان ویکی‌پدیا. «Expected value». در دانشنامهٔ ویکی‌پدیای انگلیسی، بازبینی‌شده در ۳۰ ژوئیهٔ ۲۰۱۲.


  • Casella، George؛ Berger، Roger L. (۲۰۰۱). «۱». Statistical Inference. Duxbury Press. شابک ۰۵۳۴۲۴۳۱۲۶..mw-parser-output cite.citationfont-style:inherit.mw-parser-output qquotes:"""""""'""'".mw-parser-output code.cs1-codecolor:inherit;background:inherit;border:inherit;padding:inherit.mw-parser-output .cs1-lock-free abackground:url("//upload.wikimedia.org/wikipedia/commons/thumb/6/65/Lock-green.svg/9px-Lock-green.svg.png")no-repeat;background-position:right .1em center;padding-right:1em;padding-left:0.mw-parser-output .cs1-lock-limited a,.mw-parser-output .cs1-lock-registration abackground:url("//upload.wikimedia.org/wikipedia/commons/thumb/d/d6/Lock-gray-alt-2.svg/9px-Lock-gray-alt-2.svg.png")no-repeat;background-position:right .1em center;padding-right:1em;padding-left:0.mw-parser-output .cs1-lock-subscription abackground:url("//upload.wikimedia.org/wikipedia/commons/thumb/a/aa/Lock-red-alt-2.svg/9px-Lock-red-alt-2.svg.png")no-repeat;background-position:right .1em center;padding-right:1em;padding-left:0.mw-parser-output div[dir=ltr] .cs1-lock-subscription a,.mw-parser-output div[dir=ltr] .cs1-lock-limited a,.mw-parser-output div[dir=ltr] .cs1-lock-registration abackground-position:left .1em center;padding-left:1em;padding-right:0.mw-parser-output .cs1-subscription,.mw-parser-output .cs1-registrationcolor:#555.mw-parser-output .cs1-subscription span,.mw-parser-output .cs1-registration spanborder-bottom:1px dotted;cursor:help.mw-parser-output .cs1-hidden-errordisplay:none;font-size:100%.mw-parser-output .cs1-visible-errorfont-size:100%.mw-parser-output .cs1-subscription,.mw-parser-output .cs1-registration,.mw-parser-output .cs1-formatfont-size:95%.mw-parser-output .cs1-kern-left,.mw-parser-output .cs1-kern-wl-leftpadding-left:0.2em.mw-parser-output .cs1-kern-right,.mw-parser-output .cs1-kern-wl-rightpadding-right:0.2em









برگرفته از «https://fa.wikipedia.org/w/index.php?title=مقدار_چشم‌داشتی&oldid=26479692»










منوی ناوبری


























(RLQ=window.RLQ||[]).push(function()mw.config.set("wgPageParseReport":"limitreport":"cputime":"0.572","walltime":"0.808","ppvisitednodes":"value":3220,"limit":1000000,"ppgeneratednodes":"value":0,"limit":1500000,"postexpandincludesize":"value":324293,"limit":2097152,"templateargumentsize":"value":36704,"limit":2097152,"expansiondepth":"value":16,"limit":40,"expensivefunctioncount":"value":33,"limit":500,"unstrip-depth":"value":1,"limit":20,"unstrip-size":"value":8756,"limit":5000000,"entityaccesscount":"value":0,"limit":400,"timingprofile":["100.00% 443.733 1 -total"," 76.99% 341.619 15 الگو:Navbox"," 37.55% 166.610 1 الگو:آمار"," 36.25% 160.849 1 الگو:Navbox_with_collapsible_groups"," 24.00% 106.511 1 الگو:پانویس"," 22.16% 98.336 1 الگو:Cite_book"," 22.09% 98.021 1 الگو:یادکرد_کتاب"," 12.51% 55.519 32 الگو:پم"," 5.23% 23.188 2 الگو:یادکرد-ویکی"," 2.16% 9.597 5 الگو:Frac2"],"scribunto":"limitreport-timeusage":"value":"0.174","limit":"10.000","limitreport-memusage":"value":4520418,"limit":52428800,"cachereport":"origin":"mw1294","timestamp":"20190705050850","ttl":2592000,"transientcontent":false););"@context":"https://schema.org","@type":"Article","name":"u0645u0642u062fu0627u0631 u0686u0634u0645u200cu062fu0627u0634u062au06cc","url":"https://fa.wikipedia.org/wiki/%D9%85%D9%82%D8%AF%D8%A7%D8%B1_%DA%86%D8%B4%D9%85%E2%80%8C%D8%AF%D8%A7%D8%B4%D8%AA%DB%8C","sameAs":"http://www.wikidata.org/entity/Q200125","mainEntity":"http://www.wikidata.org/entity/Q200125","author":"@type":"Organization","name":"u0645u0634u0627u0631u06a9u062au200cu06a9u0646u0646u062fu06afu0627u0646 u067eu0631u0648u0698u0647u0654 u0648u06ccu06a9u06ccu200cu0645u062fu06ccu0627","publisher":"@type":"Organization","name":"Wikimedia Foundation, Inc.","logo":"@type":"ImageObject","url":"https://www.wikimedia.org/static/images/wmf-hor-googpub.png","datePublished":"2008-02-20T01:16:06Z","dateModified":"2019-06-22T11:40:47Z"(RLQ=window.RLQ||[]).push(function()mw.config.set("wgBackendResponseTime":125,"wgHostname":"mw1320"););

Popular posts from this blog

Invision Community Contents History See also References External links Navigation menuProprietaryinvisioncommunity.comIPS Community ForumsIPS Community Forumsthis blog entry"License Changes, IP.Board 3.4, and the Future""Interview -- Matt Mecham of Ibforums""CEO Invision Power Board, Matt Mecham Is a Liar, Thief!"IPB License Explanation 1.3, 1.3.1, 2.0, and 2.1ArchivedSecurity Fixes, Updates And Enhancements For IPB 1.3.1Archived"New Demo Accounts - Invision Power Services"the original"New Default Skin"the original"Invision Power Board 3.0.0 and Applications Released"the original"Archived copy"the original"Perpetual licenses being done away with""Release Notes - Invision Power Services""Introducing: IPS Community Suite 4!"Invision Community Release Notes

Canceling a color specificationRandomly assigning color to Graphics3D objects?Default color for Filling in Mathematica 9Coloring specific elements of sets with a prime modified order in an array plotHow to pick a color differing significantly from the colors already in a given color list?Detection of the text colorColor numbers based on their valueCan color schemes for use with ColorData include opacity specification?My dynamic color schemes

Ласкавець круглолистий Зміст Опис | Поширення | Галерея | Примітки | Посилання | Навігаційне меню58171138361-22960890446Bupleurum rotundifoliumEuro+Med PlantbasePlants of the World Online — Kew ScienceGermplasm Resources Information Network (GRIN)Ласкавецькн. VI : Літери Ком — Левиправивши або дописавши її