shop-mayki.ru
Главная Что можно кушать после кровотечения желудка диета

Общее определение адаптации с различных точек зрения


невроз дергается глаз дистрофия

Материал из Википедии — свободной энциклопедии

Простой пример: вероятность того, что на кубике выпадет число «5», равна \tfrac{1}{6}. Так же, как и для любого другого числа на кубике.

Вероя́тность — степень (относительная мера, количественная оценка) возможности наступления некоторого события. Когда основания для того, чтобы какое-нибудь возможное событие произошло в действительности, перевешивают противоположные основания, то это событие называют вероятным, в противном случае — маловероятным или невероятным. Перевес положительных оснований над отрицательными, и наоборот, может быть в различной степени, вследствие чего вероятностьневероятность) бывает большей или меньшей[1]. Поэтому часто вероятность оценивается на качественном уровне, особенно в тех случаях, когда более или менее точная количественная оценка невозможна или крайне затруднительна. Возможны различные градации «уровней» вероятности[2].

Исследование вероятности с математической точки зрения составляет особую дисциплину — теорию вероятностей[1]. В теории вероятностей и математической статистике понятие вероятности формализуется как числовая характеристика события — вероятностная мера (или её значение) — мера на множестве событий (подмножеств множества элементарных событий), принимающая значения от 0 до 1. Значение 1 соответствует достоверному событию. Невозможное событие имеет вероятность 0 (обратное вообще говоря не всегда верно). Если вероятность наступления события равна p, то вероятность его ненаступления равна 1-p. В частности, вероятность 1/2 означает равную вероятность наступления и ненаступления события.

Классическое определение вероятности основано на понятии равновозможности исходов. В качестве вероятности выступает отношение количества исходов, благоприятствующих данному событию, к общему числу равновозможных исходов. Например, вероятность выпадения «орла» или «решки» при случайном подбрасывании монетки равна 1/2, если предполагается, что только эти две возможности имеют место[3] и они являются равновозможными. Данное классическое «определение» вероятности можно обобщить на случай бесконечного количества возможных значений — например, если некоторое событие может произойти с равной вероятностью в любой точке (количество точек бесконечно) некоторой ограниченной области пространства (плоскости), то вероятность того, что оно произойдет в некоторой части этой допустимой области равна отношению объёма (площади) этой части к объёму (площади) области всех возможных точек.

Эмпирическое «определение» вероятности связано с частотой наступления события исходя из того, что при достаточно большом числе испытаний частота должна стремиться к объективной степени возможности этого события. В современном изложении теории вероятностей вероятность определяется аксиоматически, как частный случай абстрактной теории меры множества. Тем не менее, связующим звеном между абстрактной мерой и вероятностью, выражающей степень возможности наступления события, является именно частота его наблюдения.

Вероятностное описание тех или иных явлений получило широкое распространение в современной науке, в частности в эконометрике, статистической физике макроскопических (термодинамических) систем, где даже в случае классического детерминированного описания движения частиц детерминированное описание всей системы частиц не представляется практически возможным и целесообразным. В квантовой физике сами описываемые процессы имеют вероятностную природу.

Содержание

Предыстория понятия вероятности[править | править вики-текст]

Необходимость понятия вероятности и исследований в этом направлении была исторически связана с азартными играми, особенно с играми в кости. До появления понятия вероятности формулировались в основном комбинаторные задачи подсчета числа возможных исходов при бросании нескольких костей, а также задача раздела ставки между игроками, когда игра закончена досрочно. Первую задачу при бросании трех костей «решил» в 960 году епископ Виболд из г. Камбрэ[4]. Он насчитал 56 вариантов. Однако это количество по сути не отражает количество равновероятных возможностей, поскольку каждый из 56 вариантов может реализоваться разным количеством способов. В первой половине 13 века эти аспекты учел Ришар де Форниваль. Несмотря на то, что у него тоже фигурирует число 56, но он в рассуждениях учитывает, что, например, «одинаковое количество очков на трех костях можно получить шестью способами». Основываясь на его рассуждениях уже можно установить, что число равновозможных вариантов — 216. В дальнейшем многие не совсем верно решали эту задачу. Впервые четко количество равновозможных исходов при подбрасывании трех костей подсчитал Галилео Галилей, возводя шестерку (количество вариантов выпадения одной кости) в степень 3 (количество костей): 6³=216. Он же составил таблицы количества способов получения различных сумм очков.

Задачи второго типа в конце 15 века сформулировал и предложил первое (вообще говоря ошибочное) решение Лука Пачоли[4]. Его решение заключалось в делении ставки пропорционально уже выигранным партиям. Существенное дальнейшее продвижение в начале 16 века связано с именами итальянских ученых Джероламо Кардано и Н. Тарталья. Кардано дал правильный подсчет количества случаев при бросании двух костей (36). Он также впервые соотнес количество случаев выпадения некоторого числа хотя бы на одной кости (11) к общему числу исходов (что соответствует классическому определению вероятности) — 11/36. Аналогично и для трех костей он рассматривал, например, что девять очков может получиться количеством способов, равным 1/9 «всей серии» (то есть общего количества равновозможных исходов — 216). Кардано формально не вводил понятие вероятности, но по существу рассматривал относительное количество исходов, что по сути эквивалентно рассмотрению вероятностей. Необходимо также отметить, что в зачаточном состоянии у Кардано можно найти также идеи, связанные с законом больших чисел. По поводу задачи деления ставки Кардано предлагал учитывать количество оставшихся партий, которые надо выиграть. Н. Тарталья также сделал замечания по поводу решения Луки и предложил свое решение (вообще говоря, тоже ошибочное).

Заслуга Галилея также заключается в расширении области исследований на область ошибок наблюдений. Он впервые указал на неизбежность ошибок и классифицировал их на систематические и случайные (такая классификация применяется и сейчас).

Возникновение понятия и теории вероятностей[править | править вики-текст]

Первые работы об учении о вероятности относится к 17 веку. Такие как переписка французских учёных Б. Паскаля, П. Ферма (1654 год) и голландского учёного X. Гюйгенса (1657 год) давшего самую раннюю из известных научных трактовок вероятности[5]. По существу Гюйгенс уже оперировал понятием математического ожидания. Швейцарский математик Я. Бернулли, установил закон больших чисел для схемы независимых испытаний с двумя исходами (посмертно, 1713 год).

В XVIII в. — начале ХIХ в. теория вероятностей получает развитие в работах А. Муавра (Англия)(1718 год), П. Лаплас (Франция), К. Гаусса (Германия) и С. Пуассона (Франция). Теория вероятностей начинает применяться в теории ошибок наблюдений, развившейся в связи с потребностями геодезии и астрономии, и в теории стрельбы. Необходимо отметить, что закон распределения ошибок по сути предложил Лаплас сначала как экспоненциальная зависимость от ошибки без учета знака (в 1774 год), затем как экспоненциальную функцию квадрата ошибки (в 1778 году). Последний закон обычно называют распределением Гаусса или нормальным распределением. Бернулли (1778 год) ввел принцип произведения вероятностей одновременных событий. Адриен Мари Лежандр (1805) разработал метод наименьших квадратов.

Во второй половине XIX в. развитие теории вероятностей связано с работами русских математиков П. Л. Чебышёва, А. М. Ляпунова и А. А. Маркова (старшего), а также работы по математической статистике А. Кетле (Бельгия) и Ф. Гальтона (Англия) и статистической физике Л. Больцмана (в Австрия), которые создали основу для существенного расширения проблематики теории вероятностей. Наиболее распространённая в настоящее время логическая (аксиоматическая) схема построения основ теории вероятностей разработана в 1933 советским математиком А. Н. Колмогоровым.

Классическое определение[править | править вики-текст]

Классическое «определение» вероятности исходит из понятия равновозможности как объективного свойства изучаемых явлений. Равновозможность является неопределяемым понятием и устанавливается из общих соображений симметрии изучаемых явлений. Например, при подбрасывании монетки исходят из того, что в силу предполагаемой симметрии монетки, однородности материала и случайности (непредвзятости) подбрасывания нет никаких оснований для предпочтения «решки» перед «орлом» или наоборот, то есть выпадение этих сторон можно считать равновозможными (равновероятными).

Наряду с понятием равновозможности в общем случае для классического определения необходимо также понятие элементарного события (исхода), благоприятствующего или нет изучаемому событию A. Речь идет об исходах, наступление которых исключает возможность наступления иных исходов. Это несовместимые элементарные события. К примеру при бросании игральной кости выпадение конкретного числа исключает выпадение остальных чисел.

Классическое определение вероятности можно сформулировать следующим образом:

Вероятностью случайного события A называется отношение числа n несовместимых равновероятных элементарных событий, составляющих событие A, к числу всех возможных элементарных событий N:

P(A)=\frac {n}{N}

Например, пусть подбрасываются две кости. Общее количество равновозможных исходов (элементарных событий) равно очевидно 36 (6 возможностей на каждой кости). Оценим вероятность выпадения 7 очков. Получение 7 очков возможно следующими способами: 1+6, 2+5, 3+4, 4+3, 5+2, 6+1. То есть всего 6 равновозможных исходов, благоприятствующих событию A — получению 7 очков. Следовательно, вероятность будет равна 6/36=1/6. Для сравнения вероятность получения 12 очков или 2 очков равна всего 1/36 — в 6 раз меньше.

Геометрическое определение[править | править вики-текст]

Несмотря на то, что классическое определение является интуитивно понятным и выведенным из практики, оно, как минимум, не может быть непосредственно применено в случае, если количество равновозможных исходов бесконечно. Ярким примером бесконечного числа возможных исходов является ограниченная геометрическая область G, например, на плоскости, с площадью S. Случайно «подброшенная» «точка» с равной вероятностью может оказаться в любой точке этой области. Задача заключается в определении вероятности попадания точки в некоторую подобласть g с площадью s. В таком случае, обобщая классическое определение, можно прийти к геометрическому определению вероятности попадания в подобласть g:

P(A)=\frac {s}{S}

В виду равновозможности вероятность эта не зависит от формы области g, она зависит только от её площади. Данное определение естественно можно обобщить и на пространство любой размерности, где вместо площади использовать понятие «объёма». Более того, именно такое определение приводит к современному аксиоматическому определению вероятности. Понятие объёма обобщается до понятия меры некоторого абстрактного множества, к которой предъявляются требования, которыми обладает и «объём» в геометрической интерпретации — в первую очередь, это неотрицательность и аддитивность.

Частотное (статистическое) определение[править | править вики-текст]

Классическое определение при рассмотрении сложных проблем наталкивается на трудности непреодолимого характера. В частности, в некоторых случаях выявить равновозможные случаи может быть невозможно. Даже в случае с монеткой, как известно, существует явно не равновероятная возможность выпадения «ребра», которую из теоретических соображений оценить невозможно (можно только сказать, что оно маловероятно и то это соображение скорее практическое). Поэтому еще на заре становления теории вероятностей было предложено альтернативное «частотное» определение вероятности. А именно, формально вероятность можно определить как предел частоты наблюдений события A, предполагая однородность наблюдений (то есть одинаковость всех условий наблюдения) и их независимость друг от друга:

P(A)=\lim_{N \rightarrow \infty} \frac {n}{N}

где N — количество наблюдений, а n — количество наступлений события A.

Несмотря на то, что данное определение скорее указывает на способ оценки неизвестной вероятности — путем большого количества однородных и независимых наблюдений — тем не менее в таком определении отражено содержание понятия вероятности. А именно, если событию приписывается некоторая вероятность, как объективная мера его возможности, то это означает, что при фиксированных условиях и многократном повторении мы должны получить частоту его появления, близкую к p (тем более близкую, чем больше наблюдений). Собственно, в этом заключается исходный смысл понятия вероятности. В основе лежит объективистский взгляд на явления природы. Ниже будут рассмотрены так называемые законы больших чисел, которые дают теоретическую основу (в рамках излагаемого ниже современного аксиоматического подхода) в том числе для частотной оценки вероятности.

Аксиоматическое определение[править | править вики-текст]

В современном математическом подходе вероятность задаётся аксиоматикой Колмогорова. Предполагается, что задано некоторое пространство элементарных событий X. Подмножества этого пространства интерпретируются как случайные события. Объединение (сумма) некоторых подмножеств (событий) интерпретируется как событие, заключающееся в наступлении хотя бы одного из этих событий. Пересечение (произведение) подмножеств (событий) интерпретируется как событие, заключающееся в наступлении всех этих событий. Непересекающиеся множества интерпретируются как несовместные события (их совместное наступление невозможно). Соответственно, пустое множество означает невозможное событие.

Вероятностью (вероятностной мерой) называется мера (числовая функция) \mathbf P, заданная на множестве событий, обладающая следующими свойствами:

  • Неотрицательность: \forall A \subset X \colon \mathbf P(A) \geqslant 0,
  • Аддитивность: вероятность наступления хотя бы одного (то есть суммы) из попарно несовместных событий равна сумме вероятностей этих событий; другими словами, если A_i A_j=\varnothing при i\ne j, то P(\sum_{i} A_i) = \sum_{i}\mathbf P(A_i).
  • Конечность (ограниченность единицей): \mathbf P(X) = 1,

В случае если пространство элементарных событий X конечно, то достаточно указанного условия аддитивности для произвольных двух несовместных событий, из которого будет следовать аддитивность для любого конечного количества несовместных событий. Однако, в случае бесконечного (счётного или несчётного) пространства элементарных событий этого условия оказывается недостаточно. Требуется так называемая счётная или сигма-аддитивность, то есть выполнение свойства аддитивности для любого не более чем счётного семейства попарно несовместных событий. Это необходимо для обеспечения «непрерывности» вероятностной меры.

Вероятностная мера может быть определена не для всех подмножеств множества X. Предполагается, что она определена на некоторой сигма-алгебре \Omega подмножеств[6]. Эти подмножества называются измеримыми по данной вероятностной мере и именно они являются случайными событиями. Совокупность (X,\Omega,P) — то есть множество элементарных событий, сигма-алгебра его подмножеств и вероятностная мера — называется вероятностным пространством.

Основные свойства вероятности проще всего определить, исходя из аксиоматического определения вероятности.

1) вероятность невозможного события (пустого множества \varnothing) равна нулю:

\mathbf{P}\{\varnothing\}=0;

Это следует из того, что каждое событие можно представить как сумму этого события и невозможного события, что в силу аддитивности и конечности вероятностной меры означает, что вероятность невозможного события должна быть равна нулю.

2) если событие A «входит» в событие B, то есть A \subset B, то есть наступление события A влечёт также наступление события B, то:

\mathbf{P}\{A\}\leqslant\mathbf{P}\{B\};

Это следует из неотрицательности и аддитивности вероятностной меры, так как событие B, возможно, «содержит» кроме события A ещё какие-то другие события, несовместные с A.

3) вероятность каждого события A находится от 0 до 1, то есть удовлетворяет неравенствам:

0\leqslant\mathbf{P}\{A\}\leqslant1;

Первая часть неравенства (неотрицательность) утверждается аксиоматически, а вторая следует из предыдущего свойства с учётом того, что любое событие «входит» в X, а для X аксиоматически предполагается \mathbf{P}\{X\}=1.

4) вероятность наступления события B\setminus A, заключающегося в наступлении события B при одновременном ненаступлении события A, равна:

\mathbf{P}\{B\setminus A\}=\mathbf{P}\{B\}-\mathbf{P}\{A\};

Это следует из аддитивности вероятности для несовместных событий и из того, что события A и B \setminus A являются несовместными по определению, а их сумма равна событию B.

5) вероятность события \bar{A}, противоположного событию A, равна:

\mathbf{P}\{\bar{A}\}=1-\mathbf{P}\{A\};

Это следует из предыдущего свойства, если в качестве множества B использовать всё пространство X и учесть, что \mathbf{P}\{X\}=1.

6) (теорема сложения вероятностей) вероятность наступления хотя бы одного из (то есть суммы) произвольных (не обязательно несовместных) двух событий A и B равна:

\mathbf{P}\{A+B\}=\mathbf{P}\{A\}+\mathbf{P}\{B\}-\mathbf{P}\{AB\}.

Это свойство можно получить, если представить объединение двух произвольных множеств как объединение двух непересекающихся — первого и разности между вторым и пересечением исходных множеств: A+B=A+(B \setminus (AB)). Отсюда учитывая аддитивность вероятности для непересекающихся множеств и формулу для вероятности разности (см. свойство 4) множеств, получаем требуемое свойство.

Вероятность наступления события A, при условии наступления события B, называется условной вероятностью A (при данном условии) и обозначается P(A|B). Наиболее просто вывести формулу определения условной вероятности исходя из классического определения вероятности. Для данных двух событий A и B рассмотрим следующий набор несовместных событий: A\overline{B}, AB, \overline{A}B, \overline{A}\cdot \overline{B}, которые исчерпывают все возможные варианты исходов (такой набор событий называют полным — см. ниже). Общее количество равновозможных исходов равно n. Если событие B уже наступило, то равновозможные исходы ограничивается лишь двумя событиями AB, \overline{A}B, что эквивалентно событию B. Пусть количество этих исходов равно n_B. Из этих исходов событию A благоприятстствуют лишь те, что связаны с событием AB. Количество соответствующих исходов обозначим n_{AB}. Тогда согласно классическому определению вероятности вероятность события A при условии наступления события B будет равна P(A|B)=n_{AB}/n_B, разделив числитель и знаменатель на общее количество равновозможных исходов n и повторно учитывая классическое определение, окончательно получим формулу условной вероятности:

P(A|B)=\frac {P(AB)} {P(B)}.

Отсюда следует так называемая теорема умножения вероятностей:

P(AB)=P(B)P(A|B).

В силу симметрии, аналогично можно показать, что также P(AB)=P(A)P(B|A), отсюда следует формула Байеса:

P(A|B)=\frac {P(A)P(B|A)}{P(B)}

Независимость событий[править | править вики-текст]

События A и B называются независимыми, если вероятность наступления одного из них не зависит от того, наступили или нет другие события. С учетом понятия условной вероятности это означает, что P(A|B)=P(A), откуда следует, что для независимых событий выполнено:

P(AB)=P(A)P(B)

В рамках аксиоматического подхода данная формула принимается как определение понятия независимости двух событий. Для произвольной (конечной) совокупности событий A_i их независимость в совокупности означает, что вероятность их совместного наступления равна произведению их вероятностей:

P(A_1A_2...A_n)=P(A_1)P(A_2)...P(A_n)

Выведенная (в рамках классического определения вероятности) выше формула условной вероятности при аксиоматическом определении вероятности является определением условной вероятности. Соответственно, как следствие определений независимых событий и условной вероятности получается равенство условной и безусловной вероятностей события.

Полная вероятность и формула Байеса[править | править вики-текст]

Набор событий A_j, хотя бы одно из которых обязательно (с единичной вероятностью) наступит в результате испытания, называется полным. Это означает, что набор таких событий исчерпывает все возможные варианты исходов. Формально в рамках аксиоматического подхода это означает, что \sum_i A_i=X. Если эти события несовместны, то в рамках классического определения это означает, что сумма количеств элементарных событий, благоприятствующих тому или иному событию, равно общему количеству равновозможных исходов.

Пусть имеется полный набор попарно несовместных событий A_i. Тогда для любого события B верна следующая формула расчета его вероятности (формула полной вероятности):

P(B)=\sum^n_{i=1} P(B|A_i)P(A_i)

Тогда вышеописанную формулу Байеса с учетом полной вероятности можно записать в следующем виде:

P(A_j|B)=\frac {P(A_j)P(B|A_j)}{\sum^n_{i=1} P(A_i)P(B|A_i)}

Данная формула является основой альтернативного подхода к вероятности — байесовского или субъективного подхода (см. ниже).

Важнейший частный случай применения «вероятности» — вероятность получения в результате испытания или наблюдения того или иного числового значения некоторой измеряемой (наблюдаемой) величины. Предполагается, что до проведения испытания (наблюдения) точное значение этой величины неизвестно, то есть имеется явная неопределенность, связанная обычно (за исключением квантовой физики) с невозможностью учета всех факторов, влияющих на результат. Такие величины называют случайными. В современной теории вероятностей понятие случайной величины формализуется и она определяется как функция «случая» — функция на пространстве элементарных событий. При таком определении наблюдаются не сами элементарные события, а «реализации», конкретные значения случайной величины. Например, при подбрасывании монетки выпадает «решка» или «орел». Если ввести функцию, ставящую в соответствие «решке» — число 1, а «орлу» — 0, то получим случайную величину как функцию указанных исходов. При этом понятие случайной величины обобщается на функции, отображающие пространство элементарных событий в некоторое пространство произвольной природы, соответственно можно ввести понятия случайного вектора, случайного множества и т. д. Однако, обычно под случайной величиной подразумевают именно числовую функцию (величину).

Отвлекаясь от описанной формализации под пространством элементарных событий можно понимать множество возможных значений случайной величины. Сигма-алгеброй подмножеств являются произвольные интервалы на числовой оси, их всевозможные (счетные) объединения и пересечения. Вероятностную меру называют в данном случае распределением случайной величины. Достаточно задать вероятностную меру для интервалов вида (-\infty;x), поскольку произвольный интервал можно представить как объединение или пересечение таких интервалов. Предполагается, что каждому интервалу вышеуказаного вида поставлена в соответствие некоторая вероятность F(x)=P(X<x), то есть некоторая функция возможных значений x. Такую функцию называют интегральной, кумулятивной или просто функцией распределения случайной величины. В случае дифференцируемости этой функции (в этом случае соответствующие случайные величины называются непрерывными) вводится также аналитически часто более удобная функция — плотность распределения — производная функции распределения: f(x)=F'(x). В случае дискретных случайных величин вместо плотности (она не существует в этом случае) можно использовать непосредственно ряд распределения p_i — вероятность i-го значения. Соответствующая функция распределения будет связана с рядом распределения как: F(x)=\sum_{x_i<x} p_i. Вероятность того, что случайная величина окажется в некотором интервале (x_1,x_2) определяется как разность значений функции распределения на концах этого интервала. Через плотность распределения — это соответствующий интеграл от плотности на данном интервале (для дискретной случайной величины — просто сумма вероятностей значений из этого интервала).

Распределение случайной величины дает ее полную характеристику. Однако, часто используют отдельные характеристики этого распределения. В первую очередь это математическое ожидание случайной величины — среднее ожидаемое значение случайной величин�

Источник: http://98.139.21.31/search/srpcache?p=%D0%BE%D0%B1...


Толстый кишечник внутри