Вероятность и математическая статистика. Основы теории вероятностей и математической статистики

для студентов 2 курса всех специальностей

Кафедра Высшей математики

Вводная часть

Уважаемые студенты!

Вашему вниманию предлагается обзорная (установочная) лекция профессора Н.Ш.Кремера по дисциплине «Теория вероятностей и математическая статистика» для студентов второго курса ВЗФЭИ.

В лекции обсуждаются задачи изучения теории вероятностей и математической статистики в экономическом вузе и ее место в системе подготовки современного экономиста, рассматривается организация самостоятельной работы студентов с использованием компьютерной обучающей системы (КОПР) и традиционных учебников, даются обзор основных положений данного курса, а также методические рекомендации по ее изучению.

Среди математических дисциплин, изучаемых в экономическом вузе, теория вероятностей и математическая статистика занимает особое положение. Во-первых, она является теоретической базой статистических дисциплин. Во-вторых, методы теории вероятностей и математической статистики непосредственно используются при изучении массовых совокупностей наблюдаемых явлений, обработке результатов наблюдений и выявлении закономерностей случайных явлений. Наконец, теория вероятностей и математическая статистика имеет важное методологическое значение в познавательном процессе , при выявлении общей закономерности исследуемых процессов, служит логической основой индуктивно-дедуктивного умозаключения.

Каждый студент второго курса должен иметь следующий набор (кейс) по дисциплине «Теория вероятностей и математическая статистика»:

1. Обзорную установочную лекцию по данной дисциплине.

2. Учебник Н.Ш. Кремера «Теория вероятностей и математическая статистика» – М.: ЮНИТИ – ДАНА, 2007 (в дальнейшем будем называть просто «учебник»).

3. Учебно-методическое пособие «Теория вероятностей и математическая статистика»/ под ред. Н.Ш. Кремера. – М.: Вузовский учебник, 2005 (в дальнейшем «пособие»).

4. Компьютерную обучающую программу КОПР по дисциплине (в дальнейшем – «компьютерная программа»).

На сайте института на странице «Корпоративные ресурсы» размещены интернет-версии компьютерной программы КОПР2, обзорной установочной лекции и электронной версии пособия. Кроме того, компьютерная программа и пособие представлены на CD - ROM ах для студентов второго курса. Поэтому в «бумажном виде» студенту необходимо иметь лишь учебник.

Поясним назначение каждого из учебно-методических материалов, входящий в указанный набор (кейс).

В учебнике изложены основные положения учебного материала дисциплины, иллюстрируемые достаточно большим числом решенных задач.

В пособии даны методические рекомендации по самостоятельному изучению учебного материала, выделены наиболее важные понятия курса и типовые задачи, даны контрольные вопросы для самопроверки по данной дисциплине, приведены варианты домашних контрольных работ, которые должен выполнить студент, а также методические указания по их выполнению.

Компьютерная программа призвана оказать Вам максимальную помощь в усвоении курса в режиме диалога программы со студентом с тем, чтобы в наибольшей степени восполнить отсутствие у Вас аудиторных занятий, соответствующего контакта с преподавателем.

Для студента, обучающегося по системе дистанционного обучения, первостепенное, определяющее значение имеет организация самостоятельной работы.

Приступая к изучению данной дисциплины, прочтитедо конца настоящую обзорную (установочную) лекцию. Это позволит Вам получить в целом представление об основных понятиях и методах, используемых в курсе «Теория вероятностей и математическая статистика», и требованиях, предъявляемых к уровню подготовки студентов ВЗФЭИ.

Перед изучением каждой темы ознакомьтесь с методическими рекомендациями к изучению данной темы по пособию. Здесь Вы найдете перечень учебных вопросов данной темы, которые Вам предстоит изучить; выясните, какие понятия, определения, теоремы, задачи являются наиболее важными, которые надо изучить и освоить в первую очередь.

Затем перейдите к изучению основного учебного материала по учебнику в соответствии с полученными методическими рекомендациями. Советуем конспектировать в отдельной тетради основные определения, формулировки теорем, схемы их доказательств, формулы и решения типовых задач. Формулы целесообразно выписывать в специальные таблицы для каждой части курса: теория вероятностей и математическая статистика. Регулярное пользование конспектом, в частности, таблицами формул, способствует их запоминанию.

Лишь после проработки основного учебного материала каждой темы по учебнику можно перейти к изучению этой темы с помощью компьютерной обучающей программы (КОПР2).

Обратите внимание на структуру построения компьютерной программы по каждой теме. После названия темы приводится перечень основных учебных вопросов темы по учебнику с указанием номеров параграфов и страниц, которые необходимо изучить. (Напомним, что перечень этих вопросов по каждой теме приведен также и в пособии).

Затем в краткой форме дается справочный материал по данной теме (или по отдельным параграфам этой темы) – основные определения, теоремы, свойства и признаки, формулы и т.п. В процессе изучения темы Вы также можете вызвать на экран те фрагменты справочного материала (по данной или предыдущим темам), которые необходимы в данный момент.

Затем Вам предлагается учебный материал и обязательно типовые задачи (примеры), решение которых рассматривается в режиме диалога программы со студентом. Функции ряда примеров ограничиваются выводом на экран по запросу обучаемого этапов правильного решения. Вместе с тем в процессе рассмотрения большинства примеров Вам будут задаваться вопросы того или иного характера. В качестве ответов на одни вопросы следует вводить с клавиатуры числовой ответ, на другие – выбирать правильный ответ (или ответы) из нескольких предложенных.

В зависимости от введенного Вами ответа программа подтверждает его правильность или предлагает, ознакомившись с подсказкой, содержащей необходимые теоретические положения, вновь попытаться дать правильные решение и ответ. Во многих заданиях установлено ограничение на количество попыток решения (при превышении этого ограничения на экран обязательно выводится правильный ход решения). Имеются и такие примеры, в которых количество информации, содержащееся в подсказке, возрастает по мере повторения неудачных попыток ответа.

После ознакомления с теоретическими положениями учебного материала и примерами, которые снабжены подробным разбором решения, Вы должны выполнить упражнения для самоконтроля, чтобы закрепить навыки решения типовых задач по каждой теме. Задания для самоконтроля также содержат элементы диалога со студентом. По завершению решения Вы можете ознакомиться с правильным ответом и сравнить его с тем, который Вы дали.

В завершение работы по каждой теме следует выполнить контрольные задания. Правильные ответы на них Вам не выводятся, а Ваши ответы записываются на жесткий диск компьютера для последующего ознакомления с ними преподавателя-консультанта (тьютора).

После изучения тем 1–7 Вы должны выполнить домашнюю контрольную работу № 3, а после изучения тем 8–11 – домашнюю контрольную работу № 4. Варианты указанных контрольных работ приведены в пособии (его электронной версии). Номер выполняемого варианта должен совпадать с последней цифрой номера Вашего личного дела (зачетной книжки, студенческого билета). По каждой контрольной работе Вы должны проходить собеседование, на котором необходимо показать умение решать задачи и знание основных понятий (определений, теорем (без доказательства), формул и т.п.) по теме контрольной работы. Завершается изучение дисциплины курсовым экзаменом.

Теория вероятностей – математическая наука, изучающая закономерности случайных явлений.

Предлагаемая для изучения дисциплина состоит из двух разделов «Теория вероятностей» и «Математическая статистика».

Основы теории вероятностей и математической статистики

Основы теории вероятностей и математической статистики Основные понятия теории вероятностей Предметом изучения теории вероятностей являются количественные закономерности однородных случайных явлений массового характера. Определение 1. Событием называется всякий возможный факт, о котором можно сказать, что он произойдет или не произойдет в данных условиях. Пример. Готовые ампулы, сошедшие с конвейера, могут оказаться либо стандартными, либо нестандартными. Один (любой) исход из указанных двух возможных называются событием. Различают три вида событий: достоверные, невозможные и случайные. Определение 2. Достоверным называют то событие, которое при соблюдении некоторых условий не может не произойти, т.е. обязательно произойдет. Пример. Если в урне содержатся только белые шары, то взятый наудачу из урны шар будет обязательно белый. В данных условиях факт появления белого шара будет достоверным событием. Определение 3. Невозможным называют то событие, которое при соблюдении некоторых условий не может произойти. Пример. Нельзя извлечь белый шар из урны, содержащей только черные шары. В этих условиях факт появления белого шара будет невозможным событием. Определение 4. Случайным называют событие, которое в одних и тех же условиях может произойти, но может и не произойти. Пример. Монета, брошенная вверх, может упасть так, что на ее верхней стороне окажется либо герб, либо цифра. Здесь появление сверху той или другой стороны монеты является случайным событием. Определение 5. Испытание - совокупность тех условий или действий, которые могут быть повторены бесконечное число раз. Пример. Подбрасывание монеты вверх - испытание, а возможный результат, т.е. выпадение на верхней стороне монеты либо герба, либо цифры является событием. Определение 6. Если события A i таковы, что при некотором данном испытании может произойти только одно из них и никаких других, не входящих в совокупность, то эти события называются единственно возможными. Пример. В урне лежат белые и черные шары и никаких других. Взятый наугад один шар может оказаться белым или черным. Эти события являются единственно возможными, т.к. появление шара другой окраски при данном испытании исключено. Определение 7. Два события A и B называются несовместными, если при данном испытании они не могут произойти вместе. Пример. Герб и цифра являются единственно возможными и несовместимыми событиями при однократном бросании монеты. Определение 8. Два события A и B называются совместными (совместимыми) при данном испытании, если появление одного из них не исключает возможность появления другого события при том же испытании. Пример. Возможно совместное появление орла и цифры при одном бросании двух монет. Определение 9. События A i называются равновозможными в данном испытании, если в силу симметрии есть основание считать, что ни одно из этих событий не является более возможным по сравнению с другими. Пример. Появление любой грани при одном бросании игральной кости является равновозможным событием (при условии, если кость сделана из однородного материала и имеет форму правильного шестигранника). Определение 10. События называются благоприятствующими (благоприятными) некоторому событию, если появление одного из этих события влечет появление данного события. Случаи, исключающие появление события, называются неблагоприятствующими этому событию. Пример. В урне имеется 5 белых и 7 черных шаров. При взятии наугад одного шара, в руках может оказаться или белый или черный шар. В данном случае появление белого шара благоприятствует 5 случаев, а появлению черного шара 7 случаев из общего количества 12 возможных случаев. Определение 11. Два единственно возможных и несовместимых событий называют противоположными друг другу. Если одно из этих событий обозначено A , то противоположное ему событие обозначают символом Ā. Пример. Попадание в цель и промах; выигрыш и проигрыш по билету лотереи - все это примеры противоположных событий. Определение 12. Если в результате какой-либо массовой операции, состоящей из n сходных между собой единичных опытов или наблюдений (испытаний), некоторое случайное событие появится m раз, то число m называют частотой случайного события, а отношение m / n называется его частостью. Пример. Среди первых 20 изделий, сошедших с конвейера, оказалось 3 изделия нестандартных (брак). Здесь число испытаний n =20, частота брака m =3, частость брака m / n = 3/20 = 0,15. Всякое случайное событие в заданных условиях имеет свою объективную возможность появления, причем у одних событий эта возможность появления больше, у других - меньше. Для количественного сравнения между собой событий по степени возможности их наступления с каждым случайным событием связывают некоторое действительное число, выражающего количественную оценку степени объективной возможности наступления данного события. Это число называют вероятностью события. Определение 13. Вероятность некоторого события есть числовая мера объективной возможности наступления этого события. Определение 14. ( Классическое определение вероятности ). Вероятностью события А называется отношение числа m случаев, благоприятствующих наступлению этого события, к числу n всех возможных случаев, т.е. Р(А) = m / n . Пример. Урна содержит 5 белых и 7 черных шаров, тщательно перемешанных. Какова вероятность того, что взятый наудачу из урны один шар окажется белым? Решение. В данном испытании имеется всего 12 возможных случаев, из них 5 благоприятствуют появлению белого шара. Поэтому вероятность появления белого шара Р=5/12. Определение 15. ( Статистическое определение вероятности ). Если при достаточно большом числе повторных испытаний по отношению к некоторому событию А будет замечено, что частость события колеблется около некоторого постоянного числа, то событие А имеет вероятность Р(А), приближенно равную частости, т.е. Р(А)~ m / n . Частость события при неограниченном числе испытаний называют статистической вероятностью. Основные свойства вероятности. 1 0 Если событие А влечет за собой событие В (А  В), то вероятность события А не превосходит вероятности события В. Р(А)≤Р(В) 2 0 Если события А и В равносильны (А  B , В  А, В=А), то их вероятности равны Р(А)=Р(В). 3 0 Вероятность любого события А не может быть отрицательным числом, т.е. Р(А)≥0 4 0 Вероятность достоверного события  равна 1. Р(  )=1. 5 0 Вероятность невозможного события  равна 0. Р(  )=0. 6 0 Вероятность любого случайного события А заключена между нулем и единицей 0<Р(А)<1 Основные формулы комбинаторики Определение 1 . Различные группы по m предметов, составленные из n однородных предметов ( m , n ), называются соединениями. Предметы, из которых составляют различные соединения, называют элементами. Существует 3 вида соединений: размещения, перестановки, сочетания. Определение 2. Размещениями по m элементов из данных n элементов ( m ≤ n ) называют такие соединения, которые отличаются друг от друга либо самими элементами, либо их порядком. Например, размещениями из трех предметов a , b и c по два будут следующие соединения: ab , ac , bc , ca , cb , ba . Число размещений из данных n элементов по m обозначают символом А n m = n ( n -1)( n -2)·....·( n - m +1). Пример. А 10 4 =10·9·8·7=5040. Определение 3. Перестановками из n элементов называют такие соединения, которые отличаются друг от друга только порядком элементов. Р n =А n n = n ( n -1)( n -2)...·3·2·1= n ! По определению 0!=1. Пример. Р 5 =5!=1·2·3·4·5=120. Определение 4. Сочетаниями из n элементов по m называются также соединения, которые отличаются друг от друга, по меньшей мере, одним элементом и каждое из которых содержит m различных элементов: C n m === Пример. Найти число сочетаний из 10 элементов по четыре. Решение. C 10 4 ==210. Пример. Найти число сочетаний из 20 элементов по 17. Решение. ==1040. Теоремы теории вероятностей Теорема сложения вероятностей Теорема 1 . Вероятность наступления одного какого-либо события из двух несовместимых событий А и В равно сумме вероятностей этих событий Р(А+В)=Р(А)+Р(В ). Пример. В урне 5 красных, 7 синих и 8 белых шаров, перемешанных между собой. Какова вероятность того, что взятый наугад один шар окажется не красным? Решение. Не красный шар - это или белый или синий шары. Вероятность появления белого шара (событие А) равна Р(А)= 8/20 = 2/5. Вероятность появления синего шара (событие В) равна Р(В)= 7/20. Событие, состоящее в появлении не красного шара, означает появление или А или В, т.к. события А и В несовместимы, то применима теорема 1. Искомая вероятность будет равна Р(А+В)=Р(А)+Р(В)=2/5+ +7/20=3/4. Теорема 2. Вероятность наступления одного из двух событий A или B равно сумме вероятностей этих событий минус вероятность их совместного появления P ( A + B )= P ( A )+ P ( B )+ P ( AB ). Теорема умножения вероятностей Определение 1. Два события A и B называются независимыми друг от друга, если вероятность одного из них не зависит от наступления или ненаступления другого. Пример. Пусть A - событие, состоящее в появлении герба при первом бросании монеты, а B - событие, состоящее в появлении герба при втором бросании монеты, то события A и B не зависят друг от друга, т.е. результат первого бросания монеты не может изменить вероятность появления герба при втором бросании монеты. Определение 2. Два события A и B называются зависящими друг от друга, если вероятность одного из них зависит от наступления или ненаступления другого. Пример. В урне 8 белых и 7 красных шаров, перемешанных между собой. Событие A - появление белого шара, а событие B - появление красного шара. Будем брать из урны наугад два раза по одному шару, не возвращая их обратно. До начала испытания вероятность появления события A равна P ( A )=8/15, и вероятность события B равна P ( B )=7/15. Если предположить, что в первый раз был взят белый шар (событие A ), то вероятность появления события B при втором испытании будет P ( B )=7/14=1/2. Если в первый раз был взят красный шар, то вероятность появления красного шара при втором извлечении равна P ( B )=6/14=3/7. Определение 3. Вероятность события B , вычисленная в предположении, что перед этим наступило связанное с ним событие A , называется условной вероятностью события B и обозначается PA ( B ). Теорема 3 . Вероятность совместного наступления двух зависимых событий ( A и B ) равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие произошло, т.е. P ( AB )= P ( A )· P A ( B )= P ( B )· P B ( A ). Теорема 4. Вероятность совместного наступления нескольких зависимых событий равно произведению вероятности одного из них на условные вероятности всех остальных событий, вычисленные в предположении, что все предыдущие события уже наступили: P(A 1 A 2 A 3 ...A k )=P(A 1 )·P A1 (A 2 )·P A1A2 ·P(A 3 )...·P A1A2…A k-1 (A k ) Теорема 5 . Вероятность совместного наступления двух независимых событий A и B равна произведению вероятностей этих событий P ( AB )= P ( A )· P ( B ). Теорема 6 . Вероятность совместного наступления нескольких независимых событий A 1 , A 2 , ... A k равна произведению их вероятностей, т.е. P ( A 1 A 2 ... A k )= P ( A 1 )· P ( A 2 )·...· P ( A k ). Пример. Два стрелка делают одновременно по одному выстрелу в одну цель. Какова вероятность того, что оба попадут, если известно, что первый стрелок в среднем дает 7 попаданий, а второй 8 попаданий на каждые 10 выстрелов? Какова вероятность поражения мишени? Решение. Вероятность попадания первого стрелка (событие A ) равна P ( A )=0,8, вероятность попадания второго стрелка (событие B ) равна P ( B )=0,7. События A и B независимы друг от друга, поэтому вероятность совместного наступления этих событий (совместное попадание в цель) найдем по теореме умножения для независимых событий: P ( AB )= P ( A ) P ( B )=0,8·0,7=0,56. Вероятность поражения мишени означает попадание в мишень хотя бы одного стрелка. Так как попадание в мишень первого и второго стрелков являются событиями совместными, то применение теоремы сложения вероятностей для совместных событий дает следующий результат: P(A+B)=P(A)+P(B)-P(AB)=P(A)+P(B)-P(A)·P(B)=0,8+0,7- 0,8·0,7=0,94. 5.3.3. Формула полной вероятности Определение 4. Если при некотором испытании может произойти одно какое-либо событие из нескольких несовместных A 1 , A 2 ,..., A k , и при этом никаких других событий быть не может, но одно из указанных событий обязательно произойдет, то группу событий A 1 , A 2 ,..., A k называют полной группой событий. Теорема 7. Сумма вероятностей событий, образующих полную группу, равна единице: P ( A 1 )+ P ( A 2 )+...+ P ( A k )=1. Следствие. Сумма вероятностей двух противоположных событий равна единице: P ( A )+ P ( A )=1. Если вероятность одного события обозначим через p , вероятность противоположного ему события обозначим через q , тогда p + q =1. Пример. Вероятность попадания в цель равна 0,94. Найти вероятность непопадания. Решение . Попадание в цель и непопадание являются противоположными событиями, поэтому, если p =0,94, то q =1- p =1-0,94=0,06. Теорема 8 . Если случайные события A 1 , A 2 ... A n образуют полную систему, и если событие B может осуществляться только совместно с каким-нибудь одним из этих событий, то вероятность наступления события B можно определить по формуле: P(B)=P(A 1 )P A1 (B)+P(A 2 )P A2 (B)+...+P(A n )P A n (B) Это равенство называется формулой полной вероятности . Пример. На склад готовой продукции поступили изделия из трех цехов, в том числе: 30% из I -го цеха, 45% из II цеха и 25% из III цеха. Среди изделий I цеха брак составляет 0,6%, по II цеху 0,4% и по III цеху-0,16%. Какова вероятность того, что взятое наугад для контроля одно изделие окажется с браком? Решение. Одно изделие может быть взято или из продукции I цеха (событие A 1 ), или из продукции II цеха (событие A 2 ), или из продукции III цеха (событие A 3 ). Вероятности этих событий будут: P ( A 1 )=0,30; P ( A 2 )=0,45; P ( A 3 )=0,25. Вероятность того, что изделие с браком (событие B ) будет взято из продукции I цеха, есть условная вероятность P A 1 ( B ). Она равна P A 1 ( B )=0,006. Вероятность того, что изделие с браком будет взято из продукции II цеха P A 2 ( B )=0,004 и из продукции III цеха P A 3 ( B )=0,0016. Теперь по формуле полной вероятности найдем вероятность того, что взятое наугад одно изделие будет с браком: P(B)=P(A 1 )P A1 (B)+P(A 2 )P A2 (B)+...+P(A 3 )P A3 (B) = 0,3·0,006+0,45·0,004+0,25·0,0016=0,004. Формула Бернулли Теорема 9. Пусть производится n независимых повторных испытаний по отношению к некоторому событию A . Пусть вероятность появления этого события в каждом отдельном испытании остается неизменно равной p , а вероятность появления противоположного события Ā, есть q . Тогда вероятность появления интересующего нас события A равно m раз при указанных n испытаниях рассчитывается по формуле Бернулли: P m , n = p m q n - m , так как, то P m , n = · p m · q n - m Пример. Коэффициент использования станка в среднем равен 0,8. В цехе имеется 5 станков. Какова вероятность того, что в некоторый момент времени окажутся работоспособными только 3 станка? Решение. Задача подходит под схему повторных испытаний и решается по формуле Бернулли: n =5, m =3, p =0,8 и q =1-0,8=0,2: P 3,5 = (0,8) 3 ·(0,2) 2 =0,2084. Асимптотическая формула Пуассона В статистической практике нередко встречаются такие примеры независимых испытаний, когда при большом числе n независимых испытаний вероятность Р появления события в каждом отдельном испытании оказывается сравнительно малой величиной, стремящейся к нулю с увеличением числа испытаний . При этих условиях для вычисления вероятности Р m , n появление события m раз в n испытаниях пользуются асимптотической формулой Пуассона : Р m,n ≈e -a , где a=np Пример. Доля брака всей продукции завода составляет 0,5%. Какова вероятность того, что в партии, состоящей из 400 изделий, окажется три изделия бракованных? Решение. В условии примера дано p =0,005, n =400, m =3, следовательно, a = np =400·0,005=2. Вероятность данного события найдем по формуле Пуассона Р m , n (3,400) = 0,1804. Случайные величины и их числовые характеристики Определение 1. Случайной величиной называется переменная величина, которая в результате опыта принимает одно значение, причем неизвестно заранее, какое именно. Определение 2. Дискретной называется случайная величина, которая может принимать лишь отдельные, изолированные друг от друга значения. Случайная дискретная величина задается законом распределения, связывающим принимаемые ею значения x i и вероятности их принятия p i . Закон распределения чаще всего задается в табличной форме. Графическое представление закона распределения случайной дискретной величины – многоугольник распределения . Числовые характеристики дискретной случайной величины. 1) Математическое ожидание. Определение 3. Математическое ожидание случайной дискретной величины X с конечным числом значений называется сумма произведений возможных ее значений на их вероятности: M ( X ) = μ = x 1 p 1 + x 2 p 2 +...+ x n p n = . Вероятности всех значений случайной дискретной величины удовлетворяют условию нормировки: Свойства математического ожидания. 1 0 Математическое ожидание постоянной (неслучайной) величины С равно самой постоянной M ( C )= C . 2 0 Математическое ожидание алгебраической суммы нескольких случайных величин равно алгебраической сумме математических ожиданий слагаемых M ( X 1 ± X 2 ±...± X n ) = M ( X 1 ) ± M ( X 2 ) ±…± M ( X n ). 3 0 Константу можно вынести за знак математического ожидания M ( CX )= CM ( X ). 4 0 Математическое ожидание произведения нескольких независимых случайных величин равно произведению математических ожиданий этих величин: M ( X 1 X 2 ... X n ) = M ( X 1 ) M ( X 2 )... M ( X ) n . 2) Дисперсия дискретной случайной величины. Определение 4. Дисперсией случайной дискретной величины X называется математическое ожидание квадрата отклонения этой величины от ее математического ожидания. D ( X ) = M {[ X - M ( X )] 2 } = , где M ( X ) = μ Для вычисления дисперсии более удобна формула: D ( X )= M ( X 2 )-[ M ( X )] 2 , т.е. дисперсия случайной величины равна разности между математическим ожиданием квадрата этой величины и квадратом ее математического ожидания. Свойства дисперсии. 1 0 Дисперсия постоянной величины равна нулю D (С) = 0. 2 0 Постоянный множитель можно выносить за знак дисперсии, предварительно возведя его в квадрат: D ( CX ) = C 2 D ( X ). 3 0 Дисперсия суммы нескольких независимых случайных величин равна сумме дисперсий этих величин: D ( X 1 +...+ X n ) = D ( X 1 )+...+ D ( X n ). 4 0 Дисперсия разности двух независимых случайных величин равна сумме дисперсий этих величин D ( X - Y )= D ( X )+ D ( Y ). 3). Среднее квадратическое отклонение Определение 5 . Средним квадратическим отклонением случайной величины называется квадратный корень из дисперсии σ ( X )=. Пример. Найти математическое ожидание и дисперсию случайной величины X , которая задана следующим законом распределения: Решение. Найдем математическое ожидание: M ( x )=1·0,3+2·0,5+5·0,2=2,3. Найдем все возможные значения квадрата отклонения. [ x 1 - M ( x )] 2 =(1-2,3) 2 =1,69 [ x 2 - M ( x )] 2 =(2-2,3) 2 =0,09 [ x 3 - M ( x )] 2 =(5-2,3) 2 =7,29 Напишем закон распределения квадрата отклонения Найдем дисперсию: D ( x )=1,69·0,3+0,09·0,5+7,29·0,2=2,01. Числовые характеристики непрерывной случайной величины. Определение 6. Непрерывной называют случайную величину, которая может принимать все значения из некоторого конечного или бесконечного промежутка. Определение 7. Интегральной функцией распределения называют функцию F ( x ), определяющую для каждого значения x вероятность того, что случайная величина X примет значение меньше x , т.е. F ( x )= P ( X < x ). Свойства интегральной функции распределения 1 0 Значения интегральной функции распределения принадлежат отрезку 0≤ F ( x ) ≤1. 2 0 Функция распределения есть неубывающая функция. Следствие 1. Вероятность того, что случайная величина X попадет в интервал ( a , b ), равна приращению ее интегральной функции распределения на этом интервале P ( a < x < b )= F ( b )- F ( a ). Следствие 2. Вероятность того, что случайная непрерывная величина X примет одно определенное значение равна нулю P ( X = x 1 )=0. 3 0 Если возможные значения случайной величины X принадлежат интервалу ( a , b ), то F ( x )=0 при x ≤ a и F ( x )=1 при x ≥ a . Определение 8. Дифференциальной функцией распределения f ( x ) (или плотностью вероятности) называется производная от интегральной функции f ( x )= F "( x ). Интегральная функция является первообразной для дифференциальной функции, поэтому вероятность того, что случайная непрерывная величина x примет значение, принадлежащее интервалу ( a , b ), определяется равенством: P ( a < x < b )== F ( b )- F ( a )Зная дифференциальную функцию, можно найти функцию распределения: F ( x )= Свойства дифференциальной функции распределения 1 0 Дифференциальная функция распределения есть функция неотрицательная f ( x ) ≥0 2 0 Несобственный интеграл от дифференциальной функции распределения равен единице (условие нормировки): . 1) Математическое ожидание. Математическим ожиданием случайной непрерывной величины X , возможные значения которой прина д лежат отрезку ( a , b ), называется опр е деленный интеграл: M ( X ) = , где f ( x )-плотность вероятности случайной величины X . 2) Дисперсия. Дисперсия непрерывной случайной величины X есть математическое ожидание квадрата отклонения зтой величины от ее математического жидания D(X) = M{ 2 }.Следовательно, если возможные значения случайной величины X принадлежат отрезку ( a ; b ), то D ( x )= или D ( x )= 3) Среднее квадратическое отклонение определяется так: σ ( x ) = Пример. Найти дисперсию случайной величины X , заданной интегральной функцией F ( x )= Решение. Найдем дифференциальную функцию: f ( x )= F ’ ( x )= Выислим математическое ожидание M ( x ) = . Найдем искомую дисперсию D ( x ) = = = 2/4=4/3. Вероятность попадания нормально распределенной случайной величины X в заданный интервал Определение 9. Распределение вероятностей случайной непрерывной величины X называется нормальным, если плотность вероятности описывается формулой: , где μ - математическое ожидание, σ - среднее квадратическое отклонение. Определение 10. Нормальное распределение с параметрами μ = 0, σ = 1 называется нормированным или стандартным. Плотность вероятности нормированного нормального распределения описывается следующей формулой: . Значения данной функции для неотрицательных значений затабулированы. В силу четности функции φ ( x ) значения для отрицательных чисел легко определить φ (- x )= φ ( x ). Пример. Математическое ожидание нормального распределенной случайной величины X равно μ =3 и среднее квадратическое отклонение σ =2. Написать дифференциальную функцию X . Решение. f ( x )= Если случайная величина X распределена по нормальному закону, то вероятность ее попадания в интервал ( a , b ) определяется следующим о б разом: P(a S2=DB= = , которая является несмещенной оценкой генеральной дисперсииDГ. Для оценки среднего квадратического отклонения генеральной совокупности используют "исправленное" среднее квадратическое отклонение, которое равно квадратному корню из "исправленной" дисперсии. S= Определение 14. Доверительным называют интервал (θ*-δ;θ*+δ), который покрывает неизвестный параметр с заданной надежностью γ. Доверительный интервал для оценки математического ожидания нормального распределения при известном среднем квадратическом отклоненииσ выражаются формулой: =2Ф(t)=γ гдеε=tδ/ - точность оценки. Числоt определяется из уравнения: 2Ф(t)=γ по таблицам функции Лапласа. Пример. Случайная величинаX имеет нормальное распределение с известным средним квадратическим отклонениемσ=3. Найти доверительные интервалы для оценки неизвестного математического ожиданияμ по выборочным среднимX , если объем выборкиn=36 и дана надежность оценкиγ=0,95. Решение. Найдемt из соотношения 2Ф(t)=0,95; Ф(t)=0,475. Из таблиц находимt=1,96. Найдем точность оценкиσ =tδ/=1,96·3/= 0,98. Доверительный интервал (x -0,98;x +0,98). Доверительные интервалы для оценки математического ожидания нормального распределения при неизвестномσ определяется с помощью распределения Стьюдента сk=n-1 степенями свободы: T= , гдеS - "исправленное" среднее квадратическое отклонение,n - объем выборки. Из распределения Стьюдента доверительный интервал покрывает неизвестный параметрμ с надежностьюγ: или, гдеtγ- коэффициент Стьюдента находится по значениямγ (надежности) иk (числу степеней свободы) из таблиц. Пример. Количественный признакX генеральной совокупности распределен нормально. По выборке объемаn=16 найдены выборочная средняяxB=20,2 и "исправленное среднее" квадратическое отклонениеS=0,8. Оценить неизвестное математическое ожиданиеm при помощи доверительного интервала с надежностьюγ=0,95. Решение. Из таблицы найдем:tγ=2,13. Найдем доверительные границы: =20,2-2,13·0,8=19,774 и =20,2+ +2,13·0,8/=20,626. Итак, с надежностью 0,95 неизвестный параметрμ находится в интервале 19,774<μ <20,626. .Элементы теории корреляции Определение 1. Статистической называют зависимость, при которой изменение одной из величин влечет изменение распределения другой. Определение 2. Если при изменении одной из величин изменяетсясреднее значение другой величины, то такая статистическая зависимость называется корреляционной. Пример. ПустьY-урожай зерна,X-количество удобрений. С одинаковых по площади участков земли при равных количествах внесенных удобрений снимают различный урожай, т.е.Y не является функциейX. Это объясняется влиянием случайных факторов (осадки, температура воздуха и т.д.) Вместе с тем средний урожай является функцией от количества удобрений, т.е.Y связан сX корреляционной зависимостью. Определение 3. Среднее арифметическое значение величиныY, вычисленное при условии, чтоX принимает фиксированное значение, называется условным средним и обозначается. Определение 4. Условным средним называют среднее арифметическое наблюдавшихся значенийx, соответствующихY=y. Можно составить таблицу, определяющую соответствие между значениямиxi и условными среднимиyxi, а затем в декартовой системе координат строят точкиM(xi;yxi) и соединяют их отрезками прямых. Полученная линия называется эмпирической линией регрессииY наX. Аналогично строится эмпирическая линия регрессииX наY. Если точкиMi(xi;yxi) иNi(xy;y) располагаются вдоль прямой, то линия регрессии называется линией прямой регрессии и операция "сглаживания" ломаной сводится к нахождению параметровa иb функцииy=ax+b. Из двух нормальных уравнений: находят коэффициентыa иb. ρxy=a== выборочный коэффициент регрессии признакаY наX. b== Уравнение прямой линии регрессии признакаY наX имеет вид: - =ρyx(x-). Проведя аналогичные расчеты, можно получить следующие математические выражения, характеризующие прямую регрессию признакаX наY:x=cy+d. ρyx=c= = - выборочный коэффициент регрессии признакаX наY. d= - свободный член уравнения. = - уравнение прямой линии регрессии признакаX наY. Показателем тесноты связи являетсякоэффициент корреляции, используемый только при линейной корреляции:r = =. Для решения задач удобна следующая формула: r == . В формуле для коэффициента корреляцииr = числитель дроби всегда меньше знаменателя, следовательно, коэффициент корреляции - всегда правильная дробь между нулем и единицей -1≤r≤+1. Положительное значениеr указывает на прямую связь между признаками; отрицательное - на обратную связь между ними. Данные для корреляционного анализа могут быть сгруппированы в виде корреляционной таблицы. Рассмотрим пример. Пусть проведено наблюдение двух признаков (X иY) у 15 объектов. Составлена следующая таблица первичных данных: Упорядочим первичные данные, поместив их в таблицу: В первом столбце запишем в порядке возрастания значенияxi: 8,9,10,11, а во второй строке - в том же порядке значенияyi: 18,20,24,27,30. На пересечении строк и столбцов запишем число повторений одинаковых пар (xi;yi) в ряду наблюдений. Требуется установить и оценить зависимость случайной величиныY от величиныX, используя данные корреляционной таблицы. n = 15 - объем выборки Используем формулы для корреляционных расчетов. Уравнение регрессииX наY: xy=cy +d =ρxyy+d, где ρxy=. Величина коэффициента корреляцииr=± С учетом частотnx иny формулы регрессионного анализа несколько видоизменяется: ρxy=, где; ; ; ; . .Проверка статистических гипотез. Определение 1. Статистической называют гипотезу о виде неизвестного распределения или о параметрах известных распределений. Определение 2. Нулевой (основной) называют выдвинутую гипотезуH0. Определение 3. Конкурирующей (альтернативной) называют гипотезуH1, которая противоречит нулевой. Определение 4. Статистическим критерием называют специально подобранную величину, распределение которой известно (хотя бы приближенно), которая используется для проверки статистической гипотезы. Определение 5. Критической областью называют совокупность значений критерия, при которых нулевую гипотезу отвергают. Определение 6. Областью принятия гипотезы (областью допустимых значений) называют совокупность значений критерия, при которых нулевую гипотезу принимают. Основной принцип проверки статистических гипотез: если наблюдаемое значение критерия принадлежит критической области, то нулевую гипотезу отвергают; если наблюдаемое значение критерия принадлежит области принятия гипотезы, то гипотезу принимают. Определение 7. Критическими точками (границами)kkp называют точки, отделяющие критическую область от области принятия гипотезы. Определение 8. Правосторонней называют критическую область, определяемую неравенствомK>kkp, гдеkkp>0. Определение 9. Левосторонней называют критическую область, определяемую неравенствомKk2 гдеk2>k1. Для отыскания критической области задаются уровнем значимостиα и ищут критические точки, исходя из следующих соотношений: а) для правосторонней критической областиP(K>kkp)=α; б) для левосторонней критической областиP(K<-kkp)=α; в) для двусторонней критической областиP(K>kkp)=α/2 иP(K<-kkp)=α/2. Пример. По двум независимым выборкам, объемы которыхn1=11 иn2=14, извлеченным из нормальных генеральных совокупностейX иY, найдены исправленные выборочные дисперсииSx2=0,76;Sy2=0,38. При уровне зависимостиα=0,05 проверить нулевую гипотезуH0:Д(x)=Д(y) о равенстве генеральных дисперсий, при конкурирующей гипотезе:H1:Д(x)>Д(y) Решение. Найдем отношение большой исправленной дисперсии к меньшей:Fнабл= =2. Так какH1:Д(x)>Д(y), то критическая область - правосторонняя. По таблице поα=0,05 и числам степеней свободыk1=n1-1=10;k2=n2-1=13 находим критическую точкуFкр(0,05;10,13)= 2,67. Tак какFнабл

Теория вероятностей и математическая статистика

  • Агекян Т.А. Основы теории ошибок для астрономов и физиков (2-е изд.). М.: Наука, 1972 (djvu , 2.44 M)
  • Агекян Т.А. Теория вероятностей для астрономов и физиков. М.: Наука, 1974 (djvu , 2.59 M)
  • Андерсон Т. Статистический анализ временных рядов. М.: Мир, 1976 (djvu , 14 M)
  • Бакельман И.Я. Вернер А.Л. Кантор Б.Е. Введение в дифференциальную геометрию "в целом". М.: Наука, 1973 (djvu , 5.71 M)
  • Бернштейн С.Н. Теория вероятностей. М.-Л.: ГИ, 1927 (djvu , 4.51 M)
  • Биллингсли П. Сходимость вероятностных мер. М.: Наука, 1977 (djvu , 3.96 M)
  • Бокс Дж. Дженкинс Г. Анализ временных рядов: прогноз и управление. Выпуск 1. М.: Мир, 1974 (djvu , 3.38 M)
  • Бокс Дж. Дженкинс Г. Анализ временных рядов: прогноз и управление. Выпуск 2. М.: Мир, 1974 (djvu , 1.72 M)
  • Борель Э. Вероятность и достоверность. М.: Наука, 1969 (djvu , 1.19 M)
  • Ван дер Варден Б.Л. Математическая статистика. М.: ИЛ, 1960 (djvu , 6.90 M)
  • Вапник В.Н. Восстановление зависимостей по эмпирическим данным. М.: Наука, 1979 (djvu , 6.18 M)
  • Вентцель Е.С. Введение в исследование операций. М.: Советское радио, 1964 (djvu , 8.43 M)
  • Вентцель Е.С. Элементы теории игр (2-е изд.). Серия: Популярные лекции по математике. Выпуск 32. М.: Наука, 1961 (djvu , 648 K)
  • Венцтель Е.С. Теория вероятностей (4-е изд.). М.: Наука, 1969 (djvu , 8.05 M)
  • Венцтель Е.С., Овчаров Л.А. Теория вероятностей. Задачи и упражнения. М.: Наука, 1969 (djvu , 7.71 M)
  • Виленкин Н.Я., Потапов В.Г. Задачник-практикум по теории вероятностей с элементами комбинаторики и математической статистики. М.: Просвещение, 1979 (djvu , 1.12 M)
  • Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической статистике (3-е изд.). М.: Высш. шк., 1979 (djvu , 4.24 M)
  • Гмурман В.Е. Теория вероятностей и математическая статистика (4-е изд.). М.: Высшая школа, 1972 (djvu , 3.75 M)
  • Гнеденко Б.В., Колмогоров А.Н. Предельные распределения для сумм независимых случайных величин. М.-Л.: ГИТТЛ, 1949 (djvu , 6.26 M)
  • Гнеденко Б.В., Хинчин А.Я. Элементарное введение в теорию вероятностей (7-е изд.). М.: Наука, 1970 (djvu , 2.48 M)
  • Дуб Дж.Л. Вероятностные процессы. М.: ИЛ, 1956 (djvu , 8.48 M)
  • Дэйвид Г. Порядковые статистики. М.: Наука, 1979 (djvu , 2.87 M)
  • Ибрагимов И.А., Линник Ю.В. Независимые и стационарно связанные величины. М.: Наука, 1965 (djvu , 6.05 M)
  • Идье В., Драйард Д., Джеймс Ф., Рус М., Садуле Б. Статистические методы в экспериментальной физике. М.: Атомиздат, 1976 (djvu , 5.95 M)
  • Камалов М.К. Распределение квадратичных форм в выборках из нормальной совокупности. Ташкент: АН УзССР, 1958 (djvu , 6.29 M)
  • Кассандрова О.Н., Лебедев В.В. Обработка результатов наблюдений. М.: Наука, 1970 (djvu , 867 K)
  • Кац М. Вероятность и смежные вопросы в физике. М.: Мир, 1965 (djvu , 3.67 M)
  • Кац М. Несколько вероятностных задач физики и математики. М.: Наука, 1967 (djvu , 1.50 M)
  • Кац М. Статистическая независимость в теории вероятностей, анализе и теории чисел. М.: ИЛ, 1963 (djvu , 964 K)
  • Кендалл М., Моран П. Геометрические вероятности. М.: Наука, 1972 (djvu , 1.40 M)
  • Кендалл М., Стюарт А. Том 2. Статистические выводы и связи. М.: Наука, 1973 (djvu , 10 M)
  • Кендалл М., Стюарт А. Том 3. Многомерный статистический анализ и временные ряды. М.: Наука, 1976 (djvu , 7.96 M)
  • Кендалл М., Стюарт А. Том. 1. Теория распределений. М.: Наука, 1965 (djvu , 6.02 M)
  • Колмогоров А.Н. Основные понятия теории вероятностей (2-е изд.) М.: Наука, 1974 (djvu , 2.14 M)
  • Колчин В.Ф., Севастьянов Б.А., Чистяков В.П. Случайные размещения. М.: Наука, 1976 (djvu , 2.96 M)
  • Крамер Г. Математические методы статистики (2-е изд.). М.: Мир, 1976 (djvu , 9.63 M)
  • Леман Э. Проверка статистических гипотез. М.: Наука. 1979 (djvu , 5.18 M)
  • Линник Ю.В., Островский И.В. Разложения случайных величин и векторов. М.: Наука, 1972 (djvu , 4.86 M)
  • Лихолетов И.И., Мацкевич И.П. Руководство к решению задач по высшей математике, теории вероятностей и математической статистике (2-е изд.). Мн.: Выш. школа, 1969 (djvu , 4.99 M)
  • Лоэв М. Теория вероятностей. М.: ИЛ, 1962 (djvu , 7.38 M)
  • Малахов А.Н. Кумулянтный анализ случайных негауссовых процессов и их преобразований. М.: Сов. радио, 1978 (djvu , 6.72 M)
  • Мешалкин Л.Д. Сборник задач по теории вероятностей. М.: МГУ, 1963 (djvu , 1 004 K)
  • Митропольский А.К. Теория моментов. М.-Л.: ГИКСЛ, 1933 (djvu , 4.49 M)
  • Митропольский А.К. Техника статистических вычислений (2-е изд.). М.: Наука, 1971 (djvu , 8.35 M)
  • Мостеллер Ф., Рурке Р., Томас Дж. Вероятность. М.: Мир, 1969 (djvu , 4.82 M)
  • Налимов В.В. Применение математической статистики при анализе вещества. М.: ГИФМЛ, 1960 (djvu , 4.11 M)
  • Невё Ж. Математические основы теории вероятностей. М.: Мир, 1969 (djvu , 3.62 M)
  • Престон К. Математика. Новое в зарубежной науке No.7. Гиббсовские состояния на счетных множествах. М.: Мир, 1977 (djvu , 2.15 M)
  • Савельев Л.Я. Элементарная теория вероятностей. Часть 1. Новосибирск: НГУ, 2005 (