Шрифт:
Интервал:
Закладка:
В этом случае вероятность того, что сгорит весь город, страшно мала. Ведь вероятность того, что сгорят дом А, дом B и дом С, равна произведению вероятностей пожара в них. Если она равна одной тысячной, а в городе 1000 домов, то вероятность того, что все они сгорят, равна 1/1000 в тысячной степени, это хотя и не ноль, но можно считать, что ноль. Поэтому, если выписать очень-очень много независимых полисов, то риска разориться у страховой компании практически нет. Это фундаментальная идея, которая кажется простой и очевидной, но она совершенно точно не была такой, когда появилась.
Ещё одна важная концепция, которую мы будем использовать, — это матожидание. Кто-то может называть его средним или наиболее ожидаемым результатом — это примерно взаимозаменяемые термины. Можно их немного по-разному объяснять в зависимости от того, говорим ли мы о среднем из выборки или из всей совокупности событий.
Но сначала надо таки понять, что такое случайная величина. Если мы проводим эксперимент и результат эксперимента — какое-то непредсказуемое число, то наш эксперимент выдаёт случайную величину. Ну, к примеру, если мы бросаем монету и присвоим решке 0, а орлу — 1, тогда вот мы и определили случайную величину.
Существуют дискретные (то есть прерывистые) случайные переменные, типа той, что я только что привёл в пример, — у неё могут быть только конкретные значения. Когда мы имеем дело со случайными, но вполне определёнными событиями в идеальных условиях (как, например, подбрасывание абсолютно честной монеты), вероятность происшествия — это число нужных нам исходов, делённое на число всех возможных исходов. Так, два раза бросив монету, мы получим вероятность выпадения нужных нам двух решек в виде 1/4, потому что исхода у нас четыре (решка-решка, решка-орел, орёл-решка и два орла) — и все они имеют одинаковые шансы.
Есть ещё непрерывные случайные величины, которые на некотором отрезке могут принимать любое значение. Ну вот возьмём мы, смешаем зачем-то горячий чай и холодную водку и опустим туда термометр. Кстати, его тоже изобрели в 17-м веке, и тогда концепцию температуры — для нас привычную и понятную — только-только начали применять. Вы уже догадались, что в нашем стакане с волшебным чаем температура — величина непрерывная, у неё неограниченное количество возможных значений, хотя минимальное и максимальное мы представляем неплохо.
Для дискретных случайных переменных матожидание можно обозначить греческой буквой μ (мю), и оно будет суммой всех результатов, помноженных на вероятность каждого из них.
В СЛУЧАЕ БРОСКА НАШЕЙ УСЛОВНОЙ МОНЕТЫ МАТОЖИДАНИЕ БУДЕТ РАВНО ОДНОЙ ВТОРОЙ, И РЕЗУЛЬТАТА ТОЛЬКО ДВА.
А вообще, конечно, их может быть любое число, в том числе и бесконечное. Но их можно сосчитать и узнать средневзвешенную оценку, а она и называется матожиданием. Также его называют средним арифметическим. Но чтобы его посчитать, мы должны знать точные вероятности.
Для пущей ясности возьмём обычный шестигранный кубик. Очевидно, что вероятность выпадения каждой цифры — одна шестая. Сумма всех выпадений — 1+2+3+4+5+6 = 21. Берём от каждой одну шестую, складываем вместе (или просто 21 делим на 6), получаем три с половиной. Значит, матожидание броска кубика — 3.5. Если мы много раз бросим кубик и посчитаем среднее, то получится число, близкое к 3.5. Понятно, что в случае броска одного кубика ожидать 3.5 бессмысленно, а вот в случае двух ждать семёрки — очень хорошая идея.
Кроме среднего ещё есть медиана — это когда половина результатов эксперимента больше, а половина меньше этой цифры. Она часто используется в демографии — зарплату по регионам корректнее сравнивать не среднюю, а медианную, потому что очень маленькие или очень большие зарплаты искажают реальную картину. А на медиану они не влияют.
Если нам потребуется матожидание непрерывных функций, то идея там точно такая же, но складывать надо интегралы. Слово страшное (сам его боюсь), но вообще это просто сумма площадей под графиком функции. Например, взять температуру — вероятность того, что термометр покажет у кипятка ровно 100 градусов, равна нулю, потому что он всегда может показать 100 и одну тысячную или 99.999. Таких цифр бесконечное количество, и у каждой конкретной из них вероятность равна нулю. Но можно посмотреть, например, плотность вероятности у какого-либо отрезка.
Теперь пару слов о совокупности. Мы измеряли признаки всех возможных вариантов выпадения кубика, хорошо и годно всё посчитали. Но в реальности результаты экспериментов сосчитать трудно, потому что мы гораздо чаще имеем дело с выборками, а не со всей совокупностью результатов. Возьмём, например, дерево. Хотим мы оценить количество его листьев, берём 5 веток и считаем на них среднее количество листьев. Потом умножаем их на количество веток, и у нас получится примерная (но неплохая) оценка количества листьев на дереве.
Так вот, реальное среднее количество листьев на ветке мы не знаем, а лишь приблизительно определили из пяти наших веток. Его принято обозначать не иксом, а иксом с чертой, и оно тем ближе к иксу, чем ближе количество отобранных нами веток к количеству веток на всём дереве. Если мы возьмём несколько отличающихся веток (а не только самые длинные, например), то наша выборка будет лучше отражать свойства всего дерева. Так и с людьми — если в исследуемой группе есть представители разных городов, профессий, возрастов, то выводы будут точнее и вернее, чем если опросить только вечно пьяных студентов МИРЭА.
В Америке был интересный казус с репрезентативностью выборки, когда журнал «Литерари Дайджест» опросил аж 10 миллионов человек насчёт выборов президента. Это огромное количество респондентов: для достоверной статистики хватило бы 2–3 тысячи правильно собранных ответов. Журнал предсказал победу республиканцу Альфу Лэндону со значительным перевесом (60 на 40), а выборы выиграл демократ Франклин Рузвельт — как раз с таким же перевесом, но в обратную сторону. Дело в том, что большинство подписчиков журнала были республиканцами, а в попытке сгладить это несоответствие журнал рассылал бюллетени по телефонным книгам. Но не учёл забавного факта: телефоны тогда были доступны только среднему и высшему классу общества, а это были в основном республиканцы.
Пока мы говорили лишь о средствах измерения основной тенденции, но ещё нам потребуется средство измерения её вариативности, иными словами, разброс её значений. Дисперсия случайной величины — это как она меняется от одного измерения до другого. Обозначается она как 02, греческая сигма в квадрате. А просто сигма — это так называемое стандартное отклонение. Это корень из дисперсии.
Дисперсия — это сумма квадратов расстояний от каждого результата до среднего, делённая на количество этих результатов. Тут плохо то, что она размерностью не совпадает с изучаемым явлением. Если мы измеряем сантиметры, то дисперсия окажется в квадратных сантиметрах. Поэтому из неё берут корень. Чтобы не лопнул мозг, вспомним про кубик, так вот для шестигранника дисперсия получается 2.92 (сами посчитаете? я вам помогу[29]), ну а корень из этого — 1.71. То есть в среднем у нас выпадает 3.5, но разброс результатов от среднего равен 1.71. Чем больше этот разброс, тем больше квадраты расстояний до среднего, тем больше дисперсия, тем сильнее наша случайная величина варьируется.