А второй закон Лапласа гласит, что частота ошибок – степенная функция от квадрата ошибки, что сейчас называется нормальным распределением, а кривая – гауссианой. Гаусс (кстати, Карл), конечно, тоже был очень развитым ребёнком, но в то время ему было 2 года от роду, и он пока плоховато ещё законы формулировал. Но он подрос и авторитетом задавил бедного Лапласа.

<p>9.4. Независимость</p>

Сейчас я хочу пробежаться по некоторым терминам – для кого-то это будет повторением, но всё равно не повредит. Вероятность чаще всего обозначается латинской буквой p (от слова probability). Это всегда число, которое лежит между нулём и единицей, ну или от нуля и до 100 %. «Pro centum» – это по-латински «поделить на сто», поэтому 100 % и есть единица. Если вероятность события – 0, это значит, что оно не может произойти. Если вероятность равна 1, то оно обязательно произойдёт. В этом основная идея.

Один из базовых принципов – это идея независимости. Вероятность обозначает шансы наступления какого-либо события. Например, результата какого-либо эксперимента вроде броска монеты. Вероятность того, что если вы подбросите монету и она упадёт орлом, равна 1/2, потому что у неё одинаковые шансы упасть орлом или решкой. Независимые эксперименты – это такие эксперименты, которые происходят – сюрприз! – вне зависимости друг от друга. Если вы бросаете монету два раза, результат первого броска никак не влияет на результат второго, и тогда мы говорим, что это независимые величины. Между ними нет никакой связи.

Один из первых принципов даёт нам правило умножения: если у вас вероятности независимые, то вероятность сразу двух этих событий будет равна произведению их вероятностей. Это не сработает, если события как-то связаны. Страховка построена на том, что в идеале страховая компания продаёт полисы на независимые события (или страхует жизни независимых друг от друга людей). Поэтому лондонский пожар – плохой пример страхового случая. Если кто-то в квартире оступился, у него лампа упала на ковёр и подожгла шторы, а потом загорелась вся квартира, другие дома от этого не сгорят, они от этого неприятного происшествия никак не зависят.

В этом случае вероятность того, что сгорит весь город, страшно мала. Ведь вероятность того, что сгорят дом А, дом B и дом С, равна произведению вероятностей пожара в них. Если она равна 1/1000, а в городе 1000 домов, то вероятность того, что все они сгорят, равна 1/1000 в тысячной степени, это хотя и не ноль, но можно считать, что ноль. Поэтому, если выписать очень-очень много независимых полисов, то риска разориться у страховой компании практически нет. Это фундаментальная идея, которая кажется простой и очевидной, но она совершенно точно не была такой, когда появилась.

<p>9.5. Ожидание мата</p>

Ещё одна важная концепция, которую мы будем использовать, – это матожидание. Кто-то может называть его средним или наиболее ожидаемым результатом – это примерно взаимозаменяемые термины. Можно их немного по-разному объяснять в зависимости от того, говорим ли мы о среднем из известной нам выборки или из всей совокупности событий.

Но сначала надо таки понять, что такое случайная величина. Если мы проводим эксперимент и результат эксперимента – какое-то непредсказуемое число, то наш эксперимент выдаёт случайную величину. Ну, к примеру, если мы бросаем монету и присвоим решке 0, а орлу – 1, тогда вот мы и определили случайную величину, она принимает значение 0 или 1 совершенно случайно.

Существуют дискретные (то есть прерывистые) случайные переменные, типа той, что я только что привёл в пример, – у неё могут быть только конкретные значения. Когда мы имеем дело со случайными, но вполне определёнными событиями в идеальных условиях (как, например, подбрасывание абсолютно честной монеты), вероятность происшествия – это число нужных нам исходов, делённое на число всех возможных исходов. Так, два раза бросив монету, мы получим вероятность выпадения нужных нам двух решек в виде 1/4, потому что исхода у нас четыре (решка-решка, решка-орёл, орёл-решка и два орла) – и все они имеют одинаковые шансы.

Есть ещё непрерывные случайные величины, которые на некотором отрезке могут принимать любое значение. Ну вот возьмём мы, смешаем зачем-то горячий чай и холодную водку и опустим туда термометр. Кстати, его тоже изобрели в XVII веке, и тогда концепцию температуры – для нас привычную и понятную – только-только начали применять. Вы уже догадались, что в нашем стакане с волшебным чаем температура – величина непрерывная, у неё неограниченное количество возможных значений, хотя минимальное и максимальное мы представляем неплохо.

Перейти на страницу:

Все книги серии Хулиномика (версии)

Похожие книги