Электронная библиотека » Алексей Марков » » онлайн чтение - страница 12


  • Текст добавлен: 23 ноября 2023, 06:36


Автор книги: Алексей Марков


Жанр: Экономика, Бизнес-Книги


Возрастные ограничения: +18

сообщить о неприемлемом содержимом

Текущая страница: 12 (всего у книги 31 страниц)

Шрифт:
- 100% +
9.1
Теория вероятности

Эта мысленная конструкция появилась в конкретный момент времени, и у нее чрезвычайно широкий спектр применения. Финансы – лишь одна из граней. Надеюсь, даже басисты все поймут, буду объяснять на пальцах. На двух.

Начну с концепции вероятности. Что это такое? Вероятность неотделима от события. Какова вероятность того, что фондовый рынок в этом году вырастет? Ну, думаю, процентов 60. Это означает, что в 60 случаях из 100 он вырастет, а в 40 – упадет или останется на том же уровне. Это примерно ясно. Если кто-то говорит, что вероятность чего-либо составляет 40 процентов, вам понятно, что это означает.

Хочу сделать акцент на том, что это не всегда было понятно. Потому что концепция родилась только в начале 16-го века, а до этого никто никогда такого слова-то не произносил. И это серьезное отличие от других областей математики: у геометрии или матанализа были средневековые и даже античные предшественники, а вот у теорвера – ничего не было.

У самого слова «вероятность» значение какое-то туманное. Люди умом вроде и понимают, что это объективная реальность, но вот сердцем принять этого не могут. Даже сейчас, спустя 400 лет после появления теории. Это много раз демонстрировали всякие исследования. Например, если спросить человека, какую ставку он готов сделать на бросок монеты, он поставит больше денег, если монету бросает он сам или если она еще не брошена. Ну, то есть ее можно же бросить и накрыть рукой, и только после этого спросить, сколько он ставит, пять рублей или десять. И человек меньше ставит денег в таком случае. С чего бы это?

Он интуитивно считает, что есть какие-то магические силы внутри, которые будто бы могут повлиять на то, что выпадет. Со стороны это слушать довольно смешно, но представьте себя в этой ситуации, и вы поймете, что вам не нравится делать ставку на уже брошенную монету.

А базовая мысль теорвера в том, что нет, не получится изменить это событие. Есть объективные законы, которые управляют миром. Большинство языков имеют разные слова для обозначения удачи и риска – но, что характерно, по-английски «фортуна» – fortune – означает в том числе и богатство. «Удача», тем не менее, рассказывает нечто о человеке – ну, типа, «я удачливый, и мне благоволит вселенная», или бог или сотона, или «сегодня выдался удачный день». А теория вероятности – это шаг в противоположную, неприятную для многих сторону. Тут есть математически выверенные закономерности.

Есть такой канадский чел, Иэн Хэкинг, который занимался историей теории вероятности; он прошерстил мировую литературу насчет употребления термина «вероятность» и не нашел ничего раньше 1600 года. Там огромный прыжок произошел в 17-м веке, и после него стало даже как-то модно думать о вещах в парадигме вероятности, это распространилось по всему миру. Но до этого времени термин не употреблялся. Этот канадец нашел некоторых людей, у которых были мысли в правильную сторону, но они их не публиковали.

Почему? Потому что люди, которые в этом хоть что-то соображали, все умные мысли держали при себе. Ведь они были игроками, а теория вероятности очень полезна, если вы играете в азартные игры. Хэкинг предполагает, что основные концепции некоторым были известны, но их хранили в секрете и даже не записывали.

Но если у вас нет четкой теории, нельзя ничего спрогнозировать. А если нет жестких рамок и формул, не получится сделать аккуратный расчет. И вот в 17-м веке эту теорию начали наконец записывать.

9.2. Подстрахуй

Напомню, что в 1600-х годах люди научились составлять актуарные таблицы. Это такие таблицы, где указана ожидаемая продолжительность жизни для данного возраста и пола. Люди начали собирать данные о смертности и делать вот эти актуарные расчеты, где оценивалась вероятность дожития человека до определенного возраста. И на этом уже строили тарифы на страхование.

Хотя в некотором виде страхование присутствовало еще в Древнем Риме. У них там была похоронная страховка: можно было купить такой полис, который бы защищал семью от недостатка денег на похороны. Они тогда очень переживали насчет похорон, что не у кремлевской стены закопают или еще что. Вы скажете – ну вот же, придумали эту похоронную страховку, почему для всего остального-то не придумали? А черт его знает. Вроде бы появлялось там что-то насчет страховки от увечий на строительстве галер, но распространения не получило.

В эпоху Возрождения были кое-какие страховые контракты. Но если перевести тогдашний страховой полис на современный язык, очень трудно понять, что там имелось в виду. То есть до концепции они вроде как и догадались, но сформулировать ее по-человечески так и не смогли. Поэтому индустрии и не возникло. А появление теории вероятности как раз и позволило ее создать.

Некоторые соотносят появление страхования со знаменитым лондонским пожаром 1666 года. Весь город тогда сгорел к ебеням, и после этого люди начали покупать страховку. Но для развития страховой индустрии этот пример необычен – ведь если сгорит весь город, страховые конторы просто обанкротятся. Бизнес строится на независимых вероятностях и на сборе рисков в кучу. Но в любом случае, это было каким-никаким стартом. Хотя поговаривают, что страховые контракты появились лет на 60 раньше – в самом начале 17 века, но применялись они для морских перевозок.

Надо признать, что у страхования было трудное детство – как раз потому, что люди плоховато понимали концепцию вероятности. В голове им трудно было это удержать, как и вам сейчас. Тут много аспектов.

ЧТОБЫ ПОНЯТЬ, КАК РАБОТАЕТ ВЕРОЯТНОСТЬ,НАДО СНАЧАЛА ПОНЯТЬ,ЧТО ТАКОЕ СЛУЧАЙНОЕСОБЫТИЕ, А ИНТУИТИВНОЭТО НЕПОНЯТНО.

Многие люди думают, что они могут влиять на случайность каким-то образом. У меня есть товарищ, который думает, что чаще других выбрасывает шестерки на кубиках. Если с таким подходом браться за освоение теорвера, будет беда.

9.3. История становления

Первые задачи вероятностного характера возникли в азартных играх – в кости, в карты, в расшибалочку. Французский священник 13-го века Ришар де Фурниваль подсчитал все возможные суммы очков после броска трех костей – кому как не священнику играть в кости – и указал число способов, которыми может получиться каждая из этих сумм. Это число можно рассматривать как первую вычислимую меру ожидаемости события – по-нашему, как раз вероятности.

До Фурниваля, да и после него тоже, эту меру часто подсчитывали неверно, указывая, например, что суммы в 3 и 4 очка равновероятны. Ведь оба могут получиться как бы «только одним способом»: по результатам броска «три единицы» и «двойка с двумя единицами» соответственно. Де Фурниваль не догонял, что хотя три единицы и в самом деле получаются только одним способом: 1+1+1, двойку с двумя единицами можно выкинуть целыми тремя способами: 1+1+2, 1+2+1 и 2+1+1, так что эти события вовсе не равновероятны. Сумма в четыре очка выпадает в три раза чаще, хотя это тоже случается редко, в среднем лишь каждый 72-й бросок. Аналогичные ошибки неоднократно встречались и в дальнейшей истории. Самое странное (для меня, по крайней мере): почему никому не пришло в голову кинуть кубики много-много раз и записать результаты? Лишний раз напомню: очевидное не всегда очевидно.

Экстравагантный математик 16-го века Джероламо Кардано прославился тем, что вылечился от импотенции, после чего родил троих детей. Сильно впечатлился, стал и сам врачевать, а так как человеком был умным и странным, лечил он хорошо и нажил себе множество недругов. Его сын тоже прославился, так как дико отравил свою жену, из-за чего папаша окончательно свихнулся, составил гороскоп Иисуса Христа и попал в застенки инквизиции. Посвятил анализу игры содержательную книженцию «Книга об игре в кости» (1526 год, опубликована посмертно).

Кардано провел уже безошибочный анализ для значений суммы очков трех костей и указал для разных событий ожидаемое значение доли «благоприятных» событий: например, при бросании 3 кубиков доля случаев, когда значения всех трех совпадают, равна 6/216 или 1/36. Вроде бы и очевидно, что их всего шесть – три единицы, три двойки, ну и так далее, всего 6 граней, но до этого (да и после) какие-то были проблемы у людей с этой концепцией.

Именно Джероламо Кардано предложил формулировку вероятности – что это число благоприятных исходов, деленное на число всех возможных исходов. Кардано сделал еще одно весьма проницательное замечание: при небольшом числе игр реальное количество исследуемых событий может сильно отличаться от теоретического, но чем больше игр в серии, тем это различие меньше. По существу, Кардано вплотную подошел к понятию вероятности и заявил о законе больших чисел.

Голландец Кристиан Гюйгенс[37]37
  На самом деле читается «Хуенс».


[Закрыть]
был довольно продвинутый чел: в 17-м веке знал 5 языков, играл на скрипке, лютне и клавесине, в 13 лет построил себе токарный станок. В 13 лет! У нас дети вон ходят на коньки или в бассейн, в лучшем случае – на изо, а Гюйгенс, он вот ходил в станкостроительный кружок.

Он еще наловчился вырезывать из стекла линзы и их тряпочкой шлифовать, после чего собрал окуляр для телескопа и обнаружил кольца Сатурна[38]38
  Галилей их тоже обнаружил, но так и не понял, что это такое, а Гюйгенс – он понял.


[Закрыть]
, изобрел маятниковые часы и – внимание – диапроектор, чтобы дичайше смотреть «Ну, погоди!» на слайдах. Часы его конструкции были точны и недороги и быстро распространились по всему миру. Гюйгенс же и написал первую книгу о вероятности. Такой был замечательный голландец, ну вы понимаете, что ему там послужило вдохновением.

А дальше вот что происходит: развивается геодезия, астрономия и стрельба, например. И теория вероятностей начинает применяться в теории ошибок наблюдений, как ложатся пули вокруг мишени. И тут надо сказать про Лапласа, Пьера-Симона. Он опубликовал два закона распределения частотности ошибок, и второй из них называют гауссовым распределением. Дело в том, что большинство случайных величин из реальной жизни, таких, например, как ошибки измерений, стрельбы и прочего, могут быть представлены как анализ большого числа сравнительно малых ошибок, каждая из которых вызвана действием отдельной причины, не зависящей от остальных. Например, дрожанием руки – рука же каждый раз по-разному дергается.

А второй закон Лапласа гласит, что частота ошибок – степенная функция от квадрата ошибки, что сейчас называется нормальным распределением, а кривая – гауссианой. Гаусс (кстати, Карл), конечно, тоже был очень развитым ребенком, но в то время ему было 2 года от роду, и он пока плоховато еще законы формулировал. Но он подрос и авторитетом задавил бедного Лапласа.

9.4. Независимость

Сейчас я хочу пробежаться по некоторым терминам – для кого-то это будет повторением, но все равно не повредит.

Вероятность чаще всего обозначается латинской буквой p (от слова probability). Это всегда число, которое лежит между нулем и единицей, ну или от нуля и до 100 процентов. «Про цент» – это по-латински «поделить на сто», поэтому 100 % и есть единица. Если вероятность события – 0, это значит, что оно не может произойти. Если вероятность равна 1, то оно обязательно произойдет. В этом основная идея.

ОДИН ИЗ БАЗОВЫХ ПРИНЦИПОВ – ЭТО ИДЕЯ НЕЗАВИСИМОСТИ. ВЕРОЯТНОСТЬ ОБОЗНАЧАЕТШАНСЫ НАСТУПЛЕНИЯКАКОГО-ЛИБО СОБЫТИЯ.

Например, результата какого-либо эксперимента вроде броска монеты. Вероятность того, что если вы подбросите монету и она упадет орлом, равна одной второй, потому что у нее одинаковые шансы упасть орлом или решкой. Независимые эксперименты – это такие эксперименты, которые происходят – сюрприз! – вне зависимости друг от друга. Если вы бросаете монету два раза, результат первого броска никак не влияет на результат второго, и тогда мы говорим, что это независимые величины. Между ними нет никакой связи.

Один из первых принципов дает нам правило умножения: если у вас вероятности независимые, то вероятность сразу двух этих событий будет равна произведению их вероятностей. Это не сработает, если события как-то связаны. Страховка построена на том, что в идеале страховая компания продает полисы на независимые события (или страхует жизни независимых друг от друга людей). Поэтому лондонский пожар – плохой пример страхового случая. Если кто-то в квартире оступился, у него лампа упала на ковер и подожгла шторы, а потом загорелась вся квартира, другие дома от этого не сгорят, они от этого неприятного происшествия никак не зависят.

В этом случае вероятность того, что сгорит весь город, страшно мала. Ведь вероятность того, что сгорят дом А, дом B и дом С, равна произведению вероятностей пожара в них. Если она равна одной тысячной, а в городе 1000 домов, то вероятность того, что все они сгорят, равна 1/1000 в тысячной степени, это хотя и не ноль, но можно считать, что ноль. Поэтому, если выписать очень-очень много независимых полисов, то риска разориться у страховой компании практически нет. Это фундаментальная идея, которая кажется простой и очевидной, но она совершенно точно не была такой, когда появилась.

9.5. Ожидание мата

Еще одна важная концепция, которую мы будем использовать, – это матожидание. Кто-то может называть его средним или наиболее ожидаемым результатом – это примерно взаимозаменяемые термины. Можно их немного по-разному объяснять в зависимости от того, говорим ли мы о среднем из известной нам выборки или из всей совокупности событий.

Но сначала надо таки понять, что такое случайная величина. Если мы проводим эксперимент и результат эксперимента – какое-то непредсказуемое число, то наш эксперимент выдает случайную величину. Ну, к примеру, если мы бросаем монету и присвоим решке 0, а орлу – 1, тогда вот мы и определили случайную величину, она принимает значение 0 или 1 совершенно случайно.

Существуют дискретные (то есть прерывистые) случайные переменные, типа той, что я только что привел в пример, – у нее могут быть только конкретные значения. Когда мы имеем дело со случайными, но вполне определенными событиями в идеальных условиях (как, например, подбрасывание абсолютно честной монеты), вероятность происшествия – это число нужных нам исходов, деленное на число всех возможных исходов. Так, два раза бросив монету, мы получим вероятность выпадения нужных нам двух решек в виде ¼, потому что исхода у нас четыре (решка-решка, решка-орел, орел-решка и два орла) – и все они имеют одинаковые шансы.

Есть еще непрерывные случайные величины, которые на некотором отрезке могут принимать любое значение. Ну вот возьмем мы, смешаем зачем-то горячий чай и холодную водку и опустим туда термометр. Кстати, его тоже изобрели в 17-м веке, и тогда концепцию температуры – для нас привычную и понятную – только-только начали применять. Вы уже догадались, что в нашем стакане с волшебным чаем температура – величина непрерывная, у нее неограниченное количество возможных значений, хотя минимальное и максимальное мы представляем неплохо.

Для дискретных случайных переменных матожидание можно обозначить греческой буквой μ (мю), и оно будет суммой всех результатов, помноженных на вероятность каждого из них.

В СЛУЧАЕ БРОСКА НАШЕЙУСЛОВНОЙ МОНЕТЫ МАТОЖИДАНИЕ БУДЕТ РАВНО ОДНОЙ ВТОРОЙ, И РЕЗУЛЬТАТА ТОЛЬКО ДВА.

А вообще, конечно, их может быть любое число, в том числе и бесконечное. Но их можно сосчитать и узнать средневзвешенную оценку, а она и называется матожиданием. Также его называют средним арифметическим. Но чтобы его посчитать, мы должны знать точные вероятности событий.

Для пущей ясности возьмем обычный (честно и точно сделанный) шестигранный кубик. Очевидно, что вероятность выпадения каждой цифры – одна шестая, граней ведь шесть. Сумма всех выпадений равна 1+2+3+4+5+6 = 21. Берем от каждой одну шестую (надеюсь, сможете сами?), складываем вместе (или просто 21 делим на 6), получаем три с половиной. Значит, матожидание броска кубика – 3,5. Если мы много-много раз бросим кубик и посчитаем среднее, то получится число, очень близкое к 3,5. Понятно, что в случае броска одного кубика ожидать 3,5 бессмысленно, а вот в случае двух ждать семерки – очень хорошая идея. И чем больше раз мы бросим кубик, тем ближе среднее будет к 3,5. Его и следует ждать математически, поэтому оно и называется матожидание.

Кроме среднего еще есть медиана – это когда половина результатов эксперимента больше, а половина меньше этой цифры. Она часто используется в демографии. Например, зарплату по регионам корректнее сравнивать не среднюю, а медианную, потому что очень маленькие или (чаще) очень большие зарплаты, даже если таких всего несколько, заметно искажают реальную картину. А на медиану они не влияют.

Если нам потребуется матожидание непрерывных функций, то идея там точно такая же, но складывать надо интегралы. Слово страшное (сам его боюсь), но вообще это просто сумма площадей под графиком функции. Например, взять температуру – вероятность того, что термометр покажет у кипятка ровно 100 градусов, равна нулю, потому что он всегда может показать 100,001 или 99,999. Таких цифр бесконечное количество, и у каждой конкретной из них вероятность равна нулю. Но можно посмотреть, например, плотность вероятности у какого-либо отрезка.

9.6. Генеральная совокупность против выборки

Теперь пару слов о совокупности. Мы измеряли признаки всех возможных вариантов выпадения кубика, хорошо и годно все посчитали. Но в реальности результаты экспериментов сосчитать трудно, потому что мы гораздо чаще имеем дело с выборками, а не со всей совокупностью результатов. Возьмем, например, дерево. Хотим мы оценить количество его листьев, берем 5 веток и считаем на них среднее количество листьев. Потом умножаем их на количество веток, и у нас получится примерная (но неплохая) оценка количества листьев на дереве.

Так вот, реальное среднее количество листьев на ветке мы не знаем, а лишь приблизительно определили из пяти наших веток. Его принято обозначать не иксом, а иксом с чертой, и оно тем ближе к иксу, чем ближе количество отобранных нами веток к количеству веток на всем дереве. Если мы возьмем несколько отличающихся веток (а не только самые длинные, например), то наша выборка будет лучше отражать свойства всего дерева. Так и с людьми – если в исследуемой группе есть представители разных городов, профессий, возрастов, то выводы будут точнее и вернее, чем если опросить только вечно пьяных студентов МИРЭА.

В Америке был интересный казус с репрезентативностью выборки, когда журнал «Литерари Дайджест» опросил аж 10 миллионов человек насчет выборов президента. Это огромное количество респондентов: для достоверной статистики хватило бы 2–3 тысячи правильно собранных ответов. Журнал предсказал победу республиканцу Альфу Лэндону со значительным перевесом (60 на 40), а выборы выиграл демократ Франклин Рузвельт – как раз с таким же перевесом, но в обратную сторону. Дело в том, что большинство подписчиков журнала были республиканцами, а в попытке сгладить это несоответствие журнал рассылал бюллетени по телефонным книгам. Но не учел забавного факта: телефоны тогда были доступны только среднему и высшему классу общества, а это были в основном республиканцы.

9.7. Дисперсия

Пока мы говорили лишь о средствах измерения основной тенденции, но еще нам потребуется средство измерения ее вариативности, иными словами, разброс ее значений. Дисперсия случайной величины – это как она меняется от одного измерения до другого. Обозначается она как σ2, греческая сигма в квадрате. А просто сигма – это так называемое стандартное отклонение. Это корень из дисперсии.

Дисперсия – это сумма квадратов расстояний от каждого результата до среднего результата, деленная на их количество. Квадратов – потому что какие-то результаты отличаются от среднего в меньшую сторону, и чтобы при складывании отрицательных отклонений сумма не уменьшалась, придумали возводить разницу в квадрат и складывать уже квадраты отклонений (которые всегда положительны).

Тут плохо то, что дисперсия размерностью не совпадает с изучаемым явлением. Если мы измеряем сантиметры, то дисперсия окажется в квадратных сантиметрах. Поэтому из нее берут корень. Чтобы не лопнул мозг, вспомним про кубик. Так вот для шестигранника дисперсия получается 2,92 (сами посчитаете? Я вам помогу[39]39
  (3,5–1)2+(3,5–2)2+(3,5–3)2+(4–3,5)2+(5–3,5)2+(6–3,5)2=17,5, делим на 6 = 2,917.


[Закрыть]
), ну а корень из этого – 1,71. То есть в среднем у нас выпадает 3,5, но разброс результатов от среднего равен 1,71. Чем больше этот разброс, тем больше квадраты расстояний до среднего, тем больше дисперсия. Чем дисперсия больше, тем сильнее наша случайная величина варьируется.

Оценивать дисперсию всей совокупности по выборке не совсем правильно. Возвращаясь к нашему примеру с деревом, разброс между количеством листьев у выбранных нами веток будет, естественно, меньше, чем у всех веток дерева. Поэтому, чтобы узнать дисперсию всей совокупности, ее делят не на n результатов, а на n-1, это называется коррекция смещения, придумал ее в 19-м веке Фридрих Бессель, ученик Гаусса.

На этом о дисперсии и оценках выборки все. Там есть, конечно, еще куча мелочей, но мы будем говорить о теорвере лишь в контексте инвестиций. Это именно та область, где нам нужен высокий доход, а вот дисперсия совершенно не нужна.

ВЫСОКОЕ МАТОЖИДАНИЕДОХОДА – ДОБРО, А ВЫСОКАЯ ДИСПЕРСИЯ – ЗЛО,ПОТОМУ ЧТО ЭТО РИСК,ТО НЕИЗВЕСТНОСТЬ.

Все финансовые теории в конечном счете стремятся получить высокий доход с минимальным риском.

Жалко, что у них ничего не получается.


Страницы книги >> Предыдущая | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 | Следующая
  • 0 Оценок: 0

Правообладателям!

Это произведение, предположительно, находится в статусе 'public domain'. Если это не так и размещение материала нарушает чьи-либо права, то сообщите нам об этом.


Популярные книги за неделю


Рекомендации