Теорема Байеса и обзор теории вероятностей. Часть 1

Обзор теоремы Байеса

Здравствуйте и вновь добро пожаловать на занятия по тем «Байесовское машинное обучение на языке Python, часть 1».

В этой статье мы рассмотрим теорему Байеса, парадокс Монти Холла, а также охватим некоторые из основных правил теории вероятностей, которые довольно часто используются в машинном обучении.

Если вы ранее изучали мои курсы по машинному или глубокому обучению, то видели, что теорема Байеса уже использовалась несколько раз. Её простейшая формулировка гласит: вероятность p(A|B) равна совместной вероятности A и B, делённой на вероятность B:

Имейтев виду, что это хотя и лишь простейшая формулировка, но всё равно оченьабстрактна, поэтому рассмотрим пример. Предположим, что A показывает,купит ли некто что-нибудь на вашем сайте или нет. Таким образом, это двоичнаяпеременная. Bже показывает, из какой страны этот потенциальный покупатель (будем считать,что сайт работает лишь в США, Канаде и Мексике). Соберём данные в таблицу,показывающую, сколько людей попадают в каждую из ячеек:

  Канада США Мексика
Покупка = 1 (купили) 20 50 10
Покупка = 0 (не купили) 300 500 200

Такимобразом, сделали покупки 20 человек из Канады, 50 человек из США и 10 человекиз Мексики. Аналогичные данные собраны и по числу людей, покупок не сделавших.Мы хотим в конце концов найти вероятность покупки с учётом страны для всехвозможных стран. Мы знаем, что она равна совместной вероятности, делённой на безусловнуювероятность страны. Сначала рассмотрим безусловную вероятность, поскольку онанесколько проще. Итак, нам нужно найти вероятность страны. Для этого мы можемиспользовать оценку максимального правдоподобия: вероятность посетителя изМексики равна числу посетителей из Мексики, делённому на общее число всехпосетителей. Так, для Мексики она равна 210/(210+550+320) = 0,19. То же самоеможно проделать и в отношении других стран, получив 0,51 для США и 0,3 дляКанады.

Теперьрассмотрим совместную вероятность. Тут может возникнуть вопрос: сколькоразличных вероятностей мы тут вычисляем? Не забывайте, что совместнаявероятность должна включать все вероятности. У нас есть два возможных вариантаответа на вопрос, сделал ли посетитель покупку, и три возможных варианта ответана вопрос, из какой он страны. В целом получается, что мы ищем 2*3 = 6вероятностей. Это можно рассматривать как «область» или «объём» пространства,для которого нужно определить значение вероятности. В общем случае совокупныйобъём является произведением всех отдельных переменных из числа возможностей:

|RV1|*|RV2|*|RV3|*...*|RVn|

Имейтев виду, что это хотя и лишь простейшая формулировка, но всё равно оченьабстрактна, поэтому рассмотрим пример. Предположим, что A показывает,купит ли некто что-нибудь на вашем сайте или нет. Таким образом, это двоичнаяпеременная. Bже показывает, из какой страны этот потенциальный покупатель (будем считать,что сайт работает лишь в США, Канаде и Мексике). Соберём данные в таблицу,показывающую, сколько людей попадают в каждую из ячеек:

  Канада США Мексика
Покупка = 1 (купили) 20 50 10
Покупка = 0 (не купили) 300 500 200

Такимобразом, сделали покупки 20 человек из Канады, 50 человек из США и 10 человекиз Мексики. Аналогичные данные собраны и по числу людей, покупок не сделавших.Мы хотим в конце концов найти вероятность покупки с учётом страны для всехвозможных стран. Мы знаем, что она равна совместной вероятности, делённой на безусловнуювероятность страны. Сначала рассмотрим безусловную вероятность, поскольку онанесколько проще. Итак, нам нужно найти вероятность страны. Для этого мы можемиспользовать оценку максимального правдоподобия: вероятность посетителя изМексики равна числу посетителей из Мексики, делённому на общее число всехпосетителей. Так, для Мексики она равна 210/(210+550+320) = 0,19. То же самоеможно проделать и в отношении других стран, получив 0,51 для США и 0,3 дляКанады.

Теперьрассмотрим совместную вероятность. Тут может возникнуть вопрос: сколькоразличных вероятностей мы тут вычисляем? Не забывайте, что совместнаявероятность должна включать все вероятности. У нас есть два возможных вариантаответа на вопрос, сделал ли посетитель покупку, и три возможных варианта ответана вопрос, из какой он страны. В целом получается, что мы ищем 2*3 = 6вероятностей. Это можно рассматривать как «область» или «объём» пространства,для которого нужно определить значение вероятности. В общем случае совокупныйобъём является произведением всех отдельных переменных из числа возможностей:

Каквидите, по мере добавления новых переменных она растёт по экспоненте. Этоназывается «проклятием размерности», и это очень плохо, поскольку по мереувеличения количества данных приходится проделывать всё больше вычислений ихранить всё больше данных, чтобы получить точную оценку чего-либо.

Влюбом случае продолжим и вычислим эти шесть значений. Давайте вспомним, чтообщее число посетителей равно 1080, так что вероятность того, что покупка былапроизведена, а страна покупателя Канада, равна

Повторимэто же действие для остальных пяти комбинаций:

Поставьтевидео на паузу и убедитесь, что тут всё правильно.

Обратитевнимание, что эти числа намного меньше, чем в случае безусловных вероятностей.Не забывайте, что сумма всех возможных ответов должна быть равна 1.Следовательно, если размер пространства, на котором мы определяем вероятности,возрастает по экспоненте, то действительные значения вероятностей должныуменьшаться по экспоненте, ведь они всё ещё в сумме должны давать 1. Это ещёодно следствие «проклятия размерности». В связи с тем, что компьютеры имеютлишь конечную точность (в том плане, что когда мы сохраняем 32-битную величину,то она может содержать лишь 32 бита информации), они не могут хранитьбесконечное количество значений, а потому возможна ситуация, когда все этивероятности становятся столь близкими к нулю, что компьютер их просто округляетдо нуля. Это называется проблемой обращения в машинный нуль (другое название –проблема потери значимости). Во избежание её иногда вместо вероятностей мыиспользуем их логарифмы, поскольку логарифмическая функция растёт медленнее,нежели её аргумент.

Теперьвычислим условные вероятности, используя уже найденные совместные и безусловныевероятности. Так, например, вероятность покупки посетителем из Канады равна

Можнопроделать то же самое и для остальных пяти сочетаний:

Обратитевнимание, что эти шесть величин больше не дают в сумме единицу – на самом делеони в сумме дают 3. Почему? Конечно, тут присутствует некоторая ошибкаокругления, поскольку я округлял несколько раз, но вы, если есть желание,можете вернуться назад и использовать исходные значения. Итак, почему же всумме они больше не дают 1? Потому что если страна задана, то пространствослучайных переменных состоит лишь из переменной «Покупка». То есть если страназадана, то «Страна» – больше не случайная переменная.

Теперьрассмотрим другой способ вычисления условных вероятностей. Пусть мы хотимузнать вероятность покупки в зависимости от страны. Тогда нам нужнорассматривать данные, относящиеся к заданной стране. На самом деле это легкопонять, если использовать исходные числа, а не округлённые вероятности. Так,например

Теперьрассмотрим чуть другой набор данных. Переменные остаются теми же, но числадругие:

  Канада США Мексика
Покупка = 1 (купили) 20 50 10
Покупка = 0 (не купили) 200 500 100

Вэтом случае если мы рассчитываем вероятность покупки с заданной страной, она вовсех случаях оказывается равной 0,1:

Действительно,вероятность покупки кажется независимой от страны. В математике этодействительно называется независимостью, и, как вы должны помнить, в случаенезависимых случайных переменных их совместная вероятность равна произведениювсех отдельных распределений вероятности:

Каквидим, условная вероятность, если она независима от обуславливаемой случайнойпеременной, просто становится равной безусловной вероятности.

Ипоследнее, что мы рассмотрим в нашем обзоре теоремы Байеса, – это болееподробный разбор формул, которые будут использоваться в данном курсе. Итак,если Aи B– произвольные переменные, то, как вы уже видели, можем записать:

Поменявместами Aи B,можем также записать, что

Поменявместами Aи B,можем также записать, что

Разумеется,мы можем объединить эти выражения и получить, что

поскольку они оба равны совместной вероятности. И,наконец, переписав это равенство, получим выражение для вычисления p(A|B):

поскольку они оба равны совместной вероятности. И,наконец, переписав это равенство, получим выражение для вычисления p(A|B):

Зачастуюу нас нет прямого значения p(B). Но поскольку оно равно безусловномураспределению совместной вероятности A и B, суммированному по A, то, используя теорему Байеса, мы можем выразитьсовместную вероятность через числитель приведённого выше уравнения:

Такимобразом, в конце концов у нас получается нижняя часть, делённая на нижнюючасть, суммированную по A.

Обратитевнимание, что тут подразумевается, что мы работаем с дискретнымираспределениями вероятностей. Если же мы работаем с непрерывнымираспределениями, то сумма превращается в интеграл:

Другойспособ представления – рассматривать нижнюю часть в качестве «константынормализации», гарантирующей, что сумма будет равной 1:

Другойспособ представления – рассматривать нижнюю часть в качестве «константынормализации», гарантирующей, что сумма будет равной 1:

Другимисловами, p(A|B) пропорциональноp(B|A)p(A):

Этоиногда используется, когда мы стараемся найти argmaxраспределения и нам не нужно знать фактическое значение вероятности, а лишьконкретное A,дающее максимальную вероятность:

Этоиногда используется, когда мы стараемся найти argmaxраспределения и нам не нужно знать фактическое значение вероятности, а лишьконкретное A,дающее максимальную вероятность:

Есливы проходили мой курс по машинному обучению с учителем, то видели всё это вконтексте байесовского классификатора, когда y представляет класс, а x – данные:

Приэтом p(x|y) называетсягенеративным распределением, поскольку показывает, как выглядят входныепризнаки для конкретного класса y, который уже задан.

Обратите внимание, что хотя в байесовском классификаторе используется теорема Байеса, мы не прибегали к байесовской статистике. Существует важное различие между байесовской и не-байесовской статистикой, которое мы будем изучать на протяжении всего курса, так что под конец вы должны будете понять, в чём разница. В этом же разделе мы будем лишь знакомиться с теоремой Байеса.

Проблема простой вероятности

Предположим,мы проводим опыт с подбрасыванием монеты, причём монета «правильная» – то есть,вероятность выпадения орла равна вероятности выпадения решки и равна 0,5.Подбрасывать монету будем 200 раз. Пусть также после 20 подбрасываний мыполучили 15 выпадений орла и 5 выпадений решки. Какое общее количествовыпадений орла мы ожидаем получить к концу опыта? Я дам вам минуту наразмышления, или вы можете поставить видео на паузу и вернуться к нему, когда увас будет ответ. Не забывайте, что всего у нас 200 подбрасываний. Какое же ожидаетсяколичество выпадений орла?

Вероятно,вы подумали о двух вариантах. Либо ожидаемое количество выпадений орла равно100, поскольку вероятность его выпадения равна 0,5. Либо вы решили, что 105,поскольку первые 15 выпадений орла уже есть, а угадать мы стараемся лишьрезультаты 180 оставшихся бросков.

Правильныйответ – действительно, 105. В связи с тем, что результаты первых 15подбрасываний уже даны, они больше не являются случайными. Следовательно, намнужно рассчитать ожидаемое значение для следующих 180 подбрасываний, равное 90выпадениям орла. Таким образом, получаем 90 + 15 = 105.

Если вы выбрали неправильный ответ, то знайте, что эта ошибка настолько распространена, что даже имеет собственное название – ошибка игрока. Ошибка состоит в том, что вы верите, что результат под конец выровняется. Другими словами, если вы играете в азартную и игру и уже проиграли несколько раз, то полагаете, что теперь у вас больше шансов на выигрыш в следующий раз. На самом же деле это не так, если результаты всех игр независимы. Не имеет значения, сколько раз вы уже проиграли – ваши шансы проиграть в следующий раз остаются теми же.

Парадокс Монти Холла

Вэтой лекции мы поговорим об известной задаче теории вероятностей, котораяпришла к нам из телешоу. Шоу называлось «Давайте заключим сделку», а еговедущего звали Монти Холл, поэтому задача и называется парадоксом Монти Холла.

Задачазаключается в следующем. Вы являетесь игроком в шоу, и вам нужно выбрать однуиз трёх дверей. За одной из дверей находится автомобиль, а за двумя другими –козы. Полагаю, вам больше хочется иметь автомобиль, а не козу. Итак, вывыбираете одну из дверей, но пока не знаете, что за ней. Пусть это будет дверь№ 1. Далее ведущий, который знает, что находится за каждой из дверей, открываетодну из тех, которую вы не выбрали. Он всегда открывает дверь, за которойнаходится коза. Предположим, он открывает дверь № 2, и за ней обнаруживаетсякоза. Вам необходимо ответить на вопрос: вы будете придерживаться предыдущеговыбора с дверью № 1 или передумаете и выберете дверь № 3?

Напервый взгляд, это глупый вопрос. Какая разница, передумать или нет, ведьвероятность автомобиля за дверью № 1, как и за дверью № 3, по-прежнему равна1/3. Однако если вы пришли именно к такому выводу, я советую поставить видео напаузу и подумать ещё немного в контексте теоремы Байеса. Я дам вам минуту наразмышления, а затем можете вернуться к видео.

Итак,в данной формулировке будем предполагать, что вначале вы выбрали дверь № 1, каки указывалось ранее. Поскольку это уже задано, можете при желании записать, нопоскольку это утверждение пришлось бы записывать в каждом выражении, я вообщеего не буду указывать. Теперь предположим, что случайная переменная C показывает, гденаходится автомобиль. С = 1 означает,что автомобиль находится за дверью № 1, а С= 2 и С = 3 – что автомобильнаходится, соответственно за дверью № 2 и дверью № 3. Введём также случайнуюпеременную H,показывающую, какую из дверей открывает Монти Холл. Не забывайте, что в нашемслучае Монти Холл открывает дверь № 2. На самом деле это не имеет значения,поскольку задача симметрична, но будем предполагать, что дверь № 2. Тогда мыможем определить эти три условные вероятности:

Приэтом p(x|y) называетсягенеративным распределением, поскольку показывает, как выглядят входныепризнаки для конкретного класса y, который уже задан.

Обратите внимание, что хотя в байесовском классификаторе используется теорема Байеса, мы не прибегали к байесовской статистике. Существует важное различие между байесовской и не-байесовской статистикой, которое мы будем изучать на протяжении всего курса, так что под конец вы должны будете понять, в чём разница. В этом же разделе мы будем лишь знакомиться с теоремой Байеса.

Проблема простой вероятности

Предположим,мы проводим опыт с подбрасыванием монеты, причём монета «правильная» – то есть,вероятность выпадения орла равна вероятности выпадения решки и равна 0,5.Подбрасывать монету будем 200 раз. Пусть также после 20 подбрасываний мыполучили 15 выпадений орла и 5 выпадений решки. Какое общее количествовыпадений орла мы ожидаем получить к концу опыта? Я дам вам минуту наразмышления, или вы можете поставить видео на паузу и вернуться к нему, когда увас будет ответ. Не забывайте, что всего у нас 200 подбрасываний. Какое же ожидаетсяколичество выпадений орла?

Вероятно,вы подумали о двух вариантах. Либо ожидаемое количество выпадений орла равно100, поскольку вероятность его выпадения равна 0,5. Либо вы решили, что 105,поскольку первые 15 выпадений орла уже есть, а угадать мы стараемся лишьрезультаты 180 оставшихся бросков.

Правильныйответ – действительно, 105. В связи с тем, что результаты первых 15подбрасываний уже даны, они больше не являются случайными. Следовательно, намнужно рассчитать ожидаемое значение для следующих 180 подбрасываний, равное 90выпадениям орла. Таким образом, получаем 90 + 15 = 105.

Если вы выбрали неправильный ответ, то знайте, что эта ошибка настолько распространена, что даже имеет собственное название – ошибка игрока. Ошибка состоит в том, что вы верите, что результат под конец выровняется. Другими словами, если вы играете в азартную и игру и уже проиграли несколько раз, то полагаете, что теперь у вас больше шансов на выигрыш в следующий раз. На самом же деле это не так, если результаты всех игр независимы. Не имеет значения, сколько раз вы уже проиграли – ваши шансы проиграть в следующий раз остаются теми же.

Парадокс Монти Холла

Вэтой лекции мы поговорим об известной задаче теории вероятностей, котораяпришла к нам из телешоу. Шоу называлось «Давайте заключим сделку», а еговедущего звали Монти Холл, поэтому задача и называется парадоксом Монти Холла.

Задачазаключается в следующем. Вы являетесь игроком в шоу, и вам нужно выбрать однуиз трёх дверей. За одной из дверей находится автомобиль, а за двумя другими –козы. Полагаю, вам больше хочется иметь автомобиль, а не козу. Итак, вывыбираете одну из дверей, но пока не знаете, что за ней. Пусть это будет дверь№ 1. Далее ведущий, который знает, что находится за каждой из дверей, открываетодну из тех, которую вы не выбрали. Он всегда открывает дверь, за которойнаходится коза. Предположим, он открывает дверь № 2, и за ней обнаруживаетсякоза. Вам необходимо ответить на вопрос: вы будете придерживаться предыдущеговыбора с дверью № 1 или передумаете и выберете дверь № 3?

Напервый взгляд, это глупый вопрос. Какая разница, передумать или нет, ведьвероятность автомобиля за дверью № 1, как и за дверью № 3, по-прежнему равна1/3. Однако если вы пришли именно к такому выводу, я советую поставить видео напаузу и подумать ещё немного в контексте теоремы Байеса. Я дам вам минуту наразмышления, а затем можете вернуться к видео.

Итак,в данной формулировке будем предполагать, что вначале вы выбрали дверь № 1, каки указывалось ранее. Поскольку это уже задано, можете при желании записать, нопоскольку это утверждение пришлось бы записывать в каждом выражении, я вообщеего не буду указывать. Теперь предположим, что случайная переменная C показывает, гденаходится автомобиль. С = 1 означает,что автомобиль находится за дверью № 1, а С= 2 и С = 3 – что автомобильнаходится, соответственно за дверью № 2 и дверью № 3. Введём также случайнуюпеременную H,показывающую, какую из дверей открывает Монти Холл. Не забывайте, что в нашемслучае Монти Холл открывает дверь № 2. На самом деле это не имеет значения,поскольку задача симметрична, но будем предполагать, что дверь № 2. Тогда мыможем определить эти три условные вероятности:

Разберёмся,почему они определены именно таким образом. Не забывайте, что вы выбрали дверь№ 1, так что если автомобиль действительно за ней, то Монти Холл откроет однуиз оставшихся дверей – можно выбирать любую, поскольку ведущий хочет показатьвам козу. Но если вы выбрали дверь № 1, а машина находится за дверью № 2, тоМонти Холл не может открыть дверь № 2, ведь он не хочет показывать вамавтомобиль. Следовательно, вероятность этого равна нулю. Аналогично, еслиавтомобиль находится за дверью № 3, то Монти Холл обязан открыть дверь № 2,поскольку это единственная оставшаяся дверь с козой.

Теперьподумаем, какую вероятность мы ищем? Мы хотим знать, придерживаться ли выборадвери № 1 или передумать и выбрать дверь № 3. То есть, мы хотим вычислитьвероятности p(C=3|H=2) и p(C=1|H=2). Сделать это мы можем, конечно же,использовав теорему Байеса. Мы знаем, что p(C=1) = p(C=2) = p(C=3) = 1/3, поскольку у нас нет никакихпредварительных данных о том, где бы мог находиться автомобиль.

Такимобразом, вероятность p(C=3|H=2) равна

Проведяаналогичный расчёт, выясним, что

Итак, получаем ответ: нужно выбрать дверь № 3, поскольку это удваивает наши шансы на победу.

Несбалансированные классы

Обсудимдругой случай, когда в дело вступает теорема Байеса. Предположим, мы создаёмклассификатор для проверки на наличие заболевания. Мы делаем анализ крови,извлекаем из него некоторые признаки и делаем вывод, заболел ли человек, укоторого взяли кровь на анализ, или нет. Кажется естественным, что мы хотимсоздать точный классификатор, ведь точность – это всегда хорошо. Но как выполагаете, какая точность может считаться хорошей? Может, 80% – это хорошаяточность? Или 90%? Или 95%?

Давайтерассмотрим интересную и к тому же весьма реалистичную ситуацию. Большинстволюдей большую часть времени здоровы ине болеют. Так что предположим, что в рассматриваемой популяции заболеваниеприсутствует лишь у 1% населения в любой заданный момент времени. В этом случаемы можем создать весьма банальную модель машинного обучения, которая бы вкаждом случае лишь давала прогноз «не болен». Другими словами, мы создаёммодель, которая на самом деле ничему не обучается, но при этом даёт верныйответ для 99% популяции! Разумеется, пользы тут будет не много. Проблема в том,что здесь нам важна не общая точность. Что же тогда важно?

Вероятностьпрогноза, что у вас есть заболевание с учётом того, что оно у вас действительноесть, называется показателем истинной положительности, то есть это p(прогноз=1|болезнь=1). Этовероятность того, что мы прогнозируем наличие болезни при её действительномналичии. В медицине это называется чувствительностью, а в сфере поискаинформации – коэффициентом попадания или откликом. Как же вычислить этувероятность? С помощью теоремы Байеса:

Итак, получаем ответ: нужно выбрать дверь № 3, поскольку это удваивает наши шансы на победу.

Несбалансированные классы

Обсудимдругой случай, когда в дело вступает теорема Байеса. Предположим, мы создаёмклассификатор для проверки на наличие заболевания. Мы делаем анализ крови,извлекаем из него некоторые признаки и делаем вывод, заболел ли человек, укоторого взяли кровь на анализ, или нет. Кажется естественным, что мы хотимсоздать точный классификатор, ведь точность – это всегда хорошо. Но как выполагаете, какая точность может считаться хорошей? Может, 80% – это хорошаяточность? Или 90%? Или 95%?

Давайтерассмотрим интересную и к тому же весьма реалистичную ситуацию. Большинстволюдей большую часть времени здоровы ине болеют. Так что предположим, что в рассматриваемой популяции заболеваниеприсутствует лишь у 1% населения в любой заданный момент времени. В этом случаемы можем создать весьма банальную модель машинного обучения, которая бы вкаждом случае лишь давала прогноз «не болен». Другими словами, мы создаёммодель, которая на самом деле ничему не обучается, но при этом даёт верныйответ для 99% популяции! Разумеется, пользы тут будет не много. Проблема в том,что здесь нам важна не общая точность. Что же тогда важно?

Вероятностьпрогноза, что у вас есть заболевание с учётом того, что оно у вас действительноесть, называется показателем истинной положительности, то есть это p(прогноз=1|болезнь=1). Этовероятность того, что мы прогнозируем наличие болезни при её действительномналичии. В медицине это называется чувствительностью, а в сфере поискаинформации – коэффициентом попадания или откликом. Как же вычислить этувероятность? С помощью теоремы Байеса:

Какправило, результаты подсчётов выкладываются в виде таблицы с четырьмявариантами: истинный положительный результат TP, ложный положительный результат FP, истинныйотрицательный TNиложный отрицательный FN. Истинный положительный результат – это когда у васесть заболевание и мы действительно прогнозируем его наличие; ложныйположительный – это когда мы прогнозируем наличие заболевания, хотя на самомделе его нет; истинный отрицательный – это когда у вас нет заболевания и мыпрогнозируем, что его нет, а ложный отрицательный – когда мы прогнозируемотсутствие заболевания, хотя на самом деле оно есть:

  Прогноз = 1 Прогноз = 0
Болезнь = 1 TP FN
Болезнь = 0 FP TN

Используямаксимум правдоподобия и результаты подсчётов в вышеприведенной таблице, можнозаписать, что показатель истинной положительности, или чувствительность, равен

Вмедицине также обычно используется показатель, который называетсяспецифичностью и является просто показателем истинной отрицательности. Как и вслучае показателя истинной положительности, он может быть вычислен как числоистинных отрицательных результатов, делённое на сумму истинных отрицательных иложных положительных:

Атеперь маленькая проверка. В области поиска информации нас интересует нестолько специфичность, сколько точность и отклик. Определение отклика ужедавалось, поэтому рассмотрим точность. Она определяется как число истинныхположительных результатов, делённое на сумму истинных положительных и ложныхположительных:

Вопросв следующем: вероятностью чего является этот показатель? Я дам вам минуту длявычислений, поэтому, пожалуйста, поставьте видео на паузу и вернитесь к нему,когда будете готовы.

Сутьв том, чтобы решать задачу с конца. «С конца» – значит выполнять ранееприведенные математические выкладки в обратном порядке:

Вопросв следующем: вероятностью чего является этот показатель? Я дам вам минуту длявычислений, поэтому, пожалуйста, поставьте видео на паузу и вернитесь к нему,когда будете готовы.

Сутьв том, чтобы решать задачу с конца. «С конца» – значит выполнять ранееприведенные математические выкладки в обратном порядке:

Каквидите, это также весьма полезный показатель – сам по себе положительныйрезультат не означает действительное наличие болезни, поскольку, как мы видим,это лишь вероятность, которая может быть меньше единицы. В таких случаях вмедицине проводят дополнительные исследования, чтобы подтвердить действительноеналичие заболевания.