STATS_FOR_SCIENCE Telegram 69
Ошибки первого и второго рода — мнемоническое правило

На сайте machinelearning.cards нашла любопытную картинку, как запомнить, что является ошибкой первого и второго рода. Несколько лет назад я путала, где какая ошибка, и приходилось каждый раз гуглить и проверять.

Ошибка I рода — false positive, то есть неверное отклонение нулевой гипотезы (например, нашли значимые различия там, где их на самом деле нет).
Ошибка II рода — false negative, не отклонили нулевую гипотезу, хотя должны (нулевая гипотеза неверна).

Эта картинка нравится графическим отражением ошибок I и II рода в буквах P и N, и на мой взгляд, сделано довольно изящно.
В комментарии скину другие способы запомнить, где какая ошибка.

Помним, что нулевая гипотеза может быть не только об отсутствии различий, но и об отсутствии связи между переменными, зависит от статистического теста.

Пишите, не путаете ли вы ошибки I и II рода, как удалось запомнить и какой из предложенных способов понравился больше.

#stats



tgoop.com/stats_for_science/69
Create:
Last Update:

Ошибки первого и второго рода — мнемоническое правило

На сайте machinelearning.cards нашла любопытную картинку, как запомнить, что является ошибкой первого и второго рода. Несколько лет назад я путала, где какая ошибка, и приходилось каждый раз гуглить и проверять.

Ошибка I рода — false positive, то есть неверное отклонение нулевой гипотезы (например, нашли значимые различия там, где их на самом деле нет).
Ошибка II рода — false negative, не отклонили нулевую гипотезу, хотя должны (нулевая гипотеза неверна).

Эта картинка нравится графическим отражением ошибок I и II рода в буквах P и N, и на мой взгляд, сделано довольно изящно.
В комментарии скину другие способы запомнить, где какая ошибка.

Помним, что нулевая гипотеза может быть не только об отсутствии различий, но и об отсутствии связи между переменными, зависит от статистического теста.

Пишите, не путаете ли вы ошибки I и II рода, как удалось запомнить и какой из предложенных способов понравился больше.

#stats

BY Статистика и R в науке и аналитике




Share with your friend now:
tgoop.com/stats_for_science/69

View MORE
Open in Telegram


Telegram News

Date: |

The group also hosted discussions on committing arson, Judge Hui said, including setting roadblocks on fire, hurling petrol bombs at police stations and teaching people to make such weapons. The conversation linked to arson went on for two to three months, Hui said. Your posting frequency depends on the topic of your channel. If you have a news channel, it’s OK to publish new content every day (or even every hour). For other industries, stick with 2-3 large posts a week. A Hong Kong protester with a petrol bomb. File photo: Dylan Hollingsworth/HKFP. While some crypto traders move toward screaming as a coping mechanism, many mental health experts have argued that “scream therapy” is pseudoscience. Scientific research or no, it obviously feels good. 1What is Telegram Channels?
from us


Telegram Статистика и R в науке и аналитике
FROM American