Модификация метода Виллемейна для оптовых и похожих рынков

 

Некоторые замечания об оптовых и похожих рынках.

 

Напомню, что одно из допущений, на которых мы основывались - независимость продаж одного дня от другого. Это очень хорошее допущение для розницы. Например, ожидаемые продажи хлеба сегодня никак не зависят от его вчерашних продаж. Такая картинка вообще характерна там, где есть достаточно большая клиентская база. Поэтому случайно выбранные три дня могут дать такой результат

 

0

1

3

0

0

2

0

0

1

1

 

такой

 

0

1

3

0

0

2

0

0

1

2

 

и даже такой

 

0

1

3

0

0

2

0

0

1

6

 

Совсем другое дело, когда мы имеем относительно немного клиентов, особенно если они покупают нечасто и помногу. в этом случае вероятность события, аналогичного третьему варианту, практически нулевая. Излагая простым языком, если у меня вчера были большие отгрузки, скорее всего сегодня будет затишье. И уж совсем фантастически выглядит вариант, когда спрос будет велик в течение нескольких дней подряд.

 

Значит, независимость продаж соседних дней в этом случае может оказаться чушью собачьей, и гораздо логичнее предположить обратное - они тесным образом связаны. Что ж, нас этим не испугаешь. Всего-то навсего мы не будем выдергивать дни совершенно случайно, мы будем брать дни, идущие подряд:

 

0

1

3

0

0

2

0

0

1

4

 

0

1

3

0

0

2

0

0

1

2

 

0

1

3

0

0

2

0

0

1

1

 

Все даже интереснее. Поскольку ряды у нас относительно короткие, нам даже не надо заморачиваться со случайной выборкой - достаточно прогнать по ряду скользящее окно размером в срок реакции, и готовая гистограмма у нас в кармане.

Но тут есть и недостаток. Дело в том, что мы получаем гораздо меньше наблюдений. Для окна в 7 дней за год можно получить 365-7 наблюдений, тогда как при случайной выборке 7 из 365 - это число сочетаний 365! / 7! / (365-7)! Считать лень, но это намного больше.

А малое число наблюдений означает ненадежность оценок, так что копите данные - они лишними не бывают!

Спасибо большое за эту информацию! Дело в том, что в своё время сам изобрёл этот метод для аналогичной ситуации, и даже не подозревал, что он уже имеет имя! :) К сожалению, оспаривать лидерство - бессмысленно, так как Виллемейн нашёл эту формулу на 10 лет раньше. ;) Единственное, я чтобы меньше терять данных для широких скользящих "окошек", когда пробегал ими, то заезжал ещё и за края - в таком случае "окно" при смещении вправо за границу данных, дополнялось таким же количеством данных у левой границы, которое было потеряно за правой:

http://upravlenie-zapasami.ru/statii/rascyot-urovnya-logisticheskogo-servisa-uroven-udovletvoreniya-sprosa-zapasami/index.html#summa

- в таком случае, число наблюдений для твоего примера будет равным 365.

Конечно, 365 или 358 - особой разницы не чувствуется, но вот когда у нас всех данных - за 3 месяца, а поставка осуществляется из расчёта на 2 месяца, то это оказывается - не лишним. Собственно для чего всё это писал - мой вопрос: сильно ли я грешу против Истины, осуществляя такую манипуляцию, которая явно не имеет никакого отношения к реальной последовательности моих данных? И если я не прав, то как сделать так, чтобы в итоговое распределение вероятностей вклад крайних данных, особенно самых свежих, которые находятся у правой границы - был не меньше центральных?

In reply to by RazVal

я понял, что ты закольцевал пространство значений :))))))

конечно жалко терять данные, но возникает вопрос. раз мы берем именно подряд идущие, то подозреваем сильную автокорреляцию. и какое тогда право мы имеем объединять результаты, разнесенные по времени по максимуму? тут как раз скорее всего они будут независимы, так что...