Иерархическое прогнозирование: текущий статус, проблемы и перспективы
Сегодня (вдохновившись сразу несколькими интересными статьями в последнем номере 2023 года International Journal of Forecasting) поговорим об иерархических прогнозах.
Иерархический прогноз предполагает, что вы прогнозируете набор временных рядов, связанных друг с другом какой-то иерархией: к примеру, общие продажи магазина и отдельно продажи по категориям (которые в сумме дают общие продажи). В такой ситуации у вас есть три простых способа построения прогноза:
- Снизу вверх: делаем прогноз низкоуровневых рядов (продаж по категориям), суммируем в верхний уровень
- Сверху вниз: делаем прогноз высокоуровневых рядов (суммарных продаж), дезагрегируем на нижний уровень (к примеру, используя веса, посчитанные по историческим данным)
- Начиная от середины: прогнозируется средний уровень иерархии, из него суммируем в верхние уровни, дезагрегируем в нижние
Почему не прогнозировать ряды просто отдельно друг от друга? Потому что почти наверняка получившиеся прогнозы будут не когерентны: для них не будут выполнены определяющиеся иерархией рядов соотношения (сумма прогнозов по категориям не будет равна прогнозу суммарных продаж!). А когерентность для иерархических прогнозов - штука очень важная.
Более сложные подходы к прогнозированию иерархических рядов подразумевают прогнозирование всех рядов, но построенное таким образом, чтобы когерентность выполнялась: таким образом мы и не теряем информацию (как в любом из простых методов), и сохраняем взаимосвязи между показателями.
Но и здесь появляются проблемы: к примеру, оказывается (см. статью), что для сохранения когерентности нужно выбирать модели, оптимальные по MSE или RMSE, но не по MAE или MAPE (или их модификациям, включая MASE). Причина проста: среднеквадратичную ошибку (MSE/RMSE) минимизирует матожидание, а сумма матожиданий равна матожиданию суммы. А MAE, к примеру, минимизируется медианой, и для медианы такое соотношение не выполняется. Вроде бы мелочь, но важная!
Другая важная мысль работы - это практически полное отсутствие исследований по интервальному прогнозированию для иерархических рядов. Сами авторы предлагают использовать копулы для получения таких прогнозов.
Собственно, это два главных вывода работы: если хотите когерентные прогнозы, оценивайте ошибки по (R)MSE, а самое перспективное направление для исследований в иерархическом прогнозировании - это интервальные прогнозы.
Теперь, кстати, лонгриды формата "читаем статьи за вас" будут обозначаться отдельным тегом #статьи для удобства поиска! :)
#лонгрид
#статьи
Сегодня (вдохновившись сразу несколькими интересными статьями в последнем номере 2023 года International Journal of Forecasting) поговорим об иерархических прогнозах.
Иерархический прогноз предполагает, что вы прогнозируете набор временных рядов, связанных друг с другом какой-то иерархией: к примеру, общие продажи магазина и отдельно продажи по категориям (которые в сумме дают общие продажи). В такой ситуации у вас есть три простых способа построения прогноза:
- Снизу вверх: делаем прогноз низкоуровневых рядов (продаж по категориям), суммируем в верхний уровень
- Сверху вниз: делаем прогноз высокоуровневых рядов (суммарных продаж), дезагрегируем на нижний уровень (к примеру, используя веса, посчитанные по историческим данным)
- Начиная от середины: прогнозируется средний уровень иерархии, из него суммируем в верхние уровни, дезагрегируем в нижние
Почему не прогнозировать ряды просто отдельно друг от друга? Потому что почти наверняка получившиеся прогнозы будут не когерентны: для них не будут выполнены определяющиеся иерархией рядов соотношения (сумма прогнозов по категориям не будет равна прогнозу суммарных продаж!). А когерентность для иерархических прогнозов - штука очень важная.
Более сложные подходы к прогнозированию иерархических рядов подразумевают прогнозирование всех рядов, но построенное таким образом, чтобы когерентность выполнялась: таким образом мы и не теряем информацию (как в любом из простых методов), и сохраняем взаимосвязи между показателями.
Но и здесь появляются проблемы: к примеру, оказывается (см. статью), что для сохранения когерентности нужно выбирать модели, оптимальные по MSE или RMSE, но не по MAE или MAPE (или их модификациям, включая MASE). Причина проста: среднеквадратичную ошибку (MSE/RMSE) минимизирует матожидание, а сумма матожиданий равна матожиданию суммы. А MAE, к примеру, минимизируется медианой, и для медианы такое соотношение не выполняется. Вроде бы мелочь, но важная!
Другая важная мысль работы - это практически полное отсутствие исследований по интервальному прогнозированию для иерархических рядов. Сами авторы предлагают использовать копулы для получения таких прогнозов.
Собственно, это два главных вывода работы: если хотите когерентные прогнозы, оценивайте ошибки по (R)MSE, а самое перспективное направление для исследований в иерархическом прогнозировании - это интервальные прогнозы.
Теперь, кстати, лонгриды формата "читаем статьи за вас" будут обозначаться отдельным тегом #статьи для удобства поиска! :)
#лонгрид
#статьи
👍4🔥3❤1
Как прогнозировать показатели, по которым пока практически нет доступных данных?
#лонгрид
#статьи
На самом деле, прогнозирование показателей, для которых пока (практически) нет истории — задача очень важная и распространенная. Новые показатели, новые ценные бумаги на рынке, новые продукты, новое что угодно ещё. Обсуждаемая сегодня статья, на основе которой мы и поговорим об этой интересной задаче, сконцентрирована как раз на продажах новых продуктов.
Предлагаемая авторами методология очень проста, но достаточно интересна и легко реализуема:
1) Берем исторические данные по продажам других продуктов (той же компании или чужих продуктов из той же сферы)
2) Кластеризуем их (авторы кластеризуют ряды просто на основе их точек, хотя на самом деле методов кластеризации для временных рядов есть много, и зачастую они работают лучше)
3) Считаем среднюю динамику продаж по каждому кластеру
4) По первым нескольким точкам, доступным для нового продукта, относим его к одному из кластеров (к тому, у которого средняя динамика максимально похожа на динамику данного продукта)
5) Прогнозируем продажи нового продукта любой моделью, используя продажи других продуктов кластера в качестве объясняющих переменных.
В работе, если честно, хватает нюансов. К примеру, вынесенные в название статьи модели машинного обучения неожиданно (на самом деле нет, с учетом размера выборок) проигрывают простой ARIMAX.
Другой нюанс ещё забавнее: авторы для измерения ошибок используют в том числе MASE — отношение MAE (средней абсолютной ошибки) данной модели к MAE наивного прогноза — и по одной из двух изучаемых выборок лучшая модель (все еще ARIMAX)… Проигрывает наивному прогнозу!
Так что вопросы есть, но сама по себе идея методологии очень интересна — и стоит того, чтобы попробовать ее реализовать и протестировать при возникновении задачи такого рода. Особенно с учетом того, что стандартный подход для прогнозирования новых переменных на практике — это нередко просто «метод пристального взгляда». Это, кстати, далеко не худшее решение, когда это взгляд опытного и хорошо понимающего фактуру человека, но помочь ему точными цифрами и хорошими аналогиями никогда лишним не будет.
#лонгрид
#статьи
На самом деле, прогнозирование показателей, для которых пока (практически) нет истории — задача очень важная и распространенная. Новые показатели, новые ценные бумаги на рынке, новые продукты, новое что угодно ещё. Обсуждаемая сегодня статья, на основе которой мы и поговорим об этой интересной задаче, сконцентрирована как раз на продажах новых продуктов.
Предлагаемая авторами методология очень проста, но достаточно интересна и легко реализуема:
1) Берем исторические данные по продажам других продуктов (той же компании или чужих продуктов из той же сферы)
2) Кластеризуем их (авторы кластеризуют ряды просто на основе их точек, хотя на самом деле методов кластеризации для временных рядов есть много, и зачастую они работают лучше)
3) Считаем среднюю динамику продаж по каждому кластеру
4) По первым нескольким точкам, доступным для нового продукта, относим его к одному из кластеров (к тому, у которого средняя динамика максимально похожа на динамику данного продукта)
5) Прогнозируем продажи нового продукта любой моделью, используя продажи других продуктов кластера в качестве объясняющих переменных.
В работе, если честно, хватает нюансов. К примеру, вынесенные в название статьи модели машинного обучения неожиданно (на самом деле нет, с учетом размера выборок) проигрывают простой ARIMAX.
Другой нюанс ещё забавнее: авторы для измерения ошибок используют в том числе MASE — отношение MAE (средней абсолютной ошибки) данной модели к MAE наивного прогноза — и по одной из двух изучаемых выборок лучшая модель (все еще ARIMAX)… Проигрывает наивному прогнозу!
Так что вопросы есть, но сама по себе идея методологии очень интересна — и стоит того, чтобы попробовать ее реализовать и протестировать при возникновении задачи такого рода. Особенно с учетом того, что стандартный подход для прогнозирования новых переменных на практике — это нередко просто «метод пристального взгляда». Это, кстати, далеко не худшее решение, когда это взгляд опытного и хорошо понимающего фактуру человека, но помочь ему точными цифрами и хорошими аналогиями никогда лишним не будет.
👍5🔥2❤1
Как агрегировать прогнозы
Давно у нас не было лонгридов на канале - надо исправляться! Сегодня поговорим об агрегировании прогнозов.
Вообще, это достаточно частая задача: как из набора разных прогнозов (разными моделями или от разных экспертов) составить один как можно более хороший прогноз.
Простых подходов несколько:
- Просто взять среднее из всех прогнозов (и, кстати, многие считают, что это едва ли не лучшее решение - потому что простое и по качеству зачастую не хуже более сложных схем)
- Взять средневзвешенное, где веса пропорциональны качеству моделей. К примеру, можно посчитать ошибку прогнозов каждой модели на исторических данных и в качестве весов взять величину, обратную к этой исторической ошибке. Ну, и отнормировать, чтобы сумма весов стала равна единице. Тоже достаточно распространённый подход.
Но есть подходы и значительно более сложные. К примеру, в одной свежей работе предлагается схема следующего вида:
1) Формируем список переменных, которые могут влиять на качество прогноза (в их число могут входить и объясняющие переменные, при помощи которым мы строим наш основной прогноз, но это не обязательно)
2) Для каждой модели / каждого эксперта оцениваем, что (из списка из предыдущего пункта) влияет на качество его прогноза
3) Зная значения "переменных качества прогноза" мы можем спрогнозировать, насколько точной будет та или иная модель / тот или иной эксперт в текущий момент, и использовать это знание для агрегации прогнозов.
Конкретно в упомянутой работе предлагается ещё более интересная идея: в каком-то смысле совместить пункты 2 и 3. Вместо того, чтобы оценивать дополнительные модели в пункте 2, можно сделать всё непараметрически: просто найти в прошлом периоды времени, максимально "похожие" на текущий (с точки зрения значения "переменных качества прогноза") и посчитать, какая в те периоды была средняя ошибка прогноза. И дальше уже агрегировать.
Результаты проверки этой процедуры на реальных данных, честно говоря, не вау, но всё же какого-то прироста точности добиться получается. А это уже неплохо!
#лонгрид
#статьи
Давно у нас не было лонгридов на канале - надо исправляться! Сегодня поговорим об агрегировании прогнозов.
Вообще, это достаточно частая задача: как из набора разных прогнозов (разными моделями или от разных экспертов) составить один как можно более хороший прогноз.
Простых подходов несколько:
- Просто взять среднее из всех прогнозов (и, кстати, многие считают, что это едва ли не лучшее решение - потому что простое и по качеству зачастую не хуже более сложных схем)
- Взять средневзвешенное, где веса пропорциональны качеству моделей. К примеру, можно посчитать ошибку прогнозов каждой модели на исторических данных и в качестве весов взять величину, обратную к этой исторической ошибке. Ну, и отнормировать, чтобы сумма весов стала равна единице. Тоже достаточно распространённый подход.
Но есть подходы и значительно более сложные. К примеру, в одной свежей работе предлагается схема следующего вида:
1) Формируем список переменных, которые могут влиять на качество прогноза (в их число могут входить и объясняющие переменные, при помощи которым мы строим наш основной прогноз, но это не обязательно)
2) Для каждой модели / каждого эксперта оцениваем, что (из списка из предыдущего пункта) влияет на качество его прогноза
3) Зная значения "переменных качества прогноза" мы можем спрогнозировать, насколько точной будет та или иная модель / тот или иной эксперт в текущий момент, и использовать это знание для агрегации прогнозов.
Конкретно в упомянутой работе предлагается ещё более интересная идея: в каком-то смысле совместить пункты 2 и 3. Вместо того, чтобы оценивать дополнительные модели в пункте 2, можно сделать всё непараметрически: просто найти в прошлом периоды времени, максимально "похожие" на текущий (с точки зрения значения "переменных качества прогноза") и посчитать, какая в те периоды была средняя ошибка прогноза. И дальше уже агрегировать.
Результаты проверки этой процедуры на реальных данных, честно говоря, не вау, но всё же какого-то прироста точности добиться получается. А это уже неплохо!
#лонгрид
#статьи
👍4🔥3❤2
Прогнозирование в экономике и модели машинного обучения
Машинное обучение и его маркетингово-привлекательная форма "ИИ" (который к ИИ в обыденном / навеянном классикой фантастики понимании не имеет никакого отношения) захватили сейчас, кажется, практически все сферы жизни. Прежде всего, конечно же, те сферы, где есть много данных: картинок в Интернете можно насобирать многие миллионы, текста (в Интернете же) мы каждый год сейчас пишем столько, сколько раньше и за век не получалось написать. Отсюда и модели, генерирующие и анализирующие текст и картинки.
А вот экономическое прогнозирование - одна из тех областей, в которых машинное обучение далеко не всегда выигрывает. Причина здесь тоже кроется в данных: нет у нас миллиона лет наблюдений за российской экономикой, и никогда не будет. Есть лет 30, во время которых экономика несколько раз катастрофически менялась, и всё! И нейронные сети по 30 точкам обучаться пока не умеют, и не факт что научатся.
В это русло - свежая статья из хорошего журнала Journal of Forecasting про прогнозирование на фондовом рынке. На недельных данных за период с 1999 по 2021 (больше тысячи точек) авторы прогнозируют цены акций отдельных компаний, входящих в SP500. Задача весьма популярная. Не менее популярен набор методов - от простой логистической регрессии до нейронных сетей. Чуть интереснее целевая переменная: прогнозируются здесь не непосредственно цены акций, а вероятность того, что та или иная акция покажет динамику лучше средней по рынку.
Результат, скажем честно, тоже не удивляет: наибольшую доходность показал портфель, составленный на основе ансамбля моделей, а среди отдельных моделей чаще всего "побеждает" старая-добрая логистическая регрессия с регуляризацией (обычно Ridge и Elastic Net). Качество прогнозов нейронных сетей разных видов (обычные feedforward и LSTM) заметно хуже.
К чему эта история? Далеко не всегда "сложнее" = "лучше". А, к сожалению, с попытками прогнозировать короткие временные ряды при помощи "ИИ", даже не сравнивая этот "ИИ" с чем-то попроще, сталкиваться приходится регулярно. Результаты, на самом деле, обычно такие же, как в этой статье. Но ведь "ИИ"! Модно же!
#лонгрид
#статьи
Машинное обучение и его маркетингово-привлекательная форма "ИИ" (который к ИИ в обыденном / навеянном классикой фантастики понимании не имеет никакого отношения) захватили сейчас, кажется, практически все сферы жизни. Прежде всего, конечно же, те сферы, где есть много данных: картинок в Интернете можно насобирать многие миллионы, текста (в Интернете же) мы каждый год сейчас пишем столько, сколько раньше и за век не получалось написать. Отсюда и модели, генерирующие и анализирующие текст и картинки.
А вот экономическое прогнозирование - одна из тех областей, в которых машинное обучение далеко не всегда выигрывает. Причина здесь тоже кроется в данных: нет у нас миллиона лет наблюдений за российской экономикой, и никогда не будет. Есть лет 30, во время которых экономика несколько раз катастрофически менялась, и всё! И нейронные сети по 30 точкам обучаться пока не умеют, и не факт что научатся.
В это русло - свежая статья из хорошего журнала Journal of Forecasting про прогнозирование на фондовом рынке. На недельных данных за период с 1999 по 2021 (больше тысячи точек) авторы прогнозируют цены акций отдельных компаний, входящих в SP500. Задача весьма популярная. Не менее популярен набор методов - от простой логистической регрессии до нейронных сетей. Чуть интереснее целевая переменная: прогнозируются здесь не непосредственно цены акций, а вероятность того, что та или иная акция покажет динамику лучше средней по рынку.
Результат, скажем честно, тоже не удивляет: наибольшую доходность показал портфель, составленный на основе ансамбля моделей, а среди отдельных моделей чаще всего "побеждает" старая-добрая логистическая регрессия с регуляризацией (обычно Ridge и Elastic Net). Качество прогнозов нейронных сетей разных видов (обычные feedforward и LSTM) заметно хуже.
К чему эта история? Далеко не всегда "сложнее" = "лучше". А, к сожалению, с попытками прогнозировать короткие временные ряды при помощи "ИИ", даже не сравнивая этот "ИИ" с чем-то попроще, сталкиваться приходится регулярно. Результаты, на самом деле, обычно такие же, как в этой статье. Но ведь "ИИ"! Модно же!
#лонгрид
#статьи
Wiley Online Library
Stock picking with machine learning
We analyze machine learning algorithms for stock selection. Our study builds on weekly data for the historical constituents of the S&P500 over the period from January 1999 to March 2021 and builds on...
👍5❤2🔥1
Иерархическое и байесовское прогнозирование: новые обзоры
#лонгрид
#статьи
В свежем номере IJF вышло сразу две очень интересные обзорные статьи.
Первая - обзор современных методов иерархического прогнозирования и согласования прогнозов. Я уже писал несколько постов про них, но тема очень новая (первые работы - 2009-2011 годы!) и актуальная (число статей в последние лет пять растёт практически экспоненциально), так что внимания она безусловно заслуживает.
В статье - обзор от первых подходов, основанных на МНК-оценках, до современных и нишевых методов, основанных на теоретико-игровых конструкциях, методах машинного обучения (в том числе мета-обучения, когда мы обучаем модель, которая будет выбирать другую модель) и совместной оценке всех показателей на основе state-space моделей.
Из неприятного: с обозначениями в работе немного беда, они прыгают, иногда появляются из ниоткуда, поэтому читать местами тяжеловато. Зато - большая часть текущего положения дел собрана в одной статье, это очень и очень ценно.
Вторая - не менее интересный обзор методов байесовского прогнозирования. В отличие от предыдущего обзора, тут достаточно детально изложены основные теоретические моменты, которые стоит знать, поэтому статья читается в чём-то проще.
Сам обзор состоит из двух частей. Сначала - в виде хронологического описания эволюции байесовского прогнозирования, затем - в виде набора конкретных кейсов из разных областей (здесь и макроэкономика, и финансы, и маркетинг)
#лонгрид
#статьи
В свежем номере IJF вышло сразу две очень интересные обзорные статьи.
Первая - обзор современных методов иерархического прогнозирования и согласования прогнозов. Я уже писал несколько постов про них, но тема очень новая (первые работы - 2009-2011 годы!) и актуальная (число статей в последние лет пять растёт практически экспоненциально), так что внимания она безусловно заслуживает.
В статье - обзор от первых подходов, основанных на МНК-оценках, до современных и нишевых методов, основанных на теоретико-игровых конструкциях, методах машинного обучения (в том числе мета-обучения, когда мы обучаем модель, которая будет выбирать другую модель) и совместной оценке всех показателей на основе state-space моделей.
Из неприятного: с обозначениями в работе немного беда, они прыгают, иногда появляются из ниоткуда, поэтому читать местами тяжеловато. Зато - большая часть текущего положения дел собрана в одной статье, это очень и очень ценно.
Вторая - не менее интересный обзор методов байесовского прогнозирования. В отличие от предыдущего обзора, тут достаточно детально изложены основные теоретические моменты, которые стоит знать, поэтому статья читается в чём-то проще.
Сам обзор состоит из двух частей. Сначала - в виде хронологического описания эволюции байесовского прогнозирования, затем - в виде набора конкретных кейсов из разных областей (здесь и макроэкономика, и финансы, и маркетинг)
👍6❤1🔥1
Векторные авторегрессии и структурные сдвиги
#лонгрид
#статьи
Интересная свежая работа о влиянии структурных сдвигов на свойства оценок и прогнозов VAR-моделей. VAR-модели - один из основный инструментов в макроэконометрике, они очень широко используются и для прогнозирования, и для целей интерпретации полученных результатов.
Довольно неожиданным результатом, как мне кажется, является состоятельность оценок коэффициентов и точечных прогнозов в присутствии структурных сдвигов в ковариационной матрице и в средних значениях переменных! Но здесь тоже есть нюанс: чтобы оценки стали состоятельными, необходимо, чтобы размер модели (число учитываемых лагов) возрастал по мере роста числа наблюдений: подходит и вариант, когда число лагов жёстко привязано к размеру выборки, и когда оптимальное число лагов выбирается на основе информационных критериев.
VAR с жёстко зафиксированным числом лагов даёт несостоятельные оценки при структурных сдвигах в среднем.
Структурными сдвигами в ковариационной матрице ошибок можно пренебречь, если она не используется для идентификации модели. Если используется (как в любимых макроэкономистами структурных VAR) - то игнорирование структурных сдвигов сделает оценки, опять же, несостоятельными. В такой ситуации предлагается оценивать ковариационную матрицу не по всей выборке, а использовать локальные оценки.
#лонгрид
#статьи
Интересная свежая работа о влиянии структурных сдвигов на свойства оценок и прогнозов VAR-моделей. VAR-модели - один из основный инструментов в макроэконометрике, они очень широко используются и для прогнозирования, и для целей интерпретации полученных результатов.
Довольно неожиданным результатом, как мне кажется, является состоятельность оценок коэффициентов и точечных прогнозов в присутствии структурных сдвигов в ковариационной матрице и в средних значениях переменных! Но здесь тоже есть нюанс: чтобы оценки стали состоятельными, необходимо, чтобы размер модели (число учитываемых лагов) возрастал по мере роста числа наблюдений: подходит и вариант, когда число лагов жёстко привязано к размеру выборки, и когда оптимальное число лагов выбирается на основе информационных критериев.
VAR с жёстко зафиксированным числом лагов даёт несостоятельные оценки при структурных сдвигах в среднем.
Структурными сдвигами в ковариационной матрице ошибок можно пренебречь, если она не используется для идентификации модели. Если используется (как в любимых макроэкономистами структурных VAR) - то игнорирование структурных сдвигов сделает оценки, опять же, несостоятельными. В такой ситуации предлагается оценивать ковариационную матрицу не по всей выборке, а использовать локальные оценки.
🔥6👍3❤1
Прогнозирование ВВП и нестандартные объясняющие переменные
#статьи
#лонгрид
Прогнозирование ВВП - тема, казалось бы, избитая, заезженная и вообще почти всё "простое", что можно было в ней сделать, уже давным-давно сделано. Сейчас усложнения чаще идут в сторону всё более сложных моделей, всё более нетривиальных данных (хотя Google Trends и новостной сентимент - тоже темы, в общем-то, давно надоевшие и заезженные) или в сторону оперативности оценок. Часто все эти направления комбинируются.
Но и простые истории всё же не закончились - вот вам свежая статья про прогнозирование ВВП, в которой авторы нашли новые переменные, которые значительно повышают качество прогнозов! И это не что-то сложное, рассчитываемое нейронными сетями по миллионам постов в соцсетях, а вполне себе прозрачные показатели:
- Отношение стоимости покупки жилья к стоимости аренды
- Отношение обязательств компаний к их располагаемым доходам
Дальше есть конечно небольшие расчётные нюансы - стоимость аренды считается суммарная за последние 10 лет, а во втором подходе используются не-финансовый не-корпоративный сектор.
Но и результаты, даже с использованием простых моделей, очень показательные, особенно на относительно больших горизонтах (3-5 лет), когда средняя ошибка прогноза оказывается вдвое(!) ниже, чем при использовании более "традиционных" объясняющих переменных.
Более того, модели с отношением стоимости покупки жилья к стоимости аренды смогли (на вневыборочных прогнозах) предсказать кризис 2007-2009 года! Чудеса да и только...
Из ограничений: данные конечно же только по США, и кончаются 2017 годом. Что там с коронакризисом и текущими событиями - непонятно.
#статьи
#лонгрид
Прогнозирование ВВП - тема, казалось бы, избитая, заезженная и вообще почти всё "простое", что можно было в ней сделать, уже давным-давно сделано. Сейчас усложнения чаще идут в сторону всё более сложных моделей, всё более нетривиальных данных (хотя Google Trends и новостной сентимент - тоже темы, в общем-то, давно надоевшие и заезженные) или в сторону оперативности оценок. Часто все эти направления комбинируются.
Но и простые истории всё же не закончились - вот вам свежая статья про прогнозирование ВВП, в которой авторы нашли новые переменные, которые значительно повышают качество прогнозов! И это не что-то сложное, рассчитываемое нейронными сетями по миллионам постов в соцсетях, а вполне себе прозрачные показатели:
- Отношение стоимости покупки жилья к стоимости аренды
- Отношение обязательств компаний к их располагаемым доходам
Дальше есть конечно небольшие расчётные нюансы - стоимость аренды считается суммарная за последние 10 лет, а во втором подходе используются не-финансовый не-корпоративный сектор.
Но и результаты, даже с использованием простых моделей, очень показательные, особенно на относительно больших горизонтах (3-5 лет), когда средняя ошибка прогноза оказывается вдвое(!) ниже, чем при использовании более "традиционных" объясняющих переменных.
Более того, модели с отношением стоимости покупки жилья к стоимости аренды смогли (на вневыборочных прогнозах) предсказать кризис 2007-2009 года! Чудеса да и только...
Из ограничений: данные конечно же только по США, и кончаются 2017 годом. Что там с коронакризисом и текущими событиями - непонятно.
👍5❤2🔥1
О точности прогнозов МВФ
#лонгрид
#статьи
Давно не было у нас лонгридов про статьи - исправляюсь! И сегодня поговорим про две статьи сразу (одну совсем свежую и одну тоже свежую, 2023 года). Обе про одно и то же - про то, насколько (не)точно МВФ делает свои прогнозы.
Собственно, неточность прогнозов - это совершенно нормальное явление, идеальных прогнозов в природе не существует. Проблемы возникают, когда прогнозы оказываются систематически смещёнными, а уж когда это прогнозы огромной организации, заведующей (в числе прочего) распределением финансовой помощи бедным странам - это может быть действительно проблемой.
История первая - про ВВП. Систематических ошибок в прогнозах и наукастах ВВП развитых стран нет! Но они есть в отношении стран развивающихся (точнее, в LIC - Low-Income Countries, странах с низкими доходами): МВФ переоценивает ВВП в случаях, когда происходит быстрое восстановление после кризиса и недооценивает, когда восстановление не столь стремительно (то есть, самые страдающие страны по мнению МВФ должны страдать ещё больше - а ведь это может влиять и на величину финансовой поддержки, и в целом на политику в отношении этих стран). Но только в отношении бедных стран. Результаты касаются только кризисных периодов, когда наукасты и прогнозы особенно важны.
Особенно сильно завышаются темпы роста в странах Латинской Америки, а эффекты некоторых экономических реформ - недооцениваются.
История вторая - про страны, которые получают кредиты на покрытие дефицита платёжного баланса (то есть, которым не хватает валюты что-то купить - опять же, это страны, находящиеся в очень тяжёлых условиях). МФВ систематически излишне пессимистичен в отношении резервов этих стран (на деле они оказываются выше прогнозов МВФ), и излишне оптимистичен в отношении величины краткосрочного внешнего долга (на деле он тоже оказывается выше прогнозов МВФ). То есть, по прогнозам МВФ, денег таким странам нужно будет больше, а возможностей взять долг у них тоже будет больше!Идеальное комбо, чтобы взять у МВФ побольше - на всякий случай .
С причинами таких смещений вопрос более сложный. Авторы тактично кивают на то, что МВФ старается быть более пессимистичным в важных вопросах (темпы роста ВВП, резервы), чтобы потом не случилась ситуация хуже ожиданий. Но вопрос на самом деле весьма нетривиальный!
#лонгрид
#статьи
Давно не было у нас лонгридов про статьи - исправляюсь! И сегодня поговорим про две статьи сразу (одну совсем свежую и одну тоже свежую, 2023 года). Обе про одно и то же - про то, насколько (не)точно МВФ делает свои прогнозы.
Собственно, неточность прогнозов - это совершенно нормальное явление, идеальных прогнозов в природе не существует. Проблемы возникают, когда прогнозы оказываются систематически смещёнными, а уж когда это прогнозы огромной организации, заведующей (в числе прочего) распределением финансовой помощи бедным странам - это может быть действительно проблемой.
История первая - про ВВП. Систематических ошибок в прогнозах и наукастах ВВП развитых стран нет! Но они есть в отношении стран развивающихся (точнее, в LIC - Low-Income Countries, странах с низкими доходами): МВФ переоценивает ВВП в случаях, когда происходит быстрое восстановление после кризиса и недооценивает, когда восстановление не столь стремительно (то есть, самые страдающие страны по мнению МВФ должны страдать ещё больше - а ведь это может влиять и на величину финансовой поддержки, и в целом на политику в отношении этих стран). Но только в отношении бедных стран. Результаты касаются только кризисных периодов, когда наукасты и прогнозы особенно важны.
Особенно сильно завышаются темпы роста в странах Латинской Америки, а эффекты некоторых экономических реформ - недооцениваются.
История вторая - про страны, которые получают кредиты на покрытие дефицита платёжного баланса (то есть, которым не хватает валюты что-то купить - опять же, это страны, находящиеся в очень тяжёлых условиях). МФВ систематически излишне пессимистичен в отношении резервов этих стран (на деле они оказываются выше прогнозов МВФ), и излишне оптимистичен в отношении величины краткосрочного внешнего долга (на деле он тоже оказывается выше прогнозов МВФ). То есть, по прогнозам МВФ, денег таким странам нужно будет больше, а возможностей взять долг у них тоже будет больше!
С причинами таких смещений вопрос более сложный. Авторы тактично кивают на то, что МВФ старается быть более пессимистичным в важных вопросах (темпы роста ВВП, резервы), чтобы потом не случилась ситуация хуже ожиданий. Но вопрос на самом деле весьма нетривиальный!
👍6❤2🔥2
Можно ли спрогнозировать точность геополитических прогнозов и как это потом использовать
#лонгрид
#статьи
Короткий ответ: можно, и очень точно! А потом, зная точность прогнозов разных экспертов, можно получить ещё более точный прогноз
А теперь длиннее! Сегодня мы рассматриваем интересную статью, посвящённую точности геополитических прогнозов. 153 участника, 10 вопросов с ответом да/нет от "кто победит на выборах: Байден или Трамп" (речь идёт о выборах 2020 года) до "запустит ли КНДР межконтинентальную баллистическую ракету в [заданный промежуток времени]". На каждый вопрос участники должны были дать ответ в виде вероятности наступления события с текстовым обоснованием, списком показателей, на которые смотрит эксперт, оценкой своей экспертности в этой области и т.д. Всего - 11 разных показателей.
Из всего этого изобилия авторы статьи формируют ряд показателей и обучают модель для предсказания точности отдельных прогнозов (прогнозирование точности прогнозов звучит конечно прекрасно!)). И эта модель оказывается очень точной! Достигнутая точность на тестовых данных: ROC AUC = 0.85, если тестовые данные - это новые эксперты; и ROC AUC = 0.96, когда в качестве тестовых данные берутся новые прогнозы тех же экспертов, которые модель видела при обучении. Очень и очень неплохо! Собственно модель тут - логистическая регрессия с регуляризацией, всё очень просто и интерпретируемо.
Точнее оказываются те эксперты, которые более уверены в своих прогнозах, верят, что их прогнозы будут близки к среднему прогнозу других экспертов, у которых в обоснованиях больше слов, ориентированных на время, и меньше - на прошлое, настоящее и связанных с определённостью. Показатели про слова получены на основе Linguistic Inquiry and Word Count dictionary, интересующиеся могут там подробнее посмотреть, что входит в каждый из этих списков.
А дальше всё просто - зная точность отдельных экспертов, можно более корректно агрегировать их прогнозы в одну цифру. И она будет заметно (и статистически значимо) точнее, чем отдельные прогнозы!
#лонгрид
#статьи
Короткий ответ: можно, и очень точно! А потом, зная точность прогнозов разных экспертов, можно получить ещё более точный прогноз
А теперь длиннее! Сегодня мы рассматриваем интересную статью, посвящённую точности геополитических прогнозов. 153 участника, 10 вопросов с ответом да/нет от "кто победит на выборах: Байден или Трамп" (речь идёт о выборах 2020 года) до "запустит ли КНДР межконтинентальную баллистическую ракету в [заданный промежуток времени]". На каждый вопрос участники должны были дать ответ в виде вероятности наступления события с текстовым обоснованием, списком показателей, на которые смотрит эксперт, оценкой своей экспертности в этой области и т.д. Всего - 11 разных показателей.
Из всего этого изобилия авторы статьи формируют ряд показателей и обучают модель для предсказания точности отдельных прогнозов (прогнозирование точности прогнозов звучит конечно прекрасно!)). И эта модель оказывается очень точной! Достигнутая точность на тестовых данных: ROC AUC = 0.85, если тестовые данные - это новые эксперты; и ROC AUC = 0.96, когда в качестве тестовых данные берутся новые прогнозы тех же экспертов, которые модель видела при обучении. Очень и очень неплохо! Собственно модель тут - логистическая регрессия с регуляризацией, всё очень просто и интерпретируемо.
Точнее оказываются те эксперты, которые более уверены в своих прогнозах, верят, что их прогнозы будут близки к среднему прогнозу других экспертов, у которых в обоснованиях больше слов, ориентированных на время, и меньше - на прошлое, настоящее и связанных с определённостью. Показатели про слова получены на основе Linguistic Inquiry and Word Count dictionary, интересующиеся могут там подробнее посмотреть, что входит в каждый из этих списков.
А дальше всё просто - зная точность отдельных экспертов, можно более корректно агрегировать их прогнозы в одну цифру. И она будет заметно (и статистически значимо) точнее, чем отдельные прогнозы!
👍5❤1🔥1
Ещё один способ комбинировать машинное обучение с интерпретируемыми моделями: прогнозирование параметров интерпретируемых моделей при помощи нейронных сетей
#лонгрид
#статьи
Комбинирование моделей машинного обучения и моделей эконометрических тем или иным способом - довольно важная для многих сфер задача.
Эконометрические модели интерпретируемы, и это очень важно, когда речь заходит не о генерации картинок с котиками, а о каких-то чувствительных вещах (гос политика, работа банков и т.д.). Узнать, что ЦБ внезапно поднял ставку до 50% из-за того, что нейронка сгаллюцинировала и как-то не так спрогнозировала реакцию экономики - довольно грустно. Или узнать, что банк не дал тебе ипотеку из-за цвета кроссовок на фотке в соцсети. А понять, галлюцинации это или нет, может быть задачей довольно нетривиальной.
С другой стороны, модели машинного обучения просто гораздо точнее - по крайней мере, когда хватает объёма данных их обучить.
И вот ещё один интересный, как мне кажется, пример комбинации двух подходов из свежей статьи: старая-добрая векторная авторегрессия, у которой параметры меняются во времени но не каким-то простым (и обычно случайным) образом, как это обычно делается в TVP-VAR моделях, а как нелинейная функция от каких-то факторов! В данном случае: от времени. В чём преимущество? В возможности нормально прогнозировать эти параметры!
А та самая нелинейная функция оценивается, понятное дело, методами машинного обучения (тоже старой-доброй моделью, теперь - LSTM). Интересно, что оценивается оно всё совместно, максимизацией правдоподобия.
Работает, кажется, неплохо!
Вопросы, конечно, есть: прежде всего, нет сравнения с обычным TVP-VAR, оценённым "традиционным" методом (запись в виде state space модели -> фильтр Калмана -> максимизация правдоподобия). И это при том, что на этапе проверки на симулированных данных, эти сами данные симулируются на основе рядов коэффициентов, полученных из обычного TVP-VAR! Немного удивляет такая небрежность...
Тем не менее, идея достаточно красивая!
#лонгрид
#статьи
Комбинирование моделей машинного обучения и моделей эконометрических тем или иным способом - довольно важная для многих сфер задача.
Эконометрические модели интерпретируемы, и это очень важно, когда речь заходит не о генерации картинок с котиками, а о каких-то чувствительных вещах (гос политика, работа банков и т.д.). Узнать, что ЦБ внезапно поднял ставку до 50% из-за того, что нейронка сгаллюцинировала и как-то не так спрогнозировала реакцию экономики - довольно грустно. Или узнать, что банк не дал тебе ипотеку из-за цвета кроссовок на фотке в соцсети. А понять, галлюцинации это или нет, может быть задачей довольно нетривиальной.
С другой стороны, модели машинного обучения просто гораздо точнее - по крайней мере, когда хватает объёма данных их обучить.
И вот ещё один интересный, как мне кажется, пример комбинации двух подходов из свежей статьи: старая-добрая векторная авторегрессия, у которой параметры меняются во времени но не каким-то простым (и обычно случайным) образом, как это обычно делается в TVP-VAR моделях, а как нелинейная функция от каких-то факторов! В данном случае: от времени. В чём преимущество? В возможности нормально прогнозировать эти параметры!
А та самая нелинейная функция оценивается, понятное дело, методами машинного обучения (тоже старой-доброй моделью, теперь - LSTM). Интересно, что оценивается оно всё совместно, максимизацией правдоподобия.
Работает, кажется, неплохо!
Вопросы, конечно, есть: прежде всего, нет сравнения с обычным TVP-VAR, оценённым "традиционным" методом (запись в виде state space модели -> фильтр Калмана -> максимизация правдоподобия). И это при том, что на этапе проверки на симулированных данных, эти сами данные симулируются на основе рядов коэффициентов, полученных из обычного TVP-VAR! Немного удивляет такая небрежность...
Тем не менее, идея достаточно красивая!
👍9🔥4❤2
Макропрогнозирование методами машинного обучения: свежий российский опыт
#статьи
#лонгрид
Сегодня посмотрим сразу на две статьи из одного и того же свежего номера журнала "Деньги и Кредит". Обе - про прогнозирование чего-то макроэкономического (одна про ВВП, другая - про инфляцию) при помощи методов машинного обучения.
Герой номер раз: инфляция, при этом не только и не столько общая цифра, сколько отдельные компоненты (рассматривается 80 отдельных групп продуктов). Большой набор объясняющих переменных от курса рубля до опросных данных по потребительским настроениям. Данные месячные, прогнозы строятся на горизонт от 1 до 12 месяцев вперёд, а тестируется всё это на очень непростом периоде 2019-2023 гг.
Что получилось: лучше прогнозировать инфляцию по компонентам и потом агрегировать, чем прогнозировать сразу общую цифру. Тяжелее всего прогнозировать цены на яйца, сахар, международный туризм и плодоовощную продукцию (хотя во всех случаях, кроме последнего, подозреваю, дело скорее в отдельных разовых чудесах с ценами на эти продукты. Если добавить 2024 год, то наверняка в этот список попадёт и сливочное масло). Лучшими моделями оказались один из классических инструментов машинного обучения CatBoost и ARD-регрессия (по сути - регрессия с байесовской регуляризацией).
Герой номер два: сравниваются комбинации ансамблевых моделей (random forest и разные виды бустинга - получаем ансамбль ансамблей) и разных по архитектуре нейронных сетей (CNN, ANN, RNN, LSTM, GRU) и оптимальная комбинация всего этого весьма немаленького зоопарка.
Подробные результаты удобнее смотреть в приложении и они довольно удивительны: ансамбли ансамблей даже на прогнозах на 1 квартал вперёд в разы превосходят по точности простой бенчмарк в лице AR(1)-модели, на больших горизонтах разрыв ещё больше увеличивается. Ещё удивительнее, что даже простая feed-forward нейронная сеть (на квартальных данных - их мало! А параметров в моделях случаем не больше, чем наблюдений?) превосходит AR(1). Скажем честно, вопросы к устойчивости результатов есть, но авторы приводят сетки гиперпараметров для всех использованных моделей, так что в принципе пересчитать за ними несложно.
Чего наверное не хватило в обоих случаях - это сравнения с SOTA эконометрическими моделями, а не только AR(1). Но в любом случае - весьма любопытно!
#статьи
#лонгрид
Сегодня посмотрим сразу на две статьи из одного и того же свежего номера журнала "Деньги и Кредит". Обе - про прогнозирование чего-то макроэкономического (одна про ВВП, другая - про инфляцию) при помощи методов машинного обучения.
Герой номер раз: инфляция, при этом не только и не столько общая цифра, сколько отдельные компоненты (рассматривается 80 отдельных групп продуктов). Большой набор объясняющих переменных от курса рубля до опросных данных по потребительским настроениям. Данные месячные, прогнозы строятся на горизонт от 1 до 12 месяцев вперёд, а тестируется всё это на очень непростом периоде 2019-2023 гг.
Что получилось: лучше прогнозировать инфляцию по компонентам и потом агрегировать, чем прогнозировать сразу общую цифру. Тяжелее всего прогнозировать цены на яйца, сахар, международный туризм и плодоовощную продукцию (хотя во всех случаях, кроме последнего, подозреваю, дело скорее в отдельных разовых чудесах с ценами на эти продукты. Если добавить 2024 год, то наверняка в этот список попадёт и сливочное масло). Лучшими моделями оказались один из классических инструментов машинного обучения CatBoost и ARD-регрессия (по сути - регрессия с байесовской регуляризацией).
Герой номер два: сравниваются комбинации ансамблевых моделей (random forest и разные виды бустинга - получаем ансамбль ансамблей) и разных по архитектуре нейронных сетей (CNN, ANN, RNN, LSTM, GRU) и оптимальная комбинация всего этого весьма немаленького зоопарка.
Подробные результаты удобнее смотреть в приложении и они довольно удивительны: ансамбли ансамблей даже на прогнозах на 1 квартал вперёд в разы превосходят по точности простой бенчмарк в лице AR(1)-модели, на больших горизонтах разрыв ещё больше увеличивается. Ещё удивительнее, что даже простая feed-forward нейронная сеть (на квартальных данных - их мало! А параметров в моделях случаем не больше, чем наблюдений?) превосходит AR(1). Скажем честно, вопросы к устойчивости результатов есть, но авторы приводят сетки гиперпараметров для всех использованных моделей, так что в принципе пересчитать за ними несложно.
Чего наверное не хватило в обоих случаях - это сравнения с SOTA эконометрическими моделями, а не только AR(1). Но в любом случае - весьма любопытно!
👍7🔥3❤1
Помогают ли теоретические соображения при прогнозировании?
#статьи
#лонгрид
Интересная свежая статья о том, верят ли профессиональные прогнозисты в [теорию] кривую Филлипса и помогает ли её учёт повысить качество прогнозов.
(Для менее знакомых с экономикой): Кривая Филлипса - очень распространённое наблюдение (и свойство многих теоретических моделей) об обратной связи между безработицей и инфляцией. Чем выше безработица - тем ниже инфляция, и наоборот.
Верят ли в кривую Филлипса? Скорее нет: ретроспективный анализ прогнозов большого числа профессиональных прогнозистов за период с 1981 по 2019 показал, что соотношения кривой Филлипса (если прогнозируешь рост безработицы -> прогнозируй и падение инфляции) выполняются для прогнозов только четверти специалистов!
В целом, степень соответствия прогнозов экспертов кривой Филлипса меняется во времени и зависит в том числе от текущего состояния экономики, при этом в более поздние периоды времени прогнозы оказываются дальше от кривой Филлипса.
Помогает ли учёт кривой Филлипса повысить точность прогнозов? Да, но только прогнозов на короткие горизонты. И это довольно неожиданно: так вот сходу скорее кажется, что теория может помочь повысить качество более долгосрочных прогнозов - но нет!
#статьи
#лонгрид
Интересная свежая статья о том, верят ли профессиональные прогнозисты в [теорию] кривую Филлипса и помогает ли её учёт повысить качество прогнозов.
(Для менее знакомых с экономикой): Кривая Филлипса - очень распространённое наблюдение (и свойство многих теоретических моделей) об обратной связи между безработицей и инфляцией. Чем выше безработица - тем ниже инфляция, и наоборот.
Верят ли в кривую Филлипса? Скорее нет: ретроспективный анализ прогнозов большого числа профессиональных прогнозистов за период с 1981 по 2019 показал, что соотношения кривой Филлипса (если прогнозируешь рост безработицы -> прогнозируй и падение инфляции) выполняются для прогнозов только четверти специалистов!
В целом, степень соответствия прогнозов экспертов кривой Филлипса меняется во времени и зависит в том числе от текущего состояния экономики, при этом в более поздние периоды времени прогнозы оказываются дальше от кривой Филлипса.
Помогает ли учёт кривой Филлипса повысить точность прогнозов? Да, но только прогнозов на короткие горизонты. И это довольно неожиданно: так вот сходу скорее кажется, что теория может помочь повысить качество более долгосрочных прогнозов - но нет!
👍5🔥1🤔1
Ключевая ставка и инфляция
#статьи
#лонгрид
Тема, вызывающая с каждым днём и каждой еженедельной публикацией инфляции от Росстата всё больше и большехоливаров обсуждений. Так всё же, рост ставки ускоряет или замедляет инфляцию?!
Прежде всего, ничто не ново под луной: все наши нынешние популярные рассуждения от самых разных комментаторов про то, что из-за роста ставки падает предложение и в результате ещё больше растут цены, уже давным-давно были озвучены. Обычно их исток датируют высказыванием 1970 года(!) американского сенатора Райта Патмана (Wright Patman), что поднимать ставку для борьбы с инфляцией - это как "подливать бензин в огонь". И аргументы были ровно те же, что приводят сейчас у нас. За прошедшие с тех пор более, чем полвека, в научной литературе эту позицию исследовали достаточно детально - и она не так и безумна, как выставляют некоторые (другие) наши комментаторы.
Но пойдём по порядку. Мейнстримная позиция сейчас заключается в том, что рост ставки всё же снижает инфляцию - и есть целый ряд каналов, по которым работает этот эффект (почитать научно-популярное изложение можно, к примеру, у ЕЦБ). По большей части: депозиты привлекательнее -> меньше спрос -> меньше денег -> ниже цены. Или выше ставка -> привлекательнее вложения в экономику -> крепче нацвалюта -> дешевле импорт -> ниже цены. И таких каналов несколько.
При этом и "эффект Патмана" (а его так и называют) имеет право на существование - и есть достаточно много эмпирических свидетельств его существования! К примеру, в этой работе (очень приятно и не-технически написанной, хотя и довольно старой - 2001 года) выделяется три эффекта, навевающих на мысли о существовании механизмов монетарной политики, работающих через предложение (а рост издержек - это как раз история про предложение). Обычно это называется cost channel (канал издержек):
- Даже небольшие изменения ставки влияют на выпуск сильнее, чем должны по моделям, не учитывающим влияние ставок на издержки
- В ответ на рост ставок (и в целом ужесточение монетарной политики) обычно сначала происходит рост цен, а снижения приходится ждать. Этот price puzzle впервые был замечен ещё в 1992
- Монетарная политика действует на основные экономические показатели не так, как другие события, влияющие чисто на сторону спроса.
А вот есть совсем свежая работа, где инфляция (американская, само собой) раскладывается на инфляцию за счёт спроса и за счёт предложения. И да, инфляция за счёт предложения во многие периоды времени ничуть не уступает инфляции за счёт спроса! И вроде бы там же получается, что на инфляцию за счёт спроса монетарная политика влияет сильнее, чем на инфляцию предложения (соответственно, эффект монетарной политики должен быть в рамках мейнстрима), но тут всё зависит от структуры каждой конкретной экономики в каждый конкретный момент.
Мораль? С моралью тут сложно. В любом случае, монетарная политика не действует мгновенно, и рост ставки (который, надо полагать, продолжится и дальше) перейдёт в снижение цен не сразу. Правда, пора бы уже, ну на край к весне...
Но и существование канала издержек отрицать и сбрасывать со счетов не стоит. Как минимум - стоило бы попробовать прикинуть масштаб инфляции каждого из видов (хотя бы в духе статьи по последней ссылке).
Хотя, понятное дело, все эти статьи написаны и теории придуманы для экономик в "нормальном" режиме существования, а у нас сейчас всё весьма аномально, скажем честно...
#статьи
#лонгрид
Тема, вызывающая с каждым днём и каждой еженедельной публикацией инфляции от Росстата всё больше и больше
Прежде всего, ничто не ново под луной: все наши нынешние популярные рассуждения от самых разных комментаторов про то, что из-за роста ставки падает предложение и в результате ещё больше растут цены, уже давным-давно были озвучены. Обычно их исток датируют высказыванием 1970 года(!) американского сенатора Райта Патмана (Wright Patman), что поднимать ставку для борьбы с инфляцией - это как "подливать бензин в огонь". И аргументы были ровно те же, что приводят сейчас у нас. За прошедшие с тех пор более, чем полвека, в научной литературе эту позицию исследовали достаточно детально - и она не так и безумна, как выставляют некоторые (другие) наши комментаторы.
Но пойдём по порядку. Мейнстримная позиция сейчас заключается в том, что рост ставки всё же снижает инфляцию - и есть целый ряд каналов, по которым работает этот эффект (почитать научно-популярное изложение можно, к примеру, у ЕЦБ). По большей части: депозиты привлекательнее -> меньше спрос -> меньше денег -> ниже цены. Или выше ставка -> привлекательнее вложения в экономику -> крепче нацвалюта -> дешевле импорт -> ниже цены. И таких каналов несколько.
При этом и "эффект Патмана" (а его так и называют) имеет право на существование - и есть достаточно много эмпирических свидетельств его существования! К примеру, в этой работе (очень приятно и не-технически написанной, хотя и довольно старой - 2001 года) выделяется три эффекта, навевающих на мысли о существовании механизмов монетарной политики, работающих через предложение (а рост издержек - это как раз история про предложение). Обычно это называется cost channel (канал издержек):
- Даже небольшие изменения ставки влияют на выпуск сильнее, чем должны по моделям, не учитывающим влияние ставок на издержки
- В ответ на рост ставок (и в целом ужесточение монетарной политики) обычно сначала происходит рост цен, а снижения приходится ждать. Этот price puzzle впервые был замечен ещё в 1992
- Монетарная политика действует на основные экономические показатели не так, как другие события, влияющие чисто на сторону спроса.
А вот есть совсем свежая работа, где инфляция (американская, само собой) раскладывается на инфляцию за счёт спроса и за счёт предложения. И да, инфляция за счёт предложения во многие периоды времени ничуть не уступает инфляции за счёт спроса! И вроде бы там же получается, что на инфляцию за счёт спроса монетарная политика влияет сильнее, чем на инфляцию предложения (соответственно, эффект монетарной политики должен быть в рамках мейнстрима), но тут всё зависит от структуры каждой конкретной экономики в каждый конкретный момент.
Мораль? С моралью тут сложно. В любом случае, монетарная политика не действует мгновенно, и рост ставки (который, надо полагать, продолжится и дальше) перейдёт в снижение цен не сразу. Правда, пора бы уже, ну на край к весне...
Но и существование канала издержек отрицать и сбрасывать со счетов не стоит. Как минимум - стоило бы попробовать прикинуть масштаб инфляции каждого из видов (хотя бы в духе статьи по последней ссылке).
Хотя, понятное дело, все эти статьи написаны и теории придуманы для экономик в "нормальном" режиме существования, а у нас сейчас всё весьма аномально, скажем честно...
🔥7👍3🌚2👎1🕊1🤡1
Содержится ли какая-то полезная информация в разбросе экспертных прогнозов?
#лонгрид
#статьи
Про экспертные прогнозы я писал уже неоднократно - это довольно популярная в последние годы тема. Тут изучаются и прогнозы отдельных ведомств, и способы агрегации экспертных прогнозов, и много других вопросов - в конечном итоге многие из этих исследований сводятся к соревнованию "искусственного интеллекта" (в том или ином его понимании) с интеллектом естественным, и чаще всего оказывается, что надо не соревноваться, а кооперироваться!
Сегодня - ещё одна свежая интересная статья из этой области, но посвящённая не точности экспертных прогнозов, а их разбросу: можно ли на основе волатильности экспертных прогнозов предсказывать волатильность того показателя, который они прогнозируют! Короткий ответ: видимо, да!
Методологически работа построена просто. Есть цена нефти и её волатильность. Есть ЕЦБ-шный опрос профессиональных прогнозистов (ежеквартальный, с 2002 года!), где они прогнозируют цену нефти. Есть набор стандартных моделей для прогнозирования волатильности цены нефти.
И оказывается, что если в эти стандартные модели добавить разброс (стандартное отклонение) прогнозов экспертов, то они начинают прогнозировать волатильность цены нефти гораздо лучше! И "гораздо" лучше - это, по некоторым метрикам, лучше в разы. Ну и, понятное дело, статистически значимо всеми стандартными тестами.
В целом, вот и вся статья - просто, но интересно!
#лонгрид
#статьи
Про экспертные прогнозы я писал уже неоднократно - это довольно популярная в последние годы тема. Тут изучаются и прогнозы отдельных ведомств, и способы агрегации экспертных прогнозов, и много других вопросов - в конечном итоге многие из этих исследований сводятся к соревнованию "искусственного интеллекта" (в том или ином его понимании) с интеллектом естественным, и чаще всего оказывается, что надо не соревноваться, а кооперироваться!
Сегодня - ещё одна свежая интересная статья из этой области, но посвящённая не точности экспертных прогнозов, а их разбросу: можно ли на основе волатильности экспертных прогнозов предсказывать волатильность того показателя, который они прогнозируют! Короткий ответ: видимо, да!
Методологически работа построена просто. Есть цена нефти и её волатильность. Есть ЕЦБ-шный опрос профессиональных прогнозистов (ежеквартальный, с 2002 года!), где они прогнозируют цену нефти. Есть набор стандартных моделей для прогнозирования волатильности цены нефти.
И оказывается, что если в эти стандартные модели добавить разброс (стандартное отклонение) прогнозов экспертов, то они начинают прогнозировать волатильность цены нефти гораздо лучше! И "гораздо" лучше - это, по некоторым метрикам, лучше в разы. Ну и, понятное дело, статистически значимо всеми стандартными тестами.
В целом, вот и вся статья - просто, но интересно!
👍5🔥3🤔2
О стабильности прогнозов
#лонгрид
#статьи
Давно у нас не было лонгридов по статьям – исправляюсь! И сегодня у нас довольно простая и по базовой идее, и по уровню исполнения работа, затрагивающая при этом очень интересное и малоизученное явление – стабильность прогнозов.
Стабильность здесь делится на два вида:
1) Вертикальная стабильность – стабильность прогнозов из разных точек на один и тот же период (условно: прогнозы на март 2025 от февраля 2025, января 2025, декабря 2024 и т.д.);
2) Горизонтальная стабильность – стабильность прогнозов из одной точки на разные горизонты.
И, в идеальном случае, прогнозы должны быть стабильны в обоих смыслах. Вертикальная стабильность важна, к примеру, с точки зрения процессов планирования в компаниях (если каждый месяц придётся переделывать планы всего из-за летающих туда-сюда прогнозов – работать будет очень тяжело). Горизонтальная стабильность же – скорее вопрос общей разумности получающихся прогнозов, о ней имеет смысл думать всегда, когда прогноз строится больше, чем на один конкретный горизонт (к примеру, на один шаг вперёд).
Что интересно, есть много свидетельств того, что точность и стабильность прогнозов – это разные и не очень связанные друг с другом сущности. Точный прогноз может быть не очень стабильным, а стабильный – не очень точным. И да, в некоторых приложениях пожертвовать какой-то частью точности прогноза ради стабильности – это нормально.
Как указывают авторы, большая часть предшествующих работ (которых было очень немного) фокусировалась на вертикальной стабильности, они же предложили метод, позволяющий обеспечивать и вертикальную, и горизонтальную стабильность!
Что же это за метод? Линейная интерполяция! Прогнозы из разных точек на одну и ту же точку или прогнозы из одной точки на разные горизонты можно просто усреднить/пропустить через скользящее среднее. И станет лучше!
И это "лучше", к слову, проверяется на хорошем таком и вполне себе современном наборе моделей – и лучше с точки зрения стабильности действительно получается.
PS: интересно тут вот что. Для обеспечения той же "горизонтальной стабильности прогнозов" я лично (и не только я, понятное дело) неоднократно придумывал всякие эвристики и посложнее скользящих средних – и никогда не думал, что это не чисто технический приём, а целое отдельное новое и актуальное направление в науке прогнозирования. А вон оно как, оказывается, на самом-то деле!
#лонгрид
#статьи
Давно у нас не было лонгридов по статьям – исправляюсь! И сегодня у нас довольно простая и по базовой идее, и по уровню исполнения работа, затрагивающая при этом очень интересное и малоизученное явление – стабильность прогнозов.
Стабильность здесь делится на два вида:
1) Вертикальная стабильность – стабильность прогнозов из разных точек на один и тот же период (условно: прогнозы на март 2025 от февраля 2025, января 2025, декабря 2024 и т.д.);
2) Горизонтальная стабильность – стабильность прогнозов из одной точки на разные горизонты.
И, в идеальном случае, прогнозы должны быть стабильны в обоих смыслах. Вертикальная стабильность важна, к примеру, с точки зрения процессов планирования в компаниях (если каждый месяц придётся переделывать планы всего из-за летающих туда-сюда прогнозов – работать будет очень тяжело). Горизонтальная стабильность же – скорее вопрос общей разумности получающихся прогнозов, о ней имеет смысл думать всегда, когда прогноз строится больше, чем на один конкретный горизонт (к примеру, на один шаг вперёд).
Что интересно, есть много свидетельств того, что точность и стабильность прогнозов – это разные и не очень связанные друг с другом сущности. Точный прогноз может быть не очень стабильным, а стабильный – не очень точным. И да, в некоторых приложениях пожертвовать какой-то частью точности прогноза ради стабильности – это нормально.
Как указывают авторы, большая часть предшествующих работ (которых было очень немного) фокусировалась на вертикальной стабильности, они же предложили метод, позволяющий обеспечивать и вертикальную, и горизонтальную стабильность!
Что же это за метод? Линейная интерполяция! Прогнозы из разных точек на одну и ту же точку или прогнозы из одной точки на разные горизонты можно просто усреднить/пропустить через скользящее среднее. И станет лучше!
И это "лучше", к слову, проверяется на хорошем таком и вполне себе современном наборе моделей – и лучше с точки зрения стабильности действительно получается.
PS: интересно тут вот что. Для обеспечения той же "горизонтальной стабильности прогнозов" я лично (и не только я, понятное дело) неоднократно придумывал всякие эвристики и посложнее скользящих средних – и никогда не думал, что это не чисто технический приём, а целое отдельное новое и актуальное направление в науке прогнозирования. А вон оно как, оказывается, на самом-то деле!
🤔6👍3🔥2
Об агрегации "человеческих" и "машинных" прогнозов
#лонгрид
#статьи
И снова лонгрид об экспертных прогнозах (вот тут была статья про разброс прогнозов разных экспертов, вот тут – про агрегацию), на этот раз про то, как оптимально комбинировать прогнозы, полученные при помощи статистических/ML моделей, и прогнозы человеческие.
Постановка задачи статьи следующая:
- Есть две достаточно крупные компании (ретейлер и строительная, конкретные названия в статье, понятное дело, не раскрываются), в которых сидит достаточно большой штат специалистов, прогнозирующих спрос на их товары/услуги. Горизонт прогноза – от 0 до 6 месяцев вперёд. Для получения прогнозов используется комплекс моделей, но прогнозы моделей в дальнейшем корректируются экспертами на основании своего понимания рыночной ситуации.
- Есть несколько забавных эффектов, обнаруженных в литературе, изучающей экспертные прогнозы:
1) Эксперты в таких ситуациях обычно корректируют прогнозы моделей в правильном направлении
2) Эксперты в таких ситуациях обычно хорошо предсказывают величину корректировки, когда они понижают прогноз
3) И плохо определяют величину корректировки, когда прогноз надо повысить
Вопрос: как оптимально смешивать знания моделей и экспертов?
Предложенную в качестве ответа схему авторы назвали Light-touch forecasting. Она предполагает такую последовательность действий:
1) Модель генерирует прогноз
2) Эксперт решает, нужно ли его принять или скорректировать
3) Если прогноз корректируется вверх (повышается), то величину повышения определяет алгоритм
4) Если прогноз корректируется вниз (понижается), то величину понижения определяет эксперт
Алгоритм же для корректировки вверх просто смотрит на исторические данные (когда эксперт предлагал повысить) и рассчитывает среднюю оптимальную величину повышения.
В процессе экспериментального применения такого подхода, результирующие прогнозы оказались точнее и модельных, и чисто экспертных, и "стандартной" комбинации (модель предсказывает, эксперт корректирует). При этом по сравнению со "стандартной" комбинацией человека и машины предложенный подход требует меньше времени от экспертов, что повышает общую эффективность процедуры.
Вся эта область субъективного/экспертного прогнозирования звучит конечно довольно примитивно, но штука довольно интересная и очень актуальная на практике. И, что поразительно, передний край науки тут сейчас сидит на каких-то супер базовых историях и эвристиках. При этом (если кому актуально) – эти результаты можно брать и внедрять прямо как есть. Или предлагать что-то своё и вливаться в общий поток исследований
Статья – из свежего выпуска IJF (более того, это спецвыпуск про экспертные прогнозы, так что ждите новых лонгридов на ту же тематику!)
#лонгрид
#статьи
И снова лонгрид об экспертных прогнозах (вот тут была статья про разброс прогнозов разных экспертов, вот тут – про агрегацию), на этот раз про то, как оптимально комбинировать прогнозы, полученные при помощи статистических/ML моделей, и прогнозы человеческие.
Постановка задачи статьи следующая:
- Есть две достаточно крупные компании (ретейлер и строительная, конкретные названия в статье, понятное дело, не раскрываются), в которых сидит достаточно большой штат специалистов, прогнозирующих спрос на их товары/услуги. Горизонт прогноза – от 0 до 6 месяцев вперёд. Для получения прогнозов используется комплекс моделей, но прогнозы моделей в дальнейшем корректируются экспертами на основании своего понимания рыночной ситуации.
- Есть несколько забавных эффектов, обнаруженных в литературе, изучающей экспертные прогнозы:
1) Эксперты в таких ситуациях обычно корректируют прогнозы моделей в правильном направлении
2) Эксперты в таких ситуациях обычно хорошо предсказывают величину корректировки, когда они понижают прогноз
3) И плохо определяют величину корректировки, когда прогноз надо повысить
Вопрос: как оптимально смешивать знания моделей и экспертов?
Предложенную в качестве ответа схему авторы назвали Light-touch forecasting. Она предполагает такую последовательность действий:
1) Модель генерирует прогноз
2) Эксперт решает, нужно ли его принять или скорректировать
3) Если прогноз корректируется вверх (повышается), то величину повышения определяет алгоритм
4) Если прогноз корректируется вниз (понижается), то величину понижения определяет эксперт
Алгоритм же для корректировки вверх просто смотрит на исторические данные (когда эксперт предлагал повысить) и рассчитывает среднюю оптимальную величину повышения.
В процессе экспериментального применения такого подхода, результирующие прогнозы оказались точнее и модельных, и чисто экспертных, и "стандартной" комбинации (модель предсказывает, эксперт корректирует). При этом по сравнению со "стандартной" комбинацией человека и машины предложенный подход требует меньше времени от экспертов, что повышает общую эффективность процедуры.
Вся эта область субъективного/экспертного прогнозирования звучит конечно довольно примитивно, но штука довольно интересная и очень актуальная на практике. И, что поразительно, передний край науки тут сейчас сидит на каких-то супер базовых историях и эвристиках. При этом (если кому актуально) – эти результаты можно брать и внедрять прямо как есть. Или предлагать что-то своё и вливаться в общий поток исследований
Статья – из свежего выпуска IJF (более того, это спецвыпуск про экспертные прогнозы, так что ждите новых лонгридов на ту же тематику!)
👍8🔥2❤1
И ещё о графиках и прогнозировании
#лонгрид
#статьи
Я как-то уже делал обзор статьи про графики и прогнозирование – и вот ещё одна свежая статья на ту же тему, теперь про (визуальное) прогнозирование растущих экспоненциально показателей.
Известно, что люди плохо прогнозируют методом пристального взгляда показатели, растущие экспоненциально. Для улучшения качества субъективного прогнозирования и общего восприятия таких показателей, используют графики в логарифмической шкале (см. иллюстрации к посту – цветом там выделены области, куда испытуемые обычно смотрят, изучая графики)
Оказывается, чтобы добиться максимального качества прогнозов по таким графикам, нужно сделать две вещи:
1) Перенести шкалу вертикальной оси направо
2) Расширить горизонтальную ось так, чтобы на графике было пустое пространство на тот период, на который и строится прогноз. Чтобы, по сути, можно было "дорисовать" в голове график так, чтобы под ним ещё была разметка осей
Простенько, но довольно полезненько с точки зрения подбора визуала
#лонгрид
#статьи
Я как-то уже делал обзор статьи про графики и прогнозирование – и вот ещё одна свежая статья на ту же тему, теперь про (визуальное) прогнозирование растущих экспоненциально показателей.
Известно, что люди плохо прогнозируют методом пристального взгляда показатели, растущие экспоненциально. Для улучшения качества субъективного прогнозирования и общего восприятия таких показателей, используют графики в логарифмической шкале (см. иллюстрации к посту – цветом там выделены области, куда испытуемые обычно смотрят, изучая графики)
Оказывается, чтобы добиться максимального качества прогнозов по таким графикам, нужно сделать две вещи:
1) Перенести шкалу вертикальной оси направо
2) Расширить горизонтальную ось так, чтобы на графике было пустое пространство на тот период, на который и строится прогноз. Чтобы, по сути, можно было "дорисовать" в голове график так, чтобы под ним ещё была разметка осей
Простенько, но довольно полезненько с точки зрения подбора визуала
👍7🔥4🤔1
Когнитивная рефлексия и субъективное прогнозирование
#лонгрид
#статьи
А мы продолжаем изучать интересные статьи про субъективное прогнозирование – и сегодня обсудим такую штуку, как когнитивная рефлексия, которой посвящена ещё одна интересная свежая статья.
Во-первых, что ж такое эта когнитивная рефлексия. Она обычно определяется как склонность проверять и обнаруживать у самого себя интуитивные ошибки. Полезная штука! И, как оказывается, она очень сильно связана и с прогнозными способностями.
В работе есть два интересных момента: как можно померить когнитивную рефлексию и на что она, собственно, влияет.
Касательно измерения: в работе изучается довольно большой американский опросник потребительских ожиданий (Survey of Consumer Expectations, SCE). Автор находит в нём вопрос, предположительной способный померить когнитивную рефлексию, и проверяет эту гипотезу при помощи отдельного опроса(!). Оказывается, что вопрос хороший и правда когнитивную рефлексию измеряет (почитайте статью, кому интересны подробности этого процесса – там ничего сложного, но довольно интересно). А вопрос следующий:
"У вас есть 200 долларов на вкладе. Ставка по вкладу – 10% годовых. Проценты начисляются каждый год. Сколько денег у вас будет через 2 года?"
Сколько, кстати?
Если вы ответили 242, то поздравляю, вы когнитивно рефлексивны! Если 240 – вы просто численно грамотны. Если что-то другое – увы...
И оказывается, что когнитивно рефлексивные люди:
1) Значимо точнее предсказывают инфляцию (в том самом опросе SCE). А ещё, кстати, точнее предсказывают женщины и люди со средним доходом!
2) Меньше склонны к пере-реакции (в каком-то смысле: к излишней панике в ответ на какие-то события): в 2021 году, когда инфляция в США заметно выросла, инфляционные ожидания не-рефлексивных респондентов выросли слишком сильно, а рефлексивных – примерно в соответствии с фактическим ростом инфляции
Мораль: в опросы об ожиданиях можно вставлять этот несложный вопрос про вклад и при расчёте агрегированных показателей брать не просто средние показатели, но средне-взвешенные с учётом уровня когнитивной рефлексии! Это, в принципе, должно работать не только с прогнозами инфляции, но и с прогнозированием других показателей
#лонгрид
#статьи
А мы продолжаем изучать интересные статьи про субъективное прогнозирование – и сегодня обсудим такую штуку, как когнитивная рефлексия, которой посвящена ещё одна интересная свежая статья.
Во-первых, что ж такое эта когнитивная рефлексия. Она обычно определяется как склонность проверять и обнаруживать у самого себя интуитивные ошибки. Полезная штука! И, как оказывается, она очень сильно связана и с прогнозными способностями.
В работе есть два интересных момента: как можно померить когнитивную рефлексию и на что она, собственно, влияет.
Касательно измерения: в работе изучается довольно большой американский опросник потребительских ожиданий (Survey of Consumer Expectations, SCE). Автор находит в нём вопрос, предположительной способный померить когнитивную рефлексию, и проверяет эту гипотезу при помощи отдельного опроса(!). Оказывается, что вопрос хороший и правда когнитивную рефлексию измеряет (почитайте статью, кому интересны подробности этого процесса – там ничего сложного, но довольно интересно). А вопрос следующий:
"У вас есть 200 долларов на вкладе. Ставка по вкладу – 10% годовых. Проценты начисляются каждый год. Сколько денег у вас будет через 2 года?"
Сколько, кстати?
И оказывается, что когнитивно рефлексивные люди:
1) Значимо точнее предсказывают инфляцию (в том самом опросе SCE). А ещё, кстати, точнее предсказывают женщины и люди со средним доходом!
2) Меньше склонны к пере-реакции (в каком-то смысле: к излишней панике в ответ на какие-то события): в 2021 году, когда инфляция в США заметно выросла, инфляционные ожидания не-рефлексивных респондентов выросли слишком сильно, а рефлексивных – примерно в соответствии с фактическим ростом инфляции
Мораль: в опросы об ожиданиях можно вставлять этот несложный вопрос про вклад и при расчёте агрегированных показателей брать не просто средние показатели, но средне-взвешенные с учётом уровня когнитивной рефлексии! Это, в принципе, должно работать не только с прогнозами инфляции, но и с прогнозированием других показателей
👍7❤3🔥2😁1
Прогнозирование/наукастинг ВВП: важность учёта разных режимов функционирования экономики
#лонгрид
#статьи
Сегодня - опять лонгрид про прогнозирование ВВП, на этот раз - по моей же свежевышедшей статье (по ссылке доступна на почитать полная версия, но скачивать нельзя)
В работе я изучаю прогнозирование ВВП стран G-20 (которых - забавный внезапный факт - на самом деле 19, а не 20. Двадцатой "страной" там числится Евросоюз) моделями с эндогенным марковским переключением. Этот тот же класс моделей, которым мы считаем наши регулярные наукасты ВВП, но вероятности нахождения в том или ином (кризисном или "обычном") режиме оцениваются отдельной моделью. Это довольно сложно и требует написания довольно ощутимой кучи кода (функцию правдоподобия надо тут кодить руками, ничего пакетного тут нет), но работает!
Что интересного и важного получилось:
1) Посмотрите на картинку с темпами роста (видна в предпросмотре внизу этого поста): при использовании эндогенного переключения и тайминг кризисов, и величина провала и восстановления после, прогнозируются гораздо лучше! Несколько режимов в модели - это благо;
2) Прогнозировать величину ВВП и режим (кризис/не кризис) надо разными переменными. Наборы оптимальных индикаторов сильно отличаются от страны к стране, но в среднем уровень ВВП лучше прогнозируется чем-то "производственным" (индекс промпроизводства, к примеру), а вот режим - чем-то финансовым или PMI. И это довольно полезное наблюдение вне зависимости от того, какой класс моделей вы хотите использовать для построения прогнозов: разные показатели нужны для описания разных явлений;
3) Если кому вдруг нужно будет что-то прогнозировать по странам из G-20: там в тексте довольно много рассуждений, можно почитать. А если что - и мне написать)
PS: теперь, когда статья опубликована, постараюсь этот функционал добавить в наши наукасты по России. Там сложные модели, много кода и довольно долгие расчёты, но что-нибудь придумаю!
#лонгрид
#статьи
Сегодня - опять лонгрид про прогнозирование ВВП, на этот раз - по моей же свежевышедшей статье (по ссылке доступна на почитать полная версия, но скачивать нельзя)
В работе я изучаю прогнозирование ВВП стран G-20 (которых - забавный внезапный факт - на самом деле 19, а не 20. Двадцатой "страной" там числится Евросоюз) моделями с эндогенным марковским переключением. Этот тот же класс моделей, которым мы считаем наши регулярные наукасты ВВП, но вероятности нахождения в том или ином (кризисном или "обычном") режиме оцениваются отдельной моделью. Это довольно сложно и требует написания довольно ощутимой кучи кода (функцию правдоподобия надо тут кодить руками, ничего пакетного тут нет), но работает!
Что интересного и важного получилось:
1) Посмотрите на картинку с темпами роста (видна в предпросмотре внизу этого поста): при использовании эндогенного переключения и тайминг кризисов, и величина провала и восстановления после, прогнозируются гораздо лучше! Несколько режимов в модели - это благо;
2) Прогнозировать величину ВВП и режим (кризис/не кризис) надо разными переменными. Наборы оптимальных индикаторов сильно отличаются от страны к стране, но в среднем уровень ВВП лучше прогнозируется чем-то "производственным" (индекс промпроизводства, к примеру), а вот режим - чем-то финансовым или PMI. И это довольно полезное наблюдение вне зависимости от того, какой класс моделей вы хотите использовать для построения прогнозов: разные показатели нужны для описания разных явлений;
3) Если кому вдруг нужно будет что-то прогнозировать по странам из G-20: там в тексте довольно много рассуждений, можно почитать. А если что - и мне написать)
PS: теперь, когда статья опубликована, постараюсь этот функционал добавить в наши наукасты по России. Там сложные модели, много кода и довольно долгие расчёты, но что-нибудь придумаю!
SpringerLink
Nowcasting and short-term forecasting of G-20 countries GDP with endogenous regime-switching MIDAS models
Empirical Economics - The paper investigates the application of endogenous Markov-switching MIDAS models for nowcasting and forecasting during the turbulent economic landscape shaped by the...
👍5❤2🔥2
Как люди выбирают между экспертными и модельными прогнозами
#лонгрид
#статьи
Сегодня мы посмотрим на ещё одну статью про экспертные/субъективные прогнозы - на этот раз про то, что влияет на предпочтения людей, когда им предлагают выбрать между двумя прогнозами.
Что тут есть интересного:
1) В целом, если случайному человеку показать график временного ряда и два прогноза: один экспертный, другой - модельный (и модельный правда построен какой-то моделью), то человек в среднем предпочтёт модельный
2) Если показывать серию графиков и после каждого выбора показывать, какой прогноз был правильным (это авторы называют фидбэком), то люди перестают предпочитать модельные прогнозы (вот уж удивительно...)
3) Если добавить информацию о том, как эти модели/эксперты показывали себя исторически - то субъективщина тоже пропадает (чудеса!) и фидбэк перестаёт влиять
4) А вот тут интересно: если показывать людям просто графики фактического уровня ряда и двух прогнозов без подписей, какой получен моделью, то большинство неспособно понять, где какой. Но! Какое-то количество участников (небольшое) способно систематически(!) отличать модельные прогнозы от экспертных
Что тут полезного - ну, в зависимости от того, что вы хотите продемонстрировать (качество своих экспертных прогнозов или низкое качество чьих-то чужих))
#лонгрид
#статьи
Сегодня мы посмотрим на ещё одну статью про экспертные/субъективные прогнозы - на этот раз про то, что влияет на предпочтения людей, когда им предлагают выбрать между двумя прогнозами.
Что тут есть интересного:
1) В целом, если случайному человеку показать график временного ряда и два прогноза: один экспертный, другой - модельный (и модельный правда построен какой-то моделью), то человек в среднем предпочтёт модельный
2) Если показывать серию графиков и после каждого выбора показывать, какой прогноз был правильным (это авторы называют фидбэком), то люди перестают предпочитать модельные прогнозы (вот уж удивительно...)
3) Если добавить информацию о том, как эти модели/эксперты показывали себя исторически - то субъективщина тоже пропадает (чудеса!) и фидбэк перестаёт влиять
4) А вот тут интересно: если показывать людям просто графики фактического уровня ряда и двух прогнозов без подписей, какой получен моделью, то большинство неспособно понять, где какой. Но! Какое-то количество участников (небольшое) способно систематически(!) отличать модельные прогнозы от экспертных
Что тут полезного - ну, в зависимости от того, что вы хотите продемонстрировать (качество своих экспертных прогнозов или низкое качество чьих-то чужих))
👍5🔥2😁1