Проливаем свет на черный ящик машинного обучения
ДомДом > Блог > Проливаем свет на черный ящик машинного обучения

Проливаем свет на черный ящик машинного обучения

Jul 10, 2023

Старший портфельный менеджер, Man Numeric

На сегодняшний день достигнут небольшой прогресс в использовании моделей машинного обучения для атрибуции портфеля факторов. Мы объясняем, где и как систематические инвесторы могут найти подробные, местные объяснения эффективности.

август 2023 г.

Хотя модели машинного обучения могут обеспечить более высокую доходность, инвесторы в настоящее время несколько слепы к тому, откуда берется эта прибыль.

Современное управление портфелем все чаще использует модели машинного обучения (ML) для прогнозирования доходности благодаря их способности улавливать сложные взаимодействия между факторами. Недостаток заключается в том, что конечный результат часто представляет собой что-то близкое к модели черного ящика с высокооптимизированными выходными данными. Это означает, что часто бывает сложно понять прогнозы модели и процесс принятия решений. Чтобы противостоять этому, используются методы интерпретации модели или атрибуции, чтобы попытаться объяснить обоснование прогнозов модели и выявить особенности, которые больше всего влияют на результат. Однако до сих пор достигнут небольшой прогресс в использовании моделей МО для атрибуции портфеля факторов, что является важнейшим компонентом систематического портфельного инвестирования. Без этой эволюции трудно точно понять, какие факторы влияют на доходность портфеля. Хотя модели ML могут иметь более высокую доходность, инвесторы в настоящее время несколько слепы к тому, откуда берутся эти доходы.

Существующие методологии атрибуции линейных факторов страдают от таких ограничений, как отсутствие возможности улавливать эффекты локального взаимодействия и подразумеваемое предположение о единой глобальной бета-версии. Вместо этого мы утверждаем, что систематическим инвесторам необходимо выйти за рамки существующих моделей линейной атрибуции, чтобы найти детальные, локальные объяснения эффективности.

Одним из решений является использование значения Шепли. В этой статье мы углубимся в то, что такое значение Шепли, как его можно применять для объяснения выходных данных модели и как мы вычисляем значения Шепли с использованием аддитивных объяснений SHAPley (SHAP) — конкретной реализации значения Шепли. Мы также объясняем, как систему атрибуции эффективности на основе SHAP можно использовать для локальной и глобальной атрибуции портфеля, и представляем инновационную систему атрибуции портфеля, которая использует значение Шепли и SHAP для объяснения как процесса принятия решений, так и перекрестных изменений доходности на местном и глобальный уровень. Мы также демонстрируем повышенную объяснительную силу атрибуции SHAP за счет включения нелинейных моделей машинного обучения, таких как XGBoost.

Если модели машинного обучения продолжают приносить разумную отдачу, зачем беспокоиться о совершенствовании методологий атрибуции? Короче говоря, потому что они неадекватны. Существующие методологии атрибуции факторов, такие как регрессия временных рядов, атрибуция перекрестной доходности и атрибуция на основе холдингов, основаны на линейных моделях, что делает их неспособными отразить эффекты локального взаимодействия с предположением о глобальной линейной бета-версии.

Например, регрессия временных рядов ограничена проблемой размерности и предположением о постоянной бета-версии во времени, что делает ее менее полезной для динамического управления портфелем. И наоборот, перекрестная атрибуция доходности с использованием набора факторов риска, обычно используемая поставщиками моделей риска, предполагает, что получение прибыли можно отнести к линейной глобальной факторной модели. Его близкий родственник, атрибуция на основе активов, оценивает подверженность портфельных активов набору портфелей пользовательских факторов. Хотя все три методологии основаны на одной и той же структуре линейного факторного возврата, они различаются по сложности и гибкости настройки. Однако эти методологии не способны уловить эффекты взаимодействия из-за нелинейной зависимости между этими независимыми переменными.

Значение Шепли — это концепция теории кооперативных игр, которая измеряет вклад каждого игрока в выигрыш в коалиционной игре.

Значение Шепли — это концепция теории кооперативных игр, которая измеряет вклад каждого игрока в выигрыш в коалиционной игре. Четыре аксиомы ценности Шепли1 гарантируют, что распределение выплат будет справедливым, когда игроки могут формировать коалиции, а выплаты зависят от эффективности коалиции. Значение Шепли — единственный метод выплат, который удовлетворяет этим четырем аксиомам. Распределение выплат рассчитывается на основе предельного вклада игрока путем перестановки всех комбинаций игроков.