Здравствуйте, форумчане. Попала мне в руки книга Уильяма Бернстайна «Манифест инвестора». Там есть глава про уравнение Гордона, после которой приводится пример. Вот выдержка из книги:
К примеру, за период с 1926 по 1999 г. дивиденды по акциям S&P 500 снизились с 5 до 1,1 %. Такое снижение привело к росту цены на 2,1 % в год. И наоборот, рост дивидендов влечет за собой падение цены.
Если бы в 1926 г. кто-нибудь знал, что подобное произойдет в течение ближайших 73 лет и что реальные темпы роста дивидендов составляют 1,3 % в год, он мог бы подсчитать, что реальная доходность за этот период составит: 5 % + 1,3 % + 2,1 % = 8,4 %.
Мне непонятно как так получается, что уменьшение дивидендов приводит к увеличению цены акции. Как по мне так это бред и должно быть на оборот. Если по акции вообще перестанут платить дивиденды, то она станет бесконечно дорогой? И вообще это как то не бьется с уравнением представленным чуть выше: P=D/(r–g)
, где D – дивиденды за последний год, g – темпы роста дивидендов, r – ожидаемая доходность и P – цена.
Там явно видно что дивиденды и цена акции находятся в прямой зависимости — т.е. если дивиденд растёт, то цена акции тоже растёт. И эта логика мне понятна, что если акция приносит большой доход, то её хотят купить и цена на неё увеличивается.
Можете пояснить где тут ошибка в рассуждениях.