www.webmoney.ru

Добавить в корзину Удалить из корзины Купить

Метод наименьших квадратов (МНК)


ID работы - 611045
статистика (контрольная работа)
количество страниц - 20
год сдачи - 2012



СОДЕРЖАНИЕ:



Содержание:
Введение 3
1. Оценка параметров классической регрессионной модели методом наименьших квадратов 4
2. Ковариационная матрица и ее выборочная оценка 8
3. Теорема Гаусса–Маркова 11
4. Обобщенный (доступный) метод наименьших квадратов 15
Заключение 18
Список литературы 20




ВВЕДЕНИЕ:



Введение
Экономические явления, как правило, определяются боль-шим числом одновременно и совокупно действующих факторов. В связи с этим часто возникает задача исследования зависимости од-ной зависимой переменной Y от нескольких объясняющих перемен-ных Х1, Х2,..., Хn. Эта задача решается с помощью множественного регрессионного анализа.
Обозначим i-е наблюдение зависимой переменной уi, а объяс-няющих переменных – xi1, хi2,..., хiр. Тогда модель множественной линейной регрессии можно представить в виде:
уi = ?0 + ?1xi1 + ?2хi2 + … + ?pxip + ?i,
где i = 1,2,…, n; удовлетворяет приведенным выше предпосылкам:
• математического ожидания возмущения: М(?i) = 0
• постоянности дисперсии возмущения ?i для любого i: D(?i) = ?2.
• Возмущения ?i и ?j (или переменные уi и yj) не коррелированны: M(?i?j)=0 (i ?j).
Данная модель, в которой зависимая переменная уi, возмуще-ния ?i, и объясняющие переменные хi1, xi2,..., хiр должна удовлетво-рять приведенным выше предпосылкам регрессионного анализа, носит название классической нормальной линейной моделью мно-жественной регрессии (Classic Normal Linear Multiple Regression model).
Включение в регрессионную модель новых объясняющих пе-ременных усложняет получаемые формулы и вычисления. Это при-водит к целесообразности использования матричных обозначений. Матричное описание регрессии облегчает как теоретические кон-цепции анализа и необходимые расчетные процедуры.
Если ввести обозначения: Y= (y1 y2 … уn)' – транспонирован-ная матрица-столбец, или вектор, значений зависимой переменной размера n. Тогда в матричной форме модель примет вид:
Y= X? + ?
Оценкой этой модели по выборке является уравнение, которая носит название «классическая регрессионная модель»:
Y= Xb + е
Целью и задачей данной работы является анализ методом наименьших квадратов классической регрессионной модели.
1. Оценка параметров классической регрессионной модели методом наименьших квадратов
Для оценки вектора неизвестных параметров р применим ме-тод наименьших квадратов. Так как произведение транспонирован-ной матрицы е' на саму матрицу е:
ee' = (e1, e2, …, en) =
(1)
то условие минимизации остаточной суммы квадратов запишется в виде:




СПИСОК ЛИТЕРТУРЫ:



Список литературы
1. Айвазян С.А., Мхитарян B.C. Прикладная статистика и основы эконометрики – М.: ЮНИТИ, 1998
2. Бугров Я.С., Никольский С.М. Элементы линейной алгебры и аналитической геометрии – Ростов-н-Д.: Феникс, 1997
3. Джонстон Дж. Эконометрические методы: Пер. с англ. — М.: Финансы и статистика, 1997
4. Доугерти К. Введение в эконометрику: Пер. с англ. — М.: Инфра-М, 1997
5. Дубров А.М., Мхитарян B.C., Трошин Л.И. Многомерные статистические методы. – М.: Финансы и статистика, 1998.
6. Кремер Н.Ш., Путко Б.А. Эконометрика – М., ЮНИТИ, 2002

Цена: 1000.00руб.

ДОБАВИТЬ В КОРЗИНУ

УДАЛИТЬ ИЗ КОРЗИНЫ

КУПИТЬ СРАЗУ


ЗАДАТЬ ВОПРОС

Будьте внимательны! Все поля обязательны для заполнения!

Контактное лицо :
*
email :
*
Введите проверочный код:
*
Текст вопроса:
*



Будьте внимательны! Все поля обязательны для заполнения!

Copyright © 2009, Diplomnaja.ru