Нелинейный метод наименьших квадратов

Заказать уникальный реферат
Тип работы: Реферат
Предмет: Эконометрика
  • 17 17 страниц
  • 7 + 7 источников
  • Добавлена 24.03.2008
748 руб.
  • Содержание
  • Часть работы
  • Список литературы
  • Вопросы/Ответы
Оглавление
Введение
1.Метод градиентного спуска
2.Метод Ньютона
3.Метод Ньютона-Гаусса
4.Методы, не использующие вычисления производных
5.Способы нахождения начального приближения
6.Вопросы существования и единственности МНК-оценки
Заключение
Литература

Фрагмент для ознакомления

Если движение осуществляется в направлении под острым углом к антиградиенту оптимизируемой функции, то алгоритм относится к классу алгоритмов квазиградиентного типа.
3. Если движение в итерационной процедуре уточнения значений оценок параметров осуществляется непосредственно в направлении антиградиента, то процедуру относят к алгоритмам градиентного спуска. Подобные алгоритмы обеспечивают (при определенных ограничениях на минимизируемую функцию) сходимость последовательности Gs со скоростью геометрической прогрессии (линейная сходимость). Из-за того, что реальная скорость сходимости таких алгоритмов резко снижается при приближении 6S к предельному значению b*, градиентный спуск целесообразно применять лишь на начальных этапах минимизации, используя найденные в результате сравнительно небольшого числа итераций величины bS в качестве начальных приближений для более сложных методов, обладающих большей скоростью сходимости.
4. В методе Ньютона значения неизвестных параметров на каждой следующей итерации bS+1 находятся из условия минимума квадратичного полинома, аппроксимирующего исходную критериальную функцию в окрестности точки bS. При этом соответствующая процедура будет менее чувствительна к выбору начального приближения (в частности, будет менее подвержена эффекту «раскачки» при его неудачном выборе), если использовать ее вариант с регулировкой шага. При определенных условиях метод Ньютона обеспечивает квадратичную скорость сходимости последовательности bS к b*.
5. Используя линейную (по параметрам) аппроксимацию исследуемой функции регрессии в окрестности точки bS, можно прийти к модификации метода Ньютона ( методу Ньютона-Гаусса. Он существенно проще в вычислительном плане, однако бывает слишком чувствительным к эффекту слабой обусловленности используемых в нем матриц Ms. Скорость сходимости этого метода в зависимости от условий, накладываемых на регрессионную функцию и свободные параметры алгоритма, может быть линейной, сверхлинейной или квадратичной.
6. Существенным недостатком методов квазиградиентного типа, в том числе метода Ньютона, метода Ньютона—Гаусса и других, является необходимость подсчета производных от искомых регрессионных функций на каждой итерации. Основная идея, на которую опираются методы, позволяющие обходиться без подсчета производных, заключается в использований на (s+1-й итерации информации, полученной на предыдущих s итерациях, для построения разумных аппроксимаций для элементов матриц, определяющих выбор направления и шаг движения к решению b*.
7. Первостепенное значение для скорости сходимости используемых итерационных процедур решения оптимизационной задачи метода наименьших квадратов имеет удачный выбор начального приближения b0, Для реализации этого выбора используется ряд приемов: «поиск на сетке», вспомогательное преобразование (линеаризующее) модели, разбиение имеющейся выборки на подвыборки, разложение регрессионной функции в ряд Тейлора.
8. При вычислительной реализации метода наименьших квадратов в нелинейном (по оцениваемым параметрам) случае приходится исследовать вопросы существования и единственности решения. Необходимо помнить, что используемые (в том числе все описанные выше) методы оптимизации приводят в лучшем случае лишь к локальному минимуму критериальной функции. Проверка того, является ли этот минимуму глобальным, является следующей, зачастую не менее трудоемкой, вычислительной операцией.
Литература
Айвазян С.А., Мхитарян B.C. Прикладная статистика и основы эконометрики. ( М.: ЮНИТИ, 1998.
Демиденко Е. 3. Линейная и нелинейная регрессии. — М.: Финансы и статистика, 1981. ( 302 с.
Доугерти К. Введение в эконометрику: Пер. с англ. ( М.: Инфра-М, 1997.
Кремер Н.Ш., Путко Б.А. Эконометрика: Учебник для вузов // Под ред. проф. Н.Ш. Кремера. ( М.: Юнити-Дана, 2005. ( 311 с.
Магнус Я.Р., Катышев Л.К., Пересецкий А.А. Эконометрика. Начальный курс. ( М.: Дело, 2000.
Прикладная статистика: Исследование зависимостей: Справ, изд. / С. А. Айвазян, И. С. Енюков, Л. Д. Мешалкин; Под ред. С. А. Айвазяна. ( М.: Финансы и статистика, 1985. — 487 с.
Успенский А. Б., Федоров В. В. Вычислительные аспекты метода наименьших квадратов при анализе и планировании регрессионных экспериментов. ( М.: МГУ, 1975. ( 168 с.
Демиденко Е. 3. Линейная и нелинейная регрессии. — М.: Финансы и статистика, 1981. ( 302 с.
Антиградиент ( это направление, противоположное градиенту
Прикладная статистика: Исследование зависимостей: Справ, изд. / С. А. Айвазян, И. С. Енюков, Л. Д. Мешалкин; Под ред. С. А. Айвазяна. ( М.: Финансы и статистика, 1985. — 487 с.
;
Успенский А. Б., Федоров В. В. Вычислительные аспекты метода наименьших квадратов при анализе и планировании регрессионных экспериментов. ( М.: МГУ, 1975. ( 168 с.
Доугерти К. Введение в эконометрику: Пер. с англ. ( М.: Инфра-М, 1997
Прикладная статистика: Исследование зависимостей: Справ, изд. / С. А. Айвазян, И. С. Енюков, Л. Д. Мешалкин; Под ред. С. А. Айвазяна. ( М.: Финансы и статистика, 1985. — 487 с.

















4

Литература
1.Айвазян С.А., Мхитарян B.C. Прикладная статистика и основы эконометрики. ? М.: ЮНИТИ, 1998.
2.Демиденко Е. 3. Линейная и нелинейная регрессии. — М.: Финансы и статистика, 1981. ? 302 с.
3.Доугерти К. Введение в эконометрику: Пер. с англ. ? М.: Инфра-М, 1997.
4.Кремер Н.Ш., Путко Б.А. Эконометрика: Учебник для вузов // Под ред. проф. Н.Ш. Кремера. ? М.: Юнити-Дана, 2005. ? 311 с.
5.Магнус Я.Р., Катышев Л.К., Пересецкий А.А. Эконометрика. Начальный курс. ? М.: Дело, 2000.
6.Прикладная статистика: Исследование зависи¬мостей: Справ, изд. / С. А. Айвазян, И. С. Енюков, Л. Д. Мешалкин; Под ред. С. А. Айвазяна. ? М.: Финансы и статистика, 1985. — 487 с.
7.Успенский А. Б., Федоров В. В. Вычислительные аспекты метода наименьших квадратов при анализе и планировании регрессионных экспериментов. ? М.: МГУ, 1975. ? 168 с.

Вопрос-ответ:

Что такое нелинейный метод наименьших квадратов?

Нелинейный метод наименьших квадратов - это численный метод оптимизации, который используется для нахождения параметров нелинейной функции, минимизирующих сумму квадратов отклонений между наблюдаемыми и предсказанными значениями.

Как работает метод градиентного спуска?

Метод градиентного спуска - это итерационный метод оптимизации, который использует градиент (вектор частных производных) функции для определения направления наискорейшего убывания. Начиная с некоторого начального приближения, метод градиентного спуска последовательно обновляет значения параметров, двигаясь в направлении антиградиента функции, до достижения минимума.

В чем разница между методом Ньютона и методом Ньютона-Гаусса?

Метод Ньютона и метод Ньютона-Гаусса - это два различных подхода к решению задачи нелинейной оптимизации. Метод Ньютона использует аппроксимацию функции вторым порядком с помощью разложения в ряд Тейлора и нахождение ее минимума. Метод Ньютона-Гаусса, или метод наименьших квадратов по Гауссу-Ньютона, использует тот же принцип, но с учетом наличия шума в данных и с помощью метода наименьших квадратов находит оптимальные параметры модели.

Какие есть методы нелинейной оптимизации, не использующие вычисления производных?

Существуют различные методы нелинейной оптимизации, которые не требуют вычисления производных функции. Некоторые из них включают метод потенциальных функций, метод случайного поиска, метод роя частиц, метод симплексов и другие. Эти методы ищут оптимальное значение функции, обходясь без информации о производных, но требуют больше вычислительных ресурсов и имеют свои ограничения.

Как найти начальное приближение для нелинейного метода наименьших квадратов?

Существует несколько способов нахождения начального приближения для нелинейного метода наименьших квадратов. Некоторые из них включают использование экспертных знаний, аппроксимацию линейной моделью или использование предыдущих результатов анализа данных. Важно выбрать такое начальное приближение, которое будет достаточно близким к истинным значениям параметров, чтобы метод сходился к оптимальному решению.

Какие методы используются в нелинейном методе наименьших квадратов?

В нелинейном методе наименьших квадратов используются следующие методы: градиентный спуск, метод Ньютона, метод Ньютона-Гаусса, методы, не использующие вычисления производных.

Чем отличается градиентный спуск от метода Ньютона?

Градиентный спуск использует только значения градиента для определения направления итерационного движения, в то время как метод Ньютона использует также вторые производные для нахождения оптимального шага вдоль кривизны функции.

Как работает метод Ньютона-Гаусса?

Метод Ньютона-Гаусса является модификацией метода Ньютона, в котором используется аппроксимация Гаусса-Ньютона для вычисления вторых производных. Это позволяет устранить необходимость в точном вычислении вторых производных и сделать алгоритм более эффективным.

Какие есть методы, не использующие вычисления производных в нелинейном методе наименьших квадратов?

В нелинейном методе наименьших квадратов существуют методы, которые не требуют вычисления производных, такие как метод Гаусса-Ньютона и метод Левенберга-Марквардта.

Как можно найти начальное приближение в нелинейном методе наименьших квадратов?

Начальное приближение в нелинейном методе наименьших квадратов можно найти различными способами, например, с помощью аналитических рассуждений, графического анализа или использования предыдущих оценок.

Существует ли гарантия существования и единственности МНК-оценки?

Существование и единственность МНК-оценки зависит от условий, удовлетворяющих рассматриваемой модели. В общем случае, существование и единственность МНК-оценки не гарантируется.