Econometría 1 Ampliar

Econometría 1

Introducción a la econometría moderna

S/ 40,00

Añadir a mi lista de deseos

Esta publicación de Luis García Núñez busca introducir a los estudiantes de economía al mundo de la econometría moderna, en un nivel básico-intermedio. Como en cualquier curso inicial de econometría, el eje central es el modelo de regresión lineal clásico, cuyos supuestos son desarrollados poco a poco con el fi n de abordar problemas econométricos más realistas.
Los modelos y métodos econométricos se presentan de manera rigurosa, sin dejar afi rmaciones sin sustento, explicando con claridad los diversos temas y utilizando datos reales en la mayoría de los ejemplos.

Luis García Núñez es licenciado en economía por la PUCP, ­Master of Arts en Economía (ILADES y Universidad de Georgetown, 1999) y Doctor por la Universidad de Georgetown (2006).

Es profesor e investigador principal del departamento de Econo­mía de la Pontificia Universidad Católica del Perú y sus áreas de investigación son economía de la salud, economía del hogar y economía de la educación, especialidades sobre las que ha escrito numerosos artículos académicos. Ha sido coordinador de la especialidad de Economía en la Facultad de Ciencias Sociales de la PUCP y actualmente se desempeña como director de la maestría en Economía de dicha universidad. Tiene además una larga experiencia docente en econometría y microeconomía.

Prefacio
Introducción
Capítulo 1. El modelo de regresión lineal clásico con dos variables 
1.1. El análisis de regresión 
1.2. El modelo de regresión lineal clásico con dos variables
1.3. A manera de conclusión 
Ejercicios 
Capítulo 2. Estimación del modelo clásico por mínimos cuadrados ordinarios y sus propiedades 
2.1. La función de regresión muestral 
2.2. Estimación por mínimos cuadrados ordinarios 
2.3. Algunas características de la estimación por MCO 
2.4. El modelo en desviaciones respecto a las medias 
2.5. Propiedades estadísticas de los estimadores de MCO 
2.6. Estimación de s2 
2.7. El teorema de Gauss-Markov 
2.8. Descomposición de la suma de cuadrados 
2.9. Ejemplo de una estimación en Stata 
Ejercicios 
Capítulo 3. Inferencia estadística en el modelo de dos variables 
3.1. El supuesto de normalidad de los errores 
3.2. Intervalos de confianza para los parámetros estimados 
3.3. Prueba de hipótesis 
Índice
3.4. El estadístico t 
3.5. Prueba de la significancia de un coeficiente 
3.6. El p-value 
3.7. Interpretando los resultados de pruebas de hipótesis en Stata 
Ejercicios
Capítulo 4. El modelo de regresión lineal con k variables 
4.1. El modelo de regresión lineal clásico con k variables 
4.2. Estimación del modelo por MCO 
4.3. Alguna propiedades matemáticas de la estimación MCO 
4.4. Propiedades estadísticas del estimador de mínimos cuadrados ordinarios ?ˆ 
4.5. El estimador de ?2 
4.6. El teorema de Gauss-Markov 
4.7. Error de especificación: omisión de variables relevantes 
4.8. Error de especificación: inclusión de variables irrelevantes 
4.9. El teorema de Frisch-Waugh 
4.10. Descomposición de la suma de cuadrados 
4.11. Tabla de análisis de la varianza 
Apéndice 4.1 
Apéndice 4.2 
Apéndice 4.3 
Apéndice 4.4 
Apéndice 4.5 
Ejercicios 
Capítulo 5. Pruebas de hipótesis, estimación con restricciones lineales y predicción en el modelo de k variables 
5.1. Pruebas de hipótesis lineales 
5.2. Relación entre la prueba t y F 
5.3. Relación entre la prueba de significancia conjunta y el R-cuadrado 
5.4. Estimación del modelo de regresión lineal sujeto a restricciones lineales
5.5. Predicción en el modelo de k variables
Apéndice 5.1
Apéndice 5.2
Ejercicios
Capítulo 6. Otros temas en regresión lineal múltiple
6.1. Multicolinealidad 
6.2. Variables cualitativas 
6.3. Cambio estructural 
Apéndice 6.1 
Ejercicios 
Capítulo 7. Propiedades asintóticas de los estimadores MCO 
7.1. Propiedades estadísticas y asintóticas de los promedios muestrales 
7.2. Convergencia en probabilidad, convergencia media cuadrática y consistencia 
7.3. Convergencia en distribución y teorema de límite central
7.4. Distribución asintótica
7.5. Propiedades asintóticas de los estimadores MCO
7.6. Otras convergencias notables
Apéndice 7.1
Apéndice 7.2
Ejercicios
Capítulo 8. Estimación del modelo de regresión lineal clásico por máxima verosimilitud
8.1. Los estimadores de máxima verosimilitud
8.2. Estimación del modelo de regresión lineal clásico por máxima verosimilitud
8.3. Los tests de «razón de verosimilitud», «Wald» y «multiplicadores de Lagrange»
Ejercicios 
Capítulo 9. El modelo de regresión lineal con perturbaciones no esféricas
9.1. Perturbaciones no esféricas
9.2. Estimación por mínimos cuadrados generalizados
9.3. Heterocedasticidad
9.4. Correlación serial o autocorrelación
Apéndice 9.1
Apéndice 9.2
Ejercicios
Capítulo 10. Correlación entre los regresores y el término de perturbación
10.1. Ejemplos de correlación entre los regresores y la perturbación
10.2. Sesgo e inconsistencia del estimador MCO
10.3. ¿Cómo obtener un estimador consistente de ? cuando Cov(Xi, ui) ? 0?
10.4. Estimación por mínimos cuadrados en dos etapas (MC2E)
10.5. Verificando las condiciones de relevancia y exogeneidad
10.6. Test de endogeneidad
Apéndice 10.1
Apéndice 10.2
Apéndice 10.3
Apéndice 10.4
Apéndice 10.5 
Ejercicios
Apéndice. Elementos de álgebra matricial
1. Definiciones básicas
2. Operaciones con matrices
3. Rango, determinante y matriz inversa
4. Traza de una matriz
5. Sistemas lineales
6. Valores propios
7. Formas cuadráticas
8. Matrices particionadas
9. Reglas de derivación con matrices
Tablas estadísticas
Bibliografía

ISBN: 9786123170998

Año: 2015

Edición: 1era

Número de páginas: 370

Peso: 0.50 Kg.

Formato: 14.5 x 20.5

Libros relacionados

Anterior
Siguiente
  • Send to a friend

    Recipient :

    * Required fields

    Cancel or 

  • Buscar