¿Cuál será el impacto de la máquina de aprendizaje en la economía? apareció originalmente en Quora - la red de intercambio de conocimientos en cuestiones apremiantes son contestadas por personas con conocimientos únicos .

Responder by Susan Athey , Economía de la profesora de Tecnología, Stanford GSB; Juntas: Expedia, Ripple, en Quora :

La respuesta corta es que creo que va a tener un enorme impacto; en los primeros días, como se usa "fuera de la plataforma", pero en los econometristas más largo plazo modificarán los métodos y adaptarlos para que respondan a las necesidades de los científicos sociales principalmente interesados ​​en realizar inferencias sobre efectos causales y estimar el impacto de las políticas contrafactuales (es decir, cosas que no han sido juzgados todavía, o lo que hubiera pasado si se hubiera utilizado una política diferente). Ejemplos de preguntas economistas suelen estudiar son cosas como los efectos de los cambios en los precios, o la introducción de la discriminación de precios, o de cambiar el salario mínimo, o la evaluación de la eficacia publicitaria. Queremos estimar lo que sucedería en el caso de un cambio, o lo que hubiera pasado si el cambio no había tenido lugar.

Como evidencia del impacto ya, Guido Imbens y me atrajo a más de 250 profesores de economía a una sesión NBER en un sábado por la tarde el verano pasado, donde cubrimos aprendizaje automático para los economistas, y en todas partes les presento acerca de este tema para los economistas, atraigo a grandes multitudes. Creo que las cosas similares son verdaderas para el pequeño conjunto de otros economistas que trabajan en esta área. Había cientos de personas en una sesión sobre los grandes datos en las reuniones de la AEA hace unas semanas.

El aprendizaje automático es un término muy amplio; Voy a usarlo bastante estrecho aquí. Dentro de aprendizaje de máquina, hay dos ramas, la máquina de aprendizaje supervisado y no supervisado. Aprendizaje automático supervisado típicamente implica el uso de un conjunto de "características" o "covariables" (x) de predecir un resultado (y). Hay una variedad de métodos de LD, como LASSO (ver Victor Chernozhukov (MIT) y coautores que han traído esto en la economía), bosque azar, árboles de regresión, máquinas de vectores soporte, etc. Una característica común de muchos métodos ML es que utilizar la validación cruzada para seleccionar la complejidad del modelo; es decir, que en repetidas ocasiones estiman un modelo de parte de los datos y luego probarlo en otra parte, y se encuentran con el "término de penalización complejidad" que se ajuste a los datos mejores en términos de error cuadrático medio de la predicción (la diferencia al cuadrado entre la predicción del modelo y el resultado real). En gran parte de la econometría transversales, la tradición ha sido que el investigador especifica un modelo y luego se comprueba "solidez" al ver 2 o 3 alternativas. Yo creo que la regularización y la selección del modelo sistemática se convertirán en una parte estándar de la práctica empírica en la economía, ya que con más frecuencia encontramos conjuntos de datos con muchas covariables, y también como vemos las ventajas de ser sistemática acerca de la selección del modelo.

Sendhil Mullainathan (Harvard) y Jon Kleinberg con un número de coautores han argumentado que hay una serie de problemas en los off-the-shelf métodos de LD para la predicción son la parte clave de importantes problemas de políticas y decisiones. Utilizan ejemplos como decidir si hacer una operación de reemplazo de cadera para un paciente de edad avanzada; si se puede predecir sobre la base de sus características individuales que van a morir dentro de un año, entonces usted no debe hacer la operación. Muchos estadounidenses están encarcelados en espera de juicio; si se puede predecir quién va a presentarse a la corte, usted puede dejar más en libertad bajo fianza. Algoritmos ML están actualmente en uso para esta decisión en varias jurisdicciones. Goel, Rao y Shroff presentaron una ponencia en las reuniones de la AEA hace unas semanas usando métodos de LD para examinar leyes parada y registrar. Véase también el interesante trabajo utilizando métodos de predicción de LD en la sesión discutí sobre "predictivos" Ciudades: 2016 Programa Preliminar ASSA donde vemos ML utiliza en el sector público.

A pesar de estos ejemplos fascinantes, en los modelos generales de predicción de LD se construyen en una premisa que es fundamentalmente en desacuerdo con un montón de trabajo de las ciencias sociales en la inferencia causal. El fundamento de los métodos de LD supervisadas es que la selección del modelo (validación cruzada) se lleva a cabo para optimizar bondad de ajuste en una muestra de prueba. Un modelo es bueno si y sólo si se predice también. Sin embargo, la piedra angular de la econometría introductorias es que la predicción no es la inferencia causal, y de hecho un ejemplo económico clásico es que en muchos conjuntos de datos económicos, precio y cantidad se correlacionan positivamente. Las empresas fijan los precios más altos en las ciudades de altos ingresos, donde los consumidores compran más; aumentan los precios en previsión de épocas de máxima demanda. Una gran cantidad de investigaciones econométricas busca reducir la bondad de ajuste de un modelo con el fin de estimar el efecto causal de, por ejemplo, cambios en los precios. Si los precios y las cantidades se correlacionan positivamente en los datos, cualquier modelo que estima el efecto causal verdadera (cantidad baja si cambia de precio) no va a hacer un trabajo tan bueno ajustando los datos. El lugar donde el modelo econométrico con una estimación causal haría mejor está en montar lo que ocurre si la empresa realmente cambia los precios en un punto dado en el tiempo - en hacer predicciones contrafactuales cuando cambia el mundo. Técnicas como variables instrumentales tratan de utilizar sólo una parte de la información que se encuentra en los datos - la "limpia" o "exógeno" o variación "-experimento como" en el precio - sacrificar la precisión predictiva en el entorno actual de aprender acerca de una más relación fundamental que ayudará a tomar decisiones sobre los precios cambiantes. Este tipo de modelo no ha recibido casi ninguna atención en ML.

En algunos de mis investigaciones, estoy explorando la idea de que es posible tomar las fortalezas y las innovaciones de los métodos de LD, pero aplicarlas a la inferencia causal. Se requiere cambiar la función objetivo, ya que la realidad sobre el terreno del parámetro causal no se observa en ninguna prueba. La teoría estadística juega un papel más importante, ya que necesitamos un modelo de la cosa observada queremos estimar (el efecto causal) con el fin de definir el objetivo de que los algoritmos optimizan para. También estoy trabajando en el desarrollo de la teoría estadística para algunos de los estimadores más ampliamente utilizados y exitosos, como los bosques aleatorios, y adaptarlos para que puedan ser utilizados para predecir los efectos del tratamiento de un individuo en función de sus características. Por ejemplo, puedo decir con un individuo en particular, teniendo en cuenta sus características, cómo iban a responder a un cambio de precio, utilizando un método adaptado de árboles de regresión o bosques aleatorios. Este vendrá con un intervalo de confianza también. Puede buscar mis papeles en arXiv.org correo Imprimir archivo ; También escribí un artículo sobre el uso de métodos de LD para evaluar sistemáticamente la robustez de las estimaciones causales en la American Economic Review año pasado. Espero que algunos de estos métodos se pueden aplicar en la práctica para evaluar los ensayos controlados aleatorios, ensayos A / B en empresas de tecnología, etc., a fin de descubrir los efectos del tratamiento sistemático heterogéneos.

Herramientas de aprendizaje automático sin supervisión difieren de supervisión en que no hay ninguna variable de resultado (no "y"): estas herramientas se pueden utilizar para encontrar grupos de objetos similares. He utilizado estas herramientas en mi propia investigación para encontrar grupos de noticias sobre un tema similar. Son de uso general a las imágenes o vídeos del grupo; si dices un informático descubrió gatos en YouTube, puede significar que utilizaron un método ML no supervisado a encontrar un conjunto de vídeos similares, y cuando usted los mira, un humano puede ver que todos los videos en el grupo 1572 son sobre gatos, mientras que todos los videos en el grupo 423 son acerca de los perros. Veo estas herramientas como muy útil como un paso intermedio en el trabajo empírico, como una forma basada en datos para encontrar artículos similares, opiniones, productos, historias de usuario, etc.

Esta pregunta apareció originalmente en Quora - La red de intercambio de conocimientos en cuestiones apremiantes son contestadas por personas con conocimientos únicos. Puedes seguir Quora en Gorjeo , Facebook Y Google+ . Más preguntas: