id
int64
28.8k
36k
text
stringlengths
44
3.03k
translation
stringlengths
36
2.47k
29,067
We present a class of one-to-one matching models with perfectly transferable utility. We discuss identification and inference in these separable models, and we show how their comparative statics are readily analyzed.
ما یک کلاس از مدل های تطبیق یک به یک با کاملاً قابل انتقال ارائه می دهیم ابزارما در مورد شناسایی و استنباط در این مدل های جداکننده بحث می کنیم ، و ما نشان می دهیم که چگونه آمار مقایسه ای آنها به راحتی مورد تجزیه و تحلیل قرار می گیرد.
29,068
The notion of hypothetical bias (HB) constitutes, arguably, the most fundamental issue in relation to the use of hypothetical survey methods. Whether or to what extent choices of survey participants and subsequent inferred estimates translate to real-world settings continues to be debated. While HB has been extensively studied in the broader context of contingent valuation, it is much less understood in relation to choice experiments (CE). This paper reviews the empirical evidence for HB in CE in various fields of applied economics and presents an integrative framework for how HB relates to external validity. Results suggest mixed evidence on the prevalence, extent and direction of HB as well as considerable context and measurement dependency. While HB is found to be an undeniable issue when conducting CEs, the empirical evidence on HB does not render CEs unable to represent real-world preferences. While health-related choice experiments often find negligible degrees of HB, experiments in consumer behaviour and transport domains suggest that significant degrees of HB are ubiquitous. Assessments of bias in environmental valuation studies provide mixed evidence. Also, across these disciplines many studies display HB in their total willingness to pay estimates and opt-in rates but not in their hypothetical marginal rates of substitution (subject to scale correction). Further, recent findings in psychology and brain imaging studies suggest neurocognitive mechanisms underlying HB that may explain some of the discrepancies and unexpected findings in the mainstream CE literature. The review also observes how the variety of operational definitions of HB prohibits consistent measurement of HB in CE. The paper further identifies major sources of HB and possible moderating factors. Finally, it explains how HB represents one component of the wider concept of external validity.
مفهوم تعصب فرضی (Hb) ، مسلماً بیشترین میزان را تشکیل می دهد مسئله اساسی در رابطه با استفاده از روشهای بررسی فرضی. آیا یا به چه میزان گزینه های شرکت کنندگان در نظرسنجی و متعاقب آن تخمین های استنباط ترجمه به تنظیمات دنیای واقعی همچنان مورد بحث قرار می گیرد. در حالی که HB به طور گسترده در زمینه وسیع تر مشروط مورد مطالعه قرار گرفته است ارزیابی ، در رابطه با آزمایش های انتخاب (CE) بسیار کمتر درک می شود. در این مقاله شواهد تجربی برای HB در CE در زمینه های مختلف بررسی شده است اقتصاد کاربردی و یک چارچوب یکپارچه برای نحوه ارتباط HB با اعتبار خارجی.نتایج حاکی از شواهد مختلط در مورد شیوع ، میزان و جهت HB و همچنین زمینه و وابستگی اندازه گیری قابل توجهی. در حالی که HB هنگام انجام CES ، تجربی ، یک مسئله غیرقابل انکار است شواهد مربوط به HB باعث نمی شود CES نتواند ترجیحات دنیای واقعی را نشان دهد. در حالی که آزمایش های انتخاب مربوط به سلامت اغلب درجات ناچیز Hb را پیدا می کنند ، آزمایش در حوزه های رفتار مصرف کننده و حمل و نقل حاکی از آن است درجات قابل توجهی از Hb همه گیر است.ارزیابی تعصب در محیط زیست مطالعات ارزیابی شواهد مختلط را ارائه می دهد.همچنین ، در این رشته ها بسیاری مطالعات HB را در تمایل کل خود برای پرداخت تخمین ها و نرخ های انتخابی نشان می دهد اما نه در نرخ حاشیه فرضی آنها تعویض (منوط به مقیاس تصحیح)علاوه بر این ، یافته های اخیر در روانشناسی و مطالعات تصویربرداری از مغز مکانیسم های عصبی شناختی اساسی Hb را پیشنهاد کنید که ممکن است برخی از موارد را توضیح دهد اختلافات و یافته های غیر منتظره در ادبیات اصلی CE.در مرور همچنین مشاهده می کند که چگونه تنوع تعاریف عملیاتی HB ممنوع است اندازه گیری مداوم Hb در CE.این مقاله بیشتر منابع اصلی را مشخص می کند از Hb و عوامل تعدیل کننده احتمالی.سرانجام ، این توضیح می دهد که چگونه HB نشان می دهد یکی از مؤلفه های مفهوم گسترده تر اعتبار خارجی.
29,069
This paper reviews methods of hypothetical bias (HB) mitigation in choice experiments (CEs). It presents a bibliometric analysis and summary of empirical evidence of their effectiveness. The paper follows the review of empirical evidence on the existence of HB presented in Part I of this study. While the number of CE studies has rapidly increased since 2010, the critical issue of HB has been studied in only a small fraction of CE studies. The present review includes both ex-ante and ex-post bias mitigation methods. Ex-ante bias mitigation methods include cheap talk, real talk, consequentiality scripts, solemn oath scripts, opt-out reminders, budget reminders, honesty priming, induced truth telling, indirect questioning, time to think and pivot designs. Ex-post methods include follow-up certainty calibration scales, respondent perceived consequentiality scales, and revealed-preference-assisted estimation. It is observed that the use of mitigation methods markedly varies across different sectors of applied economics. The existing empirical evidence points to their overall effectives in reducing HB, although there is some variation. The paper further discusses how each mitigation method can counter a certain subset of HB sources. Considering the prevalence of HB in CEs and the effectiveness of bias mitigation methods, it is recommended that implementation of at least one bias mitigation method (or a suitable combination where possible) becomes standard practice in conducting CEs. Mitigation method(s) suited to the particular application should be implemented to ensure that inferences and subsequent policy decisions are as much as possible free of HB.
در این مقاله روشهای کاهش تعصب فرضی (HB) در انتخاب بررسی شده است آزمایشات (CES).این یک تجزیه و تحلیل کتابشناسی و خلاصه تجربی را ارائه می دهد شواهدی از اثربخشی آنها.این مقاله به دنبال بررسی تجربی است شواهدی در مورد وجود HB ارائه شده در قسمت اول این مطالعه.در حالی که تعداد مطالعات CE از سال 2010 به سرعت افزایش یافته است ، مسئله مهم HB فقط در بخش کوچکی از مطالعات CE مورد مطالعه قرار گرفته است.بررسی حاضر شامل هر دو روش کاهش تعصب سابق-آنتی و سابق پست است.تعصب سابق روش های کاهش شامل بحث ارزان ، صحبت واقعی ، اسکریپت های نتیجه گیری ، اسکریپت های سوگند فراوان ، یادآوری های امتناع ، یادآوری بودجه ، ترجیح صداقت ، گفتن حقیقت القا شده ، سؤال غیرمستقیم ، زمان فکر کردن و طرح های محوری. روشهای پست سابق شامل مقیاس کالیبراسیون یقین پیگیری ، پاسخ دهنده مقیاس های پی در پی درک شده ، و برآورد به کمک خود را نشان داد. مشاهده می شود که استفاده از روشهای کاهش به طور قابل توجهی در سراسر متفاوت است بخش های مختلف اقتصاد کاربردی.نقاط شواهد تجربی موجود به اثربخشی کلی آنها در کاهش HB ، اگرچه تنوع وجود دارد. در این مقاله بیشتر مورد بحث قرار می گیرد که چگونه هر روش کاهش می تواند با یک خاص مقابله کند زیر مجموعه منابع HB.با توجه به شیوع HB در CES و اثربخشی روشهای کاهش تعصب ، توصیه می شود که اجرای حداقل از یک روش کاهش تعصب (یا ترکیبی مناسب که در آن ممکن) در انجام CES به یک روش استاندارد تبدیل می شود.روش (های) کاهش مناسب برای برنامه خاص باید برای اطمینان از این امر اجرا شود استنتاج و تصمیمات سیاست بعدی تا حد امکان عاری از HB است.
29,070
We provide a geometric formulation of the problem of identification of the matching surplus function and we show how the estimation problem can be solved by the introduction of a generalized entropy function over the set of matchings.
ما یک فرمول هندسی از مشکل شناسایی تطبیق عملکرد مازاد و ما نشان می دهیم که چگونه می توان مشکل تخمین را حل کرد با معرفی یک عملکرد آنتروپی تعمیم یافته بر روی مجموعه مطابقت
29,071
This paper studies inference in a randomized controlled trial (RCT) with covariate-adaptive randomization (CAR) and imperfect compliance of a binary treatment. In this context, we study inference on the LATE. As in Bugni et al. (2018,2019), CAR refers to randomization schemes that first stratify according to baseline covariates and then assign treatment status so as to achieve "balance" within each stratum. In contrast to these papers, however, we allow participants of the RCT to endogenously decide to comply or not with the assigned treatment status. We study the properties of an estimator of the LATE derived from a "fully saturated" IV linear regression, i.e., a linear regression of the outcome on all indicators for all strata and their interaction with the treatment decision, with the latter instrumented with the treatment assignment. We show that the proposed LATE estimator is asymptotically normal, and we characterize its asymptotic variance in terms of primitives of the problem. We provide consistent estimators of the standard errors and asymptotically exact hypothesis tests. In the special case when the target proportion of units assigned to each treatment does not vary across strata, we can also consider two other estimators of the LATE, including the one based on the "strata fixed effects" IV linear regression, i.e., a linear regression of the outcome on indicators for all strata and the treatment decision, with the latter instrumented with the treatment assignment. Our characterization of the asymptotic variance of the LATE estimators allows us to understand the influence of the parameters of the RCT. We use this to propose strategies to minimize their asymptotic variance in a hypothetical RCT based on data from a pilot study. We illustrate the practical relevance of these results using a simulation study and an empirical application based on Dupas et al. (2018).
این مقاله استنباط در یک کارآزمایی کنترل شده تصادفی (RCT) با تصادفی سازی متغیر متغیر (CAR) و انطباق ناقص یک باینری رفتار.در این زمینه ، ما استنباط را در اواخر مطالعه می کنیم.همانطور که در Bugni و همکاران. (2018،2019) ، CAR به طرح های تصادفی اشاره می کند که برای اولین بار طبق آن طبقه بندی می شوند برای پایه های متغیر و سپس تعیین وضعیت درمان به منظور دستیابی "تعادل" در هر قشر.با این حال ، برخلاف این مقالات ، ما اجازه می دهیم شرکت کنندگان در RCT به درون زا تصمیم به رعایت یا نه با وضعیت درمانی اختصاص داده شده. ما خواص یک برآوردگر اواخر مشتق شده از "کاملاً" را مطالعه می کنیم رگرسیون خطی IV اشباع شده ، یعنی رگرسیون خطی از نتیجه در تمام شاخص ها برای همه اقشار و تعامل آنها با درمان تصمیم ، با استفاده دوم با تکلیف درمانی.ما نشان می دهیم که برآوردگر دیرهنگام پیشنهادی از نظر غیر عادی طبیعی است ، و ما توصیف می کنیم واریانس بدون علامت آن از نظر ابتدایی مشکل.ما فراهم می کنیم برآوردگرهای مداوم از خطاهای استاندارد و بدون علامت دقیق آزمون فرضیه.در مورد خاص که نسبت هدف واحدها اختصاص داده شده به هر درمان در اقشار متفاوت نیست ، ما همچنین می توانیم در نظر بگیریم دو برآوردگر دیگر اواخر ، از جمله یکی بر اساس "اقشار ثابت" اثرات "رگرسیون خطی IV ، یعنی رگرسیون خطی از نتیجه در شاخص های مربوط به همه اقشار و تصمیم گیری با دومی ساز با تکلیف درمانی. خصوصیات ما از واریانس بدون علامت برآوردگرهای دیررس اجازه می دهد ما برای درک تأثیر پارامترهای RCT.ما از این استفاده می کنیم تا استراتژی هایی را برای به حداقل رساندن واریانس بدون علامت آنها در RCT فرضی پیشنهاد دهید بر اساس داده های یک مطالعه مقدماتی.ما ارتباط عملی را نشان می دهیم این نتایج با استفاده از یک مطالعه شبیه سازی و یک کاربرد تجربی بر اساس Dupas و همکاران.(2018).
29,079
Using results from convex analysis, we investigate a novel approach to identification and estimation of discrete choice models which we call the Mass Transport Approach (MTA). We show that the conditional choice probabilities and the choice-specific payoffs in these models are related in the sense of conjugate duality, and that the identification problem is a mass transport problem. Based on this, we propose a new two-step estimator for these models; interestingly, the first step of our estimator involves solving a linear program which is identical to the classic assignment (two-sided matching) game of Shapley and Shubik (1971). The application of convex-analytic tools to dynamic discrete choice models, and the connection with two-sided matching models, is new in the literature.
با استفاده از نتایج حاصل از تجزیه و تحلیل محدب ، ما یک رویکرد جدید را بررسی می کنیم شناسایی و تخمین مدل های انتخاب گسسته ای که ما آن را توده می نامیم رویکرد حمل و نقل (MTA).ما نشان می دهیم که احتمال انتخاب مشروط و بازپرداختهای خاص در این مدل ها به معنای مرتبط هستند دوگانگی مزدوج ، و اینکه مشکل شناسایی یک حمل و نقل انبوه است مسئله.بر این اساس ، ما یک برآوردگر دو مرحله ای جدید برای این مدل ها پیشنهاد می کنیم. جالب اینجاست که اولین مرحله از برآوردگر ما شامل حل خطی است برنامه ای که با بازی تکالیف کلاسیک (تطبیق دو طرفه) یکسان است از شاپلی و شوبیک (1971).استفاده از ابزارهای محدب محدب به مدلهای انتخاب گسسته پویا و ارتباط با تطبیق دو طرفه مدل ها ، در ادبیات جدید است.
29,072
In a landmark contribution to the structural vector autoregression (SVARs) literature, Rubio-Ramirez, Waggoner, and Zha (2010, `Structural Vector Autoregressions: Theory of Identification and Algorithms for Inference,' Review of Economic Studies) shows a necessary and sufficient condition for equality restrictions to globally identify the structural parameters of a SVAR. The simplest form of the necessary and sufficient condition shown in Theorem 7 of Rubio-Ramirez et al (2010) checks the number of zero restrictions and the ranks of particular matrices without requiring knowledge of the true value of the structural or reduced-form parameters. However, this note shows by counterexample that this condition is not sufficient for global identification. Analytical investigation of the counterexample clarifies why their sufficiency claim breaks down. The problem with the rank condition is that it allows for the possibility that restrictions are redundant, in the sense that one or more restrictions may be implied by other restrictions, in which case the implied restriction contains no identifying information. We derive a modified necessary and sufficient condition for SVAR global identification and clarify how it can be assessed in practice.
در یک نقطه عطف در اتورگرایی بردار ساختاری (SVARS) ادبیات ، روبیو-رامیرز ، واگنر و ژا (2010 ، `وکتور ساختاری Autoregressions: نظریه شناسایی و الگوریتم های استنباط ، "بررسی از مطالعات اقتصادی) شرط لازم و کافی برای برابری را نشان می دهد محدودیت برای شناسایی پارامترهای ساختاری یک SVAR.در ساده ترین شکل از شرط لازم و کافی که در قضیه 7 نشان داده شده است Rubio-Ramirez و همکاران (2010) تعداد محدودیت های صفر و رده ها را بررسی می کند از ماتریس های خاص بدون نیاز به آگاهی از ارزش واقعی پارامترهای ساختاری یا کاهش یافته.با این حال ، این نت نشان می دهد به عنوان مثال که این شرط برای شناسایی جهانی کافی نیست. بررسی تحلیلی از نمونه ضد مثال ، چرا کفایت آنها را روشن می کند ادعای تجزیهمشکل وضعیت رتبه این است که این امکان را می دهد این احتمال که محدودیت ها زائد باشند ، به این معنا که یک یا چند محدودیت ها ممکن است با محدودیت های دیگر دلالت داشته باشد ، در این صورت ضمنی محدودیت حاوی اطلاعات شناسایی نیست.ما یک اصلاح شده ضروری را استخراج می کنیم و شرط کافی برای شناسایی جهانی SVAR و روشن کردن چگونگی آن در عمل ارزیابی شود.
29,073
We propose an easily implementable test of the validity of a set of theoretical restrictions on the relationship between economic variables, which do not necessarily identify the data generating process. The restrictions can be derived from any model of interactions, allowing censoring and multiple equilibria. When the restrictions are parameterized, the test can be inverted to yield confidence regions for partially identified parameters, thereby complementing other proposals, primarily Chernozhukov et al. [Chernozhukov, V., Hong, H., Tamer, E., 2007. Estimation and confidence regions for parameter sets in econometric models. Econometrica 75, 1243-1285].
ما یک آزمایش به راحتی قابل اجرا از اعتبار مجموعه ای از آنها پیشنهاد می کنیم محدودیت های نظری در رابطه بین متغیرهای اقتصادی ، که لزوماً فرآیند تولید داده ها را شناسایی نکنید.محدودیت ها می توانند از هر مدل از تعامل حاصل می شود ، اجازه سانسور و چندگانه می شود تعادلهنگامی که محدودیت ها پارامتر می شوند ، آزمایش می تواند معکوس شود برای به دست آوردن مناطق اعتماد به نفس برای پارامترهای جزئی شناسایی شده ، از این طریق تکمیل پیشنهادات دیگر ، در درجه اول چرنوزوکوف و همکاران.[Chernozhukov ، V. ، Hong ، H. ، Tamer ، E. ، 2007. مناطق تخمین و اعتماد به نفس برای مجموعه پارامترها در مدلهای اقتصاد سنجی.اقتصاد سنجی 75 ، 1243-1285].
29,074
A general framework is given to analyze the falsifiability of economic models based on a sample of their observable components. It is shown that, when the restrictions implied by the economic theory are insufficient to identify the unknown quantities of the structure, the duality of optimal transportation with zero-one cost function delivers interpretable and operational formulations of the hypothesis of specification correctness from which tests can be constructed to falsify the model.
یک چارچوب کلی برای تجزیه و تحلیل جعل مدلهای اقتصادی ارائه شده است بر اساس نمونه ای از مؤلفه های قابل مشاهده آنها.نشان داده شده است که ، هنگامی که محدودیت های ناشی از نظریه اقتصادی برای شناسایی موارد کافی نیست مقادیر ناشناخته ساختار ، دوگانگی حمل و نقل بهینه با عملکرد هزینه صفر یک فرمول های قابل تفسیر و عملیاتی را ارائه می دهد فرضیه صحت مشخصات که از آن می توان آزمایش کرد برای جعل مدل.
29,075
Despite their popularity, machine learning predictions are sensitive to potential unobserved predictors. This paper proposes a general algorithm that assesses how the omission of an unobserved variable with high explanatory power could affect the predictions of the model. Moreover, the algorithm extends the usage of machine learning from pointwise predictions to inference and sensitivity analysis. In the application, we show how the framework can be applied to data with inherent uncertainty, such as students' scores in a standardized assessment on financial literacy. First, using Bayesian Additive Regression Trees (BART), we predict students' financial literacy scores (FLS) for a subgroup of students with missing FLS. Then, we assess the sensitivity of predictions by comparing the predictions and performance of models with and without a highly explanatory synthetic predictor. We find no significant difference in the predictions and performances of the augmented (i.e., the model with the synthetic predictor) and original model. This evidence sheds a light on the stability of the predictive model used in the application. The proposed methodology can be used, above and beyond our motivating empirical example, in a wide range of machine learning applications in social and health sciences.
با وجود محبوبیت آنها ، پیش بینی های یادگیری ماشین به آن حساس هستند پیش بینی کننده های بالقوه بدون نظارت.این مقاله یک الگوریتم کلی را ارائه می دهد که ارزیابی می کند که چگونه حذف یک متغیر بدون نظارت با قدرت توضیحی بالا می تواند بر پیش بینی های مدل تأثیر بگذارد.علاوه بر این ، الگوریتم گسترش می دهد استفاده از یادگیری ماشین از پیش بینی های نقطه به استنباط و تجزیه و تحلیل میزان حساسیت.در برنامه ، ما نشان می دهیم که چارچوب چگونه می تواند باشد اعمال شده برای داده ها با عدم اطمینان ذاتی ، مانند نمرات دانش آموزان در یک ارزیابی استاندارد در سواد مالی.ابتدا با استفاده از افزودنی بیزی درختان رگرسیون (BART) ، ما نمرات سواد مالی دانشجویان را پیش بینی می کنیم (FLS) برای یک زیر گروه از دانش آموزان با FLS گمشده.سپس ، ما حساسیت را ارزیابی می کنیم پیش بینی ها با مقایسه پیش بینی ها و عملکرد مدل ها با و بدون پیش بینی مصنوعی بسیار توضیحی.ما هیچ قابل توجهی پیدا نمی کنیم تفاوت در پیش بینی ها و عملکردهای تقویت شده (یعنی ، مدل با پیش بینی مصنوعی) و مدل اصلی.این شواهد ریخته است نور بر پایداری مدل پیش بینی مورد استفاده در برنامه.در از روش پیشنهادی می توان استفاده کرد ، بالاتر و فراتر از آن انگیزه تجربی ما به عنوان مثال ، در طیف گسترده ای از برنامه های یادگیری ماشین در اجتماعی و بهداشتی علوم
29,076
We propose a methodology for constructing confidence regions with partially identified models of general form. The region is obtained by inverting a test of internal consistency of the econometric structure. We develop a dilation bootstrap methodology to deal with sampling uncertainty without reference to the hypothesized economic structure. It requires bootstrapping the quantile process for univariate data and a novel generalization of the latter to higher dimensions. Once the dilation is chosen to control the confidence level, the unknown true distribution of the observed data can be replaced by the known empirical distribution and confidence regions can then be obtained as in Galichon and Henry (2011) and Beresteanu, Molchanov and Molinari (2011).
ما یک روش برای ساخت مناطق اعتماد به نفس با جزئی پیشنهاد می کنیم مدل های مشخص شده از فرم کلی.منطقه با وارونه کردن یک آزمون به دست می آید قوام داخلی ساختار اقتصاد سنجی.ما یک اتساع ایجاد می کنیم روش bootstrap برای مقابله با نمونه گیری از عدم اطمینان بدون مراجعه به ساختار اقتصادی فرضیه.نیاز به بوت کردن کمی است فرآیند برای داده های تک متغیره و تعمیم جدید دومی به بالاتر ابعادهنگامی که اتساع برای کنترل سطح اعتماد به نفس انتخاب شد ، توزیع واقعی ناشناخته داده های مشاهده شده را می توان با شناخته شده جایگزین کرد توزیع تجربی و مناطق اعتماد به نفس را می توان مانند در گالیچون و هنری (2011) و برستانو ، مولچانوف و مولیناری (2011).
29,077
This article proposes a generalized notion of extreme multivariate dependence between two random vectors which relies on the extremality of the cross-covariance matrix between these two vectors. Using a partial ordering on the cross-covariance matrices, we also generalize the notion of positive upper dependence. We then proposes a means to quantify the strength of the dependence between two given multivariate series and to increase this strength while preserving the marginal distributions. This allows for the design of stress-tests of the dependence between two sets of financial variables, that can be useful in portfolio management or derivatives pricing.
در این مقاله مفهوم کلی از وابستگی چند متغیره شدید پیشنهاد شده است بین دو بردار تصادفی که به افراطی متکی است ماتریس متقابل کواریانس بین این دو بردار.با استفاده از سفارش جزئی در ماتریس های متقابل کواریانس ، ما همچنین مفهوم فوقانی مثبت را تعمیم می دهیم وابستگی.سپس ابزاری برای تعیین کمیت قدرت وابستگی پیشنهاد می کنیم بین دو سری چند متغیره داده شده و برای افزایش این قدرت در حالی که حفظ توزیع های حاشیه ای.این امکان را برای طراحی فراهم می کند تست های استرس از وابستگی بین دو مجموعه متغیرهای مالی ، که می تواند در مدیریت نمونه کارها یا قیمت گذاری مشتقات مفید باشد.
29,078
Responding to the U.S. opioid crisis requires a holistic approach supported by evidence from linking and analyzing multiple data sources. This paper discusses how 20 available resources can be combined to answer pressing public health questions related to the crisis. It presents a network view based on U.S. geographical units and other standard concepts, crosswalked to communicate the coverage and interlinkage of these resources. These opioid-related datasets can be grouped by four themes: (1) drug prescriptions, (2) opioid related harms, (3) opioid treatment workforce, jobs, and training, and (4) drug policy. An interactive network visualization was created and is freely available online; it lets users explore key metadata, relevant scholarly works, and data interlinkages in support of informed decision making through data analysis.
پاسخ به بحران مواد افیونی ایالات متحده نیاز به یک رویکرد جامع دارد توسط شواهد از پیوند و تجزیه و تحلیل چندین منبع داده.این کاغذ بحث می کند که چگونه می توان 20 منبع موجود را برای پاسخ به فشار عمومی ترکیب کرد سؤالات بهداشتی مربوط به بحران.این یک نمای شبکه را بر اساس ارائه می دهد واحدهای جغرافیایی ایالات متحده و سایر مفاهیم استاندارد ، برای برقراری ارتباط متقابل پوشش و پیوند این منابع.این مجموعه داده های مربوط به مواد افیونی می توان با چهار موضوع گروه بندی شد: (1) نسخه های دارویی ، (2) مربوط به مواد افیونی Harms ، (3) نیروی کار درمانی مواد افیونی ، مشاغل و آموزش و (4) سیاست دارویی. تجسم شبکه تعاملی ایجاد شده و آزادانه در دسترس است برخط؛این امکان را به کاربران می دهد تا ابرداده کلیدی ، آثار علمی مربوطه و داده ها را کشف کنند اتصالات در حمایت از تصمیم گیری آگاهانه از طریق تجزیه و تحلیل داده ها.
29,081
We consider structural vector autoregressions subject to 'narrative restrictions', which are inequality restrictions on functions of the structural shocks in specific periods. These restrictions raise novel problems related to identification and inference, and there is currently no frequentist procedure for conducting inference in these models. We propose a solution that is valid from both Bayesian and frequentist perspectives by: 1) formalizing the identification problem under narrative restrictions; 2) correcting a feature of the existing (single-prior) Bayesian approach that can distort inference; 3) proposing a robust (multiple-prior) Bayesian approach that is useful for assessing and eliminating the posterior sensitivity that arises in these models due to the likelihood having flat regions; and 4) showing that the robust Bayesian approach has asymptotic frequentist validity. We illustrate our methods by estimating the effects of US monetary policy under a variety of narrative restrictions.
ما اتمرهای وکتور ساختاری را در نظر می گیریم که تحت روایت است محدودیت ها ، که محدودیت های نابرابری در عملکردهای ساختاری است شوک در دوره های خاص.این محدودیت ها مشکلات جدید مربوط به شناسایی و استنباط ، و در حال حاضر هیچ روش مکرر وجود ندارد برای انجام استنتاج در این مدل ها.ما یک راه حل معتبر پیشنهاد می کنیم از هر دو دیدگاه بیزی و مکرر توسط: 1) رسمیت مشکل شناسایی تحت محدودیت های روایی ؛2) تصحیح یک ویژگی از رویکرد بیزی موجود (تک اول) که می تواند استنباط را تحریف کند.3) پیشنهاد یک رویکرد قوی (چند ساله) بیزی که برای آن مفید است ارزیابی و از بین بردن حساسیت خلفی که در این مدل ها بوجود می آید به دلیل احتمال داشتن مناطق مسطح ؛و 4) نشان دادن آن قوی رویکرد بیزی دارای اعتبار مکرر بدون علامت است.ما خود را نشان می دهیم روشها با برآورد اثرات سیاست پولی ایالات متحده تحت انواع مختلف محدودیت های روایت.
29,082
Weak instruments present a major setback to empirical work. This paper introduces an estimator that admits weak, uncorrelated, or mean-independent instruments that are non-independent of endogenous covariates. Relative to conventional instrumental variable methods, the proposed estimator weakens the relevance condition considerably without imposing a stronger exclusion restriction. Identification mainly rests on (1) a weak conditional median exclusion restriction imposed on pairwise differences in disturbances and (2) non-independence between covariates and instruments. Under mild conditions, the estimator is consistent and asymptotically normal. Monte Carlo experiments showcase an excellent performance of the estimator, and two empirical examples illustrate its practical utility.
ابزارهای ضعیف یک بازگشت عمده به کارهای تجربی را نشان می دهند.این کاغذ یک برآوردگر را معرفی می کند که ضعیف ، غیر مرتبط یا مستقل از آن را پذیرفته است ابزارهایی که مستقل از متغیرهای درون زا نیستند.نسبت به روشهای متغیر ابزاری متعارف ، برآوردگر پیشنهادی تضعیف می کند وضعیت ارتباط به طور قابل توجهی بدون تحمیل محرومیت قوی تر محدودیتشناسایی عمدتا بر (1) یک میانه مشروط ضعیف استوار است محدودیت طرد تحمیل شده بر اختلافات زوجی در اختلالات و (2) عدم استقلال بین متغیرها و سازها.در شرایط خفیف ، برآوردگر سازگار و بدون علامت طبیعی است.آزمایش های مونت کارلو نمایشی عالی از برآوردگر و دو نمونه تجربی را به نمایش بگذارید ابزار عملی آن را نشان دهید.
29,083
This paper contributes to the literature on hedonic models in two ways. First, it makes use of Queyranne's reformulation of a hedonic model in the discrete case as a network flow problem in order to provide a proof of existence and integrality of a hedonic equilibrium and efficient computation of hedonic prices. Second, elaborating on entropic methods developed in Galichon and Salani\'{e} (2014), this paper proposes a new identification strategy for hedonic models in a single market. This methodology allows one to introduce heterogeneities in both consumers' and producers' attributes and to recover producers' profits and consumers' utilities based on the observation of production and consumption patterns and the set of hedonic prices.
این مقاله از دو طریق به ادبیات مربوط به مدل های هیدونیک کمک می کند. اول ، از اصلاح مجدد کوئیران از یک مدل هیدونیک در آن استفاده می کند مورد گسسته به عنوان یک مشکل جریان شبکه به منظور اثبات اثبات وجود و یکپارچه سازی یک تعادل هیدونیک و محاسبات کارآمد از قیمت های هیدونیک.دوم ، توضیح در روش های آنتروپیک که در گالیچون توسعه یافته است و Salani \ '{E} (2014) ، این مقاله یک استراتژی شناسایی جدید را برای مدل های هیدونیک در یک بازار واحد.این روش به فرد اجازه می دهد تا معرفی کند ناهمگونی در هر دو ویژگی مصرف کنندگان و تولید کنندگان و بازیابی سود تولید کنندگان و خدمات مصرف کنندگان بر اساس مشاهده الگوهای تولید و مصرف و مجموعه قیمت های هیدونیک.
29,084
Unlike other techniques of causality inference, the use of valid instrumental variables can deal with unobserved sources of both variable errors, variable omissions, and sampling bias, and still arrive at consistent estimates of average treatment effects. The only problem is to find the valid instruments. Using the definition of Pearl (2009) of valid instrumental variables, a formal condition for validity can be stated for variables in generalized linear causal models. The condition can be applied in two different ways: As a tool for constructing valid instruments, or as a foundation for testing whether an instrument is valid. When perfectly valid instruments are not found, the squared bias of the IV-estimator induced by an imperfectly valid instrument -- estimated with bootstrapping -- can be added to its empirical variance in a mean-square-error-like reliability measure.
برخلاف سایر تکنیک های استنباط علیت ، استفاده از ابزارهای معتبر متغیرها می توانند با منابع بدون نظارت از هر دو خطای متغیر ، متغیر برخورد کنند حذف و تعصب نمونه برداری ، و هنوز هم به برآوردهای مداوم از اثرات درمانی متوسط.تنها مشکل یافتن ابزارهای معتبر است. با استفاده از تعریف مروارید (2009) از متغیرهای ابزاری معتبر ، رسمی شرط اعتبار را می توان برای متغیرها در علت خطی عمومی بیان کرد مدل ها.این شرایط را می توان به دو روش مختلف اعمال کرد: به عنوان ابزاری برای ساخت ابزارهای معتبر یا به عنوان پایه ای برای آزمایش اینکه آیا ابزار معتبر است.هنگامی که ابزارهای کاملاً معتبر یافت نشدند ، تعصب مربع از تخیانات IV ناشی از یک ابزار ناقص معتبر- تخمین زده شده با bootstrapping - می تواند به واریانس تجربی آن در a اضافه شود اندازه گیری قابلیت اطمینان میانگین مربع.
29,085
We propose a general framework for the specification testing of continuous treatment effect models. We assume a general residual function, which includes the average and quantile treatment effect models as special cases. The null models are identified under the unconfoundedness condition and contain a nonparametric weighting function. We propose a test statistic for the null model in which the weighting function is estimated by solving an expanding set of moment equations. We establish the asymptotic distributions of our test statistic under the null hypothesis and under fixed and local alternatives. The proposed test statistic is shown to be more efficient than that constructed from the true weighting function and can detect local alternatives deviated from the null models at the rate of $O(N^{-1/2})$. A simulation method is provided to approximate the null distribution of the test statistic. Monte-Carlo simulations show that our test exhibits a satisfactory finite-sample performance, and an application shows its practical value.
ما یک چارچوب کلی برای آزمایش مشخصات مداوم پیشنهاد می کنیم مدل های اثر درمانی.ما یک عملکرد باقیمانده کلی را فرض می کنیم ، که شامل می شود مدل های درمانی متوسط و کمی به عنوان موارد خاص.تهی مدل ها تحت شرایط غیرقابل توصیف شناسایی می شوند و حاوی یک عملکرد وزن غیرپارامتری.ما یک آمار آزمون را برای تهی پیشنهاد می کنیم مدلی که در آن عملکرد وزنه برداری با حل یک مجموعه در حال گسترش تخمین زده می شود معادلات لحظه ایما توزیع های بدون علامت آزمایش خود را تعیین می کنیم آمار تحت فرضیه تهی و تحت گزینه های ثابت و محلی.در آمار آزمون پیشنهادی نسبت به ساخته شده کارآمدتر است از عملکرد وزن واقعی و می تواند گزینه های محلی منحرف شده را تشخیص دهد از مدل های تهی با نرخ $ o (n^{-1/2}) $.یک روش شبیه سازی است برای تقریب توزیع تهی آمار آزمون ارائه شده است. شبیه سازی مونت کارلو نشان می دهد که آزمون ما رضایت بخش است عملکرد نمونه محدود ، و یک برنامه ارزش عملی آن را نشان می دهد.
29,086
In light of the increasing interest to transform the fixed-route public transit (FRT) services into on-demand transit (ODT) services, there exists a strong need for a comprehensive evaluation of the effects of this shift on the users. Such an analysis can help the municipalities and service providers to design and operate more convenient, attractive, and sustainable transit solutions. To understand the user preferences, we developed three hybrid choice models: integrated choice and latent variable (ICLV), latent class (LC), and latent class integrated choice and latent variable (LC-ICLV) models. We used these models to analyze the public transit user's preferences in Belleville, Ontario, Canada. Hybrid choice models were estimated using a rich dataset that combined the actual level of service attributes obtained from Belleville's ODT service and self-reported usage behaviour obtained from a revealed preference survey of the ODT users. The latent class models divided the users into two groups with different travel behaviour and preferences. The results showed that the captive user's preference for ODT service was significantly affected by the number of unassigned trips, in-vehicle time, and main travel mode before the ODT service started. On the other hand, the non-captive user's service preference was significantly affected by the Time Sensitivity and the Online Service Satisfaction latent variables, as well as the performance of the ODT service and trip purpose. This study attaches importance to improving the reliability and performance of the ODT service and outlines directions for reducing operational costs by updating the required fleet size and assigning more vehicles for work-related trips.
با توجه به علاقه فزاینده ای برای تغییر عموم مسیر ثابت خدمات ترانزیت (FRT) به خدمات ترانزیت در صورت تقاضا (ODT) ، وجود دارد نیاز شدید به یک ارزیابی جامع از اثرات این تغییر در کاربران.چنین تحلیلی می تواند به شهرداری ها و ارائه دهندگان خدمات کمک کند تا ترانزیت راحت تر ، جذاب و پایدار را طراحی و کار کنید راه حل هابرای درک ترجیحات کاربر ، ما سه انتخاب ترکیبی ایجاد کردیم مدل ها: انتخاب یکپارچه و متغیر نهفته (ICLV) ، کلاس نهفته (LC) ، و کلاس نهان انتخاب یکپارچه و متغیر نهفته (LC-ICLV).ما با استفاده از این مدلها برای تجزیه و تحلیل ترجیحات کاربر حمل و نقل عمومی در بلویل ، انتاریو ، کانادا.مدل های انتخاب ترکیبی با استفاده از یک مجموعه داده غنی تخمین زده شد که سطح واقعی ویژگی های خدمات به دست آمده از ODT Belleville را ترکیب کرد خدمات و رفتار استفاده از خود گزارش شده از یک ترجیح آشکار بررسی کاربران ODT.مدل های کلاس نهان کاربران را به دو بخش تقسیم کردند گروه هایی با رفتارهای مختلف سفر و ترجیحات.نتایج نشان داد که اولویت کاربر اسیر برای سرویس ODT به طور قابل توجهی تحت تأثیر قرار گرفت تعداد سفرهای غیرمجاز ، زمان در وسایل نقلیه و حالت اصلی سفر قبل از سرویس ODT شروع شد.از طرف دیگر ، سرویس کاربر غیر کینه ای اولویت به طور قابل توجهی تحت تأثیر حساسیت زمان و آنلاین قرار گرفت متغیرهای نهفته رضایت خدمات و همچنین عملکرد ODT خدمات و هدف سفر.این مطالعه به بهبود اهمیت اهمیت می دهد قابلیت اطمینان و عملکرد سرویس ODT و جهت هایی برای کاهش هزینه های عملیاتی با به روزرسانی اندازه ناوگان مورد نیاز و اختصاص وسایل نقلیه بیشتر برای سفرهای مرتبط با کار.
29,087
This article discusses tests for nonlinear cointegration in the presence of variance breaks. We build on cointegration test approaches under heteroskedasticity (Cavaliere and Taylor, 2006, Journal of Time Series Analysis) and for nonlinearity (Choi and Saikkonen, 2010, Econometric Theory) to propose a bootstrap test and prove its consistency. A Monte Carlo study shows the approach to have good finite sample properties. We provide an empirical application to the environmental Kuznets curves (EKC), finding that the cointegration test provides little evidence for the EKC hypothesis. Additionally, we examine the nonlinear relation between the US money and the interest rate, finding that our test does not reject the null of a smooth transition cointegrating relation.
در این مقاله ، آزمایشات مربوط به همبستگی غیرخطی در حضور شکست واریانس.ما بر روی رویکردهای تست ادغام در زیر می سازیم ناهمگونی (Cavaliere and Taylor ، 2006 ، Journal of Time Series تجزیه و تحلیل) و برای غیرخطی بودن (چوی و سایکونن ، 2010 ، نظریه اقتصاد سنجی) برای پیشنهاد یک تست بوت استرپ و اثبات قوام آن.یک مطالعه مونت کارلو رویکرد داشتن خواص نمونه محدود خوب را نشان می دهد.ما ارائه می دهیم کاربرد تجربی برای منحنی های محیطی Kuznets (EKC) ، با این که این موضوع را پیدا کرد آزمون ادغام شواهد کمی برای فرضیه EKC ارائه می دهد. علاوه بر این ، ما رابطه غیرخطی بین پول ایالات متحده و نرخ بهره ، با پیدا کردن اینکه آزمایش ما تهی صاف را رد نمی کند رابطه همگرایی انتقال.
29,088
This paper provides a user's guide to the general theory of approximate randomization tests developed in Canay, Romano, and Shaikh (2017) when specialized to linear regressions with clustered data. An important feature of the methodology is that it applies to settings in which the number of clusters is small -- even as small as five. We provide a step-by-step algorithmic description of how to implement the test and construct confidence intervals for the parameter of interest. In doing so, we additionally present three novel results concerning the methodology: we show that the method admits an equivalent implementation based on weighted scores; we show the test and confidence intervals are invariant to whether the test statistic is studentized or not; and we prove convexity of the confidence intervals for scalar parameters. We also articulate the main requirements underlying the test, emphasizing in particular common pitfalls that researchers may encounter. Finally, we illustrate the use of the methodology with two applications that further illuminate these points. The companion {\tt R} and {\tt Stata} packages facilitate the implementation of the methodology and the replication of the empirical exercises.
در این مقاله راهنمای کاربر برای تئوری کلی تقریبی ارائه شده است تست های تصادفی سازی در Canay ، Romano و Shaich (2017) توسعه یافته است تخصصی برای رگرسیون خطی با داده های خوشه ای.یک ویژگی مهم از روش این است که در مورد تنظیماتی که در آن تعداد خوشه ها وجود دارد صدق می کند کوچک است - حتی به اندازه پنج.ما یک الگوریتمی گام به گام ارائه می دهیم شرح نحوه اجرای آزمون و ایجاد فواصل اطمینان پارامتر علاقه.با انجام این کار ، ما علاوه بر این سه رمان ارائه می دهیم نتایج مربوط به روش شناسی: ما نشان می دهیم که این روش A اجرای معادل بر اساس نمرات وزنی ؛ما آزمون را نشان می دهیم و فواصل اعتماد به نفس ثابت است که آیا آمار آزمون دانشجویی شده است یا نه؛و ما محدب فواصل اطمینان را برای مقیاس ثابت می کنیم مولفه های.ما همچنین الزامات اصلی اساسی آزمون را بیان می کنیم ، با تأکید بر مشکلات خاص متداول که محققان ممکن است با آن روبرو شوند. سرانجام ، ما استفاده از روش را با دو برنامه نشان می دهیم بیشتر این نکات را روشن کنید.بسته های همراه {\ tt r} و {\ tt stata تسهیل در روش شناسی و تکثیر تمرینات تجربی.
29,089
We propose a novel structural estimation framework in which we train a surrogate of an economic model with deep neural networks. Our methodology alleviates the curse of dimensionality and speeds up the evaluation and parameter estimation by orders of magnitudes, which significantly enhances one's ability to conduct analyses that require frequent parameter re-estimation. As an empirical application, we compare two popular option pricing models (the Heston and the Bates model with double-exponential jumps) against a non-parametric random forest model. We document that: a) the Bates model produces better out-of-sample pricing on average, but both structural models fail to outperform random forest for large areas of the volatility surface; b) random forest is more competitive at short horizons (e.g., 1-day), for short-dated options (with less than 7 days to maturity), and on days with poor liquidity; c) both structural models outperform random forest in out-of-sample delta hedging; d) the Heston model's relative performance has deteriorated significantly after the 2008 financial crisis.
ما یک چارچوب تخمین ساختاری جدید را پیشنهاد می کنیم که در آن آموزش می دهیم جانشین یک مدل اقتصادی با شبکه های عصبی عمیق.روش شناسی ما نفرین ابعاد را کاهش می دهد و ارزیابی را سرعت می بخشد و برآورد پارامتر توسط سفارشات بزرگی ، که به طور قابل توجهی افزایش می یابد توانایی شخص در انجام تجزیه و تحلیل هایی که به پارامتر مکرر نیاز دارند ارزیابی مجددبه عنوان یک برنامه تجربی ، ما دو گزینه محبوب را مقایسه می کنیم مدل های قیمت گذاری (مدل Heston و Bates با پرش های دو برابر) در برابر یک مدل جنگل تصادفی غیر پارامتری.ما مستند می کنیم: الف) بیتس مدل به طور متوسط قیمت گذاری خارج از نمونه را تولید می کند ، اما هر دو ساختاری مدل ها از جنگل های تصادفی برای مناطق بزرگ نوسانات بهتر عمل نمی کنند سطحب) جنگل تصادفی در افق های کوتاه (به عنوان مثال ، 1 روزه) رقابتی تر است. برای گزینه های کوتاه مدت (با کمتر از 7 روز تا بلوغ) و در روزهای نقدینگی ضعیف ؛ج) هر دو مدل ساختاری از جنگل تصادفی در Hedging Delta خارج از نمونه ؛د) عملکرد نسبی مدل هستون دارد پس از بحران مالی سال 2008 به طور قابل توجهی بدتر شد.
29,090
We propose a method for constructing confidence intervals that account for many forms of spatial correlation. The interval has the familiar `estimator plus and minus a standard error times a critical value' form, but we propose new methods for constructing the standard error and the critical value. The standard error is constructed using population principal components from a given `worst-case' spatial covariance model. The critical value is chosen to ensure coverage in a benchmark parametric model for the spatial correlations. The method is shown to control coverage in large samples whenever the spatial correlation is weak, i.e., with average pairwise correlations that vanish as the sample size gets large. We also provide results on correct coverage in a restricted but nonparametric class of strong spatial correlations, as well as on the efficiency of the method. In a design calibrated to match economic activity in U.S. states the method outperforms previous suggestions for spatially robust inference about the population mean.
ما روشی را برای ساخت فواصل اطمینان ارائه می دهیم که حساب می شود اشکال بسیاری از همبستگی مکانی.فاصله دارای برآوردگر آشنا است به علاوه و منهای یک خطای استاندارد برابر یک فرم ارزش بحرانی ، اما ما پیشنهاد می کنیم روشهای جدید برای ساخت خطای استاندارد و مقدار بحرانی.در خطای استاندارد با استفاده از اجزای اصلی جمعیت از a ساخته شده است با توجه به مدل کواریانس فضایی "بدترین حالت".مقدار بحرانی انتخاب می شود از پوشش در یک مدل پارامتری معیار برای همبستگی های مکانی اطمینان حاصل کنید. این روش برای کنترل پوشش در نمونه های بزرگ هر زمان که فضایی نشان داده شده است همبستگی ضعیف است ، یعنی با متوسط همبستگی های زوجی که از بین می رود اندازه نمونه بزرگ می شود.ما همچنین در مورد پوشش صحیح در a ارائه می دهیم کلاس محدود اما غیر پارامتری از همبستگی های مکانی قوی ، و همچنین در مورد کارآیی روش.در یک طراحی کالیبره شده برای مطابقت با اقتصادی فعالیت در ایالات متحده بیان می کند که این روش از پیشنهادات قبلی برای استنتاج فضایی قوی در مورد جمعیت.
29,091
This paper aims to provide reliable estimates for the COVID-19 contact rate of a Susceptible-Infected-Recovered (SIR) model. From observable data on confirmed, recovered, and deceased cases, a noisy measurement for the contact rate can be constructed. To filter out measurement errors and seasonality, a novel unobserved components (UC) model is set up. It specifies the log contact rate as a latent, fractionally integrated process of unknown integration order. The fractional specification reflects key characteristics of aggregate social behavior such as strong persistence and gradual adjustments to new information. A computationally simple modification of the Kalman filter is introduced and is termed the fractional filter. It allows to estimate UC models with richer long-run dynamics, and provides a closed-form expression for the prediction error of UC models. Based on the latter, a conditional-sum-of-squares (CSS) estimator for the model parameters is set up that is shown to be consistent and asymptotically normally distributed. The resulting contact rate estimates for several countries are well in line with the chronology of the pandemic, and allow to identify different contact regimes generated by policy interventions. As the fractional filter is shown to provide precise contact rate estimates at the end of the sample, it bears great potential for monitoring the pandemic in real time.
این مقاله با هدف ارائه تخمین های قابل اعتماد برای نرخ تماس COVID-19 از یک مدل بازپرداخت آلوده (SIR) آلوده.از داده های قابل مشاهده در موارد تأیید ، بازیابی و درگذشت ، اندازه گیری پر سر و صدا برای تماس نرخ می تواند ساخته شود.برای فیلتر کردن خطاهای اندازه گیری و فصلی ، الف مدل مؤلفه های بدون نظارت (UC) تنظیم شده است.این تماس ورود به سیستم را مشخص می کند نرخ به عنوان یک فرآیند نهفته و یکپارچه یکپارچه از ترتیب ادغام ناشناخته. مشخصات کسری نشان دهنده ویژگی های کلیدی اجتماعی کل است رفتاری مانند پایداری شدید و تنظیمات تدریجی در اطلاعات جدید. اصلاح محاسباتی ساده از فیلتر کالمن معرفی شده و هست فیلتر کسری نامیده می شود.این امکان را برای تخمین مدل های UC با ثروتمندتر فراهم می کند پویایی بلند مدت ، و یک بیان بسته برای پیش بینی فراهم می کند خطای مدل های UC.بر اساس دومی ، یک مربع از شرطی (CSS) برآوردگر برای پارامترهای مدل تنظیم شده است که نشان داده شده است و به طور غیر عادی به طور عادی توزیع می شود.برآورد نرخ تماس حاصل برای چندین کشور خوب مطابق با وقایع همه گیر است ، و اجازه می دهد رژیم های تماس مختلف ایجاد شده توسط مداخلات سیاست را شناسایی کنید. همانطور که فیلتر کسری نشان داده شده است که تخمین های دقیق نرخ تماس را در ارائه می دهد در پایان نمونه ، پتانسیل بسیار خوبی برای نظارت بر همه گیر در به موقع.
29,092
A novel approach to price indices, leading to an innovative solution in both a multi-period or a multilateral framework, is presented. The index turns out to be the generalized least squares solution of a regression model linking values and quantities of the commodities. The index reference basket, which is the union of the intersections of the baskets of all country/period taken in pair, has a coverage broader than extant indices. The properties of the index are investigated and updating formulas established. Applications to both real and simulated data provide evidence of the better index performance in comparison with extant alternatives.
یک رویکرد جدید به شاخص های قیمت ، که منجر به یک راه حل نوآورانه در هر دو می شود یک چارچوب چند دوره یا چند جانبه ، ارائه شده است.این فهرست معلوم است برای اینکه حداقل راه حل مربع تعمیم یافته از یک مدل رگرسیون باشد ارزش ها و مقادیر کالاها.سبد مرجع شاخص ، که است اتحادیه تقاطع سبدهای همه کشور/دوره گرفته شده در جفت ، دارای پوشش گسترده تر از شاخص های موجود است.خصوصیات شاخص بررسی شده و فرمول های به روز شده ایجاد شده است.برنامه های مربوط به هر دو واقعی و داده های شبیه سازی شده شواهدی از عملکرد بهتر شاخص در مقایسه با گزینه های موجود.
29,094
Here, we have analysed a GARCH(1,1) model with the aim to fit higher order moments for different companies' stock prices. When we assume a gaussian conditional distribution, we fail to capture any empirical data when fitting the first three even moments of financial time series. We show instead that a double gaussian conditional probability distribution better captures the higher order moments of the data. To demonstrate this point, we construct regions (phase diagrams), in the fourth and sixth order standardised moment space, where a GARCH(1,1) model can be used to fit these moments and compare them with the corresponding moments from empirical data for different sectors of the economy. We found that the ability of the GARCH model with a double gaussian conditional distribution to fit higher order moments is dictated by the time window our data spans. We can only fit data collected within specific time window lengths and only with certain parameters of the conditional double gaussian distribution. In order to incorporate the non-stationarity of financial series, we assume that the parameters of the GARCH model have time dependence.
در اینجا ، ما یک مدل گارچ (1،1) را با هدف متناسب با مرتبه بالاتر تجزیه و تحلیل کرده ایم لحظاتی برای قیمت سهام شرکت های مختلف.وقتی یک گاوسی را فرض می کنیم توزیع مشروط ، ما در هنگام مناسب بودن نتوانستیم داده های تجربی را ضبط کنیم سه لحظه اول سری زمانی مالی.ما در عوض نشان می دهیم که a توزیع احتمال مشروط دو برابر گاوسی بهتر است لحظه های داده را سفارش دهید.برای نشان دادن این نکته ، ما مناطق را می سازیم (نمودارهای فاز) ، در فضای لحظه ای استاندارد مرتبه چهارم و ششم ، جایی که می توان از یک مدل گارچ (1،1) برای متناسب با این لحظات استفاده کرد و آنها را با آنها مقایسه کرد لحظات مربوطه از داده های تجربی برای بخش های مختلف اقتصادما دریافتیم که توانایی مدل گارچ با یک گاوسی مضاعف توزیع مشروط متناسب با لحظات مرتبه بالاتر تا آن زمان دیکته می شود پنجره داده های ما را پنجره می کند.ما فقط می توانیم داده های جمع آوری شده را در زمان خاص قرار دهیم طول پنجره و فقط با پارامترهای خاص دو برابر مشروط توزیع گاوسی.به منظور درج عدم استقرار سری مالی ، فرض می کنیم که پارامترهای مدل Garch زمان دارند وابستگی.
29,095
We propose a computationally feasible way of deriving the identified features of models with multiple equilibria in pure or mixed strategies. It is shown that in the case of Shapley regular normal form games, the identified set is characterized by the inclusion of the true data distribution within the core of a Choquet capacity, which is interpreted as the generalized likelihood of the model. In turn, this inclusion is characterized by a finite set of inequalities and efficient and easily implementable combinatorial methods are described to check them. In all normal form games, the identified set is characterized in terms of the value of a submodular or convex optimization program. Efficient algorithms are then given and compared to check inclusion of a parameter in this identified set. The latter are illustrated with family bargaining games and oligopoly entry games.
ما یک روش محاسباتی امکان پذیر برای استخراج ویژگی های مشخص شده پیشنهاد می کنیم مدل هایی با تعادل متعدد در استراتژی های خالص یا مختلط.نشان داده شده است این که در مورد بازی های معمولی شکل عادی Shapley ، مجموعه مشخص شده است با گنجاندن توزیع داده های واقعی در هسته مشخص می شود یک ظرفیت انتخابی ، که به عنوان احتمال کلی از آن تعبیر می شود مدل.به نوبه خود ، این ورود با مجموعه محدود از نابرابری ها مشخص می شود و روشهای ترکیبی کارآمد و به راحتی قابل اجرا برای توصیف شده است آنها را بررسی کنید.در تمام بازی های فرم عادی ، مجموعه مشخص شده در مشخص می شود شرایط ارزش یک برنامه بهینه سازی فرعی یا محدب.کارآمد الگوریتم ها سپس داده می شوند و برای بررسی گنجاندن یک پارامتر در این مجموعه شناسایی شدهدومی با بازی های چانه زنی خانوادگی نشان داده شده است و بازی های ورود به الیگوپولی.
29,096
We provide a test for the specification of a structural model without identifying assumptions. We show the equivalence of several natural formulations of correct specification, which we take as our null hypothesis. From a natural empirical version of the latter, we derive a Kolmogorov-Smirnov statistic for Choquet capacity functionals, which we use to construct our test. We derive the limiting distribution of our test statistic under the null, and show that our test is consistent against certain classes of alternatives. When the model is given in parametric form, the test can be inverted to yield confidence regions for the identified parameter set. The approach can be applied to the estimation of models with sample selection, censored observables and to games with multiple equilibria.
ما یک آزمایش برای مشخصات یک مدل ساختاری بدون شناسایی فرضیات.ما هم ارزی چندین طبیعی را نشان می دهیم فرمولاسیون مشخصات صحیح ، که ما به عنوان فرضیه تهی خود در نظر می گیریم. از یک نسخه تجربی طبیعی از دومی ، ما یک Kolmogorov-Smirnov را به دست می آوریم آماری برای عملکردهای ظرفیت انتخاب ، که ما برای ساخت آزمون خود استفاده می کنیم. ما توزیع محدود کننده آمار آزمون خود را تحت NULL و نشان می دهد که آزمون ما در برابر طبقات خاصی از گزینه های دیگر سازگار است.چه زمانی این مدل به صورت پارامتری آورده شده است ، می توان آزمایش را برای بازده وارونه کرد مناطق اعتماد به نفس برای مجموعه پارامتر مشخص شده.رویکرد می تواند باشد برای برآورد مدلها با انتخاب نمونه ، مشاهدات سانسور شده اعمال می شود و به بازی هایی با تعادل متعدد.
29,097
This paper estimates the break point for large-dimensional factor models with a single structural break in factor loadings at a common unknown date. First, we propose a quasi-maximum likelihood (QML) estimator of the change point based on the second moments of factors, which are estimated by principal component analysis. We show that the QML estimator performs consistently when the covariance matrix of the pre- or post-break factor loading, or both, is singular. When the loading matrix undergoes a rotational type of change while the number of factors remains constant over time, the QML estimator incurs a stochastically bounded estimation error. In this case, we establish an asymptotic distribution of the QML estimator. The simulation results validate the feasibility of this estimator when used in finite samples. In addition, we demonstrate empirical applications of the proposed method by applying it to estimate the break points in a U.S. macroeconomic dataset and a stock return dataset.
در این مقاله نقطه شکست برای مدلهای فاکتور بزرگ با ابعاد با یک شکست ساختاری واحد در بارهای عاملی در یک تاریخ ناشناخته مشترک.اولین، ما یک برآوردگر احتمال شبه حداکثر (QML) از نقطه تغییر را پیشنهاد می کنیم در لحظه دوم عوامل ، که توسط مؤلفه اصلی تخمین زده می شود تحلیل و بررسی.ما نشان می دهیم که برآوردگر QML به طور مداوم عملکرد می کند ماتریس کواریانس بارگذاری فاکتور قبل یا بعد از شکست ، یا هر دو ، مفردهنگامی که ماتریس بارگذاری در حالی که تحت یک نوع چرخشی قرار می گیرد تعداد عوامل با گذشت زمان ثابت است ، برآوردگر QML متحمل می شود خطای برآورد محدود به صورت تصادفی.در این حالت ، ما یک توزیع بدون علامت از برآوردگر QML.نتایج شبیه سازی اعتبارسنجی می کند امکان سنجی این برآوردگر هنگام استفاده در نمونه های محدود.علاوه بر این ، ما کاربردهای تجربی روش پیشنهادی را با استفاده از آن نشان دهید نقاط شکست را در یک مجموعه داده کلان اقتصادی ایالات متحده و بازده سهام تخمین بزنید مجموعه داده
29,098
We propose a new control function (CF) method to estimate a binary response model in a triangular system with multiple unobserved heterogeneities The CFs are the expected values of the heterogeneity terms in the reduced form equations conditional on the histories of the endogenous and the exogenous variables. The method requires weaker restrictions compared to CF methods with similar imposed structures. If the support of endogenous regressors is large, average partial effects are point-identified even when instruments are discrete. Bounds are provided when the support assumption is violated. An application and Monte Carlo experiments compare several alternative methods with ours.
ما یک روش کنترل جدید (CF) برای برآورد پاسخ باینری پیشنهاد می کنیم مدل در یک سیستم مثلثی با ناهمگونی های متعدد بدون نظارت CFS مقادیر مورد انتظار اصطلاحات ناهمگونی در فرم کاهش یافته است معادلات مشروط به تاریخچه درون زا و برونزا متغیرهااین روش در مقایسه با روش های CF با محدودیت های ضعیف تر نیاز دارد ساختارهای تحمیل شده مشابه.اگر حمایت از رگرسیون های درون زا بزرگ باشد ، اثرات جزئی متوسط حتی در صورت وجود ابزارها مشخص می شوند گسسته.مرزها هنگام نقض فرض پشتیبانی ارائه می شود.در برنامه های کاربردی و آزمایش های مونت کارلو چندین روش جایگزین را با یکدیگر مقایسه می کنند با ما
29,099
This paper proposes an empirical method to implement the recentered influence function (RIF) regression of Firpo, Fortin and Lemieux (2009), a relevant method to study the effect of covariates on many statistics beyond the mean. In empirically relevant situations where the influence function is not available or difficult to compute, we suggest to use the \emph{sensitivity curve} (Tukey, 1977) as a feasible alternative. This may be computationally cumbersome when the sample size is large. The relevance of the proposed strategy derives from the fact that, under general conditions, the sensitivity curve converges in probability to the influence function. In order to save computational time we propose to use a cubic splines non-parametric method for a random subsample and then to interpolate to the rest of the cases where it was not computed. Monte Carlo simulations show good finite sample properties. We illustrate the proposed estimator with an application to the polarization index of Duclos, Esteban and Ray (2004).
در این مقاله یک روش تجربی برای اجرای تأثیر اخیر ارائه شده است عملکرد (RIF) رگرسیون FIRPO ، Fortin و Lemieux (2009) ، مربوطه روش بررسی تأثیر متغیرهای متغیر در بسیاری از آمار فراتر از میانگین.که در موقعیت های تجربی مرتبط که عملکرد تأثیر در دسترس نیست یا محاسبه دشوار است ، ما پیشنهاد می کنیم از منحنی حساسیت \ emf {استفاده کنید (توکی ، 1977) به عنوان یک جایگزین عملی.این ممکن است از نظر محاسباتی دست و پا گیر باشد اندازه نمونه بزرگ است.ارتباط استراتژی پیشنهادی از آن ناشی می شود این واقعیت که در شرایط کلی ، منحنی حساسیت در همگرا می شود احتمال عملکرد تأثیر.به منظور صرفه جویی در زمان محاسباتی ما پیشنهاد استفاده از یک روش غیر پارامتری مکعب برای یک نمونه تصادفی و سپس برای درون یابی در بقیه مواردی که محاسبه نشده است.مونت شبیه سازی های کارلو خصوصیات نمونه محدود خوبی را نشان می دهد.ما نشان می دهیم برآوردگر پیشنهادی با کاربردی در شاخص قطبش Duclos ، استبان و ری (2004).
29,119
Startups have become in less than 50 years a major component of innovation and economic growth. An important feature of the startup phenomenon has been the wealth created through equity in startups to all stakeholders. These include the startup founders, the investors, and also the employees through the stock-option mechanism and universities through licenses of intellectual property. In the employee group, the allocation to important managers like the chief executive, vice-presidents and other officers, and independent board members is also analyzed. This report analyzes how equity was allocated in more than 400 startups, most of which had filed for an initial public offering. The author has the ambition of informing a general audience about best practice in equity split, in particular in Silicon Valley, the central place for startup innovation.
استارتاپ ها در کمتر از 50 سال به یک مؤلفه اصلی نوآوری تبدیل شده اند و رشد اقتصادییکی از ویژگی های مهم پدیده استارتاپ بوده است ثروت ایجاد شده از طریق حقوق صاحبان سهام در استارتاپ ها برای همه ذینفعان.اینها شامل بنیانگذاران استارتاپ ، سرمایه گذاران و همچنین کارمندان از طریق مکانیسم گزینه سهام و دانشگاه ها از طریق مجوزهای فکری ویژگی.در گروه کارمند ، تخصیص مدیران مهم مانند مدیر اجرایی ، معاون رئیس جمهور و سایر افسران و هیئت مستقل اعضا نیز مورد تجزیه و تحلیل قرار می گیرند.این گزارش به تجزیه و تحلیل چگونگی تخصیص حقوق صاحبان سهام در بیشتر بیش از 400 استارتاپ ، که بیشتر آنها برای ارائه پیشنهاد عمومی اولیه ارائه شده بودند.در نویسنده جاه طلبی را برای اطلاع مخاطبان عام در مورد بهترین تمرین در تقسیم عدالت ، به ویژه در دره سیلیکون ، مکان اصلی برای راه اندازی نوآوری.
29,100
We study estimation of factor models in a fixed-T panel data setting and significantly relax the common correlated effects (CCE) assumptions pioneered by Pesaran (2006) and used in dozens of papers since. In the simplest case, we model the unobserved factors as functions of the cross-sectional averages of the explanatory variables and show that this is implied by Pesaran's assumptions when the number of factors does not exceed the number of explanatory variables. Our approach allows discrete explanatory variables and flexible functional forms in the covariates. Plus, it extends to a framework that easily incorporates general functions of cross-sectional moments, in addition to heterogeneous intercepts and time trends. Our proposed estimators include Pesaran's pooled correlated common effects (CCEP) estimator as a special case. We also show that in the presence of heterogeneous slopes our estimator is consistent under assumptions much weaker than those previously used. We derive the fixed-T asymptotic normality of a general estimator and show how to adjust for estimation of the population moments in the factor loading equation.
ما برآورد مدل های فاکتور را در تنظیم داده های پانل T ثابت مطالعه می کنیم و فرضیات همبستگی مشترک (CCE) را به طور قابل توجهی آرامش بخشید توسط Pesaran (2006) و از آن زمان در ده ها مقاله استفاده می شود.در ساده ترین حالت ، ما فاکتورهای غیرقابل محافظت را به عنوان عملکرد میانگین های مقطعی از مدل مدل کنید متغیرهای توضیحی و نشان می دهد که این مورد توسط Pesaran دلالت دارد فرضیات زمانی که تعداد عوامل از تعداد آنها تجاوز نمی کند متغیرهای توضیحی.رویکرد ما اجازه می دهد تا متغیرهای توضیحی گسسته و اشکال عملکردی انعطاف پذیر در متغیرهای متغیر.به علاوه ، آن را به یک چارچوب گسترش می دهد که به راحتی عملکردهای کلی لحظات مقطعی را شامل می شود ، در علاوه بر رهگیری های ناهمگن و روند زمان.برآوردگرهای پیشنهادی ما شامل برآوردگر همبستگی همبسته Pesaran (CCEP) به عنوان یک مورد خاص.ما همچنین نشان می دهیم که در حضور دامنه های ناهمگن ما برآوردگر با فرضیات بسیار ضعیف تر از آنچه قبلاً بود سازگار است استفاده شده.ما عادی بودن بدون علامت یک برآوردگر کلی را استخراج می کنیم و نشان دهید که چگونه می توان برای تخمین لحظات جمعیت در فاکتور تنظیم کرد معادله بارگیری
29,101
Until recently, there has been a consensus that clinicians should condition patient risk assessments on all observed patient covariates with predictive power. The broad idea is that knowing more about patients enables more accurate predictions of their health risks and, hence, better clinical decisions. This consensus has recently unraveled with respect to a specific covariate, namely race. There have been increasing calls for race-free risk assessment, arguing that using race to predict patient outcomes contributes to racial disparities and inequities in health care. Writers calling for race-free risk assessment have not studied how it would affect the quality of clinical decisions. Considering the matter from the patient-centered perspective of medical economics yields a disturbing conclusion: Race-free risk assessment would harm patients of all races.
تا همین اواخر ، این اجماع وجود داشته است که پزشکان باید شرط کنند ارزیابی ریسک بیمار در تمام متغیرهای بیمار مشاهده شده با پیش بینی قدرت.ایده گسترده این است که دانستن بیشتر در مورد بیماران دقیق تر می شود پیش بینی خطرات سلامتی آنها و از این رو ، تصمیمات بالینی بهتری است.این اجماع اخیراً با توجه به یک همبستگی خاص ، یعنی پرده برداشته است نژاداستدلال می کند که خواستار ارزیابی ریسک بدون نژاد افزایش یافته است که استفاده از نژاد برای پیش بینی نتایج بیمار به نابرابری های نژادی کمک می کند و نابرابری در مراقبت های بهداشتی.نویسندگان خواستار ارزیابی ریسک بدون مسابقه هستند مطالعه نکرده اند که چگونه می تواند بر کیفیت تصمیمات بالینی تأثیر بگذارد. با توجه به موضوع از دیدگاه بیمار محور پزشکی اقتصاد نتیجه گیری نگران کننده ای به دست می آورد: ارزیابی ریسک بدون مسابقه به آن آسیب می رساند بیماران از همه نژادها.
29,102
We develop a non-parametric multivariate time series model that remains agnostic on the precise relationship between a (possibly) large set of macroeconomic time series and their lagged values. The main building block of our model is a Gaussian process prior on the functional relationship that determines the conditional mean of the model, hence the name of Gaussian process vector autoregression (GP-VAR). A flexible stochastic volatility specification is used to provide additional flexibility and control for heteroskedasticity. Markov chain Monte Carlo (MCMC) estimation is carried out through an efficient and scalable algorithm which can handle large models. The GP-VAR is illustrated by means of simulated data and in a forecasting exercise with US data. Moreover, we use the GP-VAR to analyze the effects of macroeconomic uncertainty, with a particular emphasis on time variation and asymmetries in the transmission mechanisms.
ما یک مدل سری زمانی چند متغیره غیر پارامتری ایجاد می کنیم که باقی مانده است agnostic در رابطه دقیق بین یک مجموعه بزرگ (احتمالاً) سری زمانی کلان اقتصادی و ارزشهای عقب مانده آنها.بلوک اصلی ساختمان مدل ما یک فرآیند گاوسی است که پیش از این رابطه عملکردی است میانگین مشروط مدل را تعیین می کند ، از این رو نام گاوسی Autoregression Vector Vector (GP-VAR).یک نوسانات تصادفی انعطاف پذیر از مشخصات برای ارائه انعطاف پذیری و کنترل اضافی استفاده می شود ناهمگونی.تخمین زنجیره ای مارکوف مونت کارلو (MCMC) انجام می شود از طریق یک الگوریتم کارآمد و مقیاس پذیر که می تواند مدل های بزرگی را اداره کند.در GP-VAR با استفاده از داده های شبیه سازی شده و در یک تمرین پیش بینی نشان داده شده است با داده های ایالات متحدهعلاوه بر این ، ما از GP-VAR برای تجزیه و تحلیل اثرات استفاده می کنیم عدم اطمینان کلان اقتصادی ، با تأکید ویژه بر تغییر زمان و عدم تقارن در مکانیسم های انتقال.
29,103
Despite the widespread use of graphs in empirical research, little is known about readers' ability to process the statistical information they are meant to convey ("visual inference"). We study visual inference within the context of regression discontinuity (RD) designs by measuring how accurately readers identify discontinuities in graphs produced from data generating processes calibrated on 11 published papers from leading economics journals. First, we assess the effects of different graphical representation methods on visual inference using randomized experiments. We find that bin widths and fit lines have the largest impacts on whether participants correctly perceive the presence or absence of a discontinuity. Our experimental results allow us to make evidence-based recommendations to practitioners, and we suggest using small bins with no fit lines as a starting point to construct RD graphs. Second, we compare visual inference on graphs constructed using our preferred method with widely used econometric inference procedures. We find that visual inference achieves similar or lower type I error (false positive) rates and complements econometric inference.
با وجود استفاده گسترده از نمودارها در تحقیقات تجربی ، کمی شناخته شده است در مورد توانایی خوانندگان در پردازش اطلاعات آماری که در نظر گرفته شده است انتقال ("استنتاج بصری").ما استنباط بصری را در متن مطالعه می کنیم ناپیوستگی رگرسیون (RD) با اندازه گیری دقیق خوانندگان طراحی می کند ناپیوستگی ها را در نمودارهای تولید شده از فرآیندهای تولید داده شناسایی کنید کالیبره شده در 11 مقاله منتشر شده از مجلات پیشرو در اقتصاد.اول ما اثرات روشهای مختلف نمایش گرافیکی را بر روی بصری ارزیابی کنید استنتاج با استفاده از آزمایشات تصادفی.ما متوجه می شویم که عرض سطل و خطوط متناسب است بیشترین تأثیر را در این که آیا شرکت کنندگان به درستی درک می کنند ، تأثیر می گذارد وجود یا عدم وجود ناپیوستگی.نتایج تجربی ما به ما امکان می دهد توصیه های مبتنی بر شواهد را به پزشکان ارائه دهید ، و ما پیشنهاد می کنیم استفاده کنید سطل های کوچک بدون خطوط مناسب به عنوان نقطه شروع برای ساخت نمودارهای RD. دوم ، ما استنتاج بصری را در نمودارهای ساخته شده با استفاده از ترجیح خود مقایسه می کنیم روش با روشهای استنتاج اقتصاد سنجی گسترده استفاده می شود.ما آن بصری را پیدا می کنیم استنتاج به خطای نوع مشابه یا پایین تر (مثبت کاذب) دست می یابد و استنتاج اقتصادسنجی را تکمیل می کند.
29,104
The `paradox of progress' is an empirical regularity that associates more education with larger income inequality. Two driving and competing factors behind this phenomenon are the convexity of the `Mincer equation' (that links wages and education) and the heterogeneity in its returns, as captured by quantile regressions. We propose a joint least-squares and quantile regression statistical framework to derive a decomposition in order to evaluate the relative contribution of each explanation. The estimators are based on the `functional derivative' approach. We apply the proposed decomposition strategy to the case of Argentina 1992 to 2015.
"پارادوکس پیشرفت" یک نظم تجربی است که بیشتر همسایه می کند آموزش با نابرابری درآمد بیشتر.دو عامل رانندگی و رقیب در پشت این پدیده ، محدب "معادله mincer" (که پیوند دارد دستمزد و آموزش) و ناهمگونی در بازده آن ، همانطور که توسط رگرسیون کمی.ما یک رگرسیون حداقل مربعات مشترک و کمی پیشنهاد می کنیم چارچوب آماری برای استخراج تجزیه به منظور ارزیابی سهم نسبی هر توضیح.برآوردگرها بر اساس رویکرد مشتق عملکردی.ما استراتژی تجزیه پیشنهادی را اعمال می کنیم به پرونده آرژانتین 1992 تا 2015.
29,105
Linear regressions with period and group fixed effects are widely used to estimate policies' effects: 26 of the 100 most cited papers published by the American Economic Review from 2015 to 2019 estimate such regressions. It has recently been shown that those regressions may produce misleading estimates, if the policy's effect is heterogeneous between groups or over time, as is often the case. This survey reviews a fast-growing literature that documents this issue, and that proposes alternative estimators robust to heterogeneous effects. We use those alternative estimators to revisit Wolfers (2006).
رگرسیون خطی با اثرات ثابت دوره و گروهی به طور گسترده ای مورد استفاده قرار می گیرد اثرات سیاست های تخمین: 26 از 100 مقاله ذکر شده توسط بررسی اقتصادی آمریکا از سال 2015 تا 2019 چنین رگرسیون را تخمین می زند.این دارد اخیراً نشان داده شده است که اگر این رگرسیون ممکن است تخمین های گمراه کننده ایجاد کند ، اگر اثر این سیاست بین گروه ها یا با گذشت زمان ناهمگن است ، مانند اغلب مورداین نظرسنجی ادبیات در حال رشد را بررسی می کند که این را مستند می کند مسئله ، و این برآوردگرهای جایگزین را به ناهمگن قوی پیشنهاد می کند اثراتما از آن برآوردگرهای جایگزین برای تجدید نظر در Wolfers (2006) استفاده می کنیم.
29,126
Some empirical results are more likely to be published than others. Such selective publication leads to biased estimates and distorted inference. This paper proposes two approaches for identifying the conditional probability of publication as a function of a study's results, the first based on systematic replication studies and the second based on meta-studies. For known conditional publication probabilities, we propose median-unbiased estimators and associated confidence sets that correct for selective publication. We apply our methods to recent large-scale replication studies in experimental economics and psychology, and to meta-studies of the effects of minimum wages and de-worming programs.
برخی از نتایج تجربی بیشتر از سایرین منتشر می شوند.چنین انتشار انتخابی منجر به برآوردهای مغرضانه و استنباط تحریف شده می شود.این مقاله دو رویکرد را برای شناسایی احتمال مشروط پیشنهاد می کند انتشار به عنوان تابعی از نتایج یک مطالعه ، اولین مورد بر اساس سیستماتیک مطالعات تکثیر و دوم بر اساس مطالعات متا.برای مشروط شناخته شده احتمال انتشار ، ما برآوردگرهای متوسط و مرتبط را پیشنهاد می کنیم اعتماد به نفس که برای انتشار انتخابی صحیح است.ما روشهای خود را به اعمال می کنیم مطالعات تکثیر در مقیاس بزرگ اخیر در اقتصاد تجربی و روانشناسی ، و به مطالعات متا در مورد تأثیر حداقل دستمزد و کابیل برنامه ها.
29,106
I suggest an enhancement of the procedure of Chiong, Hsieh, and Shum (2017) for calculating bounds on counterfactual demand in semiparametric discrete choice models. Their algorithm relies on a system of inequalities indexed by cycles of a large number $M$ of observed markets and hence seems to require computationally infeasible enumeration of all such cycles. I show that such enumeration is unnecessary because solving the "fully efficient" inequality system exploiting cycles of all possible lengths $K=1,\dots,M$ can be reduced to finding the length of the shortest path between every pair of vertices in a complete bidirected weighted graph on $M$ vertices. The latter problem can be solved using the Floyd--Warshall algorithm with computational complexity $O\left(M^3\right)$, which takes only seconds to run even for thousands of markets. Monte Carlo simulations illustrate the efficiency gain from using cycles of all lengths, which turns out to be positive, but small.
من پیشنهاد می کنم روش Chiong ، Hsieh و Shum (2017) برای محاسبه مرزها بر تقاضای ضد خلاف واقع در گسستهای نیمه قطبی مدل های انتخاب.الگوریتم آنها به سیستم نابرابری های فهرست بندی شده توسط چرخه های تعداد زیادی $ M $ از بازارهای مشاهده شده و از این رو به نظر می رسد شمارش محاسباتی غیرقابل نفوذ در همه چرخه ها.من نشان می دهم که چنین شمارش غیر ضروری است زیرا حل نابرابری "کاملاً کارآمد" چرخه های سوء استفاده از سیستم با تمام طول ممکن $ k = 1 ، \ dots ، m $ قابل کاهش است برای پیدا کردن طول کوتاهترین مسیر بین هر جفت راس در a نمودار وزنی کامل و دو طرفه در راس های $ M $.مشکل دوم می تواند باشد با استفاده از الگوریتم Floyd-Warshall با پیچیدگی محاسباتی حل شد $ o \ سمت چپ (m^3 \ راست) $ ، که حتی برای هزاران نفر نیز ثانیه طول می کشد بازارهاشبیه سازی های مونت کارلو سود کارآیی را از استفاده نشان می دهد چرخه هایی با طول ، که به نظر می رسد مثبت ، اما کوچک است.
29,107
This study contributes a house price prediction model selection in Tehran City based on the area between Lorenz curve (LC) and concentration curve (CC) of the predicted price by using 206,556 observed transaction data over the period from March 21, 2018, to February 19, 2021. Several different methods such as generalized linear models (GLM) and recursive partitioning and regression trees (RPART), random forests (RF) regression models, and neural network (NN) models were examined house price prediction. We used 90% of all data samples which were chosen randomly to estimate the parameters of pricing models and 10% of remaining datasets to test the accuracy of prediction. Results showed that the area between the LC and CC curves (which are known as ABC criterion) of real and predicted prices in the test data sample of the random forest regression model was less than by other models under study. The comparison of the calculated ABC criteria leads us to conclude that the nonlinear regression models such as RF regression models give an accurate prediction of house prices in Tehran City.
این مطالعه به انتخاب مدل پیش بینی قیمت خانه در تهران کمک می کند شهر بر اساس منطقه بین منحنی لورنز (LC) و منحنی غلظت (CC) از قیمت پیش بینی شده با استفاده از 206.556 داده معامله مشاهده شده از طریق دوره از 21 مارس 2018 ، تا 19 فوریه 2021. چندین روش مختلف مانند مدل های خطی عمومی (GLM) و پارتیشن بندی بازگشتی و درختان رگرسیون (RPART) ، مدل های رگرسیون جنگلهای تصادفی (RF) و عصبی مدل های شبکه (NN) پیش بینی قیمت خانه مورد بررسی قرار گرفت.ما از 90 ٪ از همه استفاده کردیم نمونه داده هایی که به طور تصادفی برای برآورد پارامترهای قیمت گذاری انتخاب شدند مدل ها و 10 ٪ از مجموعه داده های باقی مانده برای آزمایش صحت پیش بینی. نتایج نشان داد که منطقه بین منحنی های LC و CC (که به آن معروف هستند معیار ABC) از قیمت های واقعی و پیش بینی شده در نمونه داده های آزمون مدل رگرسیون جنگلی تصادفی کمتر از سایر مدلهای مورد مطالعه بود.در مقایسه معیارهای محاسبه شده ABC ما را به این نتیجه می رساند که مدل های رگرسیون غیرخطی مانند مدل های رگرسیون RF دقیق می دهند پیش بینی قیمت خانه در شهر تهران.
29,108
A new Stata command, ldvqreg, is developed to estimate quantile regression models for the cases of censored (with lower and/or upper censoring) and binary dependent variables. The estimators are implemented using a smoothed version of the quantile regression objective function. Simulation exercises show that it correctly estimates the parameters and it should be implemented instead of the available quantile regression methods when censoring is present. An empirical application to women's labor supply in Uruguay is considered.
یک فرمان جدید Stata ، LDVQREG ، برای برآورد رگرسیون کمی تهیه شده است مدل هایی برای موارد سانسور شده (با سانسور پایین و/یا فوقانی) و باینری متغیرهای وابسته.برآوردگرها با استفاده از یک نسخه صاف از عملکرد هدف رگرسیون کمی.تمرینات شبیه سازی نشان می دهد که به درستی پارامترها را تخمین می زند و باید به جای آن اجرا شود روشهای رگرسیون کمی در دسترس هنگام سانسور وجود دارد.تجربی درخواست برای تأمین نیروی کار زنان در اروگوئه در نظر گرفته شده است.
29,109
This article presents identification results for the marginal treatment effect (MTE) when there is sample selection. We show that the MTE is partially identified for individuals who are always observed regardless of treatment, and derive uniformly sharp bounds on this parameter under three increasingly restrictive sets of assumptions. The first result imposes standard MTE assumptions with an unrestricted sample selection mechanism. The second set of conditions imposes monotonicity of the sample selection variable with respect to treatment, considerably shrinking the identified set. Finally, we incorporate a stochastic dominance assumption which tightens the lower bound for the MTE. Our analysis extends to discrete instruments. The results rely on a mixture reformulation of the problem where the mixture weights are identified, extending Lee's (2009) trimming procedure to the MTE context. We propose estimators for the bounds derived and use data made available by Deb, Munking and Trivedi (2006) to empirically illustrate the usefulness of our approach.
در این مقاله نتایج شناسایی برای درمان حاشیه ای ارائه شده است اثر (MTE) هنگامی که انتخاب نمونه وجود دارد.ما نشان می دهیم که MTE تا حدی است شناسایی شده برای افرادی که همیشه بدون توجه به درمان مشاهده می شوند ، و مرزهای یکنواخت تیز را در این پارامتر تحت سه مورد به طور فزاینده ای بدست آورید مجموعه های محدود کننده فرضیات.نتیجه اول MTE استاندارد را تحمیل می کند فرضیات با مکانیسم انتخاب نمونه نامحدود.مجموعه دوم از شرایط یکنواختی متغیر انتخاب نمونه را با احترام تحمیل می کند برای درمان ، به طور قابل توجهی مجموعه مشخص شده را کوچک می کند.بالاخره ، ما یک فرض تسلط تصادفی را شامل می شود که محدودیت پایین را محکم می کند برای MTE.تجزیه و تحلیل ما به ابزارهای گسسته گسترش می یابد.نتایج به اصلاح مجدد مخلوط در جایی که وزن مخلوط در آن قرار دارد شناسایی شده ، گسترش روش پیرایش لی (2009) به متن MTE.ما برای مرزهای مشتق شده و از داده های موجود توسط Deb ، تخمین سازها را پیشنهاد دهید ، Munking and Trivedi (2006) برای تجربی نشان دادن سودمندی ما رویکرد.
29,110
We develop a novel test of the instrumental variable identifying assumptions for heterogeneous treatment effect models with conditioning covariates. We assume semiparametric dependence between potential outcomes and conditioning covariates. This allows us to obtain testable equality and inequality restrictions among the subdensities of estimable partial residuals. We propose jointly testing these restrictions. To improve power, we introduce distillation, where a trimmed sample is used to test the inequality restrictions. In Monte Carlo exercises we find gains in finite sample power from testing restrictions jointly and distillation. We apply our test procedure to three instruments and reject the null for one.
ما یک آزمایش جدید از متغیر ابزاری را شناسایی می کنیم که فرضیات را شناسایی می کنیم برای مدل های اثر درمانی ناهمگن با متغیرهای متغیر.ما وابستگی نیمهرامتری بین نتایج بالقوه و تهویه مطبوع را فرض کنید متغیرهای متغیراین به ما امکان می دهد برابری و نابرابری قابل آزمایش را بدست آوریم محدودیت ها در بین زیرمجموعه های باقیمانده های جزئی قابل تخمین.ما پیشنهاد می کنیم به طور مشترک این محدودیت ها را آزمایش می کند.برای بهبود قدرت ، ما معرفی می کنیم تقطیر ، جایی که از یک نمونه بریده شده برای آزمایش نابرابری استفاده می شود محدودیت های.در تمرینات مونت کارلو در قدرت نمونه محدود دستاورد می یابیم از آزمایش محدودیت ها به طور مشترک و تقطیر.ما روش تست خود را اعمال می کنیم به سه ابزار و NULL را برای یکی رد کنید.
29,111
This paper examines the local linear regression (LLR) estimate of the conditional distribution function $F(y|x)$. We derive three uniform convergence results: the uniform bias expansion, the uniform convergence rate, and the uniform asymptotic linear representation. The uniformity in the above results is with respect to both $x$ and $y$ and therefore has not previously been addressed in the literature on local polynomial regression. Such uniform convergence results are especially useful when the conditional distribution estimator is the first stage of a semiparametric estimator. We demonstrate the usefulness of these uniform results with two examples: the stochastic equicontinuity condition in $y$, and the estimation of the integrated conditional distribution function.
در این مقاله برآورد رگرسیون خطی محلی (LLR) از عملکرد توزیع مشروط $ f (y | x) $.ما سه همگرایی یکنواخت را استخراج می کنیم نتایج: گسترش تعصب یکنواخت ، میزان همگرایی یکنواخت و بازنمایی خطی بدون علامت یکنواخت.یکنواختی در نتایج فوق با توجه به هر دو $ $ $ و $ $ است و بنابراین قبلاً چنین نبوده است خطاب به ادبیات مربوط به رگرسیون چند جمله ای محلی.چنین لباس نتایج همگرایی به ویژه در هنگام توزیع مشروط مفید است برآوردگر اولین مرحله از یک برآوردگر نیمهرامتری است.ما نشان می دهیم سودمندی این نتایج یکنواخت با دو مثال: تصادفی شرایط Equicontinuity در $ y $ و تخمین یکپارچه عملکرد توزیع مشروط.
29,112
We consider a two-stage estimation method for linear regression that uses the lasso in Tibshirani (1996) to screen variables and re-estimate the coefficients using the least-squares boosting method in Friedman (2001) on every set of selected variables. Based on the large-scale simulation experiment in Hastie et al. (2020), the performance of lassoed boosting is found to be as competitive as the relaxed lasso in Meinshausen (2007) and can yield a sparser model under certain scenarios. An application to predict equity returns also shows that lassoed boosting can give the smallest mean square prediction error among all methods under consideration.
ما یک روش تخمین دو مرحله ای را برای رگرسیون خطی در نظر می گیریم که از آن استفاده می کند Lasso در Tibshirani (1996) برای نمایش متغیرها و ارزیابی مجدد ضرایب با استفاده از روش تقویت حداقل مربعات در فریدمن (2001) در هر مجموعه متغیرهای انتخاب شده.بر اساس آزمایش شبیه سازی در مقیاس بزرگ در Hastie et هم(2020) ، عملکرد تقویت Lassoed به عنوان رقابتی شناخته می شود به عنوان Lasso آرام در Meinshausen (2007) و می تواند یک مدل پراکنده را در زیر داشته باشد سناریوهای خاصبرنامه ای برای پیش بینی بازده سهام نیز نشان می دهد که تقویت کننده Lassoed می تواند کوچکترین خطای پیش بینی مربع را در بین همه ارائه دهد روشهای مورد نظر
29,113
This paper studies the robustness of estimated policy effects to changes in the distribution of covariates. Robustness to covariate shifts is important, for example, when evaluating the external validity of quasi-experimental results, which are often used as a benchmark for evidence-based policy-making. I propose a novel scalar robustness metric. This metric measures the magnitude of the smallest covariate shift needed to invalidate a claim on the policy effect (for example, $ATE \geq 0$) supported by the quasi-experimental evidence. My metric links the heterogeneity of policy effects and robustness in a flexible, nonparametric way and does not require functional form assumptions. I cast the estimation of the robustness metric as a de-biased GMM problem. This approach guarantees a parametric convergence rate for the robustness metric while allowing for machine learning-based estimators of policy effect heterogeneity (for example, lasso, random forest, boosting, neural nets). I apply my procedure to the Oregon Health Insurance experiment. I study the robustness of policy effects estimates of health-care utilization and financial strain outcomes, relative to a shift in the distribution of context-specific covariates. Such covariates are likely to differ across US states, making quantification of robustness an important exercise for adoption of the insurance policy in states other than Oregon. I find that the effect on outpatient visits is the most robust among the metrics of health-care utilization considered.
در این مقاله ، استحکام اثرات تخمین زده شده سیاست در تغییرات در تغییر در توزیع متغیرهای متغیر.استحکام به تغییرات متغیر مهم است ، به عنوان مثال ، هنگام ارزیابی اعتبار خارجی شبه تجربی نتایج ، که اغلب به عنوان معیار برای سیاست گذاری مبتنی بر شواهد مورد استفاده قرار می گیرند. من یک متریک استحکام مقیاس جدید را پیشنهاد می کنم.این متریک بزرگی را اندازه گیری می کند از کوچکترین تغییر متغیرهای مورد نیاز برای باطل کردن یک ادعا در مورد این سیاست اثر (به عنوان مثال ، $ خورد \ geq 0 $) که توسط شبه تجربی پشتیبانی می شود شواهد و مدارک.متریک من ناهمگونی اثرات سیاست و استحکام را در آن پیوند می دهد یک روش انعطاف پذیر و غیر پارامتری و نیازی به فرضیات عملکردی ندارد. من تخمین متریک استحکام را به عنوان یک مشکل GMM مغرضانه تقسیم کردم.این رویکرد نرخ همگرایی پارامتری را برای متریک استحکام تضمین می کند در حالی که امکان برآوردگرهای مبتنی بر یادگیری ماشین از تأثیر سیاست را فراهم می کند ناهمگونی (به عنوان مثال ، لاسو ، جنگل تصادفی ، تقویت ، شبکه های عصبی).من روش من را در آزمایش بیمه درمانی اورگان اعمال کنید.من مطالعه می کنم استحکام از تأثیرات سیاست برآورد مراقبت های بهداشتی و مالی نتایج کرنش ، نسبت به تغییر در توزیع خاص متن متغیرهای متغیرچنین متغیرهای متغیر احتمالاً در کشورهای ایالات متحده متفاوت هستند. تعیین استحکام یک تمرین مهم برای پذیرش بیمه نامه در ایالت های غیر از اورگان.فهمیدم که این اثر بر بازدیدهای سرپایی قوی ترین در میان معیارهای مراقبت های بهداشتی است استفاده در نظر گرفته شده است.
29,114
Aims: To re-introduce the Heckman model as a valid empirical technique in alcohol studies. Design: To estimate the determinants of problem drinking using a Heckman and a two-part estimation model. Psychological and neuro-scientific studies justify my underlying estimation assumptions and covariate exclusion restrictions. Higher order tests checking for multicollinearity validate the use of Heckman over the use of two-part estimation models. I discuss the generalizability of the two models in applied research. Settings and Participants: Two pooled national population surveys from 2016 and 2017 were used: the Behavioral Risk Factor Surveillance Survey (BRFS), and the National Survey of Drug Use and Health (NSDUH). Measurements: Participation in problem drinking and meeting the criteria for problem drinking. Findings: Both U.S. national surveys perform well with the Heckman model and pass all higher order tests. The Heckman model corrects for selection bias and reveals the direction of bias, where the two-part model does not. For example, the coefficients on age are upward biased and unemployment is downward biased in the two-part where the Heckman model does not have a selection bias. Covariate exclusion restrictions are sensitive to survey conditions and are contextually generalizable. Conclusions: The Heckman model can be used for alcohol (smoking studies as well) if the underlying estimation specification passes higher order tests for multicollinearity and the exclusion restrictions are justified with integrity for the data used. Its use is merit-worthy because it corrects for and reveals the direction and the magnitude of selection bias where the two-part does not.
اهداف: برای معرفی مجدد مدل هکمن به عنوان یک تکنیک معتبر تجربی در مطالعات الکل.طراحی: برای تخمین عوامل تعیین کننده مشروبات الکلی با استفاده از یک هکمن و یک مدل تخمین دو قسمتی.روانشناختی و عصبی مطالعات فرضیات برآورد اساسی من و محرومیت متغیر را توجیه می کند محدودیت های.تست های مرتبه بالاتر بررسی چند قطبی اعتبار استفاده از هکمن در استفاده از مدلهای تخمین دو قسمتی.من بحث می کنم تعمیم دو مدل در تحقیقات کاربردی.تنظیمات و شرکت کنندگان: دو نظرسنجی ملی جمعیتی از سال 2016 و 2017 بود مورد استفاده: بررسی نظارت بر فاکتور ریسک رفتاری (BRF) و ملی بررسی مصرف مواد مخدر و سلامت (NSDUH).اندازه گیری: مشارکت در مشکل نوشیدن و رعایت معیارهای مشروبات الکلی.یافته ها: هر دو ایالات متحده نظرسنجی های ملی با مدل هکمن عملکرد خوبی دارند و از همه نظم بالاتر عبور می کنند آزمون هامدل هکمن برای انتخاب تعصب را تصحیح می کند و جهت را آشکار می کند از تعصب ، جایی که مدل دو بخشی نیست.به عنوان مثال ، ضرایب روشن است سن به سمت بالا مغرضانه است و بیکاری در دو بخش جایی که در آن مغرضانه است مدل هکمن تعصب انتخابی ندارد.محرومیت متغیر محدودیت ها به شرایط نظرسنجی حساس هستند و از نظر متنی هستند قابل تعمیمنتیجه گیری: از مدل هکمن می توان برای الکل استفاده کرد (سیگار کشیدن همچنین مطالعات) اگر مشخصات تخمین اساسی از سفارش بالاتر عبور کند آزمایش های چند قطبی و محدودیت های محرومیت با توجیه شده است یکپارچگی برای داده های مورد استفاده.استفاده از آن شایسته است زیرا آن را تصحیح می کند و جهت و بزرگی تعصب انتخاب را نشان می دهد که در آن دو قسمتی چنین نمی کند.
29,115
We study the Stigler model of citation flows among journals adapting the pairwise comparison model of Bradley and Terry to do ranking and selection of journal influence based on nonparametric empirical Bayes procedures. Comparisons with several other rankings are made.
ما مدل Stigler از جریان استناد را در بین مجلات سازگار با آنها مطالعه می کنیم مدل مقایسه زوج از بردلی و تری برای انجام رتبه بندی و انتخاب تأثیر ژورنال بر اساس رویه های تجربی غیر پارامتری. مقایسه با چندین رتبه دیگر انجام می شود.
29,116
We ask if there are alternative contest models that minimize error or information loss from misspecification and outperform the Pythagorean model. This article aims to use simulated data to select the optimal expected win percentage model among the choice of relevant alternatives. The choices include the traditional Pythagorean model and the difference-form contest success function (CSF). Method. We simulate 1,000 iterations of the 2014 MLB season for the purpose of estimating and analyzing alternative models of expected win percentage (team quality). We use the open-source, Strategic Baseball Simulator and develop an AutoHotKey script that programmatically executes the SBS application, chooses the correct settings for the 2014 season, enters a unique ID for the simulation data file, and iterates these steps 1,000 times. We estimate expected win percentage using the traditional Pythagorean model, as well as the difference-form CSF model that is used in game theory and public choice economics. Each model is estimated while accounting for fixed (team) effects. We find that the difference-form CSF model outperforms the traditional Pythagorean model in terms of explanatory power and in terms of misspecification-based information loss as estimated by the Akaike Information Criterion. Through parametric estimation, we further confirm that the simulator yields realistic statistical outcomes. The simulation methodology offers the advantage of greatly improved sample size. As the season is held constant, our simulation-based statistical inference also allows for estimation and model comparison without the (time series) issue of non-stationarity. The results suggest that improved win (productivity) estimation can be achieved through alternative CSF specifications.
ما می پرسیم که آیا مدل های مسابقه جایگزین وجود دارد که خطا را به حداقل می رساند یا از دست دادن اطلاعات از اشتباه غلط و بهتر از مدل فیثاغور. این مقاله با هدف استفاده از داده های شبیه سازی شده برای انتخاب پیروزی بهینه مورد انتظار مدل درصد از انتخاب گزینه های مربوطه.گزینه ها شامل می شوند مدل سنتی فیثاغور و موفقیت مسابقه تفاوت عملکرد (CSF).روش.ما 1000 تکرار از فصل MLB 2014 را شبیه سازی می کنیم هدف از برآورد و تجزیه و تحلیل مدلهای جایگزین پیروزی مورد انتظار درصد (کیفیت تیم).ما از شبیه ساز بیس بال منبع باز و استراتژیک استفاده می کنیم و یک اسکریپت Autohotkey را تهیه کنید که به صورت برنامه ای SBS را اجرا می کند برنامه ، تنظیمات صحیح را برای فصل 2014 انتخاب می کند ، وارد یک منحصر به فرد می شود شناسه برای پرونده داده شبیه سازی ، و این مراحل را 1000 بار تکرار می کند.ما برآورد درصد برنده پیش بینی شده با استفاده از مدل سنتی فیثاغورین ، به عنوان و همچنین مدل CSF تفاوت که در تئوری بازی و عمومی استفاده می شود انتخاب اقتصاد.هر مدل در حالی که حساب برای ثابت (تیم) حساب می شود تخمین زده می شود اثراتما می دانیم که مدل CSF تفاوت از سنتی بهتر است مدل فیثاغوری از نظر قدرت توضیحی و از نظر از دست دادن اطلاعات مبتنی بر اشتباه همانطور که توسط اطلاعات Akaike تخمین زده می شود معیاراز طریق برآورد پارامتری ، ما بیشتر تأیید می کنیم که شبیه ساز نتایج آماری واقع گرایانه را به دست می آورد.روش شبیه سازی ارائه می دهد مزیت اندازه نمونه بسیار بهبود یافته.همانطور که فصل ثابت نگه داشته می شود ، ما استنتاج آماری مبتنی بر شبیه سازی همچنین امکان تخمین و مدل را فراهم می کند مقایسه بدون شماره (سری زمانی) عدم ثابت بودن.نتایج نشان می دهد که تخمین بهبود یافته (بهره وری) می تواند از طریق حاصل شود مشخصات CSF جایگزین.
29,117
In this paper we examine the relation between market returns and volatility measures through machine learning methods in a high-frequency environment. We implement a minute-by-minute rolling window intraday estimation method using two nonlinear models: Long-Short-Term Memory (LSTM) neural networks and Random Forests (RF). Our estimations show that the CBOE Volatility Index (VIX) is the strongest candidate predictor for intraday market returns in our analysis, specially when implemented through the LSTM model. This model also improves significantly the performance of the lagged market return as predictive variable. Finally, intraday RF estimation outputs indicate that there is no performance improvement with this method, and it may even worsen the results in some cases.
در این مقاله رابطه بین بازده بازار و نوسانات را بررسی می کنیم اقدامات از طریق روشهای یادگیری ماشین در یک محیط با فرکانس بالا.ما با استفاده از روش تخمین داخلی پنجره نورد دقیقه ای با استفاده از دو مدل غیرخطی: شبکه های عصبی حافظه کوتاه مدت (LSTM) و تصادفی جنگل ها (RF).برآوردهای ما نشان می دهد که شاخص نوسانات CBOE (VIX) است قوی ترین پیش بینی کننده کاندیدای بازده بازار داخلی در تجزیه و تحلیل ما ، به ویژه هنگامی که از طریق مدل LSTM اجرا می شود.این مدل همچنین بهبود می یابد به طور قابل توجهی عملکرد بازده بازار تاخیر به عنوان پیش بینی کننده متغیر.سرانجام ، خروجی های برآورد RF Intraday نشان می دهد که هیچ وجود ندارد بهبود عملکرد با این روش ، و حتی ممکن است نتایج را بدتر کند برخی موارد
29,118
Startups have become in less than 50 years a major component of innovation and economic growth. Silicon Valley has been the place where the startup phenomenon was the most obvious and Stanford University was a major component of that success. Companies such as Google, Yahoo, Sun Microsystems, Cisco, Hewlett Packard had very strong links with Stanford but even these vary famous success stories cannot fully describe the richness and diversity of the Stanford entrepreneurial activity. This report explores the dynamics of more than 5000 companies founded by Stanford University alumni and staff, through their value creation, their field of activities, their growth patterns and more. The report also explores some features of the founders of these companies such as their academic background or the number of years between their Stanford experience and their company creation.
استارتاپ ها در کمتر از 50 سال به یک مؤلفه اصلی نوآوری تبدیل شده اند و رشد اقتصادیدره سیلیکون مکانی است که استارتاپ پدیده آشکارترین بود و دانشگاه استنفورد یک مؤلفه اصلی بود از آن موفقیتشرکت هایی مانند Google ، Yahoo ، Sun Microsystems ، Cisco ، Hewlett Packard با استنفورد پیوندهای بسیار محکمی داشت اما حتی این موارد متفاوت است داستانهای موفقیت نمی توانند غنای و تنوع آن را به طور کامل توصیف کنند فعالیت کارآفرینی استنفورد.این گزارش پویایی بیشتر را بررسی می کند بیش از 5000 شرکت که توسط فارغ التحصیلان و کارمندان دانشگاه استنفورد تأسیس شده اند ، از طریق ایجاد ارزش آنها ، زمینه فعالیت های آنها ، الگوهای رشد آنها و بیشتر.این گزارش همچنین به بررسی برخی از ویژگی های بنیانگذاران این شرکت ها می پردازد مانند سوابق تحصیلی آنها یا تعداد سالهای بین استنفورد آنها تجربه و ایجاد شرکت آنها.
29,120
I propose a treatment selection model that introduces unobserved heterogeneity in both choice sets and preferences to evaluate the average effects of a program offer. I show how to exploit the model structure to define parameters capturing these effects and then computationally characterize their identified sets under instrumental variable variation in choice sets. I illustrate these tools by analyzing the effects of providing an offer to the Head Start preschool program using data from the Head Start Impact Study. I find that such a policy affects a large number of children who take up the offer, and that they subsequently have positive effects on test scores. These effects arise from children who do not have any preschool as an outside option. A cost-benefit analysis reveals that the earning benefits associated with the test score gains can be large and outweigh the net costs associated with offer take up.
من یک مدل انتخاب درمان را پیشنهاد می کنم که بدون محافظت را معرفی می کند ناهمگونی در هر دو مجموعه انتخاب و ترجیحات برای ارزیابی میانگین اثرات یک پیشنهاد برنامه.من نشان می دهم که چگونه از ساختار مدل برای تعریف استفاده می کنم پارامترهای ضبط این جلوه ها و سپس محاسباتی آنها را مشخص می کنند مجموعه های شناسایی شده تحت تغییر متغیر ابزاری در مجموعه های انتخاب.من این ابزارها را با تجزیه و تحلیل اثرات ارائه پیشنهاد به برنامه پیش دبستانی Head Start با استفاده از داده های مطالعه تأثیرگذاری Head Start.من دریابید که چنین سیاستی تعداد زیادی از کودکانی را که این افراد را بر عهده دارند ، تحت تأثیر قرار می دهد ارائه ، و این که آنها متعاقباً تأثیرات مثبتی در نمرات آزمون دارند.اینها تأثیرات کودکانی که هیچگونه پیش دبستانی به عنوان گزینه بیرونی ندارند ، بوجود می آید. تجزیه و تحلیل هزینه و سود نشان می دهد که مزایای درآمد مرتبط با سود نمره آزمون می تواند بزرگ باشد و از هزینه های خالص مرتبط با پیشنهاد بالاتر باشد گرفتن
29,121
I study identification, estimation and inference for spillover effects in experiments where units' outcomes may depend on the treatment assignments of other units within a group. I show that the commonly-used reduced-form linear-in-means regression identifies a weighted sum of spillover effects with some negative weights, and that the difference in means between treated and controls identifies a combination of direct and spillover effects entering with different signs. I propose nonparametric estimators for average direct and spillover effects that overcome these issues and are consistent and asymptotically normal under a precise relationship between the number of parameters of interest, the total sample size and the treatment assignment mechanism. These findings are illustrated using data from a conditional cash transfer program and with simulations. The empirical results reveal the potential pitfalls of failing to flexibly account for spillover effects in policy evaluation: the estimated difference in means and the reduced-form linear-in-means coefficients are all close to zero and statistically insignificant, whereas the nonparametric estimators I propose reveal large, nonlinear and significant spillover effects.
من شناسایی ، تخمین و استنباط اثرات سرریز را در مطالعه می کنم آزمایشاتی که نتایج واحدها ممکن است به تکالیف درمانی بستگی داشته باشد واحدهای دیگر در یک گروه.من نشان می دهم که از فرم کاهش یافته معمولاً استفاده می شود رگرسیون خطی در میانگین یک مقدار وزنی از اثرات سرریز را با آن مشخص می کند برخی از وزن های منفی ، و این که تفاوت در میانگین بین تحت درمان و Controls ترکیبی از اثرات مستقیم و سرریز را وارد می کند علائم مختلفمن برآوردگرهای غیرپارامتری را برای متوسط مستقیم و اثرات سرریز که بر این مسائل غلبه می کنند و سازگار هستند و بدون علامت طبیعی تحت یک رابطه دقیق بین تعداد پارامترهای مورد علاقه ، کل نمونه نمونه و واگذاری درمان سازوکار.این یافته ها با استفاده از داده های نقدی مشروط نشان داده شده است برنامه انتقال و با شبیه سازی.نتایج تجربی نشان می دهد مشکلات احتمالی عدم موفقیت در انعطاف پذیری برای اثرات سرریز در ارزیابی سیاست: تفاوت برآورد شده در میانگین و کاهش شکل ضرایب خطی در میانگین همه نزدیک به صفر و از نظر آماری است ناچیز ، در حالی که برآوردگرهای غیرپارامتری من پیشنهاد می کنم بزرگ ، اثرات سرریز غیرخطی و قابل توجهی.
29,122
Futures market contracts with varying maturities are traded concurrently and the speed at which they process information is of value in understanding the pricing discovery process. Using price discovery measures, including Putnins (2013) information leadership share and intraday data, we quantify the proportional contribution of price discovery between nearby and deferred contracts in the corn and live cattle futures markets. Price discovery is more systematic in the corn than in the live cattle market. On average, nearby contracts lead all deferred contracts in price discovery in the corn market, but have a relatively less dominant role in the live cattle market. In both markets, the nearby contract loses dominance when its relative volume share dips below 50%, which occurs about 2-3 weeks before expiration in corn and 5-6 weeks before expiration in live cattle. Regression results indicate that the share of price discovery is most closely linked to trading volume but is also affected, to far less degree, by time to expiration, backwardation, USDA announcements and market crashes. The effects of these other factors vary between the markets which likely reflect the difference in storability as well as other market-related characteristics.
قراردادهای بازار آتی با سررسید مختلف به طور همزمان معامله می شوند و سرعت پردازش اطلاعات در درک فرآیند کشف قیمت گذاری.با استفاده از اقدامات کشف قیمت ، از جمله پوتنین (2013) داده های رهبری اطلاعات و داده های داخلی ، ما کمیت می کنیم سهم متناسب کشف قیمت بین مجاور و معوق قراردادها در بازارهای آتی ذرت و گاو زنده.کشف قیمت بیشتر است سیستماتیک در ذرت نسبت به بازار گاو زنده.به طور متوسط ، در نزدیکی قراردادها تمام قراردادهای معوق را در کشف قیمت در بازار ذرت هدایت می کنند ، اما نقش نسبتاً کمتری در بازار گاو زنده دارند.در هر دو بازارها ، قرارداد در این نزدیکی هنگامی که سهم نسبی آن را از دست می دهد ، تسلط خود را از دست می دهد زیر 50 ٪ فرو می رود ، که حدود 2-3 هفته قبل از انقضا در ذرت و 5-6 رخ می دهد هفته ها قبل از انقضا در گاو زنده.نتایج رگرسیون نشان می دهد که سهم کشف قیمت از نزدیک با حجم معاملات مرتبط است اما نیز هست تحت تأثیر ، تا زمان بسیار کمتری ، با گذشت زمان تا انقضا ، عقب ماندگی ، USDA اطلاعیه ها و تصادفات بازار.اثرات این عوامل دیگر متفاوت است بین بازارهایی که احتمالاً تفاوت در قابلیت ذخیره سازی را نیز نشان می دهد به عنوان سایر خصوصیات مربوط به بازار.
29,123
Economic complexity reflects the amount of knowledge that is embedded in the productive structure of an economy. It resides on the premise of hidden capabilities - fundamental endowments underlying the productive structure. In general, measuring the capabilities behind economic complexity directly is difficult, and indirect measures have been suggested which exploit the fact that the presence of the capabilities is expressed in a country's mix of products. We complement these studies by introducing a probabilistic framework which leverages Bayesian non-parametric techniques to extract the dominant features behind the comparative advantage in exported products. Based on economic evidence and trade data, we place a restricted Indian Buffet Process on the distribution of countries' capability endowment, appealing to a culinary metaphor to model the process of capability acquisition. The approach comes with a unique level of interpretability, as it produces a concise and economically plausible description of the instantiated capabilities.
پیچیدگی اقتصادی نشان دهنده میزان دانش است که در آن تعبیه شده است ساختار تولیدی یک اقتصاد.این به فرض پنهان است قابلیت ها - موقوفات اساسی در زیر ساختار تولیدی.که در به طور کلی ، اندازه گیری قابلیت های پیچیدگی اقتصادی به طور مستقیم است اقدامات دشوار و غیرمستقیم پیشنهاد شده است که از این واقعیت بهره برداری می کنند که وجود قابلیت ها در ترکیب یک کشور بیان شده است محصولاتما این مطالعات را با معرفی یک چارچوب احتمالی تکمیل می کنیم که از تکنیک های غیر پارامتری بیزی برای استخراج غالب استفاده می کند ویژگی های پشت مزیت مقایسه ای در محصولات صادر شده.بر اساس شواهد اقتصادی و داده های تجاری ، ما یک فرایند محدود بوفه هند را قرار می دهیم در مورد توزیع اوقاف توانایی کشورها ، جذاب به یک آشپزی استعاره برای مدل سازی فرایند دستیابی به توانایی.رویکرد می آید با یک سطح تفسیر منحصر به فرد ، زیرا یک مختصر و مختصر تولید می کند توضیحات اقتصادی قابل قبول از قابلیت های فوری.
29,124
This study briefly introduces the development of Shantou Special Economic Zone under Reform and Opening-Up Policy from 1980 through 2016 with a focus on policy making issues and its influences on local economy. This paper is divided into two parts, 1980 to 1991, 1992 to 2016 in accordance with the separation of the original Shantou District into three cities: Shantou, Chaozhou and Jieyang in the end of 1991. This study analyzes the policy making issues in the separation of the original Shantou District, the influences of the policy on Shantou's economy after separation, the possibility of merging the three cities into one big new economic district in the future and reasons that lead to the stagnant development of Shantou in recent 20 years. This paper uses statistical longitudinal analysis in analyzing economic problems with applications of non-parametric statistics through generalized additive model and time series forecasting methods. The paper is authored by Bowen Cai solely, who is the graduate student in the PhD program of Applied and Computational Mathematics and Statistics at the University of Notre Dame with concentration in big data analysis.
این مطالعه به طور خلاصه توسعه اقتصادی ویژه Shantou را معرفی می کند منطقه تحت اصلاحات و سیاست های افتتاح از سال 1980 تا 2016 با تمرکز بر روی مسائل مربوط به سیاست گذاری و تأثیرات آن بر اقتصاد محلی.این مقاله تقسیم شده است به دو بخش ، 1980 تا 1991 ، 1992 تا 2016 مطابق با جدایی منطقه اصلی Shantou به سه شهر: Shantou ، Chaozhou و Jieyang در پایان سال 1991. این مطالعه موضوعات سیاست گذاری در جدایی منطقه اصلی شانتو ، تأثیرات این سیاست بر اقتصاد شانتو پس از جدایی ، امکان ادغام سه شهر در آینده به یک منطقه بزرگ اقتصادی جدید و دلایلی که منجر به آن می شود توسعه راکد شانتو در 20 سال اخیر.در این مقاله از آماری استفاده شده است تجزیه و تحلیل طولی در تجزیه و تحلیل مشکلات اقتصادی با برنامه های کاربردی آمار غیر پارامتری از طریق مدل افزودنی عمومی و سری زمانی روشهای پیش بینی.این مقاله توسط بوون کای صرفاً ، چه کسی است. دانشجوی تحصیلات تکمیلی در برنامه دکتری ریاضیات کاربردی و محاسباتی و آمار در دانشگاه نوتردام با تمرکز در داده های بزرگ تحلیل و بررسی.
29,125
This paper presents the identification of heterogeneous elasticities in the Cobb-Douglas production function. The identification is constructive with closed-form formulas for the elasticity with respect to each input for each firm. We propose that the flexible input cost ratio plays the role of a control function under "non-collinear heterogeneity" between elasticities with respect to two flexible inputs. The ex ante flexible input cost share can be used to identify the elasticities with respect to flexible inputs for each firm. The elasticities with respect to labor and capital can be subsequently identified for each firm under the timing assumption admitting the functional independence.
در این مقاله شناسایی خاصیت ارتجاعی ناهمگن در عملکرد تولید Cobb-Douglas.شناسایی با سازنده است فرمول های فرم بسته برای خاصیت ارتجاعی با توجه به هر ورودی برای هر یک محکمما پیشنهاد می کنیم که نسبت هزینه ورودی انعطاف پذیر نقش یک کنترل را ایفا می کند عملکرد تحت "ناهمگونی غیر کولی" بین کشش با احترام به دو ورودی انعطاف پذیر.سهم هزینه ورودی انعطاف پذیر سابق می تواند استفاده شود ارتجاعی ها را با توجه به ورودی های انعطاف پذیر برای هر بنگاه شناسایی کنید.در خاصیت ارتجاعی با توجه به نیروی کار و سرمایه را می توان متعاقباً شناسایی کرد برای هر بنگاه تحت فرض زمان بندی پذیرش عملکردی استقلال.
29,127
Research on growing American political polarization and antipathy primarily studies public institutions and political processes, ignoring private effects including strained family ties. Using anonymized smartphone-location data and precinct-level voting, we show that Thanksgiving dinners attended by opposing-party precinct residents were 30-50 minutes shorter than same-party dinners. This decline from a mean of 257 minutes survives extensive spatial and demographic controls. Dinner reductions in 2016 tripled for travelers from media markets with heavy political advertising --- an effect not observed in 2015 --- implying a relationship to election-related behavior. Effects appear asymmetric: while fewer Democratic-precinct residents traveled in 2016 than 2015, political differences shortened Thanksgiving dinners more among Republican-precinct residents. Nationwide, 34 million person-hours of cross-partisan Thanksgiving discourse were lost in 2016 to partisan effects.
تحقیقات در مورد رشد قطبش سیاسی آمریکا و ضد پاسی در درجه اول مطالعات نهادهای عمومی و فرایندهای سیاسی ، نادیده گرفتن اثرات خصوصی از جمله پیوندهای خانوادگی تنگ.با استفاده از داده های مکان های هوشمند ناشناس و رأی گیری در سطح منطقه ، ما نشان می دهیم که شام های شکرگذاری در آن شرکت می کنند ساکنان حزب حزب مخالف 30-50 دقیقه کوتاه تر از یک طرف بودند شاماین کاهش از میانگین 257 دقیقه زنده مانده است کنترل جمعیتیکاهش شام در سال 2016 سه برابر شده برای مسافران از بازارهای رسانه ای با تبلیغات سیاسی سنگین --- اثری که در آن مشاهده نشده است 2015 --- دلالت بر رابطه با رفتار مرتبط با انتخابات.جلوه ها ظاهر می شوند نامتقارن: در حالی که کمتر ساکنان دموکراتیک به میزان دموکراتیک در سال 2016 از آن سفر کردند 2015 ، اختلافات سیاسی بیشتر شام های شکرگذاری را در میان کوتاه کرد ساکنان محروم جمهوریخواه.در سراسر کشور ، 34 میلیون نفر ساعت گفتمان شکرگذاری متقابل در سال 2016 به اثرات حزبی از بین رفت.
29,128
The main purpose of this paper is to analyze threshold effects of official development assistance (ODA) on economic growth in WAEMU zone countries. To achieve this, the study is based on OECD and WDI data covering the period 1980-2015 and used Hansen's Panel Threshold Regression (PTR) model to "bootstrap" aid threshold above which its effectiveness is effective. The evidence strongly supports the view that the relationship between aid and economic growth is non-linear with a unique threshold which is 12.74% GDP. Above this value, the marginal effect of aid is 0.69 points, "all things being equal to otherwise". One of the main contribution of this paper is to show that WAEMU countries need investments that could be covered by the foreign aid. This later one should be considered just as a complementary resource. Thus, WEAMU countries should continue to strengthen their efforts in internal resource mobilization in order to fulfil this need.
هدف اصلی این مقاله تجزیه و تحلیل اثرات آستانه رسمی است کمک های توسعه (ODA) در مورد رشد اقتصادی در کشورهای منطقه WAEMU.به دستیابی به این هدف ، مطالعه بر اساس داده های OECD و WDI که دوره را پوشش می دهد انجام می شود 1980-2015 و از مدل رگرسیون آستانه پانل هانسن (PTR) استفاده کرد آستانه کمک به "bootstrap" که در بالای آن اثربخشی آن مؤثر است.در شواهد به شدت از این دیدگاه حمایت می کنند که رابطه بین کمک و رشد اقتصادی غیر خطی با آستانه منحصر به فرد است که تولید ناخالص داخلی 12.74 ٪ است. بالاتر از این مقدار ، تأثیر حاشیه کمک 0.69 امتیاز است ، "همه چیز وجود دارد برابر با غیر از این ". یکی از مهمترین سهم این مقاله ، نشان دادن آن است کشورهای WAEMU نیاز به سرمایه گذاری دارند که می تواند توسط کمک های خارجی تحت پوشش قرار گیرد.این بعداً باید فقط به عنوان یک منبع مکمل در نظر گرفته شود.بنابراین ، weamu کشورها باید به تقویت تلاش های خود در منابع داخلی ادامه دهند بسیج به منظور برآورده کردن این نیاز.
29,129
In this paper, I endeavour to construct a new model, by extending the classic exogenous economic growth model by including a measurement which tries to explain and quantify the size of technological innovation ( A ) endogenously. I do not agree technology is a "constant" exogenous variable, because it is humans who create all technological innovations, and it depends on how much human and physical capital is allocated for its research. I inspect several possible approaches to do this, and then I test my model both against sample and real world evidence data. I call this method "dynamic" because it tries to model the details in resource allocations between research, labor and capital, by affecting each other interactively. In the end, I point out which is the new residual and the parts of the economic growth model which can be further improved.
در این مقاله ، من سعی می کنم با گسترش کلاسیک ، یک مدل جدید را بسازم مدل رشد اقتصادی اگزوژن با استفاده از اندازه گیری که سعی می کند اندازه نوآوری تکنولوژیکی (الف) به صورت درون زا را توضیح داده و تعیین کنید.من موافق نیستید فناوری یک متغیر اگزوژن "ثابت" است ، زیرا اینگونه است انسانهایی که تمام نوآوری های فناوری را ایجاد می کنند ، و این بستگی به این دارد سرمایه انسانی و فیزیکی برای تحقیقات خود اختصاص یافته است.من چندین مورد را بازرسی می کنم رویکردهای احتمالی برای انجام این کار ، و سپس مدل خود را هر دو در برابر نمونه آزمایش می کنم و داده های شواهد دنیای واقعی.من این روش را "پویا" می نامم زیرا سعی می کند جزئیات مربوط به تخصیص منابع را بین تحقیق ، کار و سرمایه ، الگوبرداری کنید. با تأثیرگذاری بر یکدیگر به طور تعاملی.در پایان ، من اشاره می کنم کدام یک جدید است باقیمانده و بخش هایی از مدل رشد اقتصادی که می تواند بیشتر باشد بهبود یافته.
29,130
This paper studies the identification and estimation of the optimal linear approximation of a structural regression function. The parameter in the linear approximation is called the Optimal Linear Instrumental Variables Approximation (OLIVA). This paper shows that a necessary condition for standard inference on the OLIVA is also sufficient for the existence of an IV estimand in a linear model. The instrument in the IV estimand is unknown and may not be identified. A Two-Step IV (TSIV) estimator based on Tikhonov regularization is proposed, which can be implemented by standard regression routines. We establish the asymptotic normality of the TSIV estimator assuming neither completeness nor identification of the instrument. As an important application of our analysis, we robustify the classical Hausman test for exogeneity against misspecification of the linear structural model. We also discuss extensions to weighted least squares criteria. Monte Carlo simulations suggest an excellent finite sample performance for the proposed inferences. Finally, in an empirical application estimating the elasticity of intertemporal substitution (EIS) with US data, we obtain TSIV estimates that are much larger than their standard IV counterparts, with our robust Hausman test failing to reject the null hypothesis of exogeneity of real interest rates.
در این مقاله به بررسی شناسایی و تخمین خطی بهینه می پردازیم تقریب عملکرد رگرسیون ساختاری.پارامتر در خطی تقریب به متغیرهای ابزارهای خطی بهینه گفته می شود (الیوا).این مقاله نشان می دهد که یک شرط لازم برای استنباط استاندارد در الیوا نیز برای وجود یک برآورد IV در یک خطی کافی است مدل.ابزار موجود در برآورد IV ناشناخته است و ممکن است مشخص نشود. یک برآوردگر دو مرحله ای IV (TSIV) بر اساس تنظیم Tikhonov پیشنهاد شده است ، که می تواند توسط روالهای رگرسیون استاندارد اجرا شود.ما تعیین می کنیم نرمال بودن بدون علامت از برآوردگر TSIV با فرض کامل بودن و نه شناسایی ابزار.به عنوان یک کاربرد مهم تجزیه و تحلیل ما ، ما آزمون کلاسیک Hausman را برای اگزوژنیت در برابر اشتباه اشتباه مقاوم می کنیم از مدل ساختاری خطی.ما همچنین در مورد پسوند به حداقل وزنی بحث می کنیم معیارهای مربع.شبیه سازی های مونت کارلو یک نمونه محدود عالی را نشان می دهد عملکرد برای استنتاج های پیشنهادی.سرانجام ، در یک برنامه تجربی تخمین کشش تعویض بین قشر (EIS) با داده های ایالات متحده ، ما تخمین های TSIV را بدست آورید که بسیار بزرگتر از همتایان استاندارد IV آنها است ، با آزمون قوی Hausman ما نتوانست فرضیه تهی را رد کند اگزوژنی نرخ بهره واقعی.
29,131
We study the identification and estimation of structural parameters in dynamic panel data logit models where decisions are forward-looking and the joint distribution of unobserved heterogeneity and observable state variables is nonparametric, i.e., fixed-effects model. We consider models with two endogenous state variables: the lagged decision variable, and the time duration in the last choice. This class of models includes as particular cases important economic applications such as models of market entry-exit, occupational choice, machine replacement, inventory and investment decisions, or dynamic demand of differentiated products. The identification of structural parameters requires a sufficient statistic that controls for unobserved heterogeneity not only in current utility but also in the continuation value of the forward-looking decision problem. We obtain the minimal sufficient statistic and prove identification of some structural parameters using a conditional likelihood approach. We apply this estimator to a machine replacement model.
ما شناسایی و تخمین پارامترهای ساختاری را در مدل های ورود به سیستم پانل پویا که در آن تصمیمات به جلو و توزیع مشترک ناهمگونی بدون نظارت و متغیرهای حالت قابل مشاهده غیرپارامتری ، یعنی مدل اثرات ثابت است.ما مدل هایی را با دو در نظر می گیریم متغیرهای حالت درون زا: متغیر تصمیم تاخیر و مدت زمان در آخرین انتخاباین کلاس از مدل ها به عنوان موارد خاص مهم است برنامه های اقتصادی مانند مدل های ورود به بازار ، انتخاب شغلی ، جایگزینی دستگاه ، تصمیمات موجودی و سرمایه گذاری یا تقاضای پویا از محصولات متمایزشناسایی پارامترهای ساختاری نیاز به آماری کافی که کنترل ناهمگونی بدون نظارت را نه تنها در ابزار فعلی بلکه در ارزش مداوم آینده نگر مشکل تصمیم گیریما آماری کافی را به دست می آوریم و اثبات می کنیم شناسایی برخی از پارامترهای ساختاری با استفاده از یک احتمال مشروط رویکرد.ما این برآوردگر را در یک مدل جایگزینی دستگاه اعمال می کنیم.
29,132
This paper constructs individual-specific density forecasts for a panel of firms or households using a dynamic linear model with common and heterogeneous coefficients as well as cross-sectional heteroskedasticity. The panel considered in this paper features a large cross-sectional dimension N but short time series T. Due to the short T, traditional methods have difficulty in disentangling the heterogeneous parameters from the shocks, which contaminates the estimates of the heterogeneous parameters. To tackle this problem, I assume that there is an underlying distribution of heterogeneous parameters, model this distribution nonparametrically allowing for correlation between heterogeneous parameters and initial conditions as well as individual-specific regressors, and then estimate this distribution by combining information from the whole panel. Theoretically, I prove that in cross-sectional homoskedastic cases, both the estimated common parameters and the estimated distribution of the heterogeneous parameters achieve posterior consistency, and that the density forecasts asymptotically converge to the oracle forecast. Methodologically, I develop a simulation-based posterior sampling algorithm specifically addressing the nonparametric density estimation of unobserved heterogeneous parameters. Monte Carlo simulations and an empirical application to young firm dynamics demonstrate improvements in density forecasts relative to alternative approaches.
این مقاله پیش بینی های چگالی خاص فردی را برای یک تابلوی از شرکت ها یا خانوارها با استفاده از یک مدل خطی پویا با مشترک و ناهمگن ضرایب و همچنین ناهمگونی مقطعی.تابلو در این مقاله در نظر گرفته شده دارای یک بعد مقطعی بزرگ n اما کوتاه است سری زمانی T. به دلیل T کوتاه ، روش های سنتی در آن مشکل دارند جدا کردن پارامترهای ناهمگن از شوک ها ، که آلوده می شود برآورد پارامترهای ناهمگن.برای مقابله با این مشکل ، فرض می کنم این که یک توزیع اساسی از پارامترهای ناهمگن ، مدل وجود دارد این توزیع به طور غیر پارامتری امکان همبستگی بین پارامترهای ناهمگن و شرایط اولیه و همچنین خاص فردی رگرسیون ، و سپس این توزیع را با ترکیب اطلاعات از کل پنل.از لحاظ تئوریکی ، من ثابت می کنم که در مقطعی homoskedastic موارد ، هم پارامترهای متداول تخمین زده شده و هم توزیع تخمین زده شده پارامترهای ناهمگن به قوام خلفی می رسند و پیش بینی چگالی به صورت مجانبی به پیش بینی اوراکل همگرا می شود. از نظر روش شناختی ، من یک الگوریتم نمونه گیری خلفی مبتنی بر شبیه سازی ایجاد می کنم به طور خاص پرداختن به برآورد چگالی غیر پارامتری از پارامترهای ناهمگن.شبیه سازی مونت کارلو و یک کاربرد تجربی به دینامیک شرکت جوان پیشرفت در پیش بینی های چگالی نسبی را نشان می دهد به رویکردهای جایگزین.
29,134
This paper contributes to the literature on treatment effects estimation with machine learning inspired methods by studying the performance of different estimators based on the Lasso. Building on recent work in the field of high-dimensional statistics, we use the semiparametric efficient score estimation structure to compare different estimators. Alternative weighting schemes are considered and their suitability for the incorporation of machine learning estimators is assessed using theoretical arguments and various Monte Carlo experiments. Additionally we propose an own estimator based on doubly robust Kernel matching that is argued to be more robust to nuisance parameter misspecification. In the simulation study we verify theory based intuition and find good finite sample properties of alternative weighting scheme estimators like the one we propose.
این مقاله به ادبیات در مورد تخمین اثرات درمانی کمک می کند یادگیری ماشین با مطالعه عملکرد متفاوت از روشهای الهام گرفته شده برآوردگرهای مبتنی بر لاسو.در زمینه کارهای اخیر در زمینه آمار با ابعاد بالا ، ما از نمره کارآمد نیمهرامتری استفاده می کنیم ساختار تخمین برای مقایسه برآوردگرهای مختلف.وزن گیری جایگزین طرح ها در نظر گرفته شده و مناسب بودن آنها برای ترکیب دستگاه برآوردگرهای یادگیری با استفاده از استدلال های نظری و مونته های مختلف ارزیابی می شوند آزمایشات کارلو.علاوه بر این ، ما یک برآوردگر خود را بر اساس دو برابر پیشنهاد می کنیم تطبیق هسته قوی که گفته می شود برای پارامتر مزاحمت قوی تر است شناسایی غلطدر مطالعه شبیه سازی ما شهود مبتنی بر تئوری را تأیید می کنیم و ویژگی های نمونه محدود خوب از برآوردگرهای طرح وزنه برداری جایگزین را پیدا کنید مثل یکی که پیشنهاد می کنیم.
29,135
This paper introduces a method for linking technological improvement rates (i.e. Moore's Law) and technology adoption curves (i.e. S-Curves). There has been considerable research surrounding Moore's Law and the generalized versions applied to the time dependence of performance for other technologies. The prior work has culminated with methodology for quantitative estimation of technological improvement rates for nearly any technology. This paper examines the implications of such regular time dependence for performance upon the timing of key events in the technological adoption process. We propose a simple crossover point in performance which is based upon the technological improvement rates and current level differences for target and replacement technologies. The timing for the cross-over is hypothesized as corresponding to the first 'knee'? in the technology adoption "S-curve" and signals when the market for a given technology will start to be rewarding for innovators. This is also when potential entrants are likely to intensely experiment with product-market fit and when the competition to achieve a dominant design begins. This conceptual framework is then back-tested by examining two technological changes brought about by the internet, namely music and video transmission. The uncertainty analysis around the cases highlight opportunities for organizations to reduce future technological uncertainty. Overall, the results from the case studies support the reliability and utility of the conceptual framework in strategic business decision-making with the caveat that while technical uncertainty is reduced, it is not eliminated.
در این مقاله روشی برای پیوند دادن نرخ بهبود فناوری ارائه شده است (یعنی قانون مور) و منحنی های اتخاذ فناوری (یعنی S-Curves).وجود دارد تحقیقات قابل توجهی در مورد قانون مور و نسخه های عمومی انجام شده است به وابستگی زمانی عملکرد برای سایر فناوری ها اعمال می شود.اولی کار برای برآورد کمی از روش به اوج رسیده است نرخ بهبود فن آوری تقریباً برای هر فناوری.در این مقاله بررسی شده است پیامدهای چنین وابستگی زمانی منظم برای عملکرد بر زمان وقایع کلیدی در فرآیند اتخاذ تکنولوژیکی.ما یک ساده پیشنهاد می کنیم نقطه متقاطع در عملکرد که مبتنی بر تکنولوژیکی است نرخ بهبود و اختلاف سطح فعلی برای هدف و جایگزینی فن آوری هازمان بندی متقاطع فرض شده است اولین "زانو"؟در اتخاذ فناوری "S-Curve" و سیگنال ها هنگام بازار برای یک فناوری معین برای مبتکران پاداش می یابد.این همچنین زمانی است که ورودی های بالقوه به شدت آزمایش می کنند بازار محصول متناسب و هنگامی که رقابت برای دستیابی به یک طرح غالب است شروع می شوداین چارچوب مفهومی سپس با بررسی دو مورد آزمایش مجدد می شود تغییرات فن آوری ناشی از اینترنت ، یعنی موسیقی و فیلم انتقال.تجزیه و تحلیل عدم اطمینان در مورد موارد فرصت ها را برجسته می کند برای سازمان ها برای کاهش عدم اطمینان تکنولوژیکی آینده.در کل ، نتایج حاصل از مطالعات موردی از قابلیت اطمینان و کاربردهای آن پشتیبانی می کند چارچوب مفهومی در تصمیم گیری در مورد تجارت استراتژیک با احتیاط که در حالی که عدم اطمینان فنی کاهش می یابد ، از بین نمی رود.
29,136
Some aspects of the problem of stable marriage are discussed. There are two distinguished marriage plans: the fully transferable case, where money can be transferred between the participants, and the fully non transferable case where each participant has its own rigid preference list regarding the other gender. We continue to discuss intermediate partial transferable cases. Partial transferable plans can be approached as either special cases of cooperative games using the notion of a core, or as a generalization of the cyclical monotonicity property of the fully transferable case (fake promises). We shall introduced these two approaches, and prove the existence of stable marriage for the fully transferable and non-transferable plans.
برخی از جنبه های مشکل ازدواج پایدار مورد بحث قرار گرفته است.دو وجود دارد برنامه های ازدواج برجسته: پرونده کاملاً قابل انتقال ، که در آن پول می تواند باشد بین شرکت کنندگان و مورد کاملاً غیر قابل انتقال در جایی که هر شرکت کننده لیست ترجیح سفت و سخت خود را در مورد جنسیت دیگر دارد. ما همچنان به بحث در مورد موارد قابل انتقال جزئی واسطه می پردازیم.جزئي به برنامه های قابل انتقال می توان به عنوان هر دو مورد خاص تعاونی نزدیک شد بازی هایی با استفاده از مفهوم یک هسته یا به عنوان تعمیم چرخه خاصیت یکنواختی مورد کاملاً قابل انتقال (وعده های جعلی).ما باید این دو رویکرد را معرفی کرد و وجود ازدواج پایدار را برای آن اثبات کرد برنامه های کاملاً قابل انتقال و غیر قابل انتقال.
29,137
This study back-tests a marginal cost of production model proposed to value the digital currency bitcoin. Results from both conventional regression and vector autoregression (VAR) models show that the marginal cost of production plays an important role in explaining bitcoin prices, challenging recent allegations that bitcoins are essentially worthless. Even with markets pricing bitcoin in the thousands of dollars each, the valuation model seems robust. The data show that a price bubble that began in the Fall of 2017 resolved itself in early 2018, converging with the marginal cost model. This suggests that while bubbles may appear in the bitcoin market, prices will tend to this bound and not collapse to zero.
این مطالعه یک هزینه حاشیه ای از مدل تولید را برای ارزش گذاری ارائه می دهد ارز دیجیتال بیت کوین.نتایج هر دو رگرسیون متعارف و مدل های وکتور Autoregression (VAR) نشان می دهد که هزینه حاشیه تولید نقش مهمی در توضیح قیمت های بیت کوین دارد ، به چالش کشیده است ادعاهایی مبنی بر اینکه بیت کوین ها اساساً بی ارزش هستند.حتی با قیمت گذاری بازارها بیت کوین در هزاران دلار ، مدل ارزیابی قوی به نظر می رسد.در داده ها نشان می دهد که حباب قیمت که در پاییز سال 2017 آغاز شد ، خود را حل کرد در اوایل سال 2018 ، با مدل هزینه حاشیه همگرا.این نشان می دهد که در حالی که حباب ها ممکن است در بازار بیت کوین ظاهر شوند ، قیمت ها به این محدود و به صفر فرو نمی رود.
29,138
The issue of model selection in applied research is of vital importance. Since the true model in such research is not known, which model should be used from among various potential ones is an empirical question. There might exist several competitive models. A typical approach to dealing with this is classic hypothesis testing using an arbitrarily chosen significance level based on the underlying assumption that a true null hypothesis exists. In this paper we investigate how successful this approach is in determining the correct model for different data generating processes using time series data. An alternative approach based on more formal model selection techniques using an information criterion or cross-validation is suggested and evaluated in the time series environment via Monte Carlo experiments. This paper also explores the effectiveness of deciding what type of general relation exists between two variables (e.g. relation in levels or relation in first differences) using various strategies based on hypothesis testing and on information criteria with the presence or absence of unit roots.
مسئله انتخاب مدل در تحقیقات کاربردی از اهمیت حیاتی برخوردار است. از آنجا که مدل واقعی در چنین تحقیقاتی مشخص نیست ، از کدام مدل باید استفاده شود از میان موارد مختلف بالقوه یک سوال تجربی است.ممکن است وجود داشته باشد چندین مدل رقابتی.یک رویکرد معمولی برای مقابله با این کلاسیک است آزمایش فرضیه با استفاده از یک سطح اهمیت خودسرانه بر اساس فرض اساسی که یک فرضیه تهی واقعی وجود دارد.در این مقاله ما بررسی کنید که این رویکرد در تعیین مدل صحیح چقدر موفق است برای فرآیندهای مختلف تولید داده ها با استفاده از داده های سری زمانی.یک جایگزین رویکرد مبتنی بر تکنیک های انتخاب مدل رسمی تر با استفاده از یک اطلاعات معیار یا اعتبارسنجی متقابل در سری زمانی پیشنهاد و ارزیابی می شود محیط از طریق آزمایش های مونت کارلو.در این مقاله همچنین به بررسی اثربخشی تصمیم گیری در مورد اینکه چه نوع رابطه کلی بین دو وجود دارد متغیرها (به عنوان مثال رابطه در سطوح یا رابطه در تفاوت های اول) با استفاده از استراتژی های مختلف مبتنی بر آزمایش فرضیه و معیارهای اطلاعات با وجود یا عدم وجود ریشه های واحد.
29,139
This study investigates the dose-response effects of making music on youth development. Identification is based on the conditional independence assumption and estimation is implemented using a recent double machine learning estimator. The study proposes solutions to two highly practically relevant questions that arise for these new methods: (i) How to investigate sensitivity of estimates to tuning parameter choices in the machine learning part? (ii) How to assess covariate balancing in high-dimensional settings? The results show that improvements in objectively measured cognitive skills require at least medium intensity, while improvements in school grades are already observed for low intensity of practice.
این مطالعه به بررسی اثرات پاسخ دوز ساخت موسیقی در جوانان می پردازد توسعه.شناسایی مبتنی بر فرض استقلال مشروط است و تخمین با استفاده از یک برآوردگر اخیر یادگیری ماشین دوتایی اجرا می شود. این مطالعه راه حل هایی را برای دو سؤال کاملاً مرتبط ارائه می دهد که برای این روشهای جدید برخیزید: (i) نحوه بررسی حساسیت تخمین ها تنظیم انتخاب پارامتر در قسمت یادگیری ماشین؟(ب) نحوه ارزیابی تعادل متغیر در تنظیمات با ابعاد بالا؟نتایج نشان می دهد که پیشرفت در مهارت های شناختی اندازه گیری عینی حداقل به متوسط نیاز دارد شدت ، در حالی که پیشرفت در نمرات مدرسه از قبل برای پایین مشاهده شده است شدت تمرین.
29,932
We propose logit-based IV and augmented logit-based IV estimators that serve as alternatives to the traditionally used 2SLS estimator in the model where both the endogenous treatment variable and the corresponding instrument are binary. Our novel estimators are as easy to compute as the 2SLS estimator but have an advantage over the 2SLS estimator in terms of causal interpretability. In particular, in certain cases where the probability limits of both our estimators and the 2SLS estimator take the form of weighted-average treatment effects, our estimators are guaranteed to yield non-negative weights whereas the 2SLS estimator is not.
ما برآوردگرهای IV مبتنی بر ورود به سیستم مبتنی بر ورود به سیستم را پیشنهاد می کنیم که خدمت می کنند به عنوان گزینه های جایگزین برای برآوردگر سنتی 2SLS در مدل جایی که هم متغیر درمان درون زا و هم ابزار مربوطه دودویی.برآوردگرهای رمان ما به راحتی به عنوان برآوردگر 2SLS محاسبه می شوند اما از نظر تفسیر علی از برآوردگر 2SLS مزیت داشته باشید. به ویژه ، در موارد خاص که محدودیت احتمال هر دو ما باشد برآوردگرها و برآوردگر 2SLS به صورت متوسط درمان وزنه برداری می شوند اثرات ، برآوردگرهای ما تضمین می شوند که وزن های غیر منفی را به دست می آورند برآوردگر 2SLS نیست.
29,140
This article introduces two absolutely continuous global-local shrinkage priors to enable stochastic variable selection in the context of high-dimensional matrix exponential spatial specifications. Existing approaches as a means to dealing with overparameterization problems in spatial autoregressive specifications typically rely on computationally demanding Bayesian model-averaging techniques. The proposed shrinkage priors can be implemented using Markov chain Monte Carlo methods in a flexible and efficient way. A simulation study is conducted to evaluate the performance of each of the shrinkage priors. Results suggest that they perform particularly well in high-dimensional environments, especially when the number of parameters to estimate exceeds the number of observations. For an empirical illustration we use pan-European regional economic growth data.
این مقاله دو انقباض کاملاً مداوم جهانی-محلی را معرفی می کند PRIORS برای فعال کردن انتخاب متغیر تصادفی در زمینه مشخصات مکانی ماتریس با ابعاد بالا.رویکردهای موجود به عنوان ابزاری برای مقابله با مشکلات بیش از حد در مکانی مشخصات خودکار به طور معمول به تقاضای محاسباتی متکی است تکنیک های متوسط مدل بیزی.مقدمات پیشنهادی انقباض می تواند باشد با استفاده از روشهای زنجیره ای مارکوف مونت کارلو در یک انعطاف پذیر و کارآمد اجرا شد مسیر.یک مطالعه شبیه سازی برای ارزیابی عملکرد هر یک از این موارد انجام شده است Priors Prelinkage.نتایج حاکی از آن است که آنها به خصوص در آن عملکرد خوبی دارند محیط های با ابعاد بالا ، به ویژه هنگامی که تعداد پارامترها به برآورد بیش از تعداد مشاهدات است.برای یک تصویر تجربی ما از داده های رشد اقتصادی منطقه ای پان اروپایی استفاده کنید.
29,141
We propose a method that reconciles two popular approaches to structural estimation and inference: Using a complete - yet approximate model versus imposing a set of credible behavioral conditions. This is done by distorting the approximate model to satisfy these conditions. We provide the asymptotic theory and Monte Carlo evidence, and illustrate that counterfactual experiments are possible. We apply the methodology to the model of long run risks in aggregate consumption (Bansal and Yaron, 2004), where the complete model is generated using the Campbell and Shiller (1988) approximation. Using US data, we investigate the empirical importance of the neglected non-linearity. We find that distorting the model to satisfy the non-linear equilibrium condition is strongly preferred by the data while the quality of the approximation is yet another reason for the downward bias to estimates of the intertemporal elasticity of substitution and the upward bias in risk aversion.
ما روشی را پیشنهاد می کنیم که دو رویکرد محبوب برای ساختاری را آشتی دهد تخمین و استنباط: با استفاده از یک مدل کامل - در عین حال تقریبی در مقابل تحمیل مجموعه ای از شرایط رفتاری معتبر.این با تحریف انجام می شود مدل تقریبی برای برآورده کردن این شرایط.ما بدون علامت ارائه می دهیم تئوری و مونت کارلو شواهد و مدارک ، و آن آزمایش های ضد واقعیت را نشان می دهد ممکن استما روش شناسی را در مدل خطرات طولانی مدت در مصرف کل (Bansal and Yaron ، 2004) ، جایی که مدل کامل است با استفاده از تقریب کمپبل و شیلر (1988) تولید شد.با استفاده از داده های ایالات متحده ، ما اهمیت تجربی غیرخطی نادیده گرفته شده را بررسی می کنیم.ما پیدا می کنیم این تحریف مدل برای برآورده کردن شرایط تعادل غیر خطی است به شدت توسط داده ها ترجیح داده می شود در حالی که هنوز کیفیت تقریب هنوز وجود دارد دلیل دیگری برای تعصب رو به پایین برای برآورد بین المللی خاصیت ارتجاعی تعویض و تعصب رو به بالا در ریسک پذیری.
29,142
The United States' power market is featured by the lack of judicial power at the federal level. The market thus provides a unique testing environment for the market organization structure. At the same time, the econometric modeling and forecasting of electricity market consumption become more challenging. Import and export, which generally follow simple rules in European countries, can be a result of direct market behaviors. This paper seeks to build a general model for power consumption and using the model to test several hypotheses.
بازار برق ایالات متحده به دلیل عدم قدرت قضایی در سطح فدرالبنابراین بازار یک محیط آزمایش منحصر به فرد را فراهم می کند ساختار سازمان بازار.در عین حال ، مدل سازی اقتصاد سنجی و پیش بینی مصرف بازار برق چالش برانگیز تر می شود. واردات و صادرات ، که به طور کلی از قوانین ساده در کشورهای اروپایی پیروی می کنند ، می تواند نتیجه رفتارهای مستقیم بازار باشد.در این مقاله به دنبال ساختن یک ژنرال است مدل برای مصرف برق و استفاده از مدل برای آزمایش چندین فرضیه.
29,143
The policy relevant treatment effect (PRTE) measures the average effect of switching from a status-quo policy to a counterfactual policy. Estimation of the PRTE involves estimation of multiple preliminary parameters, including propensity scores, conditional expectation functions of the outcome and covariates given the propensity score, and marginal treatment effects. These preliminary estimators can affect the asymptotic distribution of the PRTE estimator in complicated and intractable manners. In this light, we propose an orthogonal score for double debiased estimation of the PRTE, whereby the asymptotic distribution of the PRTE estimator is obtained without any influence of preliminary parameter estimators as far as they satisfy mild requirements of convergence rates. To our knowledge, this paper is the first to develop limit distribution theories for inference about the PRTE.
اثر درمانی مربوط به سیاست (PRTE) میانگین اثر را اندازه گیری می کند تغییر از یک خط مشی وضعیت به یک سیاست ضد خلاف.تخمین PRTE شامل برآورد پارامترهای مقدماتی متعدد ، از جمله نمرات گرایش ، توابع انتظار شرطی نتیجه و متغیرهای متغیر با توجه به نمره گرایش و اثرات درمانی حاشیه ای.اینها برآوردگرهای مقدماتی می توانند بر توزیع بدون علامت PRTE تأثیر بگذارند برآوردگر در رفتارهای پیچیده و غیرقابل تحمل.در این نور ، ما پیشنهاد می کنیم نمره متعامد برای برآورد مضاعف از PRTE ، به موجب آن توزیع بدون علامت از برآوردگر PRTE بدون هیچ گونه تأثیر به دست می آید برآوردگرهای پارامتر اولیه تا آنجا که آنها نیازهای خفیف را برآورده می کنند نرخ همگرایی.به دانش ما ، این مقاله اولین بار است که محدودیت دارد تئوری های توزیع برای استنباط در مورد PRTE.
29,144
Partial mean with generated regressors arises in several econometric problems, such as the distribution of potential outcomes with continuous treatments and the quantile structural function in a nonseparable triangular model. This paper proposes a nonparametric estimator for the partial mean process, where the second step consists of a kernel regression on regressors that are estimated in the first step. The main contribution is a uniform expansion that characterizes in detail how the estimation error associated with the generated regressor affects the limiting distribution of the marginal integration estimator. The general results are illustrated with two examples: the generalized propensity score for a continuous treatment (Hirano and Imbens, 2004) and control variables in triangular models (Newey, Powell, and Vella, 1999; Imbens and Newey, 2009). An empirical application to the Job Corps program evaluation demonstrates the usefulness of the method.
میانگین جزئی با رگرسیون تولید شده در چندین اقتصاد سنجی بوجود می آید مشکلات ، مانند توزیع نتایج بالقوه با مداوم درمانها و عملکرد ساختاری کمی در یک مثلثی غیرقابل تفکیک مدل.در این مقاله یک برآوردگر غیرپارامتری برای میانگین جزئی پیشنهاد شده است فرآیند ، جایی که مرحله دوم شامل رگرسیون هسته بر روی رگرسیون است که در مرحله اول تخمین زده می شود.سهم اصلی یکنواخت است انبساط که به تفصیل مشخص می کند که خطای تخمین مرتبط با آن رگرسیون تولید شده بر توزیع محدود کننده حاشیه تأثیر می گذارد برآوردگر ادغام.نتایج کلی با دو مثال نشان داده شده است: نمره گرایش عمومی برای یک درمان مداوم (Hirano و Imbens ، 2004) و متغیرهای کنترل در مدل های مثلثی (Newey ، Powell و Vella ، 1999 ؛Imbens and Newey ، 2009).یک برنامه تجربی برای سپاه کار ارزیابی برنامه سودمندی روش را نشان می دهد.
29,145
I develop a new identification strategy for treatment effects when noisy measurements of unobserved confounding factors are available. I use proxy variables to construct a random variable conditional on which treatment variables become exogenous. The key idea is that, under appropriate conditions, there exists a one-to-one mapping between the distribution of unobserved confounding factors and the distribution of proxies. To ensure sufficient variation in the constructed control variable, I use an additional variable, termed excluded variable, which satisfies certain exclusion restrictions and relevance conditions. I establish asymptotic distributional results for semiparametric and flexible parametric estimators of causal parameters. I illustrate empirical relevance and usefulness of my results by estimating causal effects of attending selective college on earnings.
من هنگام پر سر و صدا یک استراتژی شناسایی جدید برای اثرات درمانی تدوین می کنم اندازه گیری فاکتورهای مخدوش غیرقابل کنترل در دسترس است.من از پروکسی استفاده می کنم متغیرهایی برای ساختن یک متغیر متغیر تصادفی که در آن درمان است متغیرها اگزوژن می شوند.ایده اصلی این است که ، در شرایط مناسب ، یک نقشه برداری یک به یک بین توزیع بدون حمایت وجود دارد عوامل گیج کننده و توزیع پروکسی ها.برای اطمینان از کافی تغییر در متغیر کنترل ساخته شده ، من از یک متغیر اضافی استفاده می کنم ، متغیر مستثنی نامیده می شود ، که محدودیت های محرومیت خاصی را برآورده می کند و شرایط ارتباطمن نتایج توزیع بدون علامت را برای برآوردگرهای پارامتری نیمهرامتری و انعطاف پذیر پارامترهای علی.من ارتباط و سودمندی تجربی نتایج من را با برآورد نشان می دهد تأثیرات علّی حضور در کالج انتخابی بر درآمد.
29,146
We develop a new statistical procedure to test whether the dependence structure is identical between two groups. Rather than relying on a single index such as Pearson's correlation coefficient or Kendall's Tau, we consider the entire dependence structure by investigating the dependence functions (copulas). The critical values are obtained by a modified randomization procedure designed to exploit asymptotic group invariance conditions. Implementation of the test is intuitive and simple, and does not require any specification of a tuning parameter or weight function. At the same time, the test exhibits excellent finite sample performance, with the null rejection rates almost equal to the nominal level even when the sample size is extremely small. Two empirical applications concerning the dependence between income and consumption, and the Brexit effect on European financial market integration are provided.
ما یک روش آماری جدید برای آزمایش اینکه آیا وابستگی است ایجاد می کنیم ساختار بین دو گروه یکسان است.به جای تکیه بر تک تک شاخصی مانند ضریب همبستگی پیرسون یا تاو کندال ، ما را در نظر می گیریم کل ساختار وابستگی با بررسی توابع وابستگی (کوپول ها).مقادیر بحرانی توسط یک تصادفی اصلاح شده بدست می آید روال طراحی شده برای بهره برداری از شرایط عدم تغییر گروه. اجرای آزمون بصری و ساده است و نیازی به آن ندارد مشخصات یک پارامتر تنظیم یا عملکرد وزن.در همان زمان ، تست عملکرد نمونه محدود نمونه محدود را با رد تهی نشان می دهد نرخ تقریباً برابر با سطح اسمی حتی اگر اندازه نمونه بسیار باشد کم اهمیت.دو برنامه تجربی در مورد وابستگی بین درآمد و مصرف ، و تأثیر Brexit در ادغام بازار مالی اروپا است ارائه شده
29,147
Finite mixture models are useful in applied econometrics. They can be used to model unobserved heterogeneity, which plays major roles in labor economics, industrial organization and other fields. Mixtures are also convenient in dealing with contaminated sampling models and models with multiple equilibria. This paper shows that finite mixture models are nonparametrically identified under weak assumptions that are plausible in economic applications. The key is to utilize the identification power implied by information in covariates variation. First, three identification approaches are presented, under distinct and non-nested sets of sufficient conditions. Observable features of data inform us which of the three approaches is valid. These results apply to general nonparametric switching regressions, as well as to structural econometric models, such as auction models with unobserved heterogeneity. Second, some extensions of the identification results are developed. In particular, a mixture regression where the mixing weights depend on the value of the regressors in a fully unrestricted manner is shown to be nonparametrically identifiable. This means a finite mixture model with function-valued unobserved heterogeneity can be identified in a cross-section setting, without restricting the dependence pattern between the regressor and the unobserved heterogeneity. In this aspect it is akin to fixed effects panel data models which permit unrestricted correlation between unobserved heterogeneity and covariates. Third, the paper shows that fully nonparametric estimation of the entire mixture model is possible, by forming a sample analogue of one of the new identification strategies. The estimator is shown to possess a desirable polynomial rate of convergence as in a standard nonparametric estimation problem, despite nonregular features of the model.
مدل های مخلوط محدود در اقتصاد سنجی کاربردی مفید هستند.آنها می توانند مورد استفاده قرار گیرند ناهمگونی بدون نظارت ، که نقش مهمی در اقتصاد کار دارد ، سازمان صنعتی و سایر زمینه ها.مخلوط ها نیز در آن مناسب هستند برخورد با مدل ها و مدل های نمونه برداری آلوده با تعادل متعدد. این مقاله نشان می دهد که مدل های مخلوط محدود به صورت غیر پارامتری شناسایی می شوند تحت فرضیات ضعیف که در کاربردهای اقتصادی قابل قبول است.کلید این است برای استفاده از قدرت شناسایی که توسط اطلاعات موجود در متغیرها دلالت دارد تغییر.اول ، سه رویکرد شناسایی ، تحت مجزا ارائه شده است و مجموعه های غیر لانه دار از شرایط کافی.ویژگی های قابل مشاهده داده ها به ما اطلاع دهید که کدام یک از سه رویکرد معتبر است.این نتایج مربوط به رگرسیون تعویض غیرپارامتری عمومی و همچنین به ساختاری مدل های اقتصاد سنجی ، مانند مدل های حراج با ناهمگونی بدون نظارت. دوم ، برخی از پسوندهای نتایج شناسایی توسعه یافته است.که در به طور خاص ، رگرسیون مخلوط که در آن وزن های اختلاط به مقدار بستگی دارند از رگرسیونرها به روشی کاملاً نامحدود نشان داده شده است غیر پارامتری قابل شناسایی است.این به معنای یک مدل مخلوط محدود با ناهمگونی بدون محافظت از عملکرد را می توان در یک مقطع مشخص کرد تنظیم ، بدون محدود کردن الگوی وابستگی بین رگرسور و ناهمگونی بدون نظارت.در این جنبه شبیه به پانل جلوه های ثابت است مدل های داده ای که همبستگی نامحدودی بین بدون نظارت امکان پذیر است ناهمگونی و متغیرهای متغیر.سوم ، مقاله نشان می دهد که کاملاً غیر پارامتری تخمین کل مدل مخلوط با تشکیل یک نمونه امکان پذیر است آنالوگ یکی از استراتژی های شناسایی جدید.برآوردگر نشان داده شده است دارای نرخ چند جمله ای مطلوب همگرایی مانند یک استاندارد است مشکل تخمین غیرپارامتری ، با وجود ویژگی های غیر منظم مدل.
29,148
Single index linear models for binary response with random coefficients have been extensively employed in many econometric settings under various parametric specifications of the distribution of the random coefficients. Nonparametric maximum likelihood estimation (NPMLE) as proposed by Cosslett (1983) and Ichimura and Thompson (1998), in contrast, has received less attention in applied work due primarily to computational difficulties. We propose a new approach to computation of NPMLEs for binary response models that significantly increase their computational tractability thereby facilitating greater flexibility in applications. Our approach, which relies on recent developments involving the geometry of hyperplane arrangements, is contrasted with the recently proposed deconvolution method of Gautier and Kitamura (2013). An application to modal choice for the journey to work in the Washington DC area illustrates the methods.
مدل های خطی تک شاخص برای پاسخ باینری با ضرایب تصادفی به طور گسترده در بسیاری از تنظیمات اقتصاد سنجی تحت پارامتری مختلف به کار رفته است مشخصات توزیع ضرایب تصادفی.غیر پارامتری حداکثر برآورد احتمال (NPMLE) همانطور که توسط Cosslett (1983) پیشنهاد شده است در مقابل ، ایچیمورا و تامپسون (1998) توجه کمتری را به خود جلب کرده است کار کاربردی در درجه اول به دلیل مشکلات محاسباتی.ما جدید پیشنهاد می کنیم رویکرد به محاسبه NPMLE برای مدلهای پاسخ باینری که به طور قابل توجهی قابلیت محاسبات آنها را افزایش دهید و در نتیجه بیشتر تسهیل می شود انعطاف پذیری در برنامه ها.رویکرد ما ، که به تحولات اخیر متکی است شامل هندسه تنظیمات هایپرپلن ، در تضاد با اخیراً روش تجزیه گوتیر و کیتامورا (2013) پیشنهاد شده است.در برنامه برای انتخاب معین برای سفر به کار در منطقه واشنگتن دی سی روشها را نشان می دهد.
29,149
This study proposes a point estimator of the break location for a one-time structural break in linear regression models. If the break magnitude is small, the least-squares estimator of the break date has two modes at the ends of the finite sample period, regardless of the true break location. To solve this problem, I suggest an alternative estimator based on a modification of the least-squares objective function. The modified objective function incorporates estimation uncertainty that varies across potential break dates. The new break point estimator is consistent and has a unimodal finite sample distribution under small break magnitudes. A limit distribution is provided under an in-fill asymptotic framework. Monte Carlo simulation results suggest that the new estimator outperforms the least-squares estimator. I apply the method to estimate the break date in U.S. real GDP growth and U.S. and UK stock return prediction models.
این مطالعه یک برآوردگر نقطه ای از محل استراحت را برای یک بار پیشنهاد می کند شکست ساختاری در مدلهای رگرسیون خطی.اگر مقدار شکست کوچک باشد ، برآوردگر کمترین مربع از تاریخ استراحت دارای دو حالت در انتهای آن است دوره نمونه محدود ، صرف نظر از محل استراحت واقعی.برای حل این مشکل ، من یک برآوردگر جایگزین را بر اساس اصلاحات پیشنهاد می کنم عملکرد هدف حداقل مربعات.عملکرد هدف اصلاح شده شامل می شود عدم قطعیت تخمین که در تاریخ شکستن احتمالی متفاوت است.استراحت جدید برآوردگر نقطه سازگار است و توزیع نمونه محدودی غیرقانونی دارد در زیر شکستن کوچک.توزیع محدود در زیر پر است چارچوب بدون علامت.نتایج شبیه سازی مونت کارلو حاکی از آن است که جدید برآوردگر از برآوردگر کمترین مربعات بهتر است.من روش را به کار می برم تاریخ شکستن را در رشد تولید ناخالص داخلی واقعی ایالات متحده و بازده سهام ایالات متحده و انگلیس تخمین بزنید مدل های پیش بینی.
29,150
This paper analyses the use of bootstrap methods to test for parameter change in linear models estimated via Two Stage Least Squares (2SLS). Two types of test are considered: one where the null hypothesis is of no change and the alternative hypothesis involves discrete change at k unknown break-points in the sample; and a second test where the null hypothesis is that there is discrete parameter change at l break-points in the sample against an alternative in which the parameters change at l + 1 break-points. In both cases, we consider inferences based on a sup-Wald-type statistic using either the wild recursive bootstrap or the wild fixed bootstrap. We establish the asymptotic validity of these bootstrap tests under a set of general conditions that allow the errors to exhibit conditional and/or unconditional heteroskedasticity, and report results from a simulation study that indicate the tests yield reliable inferences in the sample sizes often encountered in macroeconomics. The analysis covers the cases where the first-stage estimation of 2SLS involves a model whose parameters are either constant or themselves subject to discrete parameter change. If the errors exhibit unconditional heteroskedasticity and/or the reduced form is unstable then the bootstrap methods are particularly attractive because the limiting distributions of the test statistics are not pivotal.
در این مقاله استفاده از روش های bootstrap برای آزمایش تغییر پارامترها تجزیه و تحلیل شده است در مدلهای خطی از طریق حداقل مربعات دو مرحله (2SL) تخمین زده می شود.دو نوع آزمون در نظر گرفته شده است: یکی که فرضیه تهی در آن تغییر ندارد و فرضیه جایگزین شامل تغییر گسسته در k نقاط ناشناخته در k است مثال؛و یک آزمایش دوم که فرضیه تهی در این است که وجود دارد تغییر پارامتر گسسته در نقاط شکست در نمونه در برابر یک جایگزین که در آن پارامترها در نقاط شکست L + 1 تغییر می کنند.در هر دو موارد ، ما استنتاج ها را بر اساس یک آمار از نوع Sup-Wald با استفاده از هر دو در نظر می گیریم بوت استرپ بازگشتی وحشی یا بوت استرپ ثابت وحشی.ما تعیین می کنیم اعتبار بدون علامت این آزمایشات بوت استرپ تحت مجموعه ای از شرایط عمومی که به خطاها اجازه می دهد تا مشروط و/یا بی قید و شرط داشته باشند ناهمگونی ، و نتایج حاصل از یک مطالعه شبیه سازی را نشان می دهد که نشان می دهد آزمایشات استنتاج های قابل اعتماد در اندازه های نمونه که اغلب در آن مشاهده می شود اقتصاد کلان.تجزیه و تحلیل مواردی را در بر می گیرد که تخمین مرحله اول از 2SL شامل مدلی است که پارامترهای آن ثابت یا خودشان است منوط به تغییر پارامتر گسسته.اگر خطاها بی قید و شرط نشان می دهند ناهمگونی و/یا فرم کاهش یافته ناپایدار از بوت استرپ است روشها به ویژه جذاب هستند زیرا توزیع محدود کننده آمار آزمون محوری نیست.
29,151
Identification of multinomial choice models is often established by using special covariates that have full support. This paper shows how these identification results can be extended to a large class of multinomial choice models when all covariates are bounded. I also provide a new $\sqrt{n}$-consistent asymptotically normal estimator of the finite-dimensional parameters of the model.
شناسایی مدل های انتخاب چندمادی اغلب با استفاده از آن ایجاد می شود متغیرهای خاص که پشتیبانی کامل دارند.این مقاله نشان می دهد که چگونه اینها نتایج شناسایی را می توان به کلاس بزرگی از انتخاب چندمجمی گسترش داد مدل هایی که همه متغیرهای متغیر محدود هستند.من همچنین یک جدید ارائه می دهم $ \ sqrt {n} $-برآوردگر بدون علامت عادی از نظر محدود محدود پارامترهای مدل.
29,152
In this paper, we investigate seemingly unrelated regression (SUR) models that allow the number of equations (N) to be large, and to be comparable to the number of the observations in each equation (T). It is well known in the literature that the conventional SUR estimator, for example, the generalized least squares (GLS) estimator of Zellner (1962) does not perform well. As the main contribution of the paper, we propose a new feasible GLS estimator called the feasible graphical lasso (FGLasso) estimator. For a feasible implementation of the GLS estimator, we use the graphical lasso estimation of the precision matrix (the inverse of the covariance matrix of the equation system errors) assuming that the underlying unknown precision matrix is sparse. We derive asymptotic theories of the new estimator and investigate its finite sample properties via Monte-Carlo simulations.
در این مقاله ، ما مدل های رگرسیون به ظاهر نامربوط (SUR) را بررسی می کنیم که باعث می شود تعداد معادلات (n) بزرگ باشد و با آن قابل مقایسه باشد تعداد مشاهدات در هر معادله (t).در آن شناخته شده است ادبیاتی که به عنوان مثال ، برآوردگر SUR متعارف ، تعمیم یافته است حداقل مربعات (GLS) برآوردگر زلنر (1962) عملکرد خوبی ندارد.به عنوان سهم اصلی مقاله ، ما یک برآوردگر جدید GLS را به نام پیشنهاد می کنیم برآوردگر گرافیکی گرافیکی (FGLASSO).برای اجرای عملی از برآوردگر GLS ، ما از تخمین گرافیکی Lasso از دقت استفاده می کنیم ماتریس (معکوس ماتریس کواریانس خطاهای سیستم معادله) با فرض اینکه ماتریس دقیق ناشناخته زیرین پراکنده است.ما مشتق می شویم نظریه های بدون علامت از برآوردگر جدید و نمونه محدود آن را بررسی کنید خواص از طریق شبیه سازی مونت کارلو.
29,161
We study partial identification of the preference parameters in the one-to-one matching model with perfectly transferable utilities. We do so without imposing parametric distributional assumptions on the unobserved heterogeneity and with data on one large market. We provide a tractable characterisation of the identified set under various classes of nonparametric distributional assumptions on the unobserved heterogeneity. Using our methodology, we re-examine some of the relevant questions in the empirical literature on the marriage market, which have been previously studied under the Logit assumption. Our results reveal that many findings in the aforementioned literature are primarily driven by such parametric restrictions.
ما شناسایی جزئی از پارامترهای اولویت را در مدل تطبیق یک به یک با برنامه های کاملاً قابل انتقال.ما این کار را می کنیم بدون تحمیل فرضیات توزیع پارامتری بر روی موارد غیرقانونی ناهمگونی و با داده های مربوط به یک بازار بزرگ.ما قابل ردیابی است خصوصیات مجموعه مشخص شده در کلاسهای مختلف غیر پارامتری فرضیات توزیع در مورد ناهمگونی بدون نظارت.با استفاده از ما روش شناسی ، ما برخی از سؤالات مربوطه را در تجربی دوباره بررسی می کنیم ادبیات در مورد بازار ازدواج ، که قبلاً تحت مطالعه قرار گرفته است فرض ورودنتایج ما نشان می دهد که بسیاری از یافته های فوق الذکر ادبیات در درجه اول توسط چنین محدودیت های پارامتری هدایت می شود.
29,153
In this study, Bayesian inference is developed for structural vector autoregressive models in which the structural parameters are identified via Markov-switching heteroskedasticity. In such a model, restrictions that are just-identifying in the homoskedastic case, become over-identifying and can be tested. A set of parametric restrictions is derived under which the structural matrix is globally or partially identified and a Savage-Dickey density ratio is used to assess the validity of the identification conditions. The latter is facilitated by analytical derivations that make the computations fast and numerical standard errors small. As an empirical example, monetary models are compared using heteroskedasticity as an additional device for identification. The empirical results support models with money in the interest rate reaction function.
در این مطالعه ، استنباط بیزی برای بردار ساختاری ایجاد شده است مدلهای خودکار که در آن پارامترهای ساختاری از طریق شناسایی می شوند ناهمگونی سو-تغییر دهنده مارکوف.در چنین مدلی ، محدودیت هایی که وجود دارد فقط شناسایی در پرونده homoskedastic ، بیش از حد شناسایی شده و می تواند باشد آزمایش شدهمجموعه ای از محدودیت های پارامتری که در آن ساختاری به دست می آید ماتریس در سطح جهانی یا جزئی شناسایی شده و نسبت چگالی دیکی دیکی است برای ارزیابی اعتبار شرایط شناسایی استفاده می شود.دومی است با مشتقات تحلیلی که محاسبات را سریع و خطاهای استاندارد عددی کوچک.به عنوان یک نمونه تجربی ، مدل های پولی هستند مقایسه با استفاده از ناهمگونی به عنوان یک وسیله اضافی برای شناسایی. نتایج تجربی از مدلهای با پول در واکنش نرخ بهره پشتیبانی می کند تابع.
29,154
In this paper we aim to improve existing empirical exchange rate models by accounting for uncertainty with respect to the underlying structural representation. Within a flexible Bayesian non-linear time series framework, our modeling approach assumes that different regimes are characterized by commonly used structural exchange rate models, with their evolution being driven by a Markov process. We assume a time-varying transition probability matrix with transition probabilities depending on a measure of the monetary policy stance of the central bank at the home and foreign country. We apply this model to a set of eight exchange rates against the US dollar. In a forecasting exercise, we show that model evidence varies over time and a model approach that takes this empirical evidence seriously yields improvements in accuracy of density forecasts for most currency pairs considered.
در این مقاله ما هدف ما بهبود مدل های نرخ ارز تجربی موجود است حسابداری برای عدم اطمینان با توجه به ساختاری اساسی نمایندگی.در یک چارچوب سری زمانی غیر خطی بیزی انعطاف پذیر ، رویکرد مدل سازی ما فرض می کند که رژیم های مختلف توسط مشخص می شوند مدل های نرخ ارز ساختاری که معمولاً مورد استفاده قرار می گیرند و تکامل آنها وجود دارد هدایت شده توسط یک فرآیند مارکوف.ما یک احتمال انتقال متغیر زمان را فرض می کنیم ماتریس با احتمال انتقال بسته به اندازه گیری پولی موضع سیاست بانک مرکزی در کشور و کشور خارجی.ما اقدام می کنیم این مدل به مجموعه ای از هشت نرخ ارز در برابر دلار آمریکا.در یک پیش بینی تمرین ، ما نشان می دهیم که شواهد مدل با گذشت زمان و یک مدل متفاوت است رویکردی که این شواهد تجربی را به طور جدی به دست می آورد. دقت پیش بینی چگالی برای بیشتر جفت های ارزی در نظر گرفته شده است.
29,155
Volatilities, in high-dimensional panels of economic time series with a dynamic factor structure on the levels or returns, typically also admit a dynamic factor decomposition. We consider a two-stage dynamic factor model method recovering the common and idiosyncratic components of both levels and log-volatilities. Specifically, in a first estimation step, we extract the common and idiosyncratic shocks for the levels, from which a log-volatility proxy is computed. In a second step, we estimate a dynamic factor model, which is equivalent to a multiplicative factor structure for volatilities, for the log-volatility panel. By exploiting this two-stage factor approach, we build one-step-ahead conditional prediction intervals for large $n \times T$ panels of returns. Those intervals are based on empirical quantiles, not on conditional variances; they can be either equal- or unequal- tailed. We provide uniform consistency and consistency rates results for the proposed estimators as both $n$ and $T$ tend to infinity. We study the finite-sample properties of our estimators by means of Monte Carlo simulations. Finally, we apply our methodology to a panel of asset returns belonging to the S&P100 index in order to compute one-step-ahead conditional prediction intervals for the period 2006-2013. A comparison with the componentwise GARCH benchmark (which does not take advantage of cross-sectional information) demonstrates the superiority of our approach, which is genuinely multivariate (and high-dimensional), nonparametric, and model-free.
نوسانات ، در پانل های با ابعاد بالا از سری زمانی اقتصادی با یک ساختار فاکتور پویا در سطوح یا بازده ، به طور معمول نیز اعتراف می کند تجزیه فاکتور پویا.ما یک مدل فاکتور پویا دو مرحله ای را در نظر می گیریم روش بازیابی مؤلفه های مشترک و احمقانه هر دو سطح و ورود به سیستمبه طور خاص ، در یک مرحله تخمین اول ، ما را استخراج می کنیم شوک های مشترک و احمقانه برای سطح ، که از آن یک ورود به سیستم است پروکسی محاسبه می شود.در مرحله دوم ، ما یک مدل فاکتور پویا را تخمین می زنیم ، که معادل یک ساختار عامل ضرب برای نوسانات ، برای پانل ورود به سیستم.با بهره برداری از این رویکرد دو مرحله ای ، ما می سازیم فواصل پیش بینی شرطی یک مرحله ای برای پانل های بزرگ $ n \ times t $ از بازگشتاین فواصل مبتنی بر مقادیر تجربی است ، نه واریانس مشروط ؛آنها می توانند برابر یا نابرابر باشند.ما فراهم می کنیم نتیجه قوام و قوام یکنواخت برای برآوردگرهای پیشنهادی همانطور که هر دو $ n $ و $ t $ تمایل به بی نهایت دارند.ما خواص نمونه محدود را مطالعه می کنیم برآوردگرهای ما با استفاده از شبیه سازی مونت کارلو.سرانجام ، ما خود را اعمال می کنیم روش شناسی به پانل بازده دارایی متعلق به شاخص S&P100 به ترتیب برای محاسبه فواصل پیش بینی شرطی یک مرحله ای برای دوره 2006-2013.مقایسه ای با معیار Garch ComponentIse (که چنین نمی شود از اطلاعات مقطعی استفاده کنید) برتری را نشان می دهد رویکرد ما ، که واقعاً چند متغیره (و با ابعاد بالا) است ، غیرپارامتری و بدون مدل.
29,156
This paper studies model selection in semiparametric econometric models. It develops a consistent series-based model selection procedure based on a Bayesian Information Criterion (BIC) type criterion to select between several classes of models. The procedure selects a model by minimizing the semiparametric Lagrange Multiplier (LM) type test statistic from Korolev (2018) but additionally rewards simpler models. The paper also develops consistent upward testing (UT) and downward testing (DT) procedures based on the semiparametric LM type specification test. The proposed semiparametric LM-BIC and UT procedures demonstrate good performance in simulations. To illustrate the use of these semiparametric model selection procedures, I apply them to the parametric and semiparametric gasoline demand specifications from Yatchew and No (2001). The LM-BIC procedure selects the semiparametric specification that is nonparametric in age but parametric in all other variables, which is in line with the conclusions in Yatchew and No (2001). The results of the UT and DT procedures heavily depend on the choice of tuning parameters and assumptions about the model errors.
در این مقاله ، انتخاب مدل در مدلهای اقتصاد سنجی نیمهرامتری بررسی شده است.آی تی یک روش انتخاب مدل مبتنی بر سری را بر اساس یک توسعه می دهد معیار هر نوع معیار اطلاعات بیزی (BIC) برای انتخاب بین چندین کلاس های مدل ها.این روش با به حداقل رساندن یک مدل را انتخاب می کند آمار آزمون نوع Lagrange Multiplier (LM) از Korolev (2018) اما علاوه بر این ، مدلهای ساده تر نیز پاداش می دهد.مقاله همچنین سازگار است روشهای آزمایش رو به بالا (UT) و آزمایشات رو به پایین (DT) بر اساس آزمون مشخصات نوع LM Semiparametric.پیشنهاد شده و روشهای UT عملکرد خوبی در شبیه سازی ها نشان می دهد.برای نشان دادن استفاده از این روشهای انتخاب مدل نیمهرامتری ، من آنها را در مشخصات تقاضای بنزین پارامتری و نیمه پارامتری از Yatchew و خیر (2001).روش LM-BIC مشخصات نیمهرامتری را انتخاب می کند از نظر سن غیرپارامتری است اما در تمام متغیرهای دیگر پارامتری است. با نتیجه گیری در Yatchew و No (2001).نتایج UT و DT رویه ها به شدت به انتخاب پارامترها و فرضیات تنظیم بستگی دارد درباره خطاهای مدل.
29,157
This paper studies a fixed-design residual bootstrap method for the two-step estimator of Francq and Zako\"ian (2015) associated with the conditional Expected Shortfall. For a general class of volatility models the bootstrap is shown to be asymptotically valid under the conditions imposed by Beutner et al. (2018). A simulation study is conducted revealing that the average coverage rates are satisfactory for most settings considered. There is no clear evidence to have a preference for any of the three proposed bootstrap intervals. This contrasts results in Beutner et al. (2018) for the VaR, for which the reversed-tails interval has a superior performance.
در این مقاله یک روش بوت استرپ باقیمانده با طراحی ثابت برای دو مرحله ای بررسی شده است برآوردگر Francq و Zako \ "Ian (2015) مرتبط با مشروط کمبود مورد انتظاربرای یک کلاس کلی از مدل های نوسانات ، بوت استرپ است نشان داده شده است که تحت شرایط تحمیل شده توسط Beutner و همکاران به صورت مجانبی معتبر است. (2018).یک مطالعه شبیه سازی انجام می شود که نشان می دهد میانگین پوشش نرخ برای اکثر تنظیمات در نظر گرفته شده رضایت بخش است.هیچ مدرک روشنی وجود ندارد برای داشتن هر یک از سه فواصل بوت استرپ پیشنهادی.این تضادها منجر به Beutner و همکاران می شود.(2018) برای VAR ، که برای آن فاصله معکوس-دم دارای عملکرد برتر است.
29,158
We provide a complete asymptotic distribution theory for clustered data with a large number of independent groups, generalizing the classic laws of large numbers, uniform laws, central limit theory, and clustered covariance matrix estimation. Our theory allows for clustered observations with heterogeneous and unbounded cluster sizes. Our conditions cleanly nest the classical results for i.n.i.d. observations, in the sense that our conditions specialize to the classical conditions under independent sampling. We use this theory to develop a full asymptotic distribution theory for estimation based on linear least-squares, 2SLS, nonlinear MLE, and nonlinear GMM.
ما یک تئوری توزیع کامل بدون علامت برای داده های خوشه ای با تعداد زیادی از گروه های مستقل ، تعمیم قوانین کلاسیک بزرگ اعداد ، قوانین یکنواخت ، نظریه محدودیت مرکزی و ماتریس کواریانس خوشه ای برآورد کردن.نظریه ما امکان مشاهدات خوشه ای با ناهمگن و اندازه خوشه ای بدون مرز.شرایط ما به طور پاک نتایج کلاسیک را برای آن لانه می کند I.N.I.D.مشاهدات ، به این معنا که شرایط ما به شرایط کلاسیک تحت نمونه گیری مستقل.ما از این تئوری برای توسعه استفاده می کنیم یک تئوری توزیع کامل بدون علامت برای برآورد بر اساس خطی حداقل مربعات ، 2SLS ، MLE غیرخطی و GMM غیرخطی.
29,159
In this paper we propose a general framework to analyze prediction in time series models and show how a wide class of popular time series models satisfies this framework. We postulate a set of high-level assumptions, and formally verify these assumptions for the aforementioned time series models. Our framework coincides with that of Beutner et al. (2019, arXiv:1710.00643) who establish the validity of conditional confidence intervals for predictions made in this framework. The current paper therefore complements the results in Beutner et al. (2019, arXiv:1710.00643) by providing practically relevant applications of their theory.
در این مقاله یک چارچوب کلی برای تجزیه و تحلیل پیش بینی در زمان پیشنهاد می کنیم مدل های سری و نشان می دهد که چگونه یک کلاس گسترده از مدل های سری زمانی محبوب را برآورده می کند این چارچوبما مجموعه ای از فرضیات سطح بالا را فرض می کنیم و به طور رسمی این فرضیات را برای مدل های سری زمانی فوق الذکر تأیید کنید.ما چارچوب همزمان با Beutner و همکاران است.(2019 ، Arxiv: 1710.00643) که اعتبار فواصل اطمینان مشروط را برای پیش بینی های انجام شده تعیین کنید در این چارچوببنابراین مقاله حاضر نتایج را در آن تکمیل می کند Beutner و همکاران.(2019 ، ARXIV: 1710.00643) با ارائه عملاً مرتبط برنامه های تئوری آنها.
29,162
The identification of the network effect is based on either group size variation, the structure of the network or the relative position in the network. I provide easy-to-verify necessary conditions for identification of undirected network models based on the number of distinct eigenvalues of the adjacency matrix. Identification of network effects is possible; although in many empirical situations existing identification strategies may require the use of many instruments or instruments that could be strongly correlated with each other. The use of highly correlated instruments or many instruments may lead to weak identification or many instruments bias. This paper proposes regularized versions of the two-stage least squares (2SLS) estimators as a solution to these problems. The proposed estimators are consistent and asymptotically normal. A Monte Carlo study illustrates the properties of the regularized estimators. An empirical application, assessing a local government tax competition model, shows the empirical relevance of using regularization methods.
شناسایی اثر شبکه بر اساس هر دو گروه است تنوع ، ساختار شبکه یا موقعیت نسبی در شبکه.من شرایط لازم را برای شناسایی آسان برای شناسایی ارائه می دهم مدل های شبکه غیرمستقیم بر اساس تعداد مقادیر ویژه مشخص از ماتریس مجاور.شناسایی اثرات شبکه امکان پذیر است.اگرچه در بسیاری از موقعیت های تجربی استراتژی های شناسایی موجود ممکن است نیاز داشته باشند استفاده از بسیاری از ابزارها یا ابزارهایی که می توانند با آن ارتباط برقرار کنند یکدیگر.استفاده از ابزارهای بسیار همبسته یا بسیاری از ابزارها ممکن است منجر به شناسایی ضعیف یا تعصب بسیاری از ابزارها می شود.این مقاله پیشنهاد می کند نسخه های منظم از برآوردگرهای حداقل مربعات دو مرحله ای (2SL) به عنوان a راه حل برای این مشکلات.برآوردگرهای پیشنهادی سازگار هستند و بدون علامت طبیعی.یک مطالعه مونت کارلو خصوصیات این را نشان می دهد برآوردگرهای منظم.یک برنامه تجربی ، ارزیابی دولت محلی مدل رقابت مالیاتی ، ارتباط تجربی استفاده از منظم را نشان می دهد مواد و روش ها.
29,163
This paper is concerned with learning decision makers' preferences using data on observed choices from a finite set of risky alternatives. We propose a discrete choice model with unobserved heterogeneity in consideration sets and in standard risk aversion. We obtain sufficient conditions for the model's semi-nonparametric point identification, including in cases where consideration depends on preferences and on some of the exogenous variables. Our method yields an estimator that is easy to compute and is applicable in markets with large choice sets. We illustrate its properties using a dataset on property insurance purchases.
این مقاله مربوط به یادگیری ترجیحات تصمیم گیرندگان با استفاده از داده ها است در گزینه های مشاهده شده از مجموعه ای محدود از گزینه های خطرناک.ما پیشنهاد می کنیم مدل انتخاب گسسته با ناهمگونی بدون نظارت در مجموعه های در نظر گرفته شده و در ریسک استاندارد.ما شرایط کافی را برای مدل بدست می آوریم شناسایی نقطه نیمه غیر پارامتری ، از جمله در مواردی که مورد توجه قرار می گیرد بستگی به ترجیحات و برخی از متغیرهای اگزوژن دارد.روش ما برآوردگرهایی را بازده می دهد که محاسبه آن آسان است و در بازارها قابل استفاده است مجموعه های انتخابی بزرگ.ما ویژگی های آن را با استفاده از یک مجموعه داده در ویژگی نشان می دهیم خریدهای بیمه
29,164
The synthetic control method is often used in treatment effect estimation with panel data where only a few units are treated and a small number of post-treatment periods are available. Current estimation and inference procedures for synthetic control methods do not allow for the existence of spillover effects, which are plausible in many applications. In this paper, we consider estimation and inference for synthetic control methods, allowing for spillover effects. We propose estimators for both direct treatment effects and spillover effects and show they are asymptotically unbiased. In addition, we propose an inferential procedure and show it is asymptotically unbiased. Our estimation and inference procedure applies to cases with multiple treated units or periods, and where the underlying factor model is either stationary or cointegrated. In simulations, we confirm that the presence of spillovers renders current methods biased and have distorted sizes, whereas our methods yield properly sized tests and retain reasonable power. We apply our method to a classic empirical example that investigates the effect of California's tobacco control program as in Abadie et al. (2010) and find evidence of spillovers.
روش کنترل مصنوعی اغلب در برآورد اثر درمانی استفاده می شود با داده های پانل که فقط چند واحد تحت درمان قرار می گیرند و تعداد کمی از آنها دوره های پس از درمان در دسترس است.برآورد و استنباط فعلی روشهای روشهای کنترل مصنوعی امکان وجود آن را ندارد اثرات سرریز ، که در بسیاری از برنامه ها قابل قبول است.در این مقاله ، ما تخمین و استنباط روشهای کنترل مصنوعی را در نظر بگیرید ، اثرات سرریز.ما برآوردگرها را برای هر دو اثر درمانی مستقیم پیشنهاد می کنیم و جلوه های سرریز و نشان می دهد که آنها بدون علامت بی طرف هستند.علاوه بر این ، ما یک روش استنباطی را پیشنهاد کنید و نشان دهید که از نظر بی نظمی بی طرفانه است.ما روش تخمین و استنباط در مورد مواردی که دارای چندین واحد تحت درمان هستند اعمال می شود یا دوره ها ، و جایی که مدل عامل اصلی یا ثابت است یا یکپارچهدر شبیه سازی ها ، ما تأیید می کنیم که وجود سرریزها روشهای فعلی را مغرضانه و اندازه تحریف کرده اند ، در حالی که روشهای ما تست های به اندازه مناسب را انجام داده و قدرت معقول را حفظ کنید.ما روش خود را در یک نمونه تجربی کلاسیک که تأثیر کالیفرنیا را بررسی می کند برنامه کنترل دخانیات مانند آبادی و همکاران.(2010) و شواهدی از سرریز
29,165
I show how to reveal ambiguity-sensitive preferences over a single natural event. In the proposed elicitation mechanism, agents mix binarized bets on the uncertain event and its complement under varying betting odds. The mechanism identifies the interval of relevant probabilities for maxmin and maxmax preferences. For variational preferences and smooth second-order preferences, the mechanism reveals inner bounds, that are sharp under high stakes. For small stakes, mixing under second-order preferences is dominated by the variance of the second-order distribution. Additionally, the mechanism can distinguish extreme ambiguity aversion as in maxmin preferences and moderate ambiguity aversion as in variational or smooth second-order preferences. An experimental implementation suggests that participants perceive almost as much ambiguity for the stock index and actions of other participants as for the Ellsberg urn, indicating the importance of ambiguity in real-world decision-making.
من نشان می دهم که چگونه می توان ترجیحات حساس به ابهام را نسبت به یک طبیعی طبیعی نشان داد رویداد.در مکانیسم انتخاب پیشنهادی ، عوامل شرط بندی های باناری شده را در رویداد نامشخص و مکمل آن تحت شانس شرط بندی متفاوت.مکانیسم فاصله احتمالات مربوطه را برای maxmin و maxmax مشخص می کند اولویت ها.برای ترجیحات تنوع و تنظیمات صاف مرتبه دوم ، این مکانیسم مرزهای درونی را نشان می دهد ، که تحت سهام زیاد تیز هستند.برای کوچک سهام ، مخلوط کردن تحت ترجیحات مرتبه دوم تحت سلطه واریانس است توزیع مرتبه دوم.علاوه بر این ، مکانیسم می تواند متمایز شود دوری ابهام شدید مانند ترجیحات حداکثر و ابهام متوسط بیزاری همانطور که در ترجیحات متغیر یا صاف مرتبه دوم.یک آزمایش اجرای نشان می دهد که شرکت کنندگان تقریباً به همان اندازه ابهام درک می کنند شاخص سهام و اقدامات سایر شرکت کنندگان در مورد السبرگ اورن ، نشان دهنده اهمیت ابهام در تصمیم گیری در دنیای واقعی.
29,166
Ordered probit and logit models have been frequently used to estimate the mean ranking of happiness outcomes (and other ordinal data) across groups. However, it has been recently highlighted that such ranking may not be identified in most happiness applications. We suggest researchers focus on median comparison instead of the mean. This is because the median rank can be identified even if the mean rank is not. Furthermore, median ranks in probit and logit models can be readily estimated using standard statistical softwares. The median ranking, as well as ranking for other quantiles, can also be estimated semiparametrically and we provide a new constrained mixed integer optimization procedure for implementation. We apply it to estimate a happiness equation using General Social Survey data of the US.
مدلهای پروبیت و ورود به سیستم اغلب برای تخمین استفاده شده است میانگین رتبه بندی نتایج شادی (و سایر داده های نظم) در گروه ها. با این حال ، اخیراً برجسته شده است که چنین رتبه بندی ممکن است اینگونه نباشد در بیشتر برنامه های شادی مشخص شده است.ما پیشنهاد می کنیم محققان روی آن تمرکز کنند مقایسه متوسط به جای میانگین.این امر به این دلیل است که رتبه متوسط می تواند باشد حتی اگر میانگین رتبه ای نباشد ، شناسایی شده است.علاوه بر این ، رده های متوسط در Probit و مدل های ورود به سیستم با استفاده از نرم افزارهای آماری استاندارد می توانند به راحتی تخمین زده شوند. رتبه متوسط و همچنین رتبه بندی برای سایر مقادیر نیز می تواند باشد ما یک عدد صحیح مختلط محدود را ارائه می دهیم روش بهینه سازی برای اجرای.ما آن را برای برآورد خوشبختی اعمال می کنیم معادله با استفاده از داده های بررسی اجتماعی عمومی ایالات متحده.
29,167
We bound features of counterfactual choices in the nonparametric random utility model of demand, i.e. if observable choices are repeated cross-sections and one allows for unrestricted, unobserved heterogeneity. In this setting, tight bounds are developed on counterfactual discrete choice probabilities and on the expectation and c.d.f. of (functionals of) counterfactual stochastic demand.
ما ویژگی های انتخاب ضد خلاف را به طور تصادفی غیرپارامتری محدود می کنیم مدل ابزار تقاضا ، یعنی اگر گزینه های قابل مشاهده بخش های مکرر هستند و یکی اجازه ناهمگونی بدون محدودیت و بدون نظارت را می دهد.در این تنظیم ، مرزهای تنگ در مورد احتمالات انتخاب گسسته ضد خلاف و در انتظار و C.D.F.از (عملکردهای) تصادفی تصادفی تقاضا
29,168
We propose a counterfactual Kaplan-Meier estimator that incorporates exogenous covariates and unobserved heterogeneity of unrestricted dimensionality in duration models with random censoring. Under some regularity conditions, we establish the joint weak convergence of the proposed counterfactual estimator and the unconditional Kaplan-Meier (1958) estimator. Applying the functional delta method, we make inference on the cumulative hazard policy effect, that is, the change of duration dependence in response to a counterfactual policy. We also evaluate the finite sample performance of the proposed counterfactual estimation method in a Monte Carlo study.
ما یک برآوردگر کپلان-مایر ضد خلاف را پیشنهاد می کنیم که شامل آن است متغیرهای اگزوژن و ناهمگونی بدون محدودیت نامحدود ابعاد در مدلهای مدت زمان با سانسور تصادفی.تحت برخی منظم شرایط ، ما همگرایی ضعیف مفصل پیشنهادی را تعیین می کنیم برآوردگر ضد خلاف و برآوردگر بی قید و شرط Kaplan-Meier (1958). با استفاده از روش دلتا کاربردی ، ما بر روی تجمعی استنباط می کنیم اثر سیاست خطر ، یعنی تغییر وابستگی مدت در پاسخ به یک سیاست ضد خلاف.ما همچنین عملکرد نمونه محدود را ارزیابی می کنیم روش تخمین ضد خلاف پیشنهادی در یک مطالعه مونت کارلو.
29,169
We show that when a high-dimensional data matrix is the sum of a low-rank matrix and a random error matrix with independent entries, the low-rank component can be consistently estimated by solving a convex minimization problem. We develop a new theoretical argument to establish consistency without assuming sparsity or the existence of any moments of the error matrix, so that fat-tailed continuous random errors such as Cauchy are allowed. The results are illustrated by simulations.
ما نشان می دهیم که وقتی یک ماتریس داده با ابعاد بالا مجموع رتبه پایین است ماتریس و یک ماتریس خطای تصادفی با ورودی های مستقل ، درجه پایین مؤلفه را می توان به طور مداوم با حل به حداقل رساندن محدب تخمین زد مسئله.ما یک استدلال نظری جدید برای ایجاد سازگاری بدون آن ایجاد می کنیم با فرض کمبود یا وجود هر لحظه از ماتریس خطا ، به این ترتیب خطاهای تصادفی مداوم چربی مانند Cauchy مجاز است.نتایج هستند نشان داده شده توسط شبیه سازی ها.