view in publisher's site

Solvable integration problems and optimal sample size selection

We compute the integral of a function or the expectation of a random variable with minimal cost and use, for our new algorithm and for upper bounds of the complexity, i.i.d. samples. Under certain assumptions it is possible to select a sample size based on a variance estimation, or – more generally – based on an estimation of a (central absolute) p-moment. That way one can guarantee a small absolute error with high probability, the problem is thus called solvable. The expected cost of the method depends on the p-moment of the random variable, which can be arbitrarily large. In order to prove the optimality of our algorithm we also provide lower bounds. These bounds apply not only to methods based on i.i.d. samples but also to general randomized algorithms. They show that – up to constants – the cost of the algorithm is optimal in terms of accuracy, confidence level, and norm of the particular input random variable. Since the considered classes of random variables or integrands are very large, the worst case cost would be infinite. Nevertheless one can define adaptive stopping rules such that for each input the expected cost is finite. We contrast these positive results with examples of integration problems that are not solvable.

مشکلات ادغام solvable و انتخاب حجم نمونه بهینه

ما انتگرال یک تابع یا انتظار یک متغیر تصادفی با حداقل هزینه و استفاده را برای الگوریتم های جدید و برای مرزه‌ای بالای پیچیدگی محاسبه می‌کنیم. i. d. نمونه‌ها مورد بررسی قرار گرفتند. تحت برخی فرضیات، می‌توان یک اندازه نمونه را براساس تخمین واریانس یا - به طور کلی - براساس تخمین (مطلق)p - لحظه انتخاب کرد. بدین ترتیب می‌توان خطای مطلق کوچک را با احتمال زیاد تضمین کرد، بنابراین مساله قابل‌حل است. هزینه مورد انتظار این روش به زمان p - لحظه متغیر تصادفی بستگی دارد که می‌تواند به طور دل‌خواه بزرگ باشد. به منظور اثبات بهینگی الگوریتم ما، مرزه‌ای پایینی را ارایه می‌کنیم. این bounds نه تنها برای روش‌هایی که بر پایه i هستند صدق می‌کنند. i. d. نمونه‌گیری به صورت تصادفی ساده انجام شد. آن‌ها نشان می‌دهند که بالا به ثابت - هزینه الگوریتم از نظر دقت، سطح اعتماد و نرم متغیر تصادفی ورودی خاص بهینه است. از آنجایی که کلاس‌های مد نظر متغیرهای تصادفی یا integrands بسیار بزرگ هستند، بدترین حالت ممکن است نامحدود باشد. با وجود این، می توان قوانین توقف تطبیقی را تعریف کرد که برای هر ورودی هزینه مورد انتظار محدود است. ما این نتایج مثبت را با نمونه‌هایی از مشکلات ادغام که قابل‌حل نیستند، مقایسه می‌کنیم.

ترجمه شده با

Download PDF سفارش ترجمه این مقاله این مقاله را خودتان با کمک ترجمه کنید
سفارش ترجمه مقاله و کتاب - شروع کنید

95/12/18 - با استفاده از افزونه دانلود فایرفاکس و کروم٬ چکیده مقالات به صورت خودکار تشخیص داده شده و دکمه دانلود فری‌پیپر در صفحه چکیده نمایش داده می شود.