ورود به حساب

نام کاربری گذرواژه

گذرواژه را فراموش کردید؟ کلیک کنید

حساب کاربری ندارید؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری ایمیل شماره موبایل گذرواژه

برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید


09117307688
09117179751

در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید

دسترسی نامحدود

برای کاربرانی که ثبت نام کرده اند

ضمانت بازگشت وجه

درصورت عدم همخوانی توضیحات با کتاب

پشتیبانی

از ساعت 7 صبح تا 10 شب

دانلود کتاب Adaptive Markov Control Processes

دانلود کتاب فرآیندهای کنترل مارکوف تطبیقی

Adaptive Markov Control Processes

مشخصات کتاب

Adaptive Markov Control Processes

ویرایش: 1 
نویسندگان:   
سری: Applied Mathematical Sciences 79 
ISBN (شابک) : 0387969667, 9780387969664 
ناشر: Springer-Verlag New York 
سال نشر: 1989 
تعداد صفحات: 164 
زبان: English  
فرمت فایل : DJVU (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) 
حجم فایل: 5 مگابایت 

قیمت کتاب (تومان) : 54,000



ثبت امتیاز به این کتاب

میانگین امتیاز به این کتاب :
       تعداد امتیاز دهندگان : 12


در صورت تبدیل فایل کتاب Adaptive Markov Control Processes به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.

توجه داشته باشید کتاب فرآیندهای کنترل مارکوف تطبیقی نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.


توضیحاتی در مورد کتاب فرآیندهای کنترل مارکوف تطبیقی



این کتاب به دسته‌ای از فرآیندهای کنترل تصادفی زمان گسسته معروف به فرآیندهای مارکوف کنترل‌شده (CMP)، که به‌عنوان فرآیندهای تصمیم‌گیری مارکوف یا برنامه‌های پویا مارکوف نیز شناخته می‌شوند، سروکار دارد. از اواسط دهه 1950 با ریچارد بلمن، کمک های زیادی به CMPها انجام شد و برنامه های کاربردی برای مهندسی، آمار و تحقیقات عملیاتی، در میان سایر زمینه ها، نیز توسعه یافت. هدف این کتاب ارائه برخی از پیشرفت‌های اخیر در مورد نظریه CMP تطبیقی ​​است. ه. ، CMPهایی که به پارامترهای ناشناخته بستگی دارند. بنابراین در هر زمان تصمیم گیری، کنترل کننده یا تصمیم گیرنده باید مقادیر واقعی پارامترها را تخمین بزند و سپس اقدامات کنترلی را با مقادیر برآورد شده تطبیق دهد. ما قصد نداریم تمام جنبه های کنترل تطبیقی ​​تصادفی را توصیف کنیم. در عوض، انتخاب مواد منعکس کننده علایق تحقیقاتی ما است. پیش نیاز این کتاب دانش تجزیه و تحلیل واقعی و تئوری احتمالات در سطح مثلاً Ash (1972) یا Royden (1968) است، اما هیچ دانش قبلی در مورد فرآیندهای کنترل یا تصمیم گیری لازم نیست. از سوی دیگر، منظور از ارائه، مستقل است، به این معنا که هرگاه از یک نتیجه از احتمال تحلیلگر استفاده شود، معمولاً به طور کامل بیان می شود و در صورت لزوم، منابع برای بحث بیشتر ارائه می شود. چندین ضمیمه برای این منظور ارائه شده است. مطالب به شش فصل تقسیم شده است. فصل 1 شامل تعاریف اساسی در مورد مسائل کنترل تصادفی مورد علاقه ما است. شرح مختصری از برخی از برنامه ها نیز ارائه شده است.


توضیحاتی درمورد کتاب به خارجی

This book is concerned with a class of discrete-time stochastic control processes known as controlled Markov processes (CMP's), also known as Markov decision processes or Markov dynamic programs. Starting in the mid-1950swith Richard Bellman, many contributions to CMP's have been made, and applications to engineering, statistics and operations research, among other areas, have also been developed. The purpose of this book is to present some recent developments on the theory of adaptive CMP's, i. e. , CMP's that depend on unknown parameters. Thus at each decision time, the controller or decision-maker must estimate the true parameter values, and then adapt the control actions to the estimated values. We do not intend to describe all aspects of stochastic adaptive control; rather, the selection of material reflects our own research interests. The prerequisite for this book is a knowledgeof real analysis and prob­ ability theory at the level of, say, Ash (1972) or Royden (1968), but no previous knowledge of control or decision processes is required. The pre­ sentation, on the other hand, is meant to beself-contained,in the sensethat whenever a result from analysisor probability is used, it is usually stated in full and references are supplied for further discussion, if necessary. Several appendices are provided for this purpose. The material is divided into six chapters. Chapter 1 contains the basic definitions about the stochastic control problems we are interested in; a brief description of some applications is also provided.



فهرست مطالب

Cover......Page 1
Volume in Series......Page 2
Title page......Page 3
Copyright page......Page 4
Preface......Page 7
Contents......Page 9
Summary of Notation and Terminology......Page 13
Control Models......Page 15
Policies......Page 17
Performance Criteria......Page 20
Control Problems......Page 21
1.3 Examples......Page 23
An Inventory/Production System......Page 24
Control of Water Reservoirs......Page 25
Fisheries Management......Page 26
Nonstationary MCM\'s......Page 27
Semi-Markov Control Models......Page 28
1.4 Further Comments......Page 29
Summary......Page 31
2.2 Optimality Conditions......Page 32
Continuity of $v^\\ast$......Page 37
2.3 Asymptotic Discount Optimality......Page 38
Nonstationary Value-Iteration......Page 41
Finite-State Approximations......Page 46
Preliminaries......Page 48
Nonstationary Value-Iteration......Page 49
The Principle of Estimation and Control......Page 52
Adaptive Policies......Page 53
2.6 Nonparametric Adaptive Control......Page 54
The Parametric Approach......Page 55
New Setting......Page 56
The Empirical Distribution Process......Page 58
Nonparametric Adaptive Policies......Page 59
2.7 Comments and References......Page 61
3.1 Introduction......Page 65
3.2 The Optimality Equation......Page 66
3.3 Ergodicity Conditions......Page 70
Uniform Approximations......Page 76
Successive Averagings......Page 80
3.5 Approximating Models......Page 81
3.6 Nonstationary Value Iteration......Page 85
Nonstationary Successive Averagings......Page 89
Discounted-Like NVI......Page 90
Preliminaries......Page 91
Nonstationary Value Iteration (NVI)......Page 93
3.8 Comments and References......Page 95
Summary......Page 97
4.2 PO-CM: Case of Known Parameters......Page 98
4.3 Transformation into a CO Control Problem......Page 100
$I$-Policies......Page 102
The New Control Model......Page 103
4.4 Optimal $I$-Policies......Page 104
4.5 PO-CM\'s with Unknown Parameters......Page 107
PEC and NVI $I$-Policies......Page 109
4.6 Comments and References......Page 110
Summary......Page 112
5.2 Contrast Functions......Page 113
5.3 Minimum Contrast Estimators......Page 115
5.4 Comments and References......Page 119
6.2 Preliminaries......Page 121
A Non-Recursive Procedure......Page 123
A Recursive Procedure......Page 125
Preliminaries......Page 127
Discretization of the PEC Adaptive Policy......Page 128
Discretization of the NVI Adaptive Policy......Page 129
The Non-Adaptive Case......Page 130
The Adaptive Case......Page 133
6.6 Comments and References......Page 135
Appendix A. Contraction Operators......Page 136
Total Variation Norm......Page 138
Weak Convergence......Page 139
Appendix C. Stochastic Kernels......Page 141
Multifunctions......Page 143
References......Page 146
Author Index......Page 157
Subject Index......Page 161
Applied Mathematical Sciences......Page 163




نظرات کاربران