view in publisher's site

FUZZY BAYESIAN NETWORKS — A GENERAL FORMALISM FOR REPRESENTATION, INFERENCE AND LEARNING WITH HYBRID BAYESIAN NETWORKS

This paper proposes a general formalism for representation, inference and learning with general hybrid Bayesian networks in which continuous and discrete variables may appear anywhere in a directed acyclic graph. The formalism fuzzifies a hybrid Bayesian network into two alternative forms: the first form replaces each continuous variable in the given directed acyclic graph (DAG) by a partner discrete variable and adds a directed link from the partner discrete variable to the continuous one. The mapping between two variables is not crisp quantization but is approximated (fuzzified) by a conditional Gaussian (CG) distribution. The CG model is equivalent to a fuzzy set but no fuzzy logic formalism is employed. The conditional distribution of a discrete variable given its discrete parents is still assumed to be multinomial as in discrete Bayesian networks. The second form only replaces each continuous variable whose descendants include discrete variables by a partner discrete variable and adds a directed link from that partner discrete variable to the continuous one. The dependence between the partner discrete variable and the original continuous variable is approximated by a CG distribution, but the dependence between a continuous variable and its continuous and discrete parents is approximated by a conditional Gaussian regression (CGR) distribution. Obviously, the second form is a finer approximation, but restricted to CGR models, and requires more complicated inference and learning algorithms. This results in two general approximate representations of a general hybrid Bayesian networks, which are called here the fuzzy Bayesian network (FBN) form-I and form-II. For the two forms of FBN, general exact inference algorithms exists, which are extensions of the junction tree inference algorithm for discrete Bayesian networks. Learning fuzzy Bayesian networks from data is different from learning purely discrete Bayesian networks because not only all the newly converted discrete variables are latent in the data, but also the number of discrete states for each of these variables and the CG or CGR distribution of each continuous variable given its partner discrete parents or both continuous and discrete parents have to be determined.

شبکه‌های اززی بیزیان - یک مکانیزم عمومی برای ارائه، اطلاع‌رسانی و یادگیری با شبکه‌های HYBRID BYESAN

این مقاله یک فرمالیسم کلی را برای نمایش، استنتاج و یادگیری با شبکه‌های بیزی ترکیبی عمومی پیشنهاد می‌کند که در آن متغیرهای پیوسته و گسسته ممکن است در هر جایی در یک گراف غیر دوری جهت‌دار ظاهر شوند. فازی سازی یک شبکه بیزی ترکیبی را به دو شکل جایگزین می‌کند: شکل اول هر متغیر پیوسته را در گراف غیردوری (DAG)داده‌شده توسط یک متغیر گسسته شریک جایگزین می‌کند و یک لینک مستقیم را از متغیر گسسته شریک به یک متغیر پیوسته اضافه می‌کند. نگاشت بین دو متغیر، کوانتیزه سازی قطعی نیست، بلکه توسط یک توزیع گاوسی شرطی (CG)تقریب زده می‌شود. مدل CG معادل با یک مجموعه فازی است اما هیچ فرمالیسم منطق فازی به کار گرفته نمی‌شود. توزیع شرطی یک متغیر گسسته با توجه به والدین گسسته آن هنوز چند جمله‌ای فرض می‌شود مانند شبکه‌های بیزی گسسته. فرم دوم تنها جایگزین هر متغیر پیوسته می‌شود که اخلاف آن شامل متغیرهای گسسته توسط یک متغیر گسسته شریک است و یک لینک مستقیم از متغیر گسسته شریک به متغیر پیوسته اضافه می‌کند. وابستگی بین متغیر گسسته شریک و متغیر پیوسته اصلی با یک توزیع CG تقریب زده می‌شود، اما وابستگی بین یک متغیر پیوسته و والدین پیوسته و گسسته آن با یک توزیع رگرسیون گاوسی شرطی (CGR)تقریب زده می‌شود. بدیهی است که شکل دوم یک تقریب بهتر است، اما محدود به مدل‌های CGR است، و نیاز به استنتاج پیچیده‌تر و الگوریتم های یادگیری دارد. این امر منجر به دو نمایش تقریبی کلی از یک شبکه بیزی هیبرید عمومی می‌شود که در اینجا شبکه بیزی فازی (FBn)را به فرم - I و فرم - II می‌نامند. برای هر دو شکل FBn، الگوریتم های استنتاج دقیق عمومی وجود دارد که تعمیم الگوریتم استنتاج درخت نقطه اتصال برای شبکه‌های بیزی گسسته است. یادگیری شبکه‌های بیزی فازی از داده‌ها با یادگیری شبکه‌های بیزی کاملا گسسته متفاوت است، زیرا نه تنها تمام متغیرهای گسسته تازه تبدیل‌شده در داده‌ها پنهان هستند، بلکه تعداد حالت‌های گسسته برای هر یک از این متغیرها و توزیع CG یا CGR هر متغیر پیوسته با توجه به والدین گسسته شریک خود یا والدین پیوسته و گسسته باید تعیین شود. CNN / jats: p.
ترجمه شده با


پر ارجاع‌ترین مقالات مرتبط:

  • مقاله Software
  • ترجمه مقاله Software
  • مقاله نرم‌افزار
  • ترجمه مقاله نرم‌افزار
  • مقاله Artificial Intelligence
  • ترجمه مقاله Artificial Intelligence
  • مقاله هوش مصنوعی
  • ترجمه مقاله هوش مصنوعی
  • مقاله Computer Vision and Pattern Recognition
  • ترجمه مقاله Computer Vision and Pattern Recognition
  • مقاله بینایی کامپیوتری و تشخیص الگو
  • ترجمه مقاله بینایی کامپیوتری و تشخیص الگو
سفارش ترجمه مقاله و کتاب - شروع کنید

با استفاده از افزونه دانلود فایرفاکس چکیده مقالات به صورت خودکار تشخیص داده شده و دکمه دانلود فری‌پیپر در صفحه چکیده نمایش داده می شود.