loading...
فایلینا
عباس بازدید : 294 جمعه 07 خرداد 1395 نظرات (0)

دانلود مقاله کارشناسی ارشد رشته هوش مصنوعی

زبانهای نمایشی و معرفی مدلهای آن

مقدمه:
وقتی میخواهیم یک کاری توسط کامپیوتری حل شود، اولین سوالی که مطرح میشود اینست که چگونه مسئله را باید به ترمهای محاسباتی نشان بدهیم . در یادگیری ماشین این بدان معناست که چگونه مفاهیم، مثالهای آموزشی و دانش اولیه را نمایش دهیم . برای تشریح مفاهیم و نمونه ها از زبانهای نمایشی (Representational Languages) استفاده میکنیم . از نظر قدرت بیان و پیچیدگی میتوان زبانها را طبقه بندی کرد و در یک ترتیب صعودی داریم : Zero-order Logic ، Attribute-value Logic ، Horn Clauses و Second-order Logic . در ادامه به معرفی کوتاهی از این چهار مدل زبان تشریحی میپردازم ولی اساس کار در این مقاله استفاده از Attribute-value Logic میباشد .
کلمات کلیدی:

یادگیری ماشین

زبانهای نمایشی

مدلهای زبانهای نمایشی

 

 

 

عباس بازدید : 251 جمعه 07 خرداد 1395 نظرات (0)

دانلود مقاله کارشناسی ارشد رشته هوش مصنوعی

داده کاوی،مدل سازی داده ها و مراحل فرایند کشف دانش از پایگاه داده ها

*ضمیمه کردن پاورپوینت در قالب 30 اسلاید و بصورت رایگان:)
مقدمه
امروزه با گسترش سیستم های پایگاهی و حجم بالای داده ها ی ذخیره شده در این سیستم ها ، نیاز به ابزاری است تا بتوان داده های ذخیره شده پردازش کرد و اطلاعات حاصل از این پردازش را در اختیار کاربران قرار داد . با استفاده ار پرسش های ساده در SQL و ابزارهای گوناگون گزارش گیری معمولی ، می توان اطلاعاتی را در اختیار کاربران قرار داد تا بتوانند به نتیجه گیری در مورد داده ها و روابط منطقی میان آنها بپردازند اما وقتی که حجم داده ها بالا باشد ، کاربران هر چند زبر دست و با تجربه باشند نمی توانند الگوهای مفید را در میان حجم انبوه داده ها تشخیص دهند و یا اگر قادر به این کار هم با شند ، هزینه عملیات از نظر نیروی انسانی و مادی بسیار بالا است .
از سوی دیگر کاربران معمولا فرضیه ای را مطرح می کنند و سپس بر اساس گزارشات مشاهده شده به اثبات یا رد فرضیه می پردازند ، در حالی که امروزه نیاز به روشهایی است که اصطلاحا به کشف دانش بپردازند یعنی با کمترین دخالت کاربر و به صورت خودکار الگوها و رابطه های منطقی را بیان نمایند .داده کاوی یکی از مهمترین این روشها است که به وسیله آن الگوهای مفید در داده ها با حداقل دخالت کاربران شناخته می شوند و اطلاعاتی را در اختیار کاربران و تحلیل گران قرار می دهند تا براساس آنها تصمیمات مهم و حیاتی در سازمانها اتخاذ شوند .
در داده کاوی از بخشی از علم آمار به نام تحلیل اکتشافی داده ها استفاده می شود که در آن بر کشف اطلاعات نهفته و ناشناخته از درون حجم انبوه داده ها تاکید می شود .
علاوه بر این داده کاوی با هوش مصنوعی و یادگیری ماشین نیز ارتباط تنگاتنگی دارد ، بنابراین می توان گفت در داده کاوی تئوریهای پایگاه داده ها ، هوش مصنوعی ، یادگیری ماشین و علم آمار را در هم می آمیزند تا زمینه کاربردی فراهم شود .باید توجه داشت که اصطلاح داده کاوی زمانی به کار برده می شود که با حجم بزرگی از داده ها ، در حد مگا یا ترابایت ، مواجه باشیم . در تمامی منابع داده کاوی بر این مطلب تاکید شده است .هر چه حجم داده ها بیشتر و روابط میان آنها پیچیده تر باشد دسترسی به اطلاعات نهفته در میان داده ها مشکلتر می شود و نقش داده کاوی به عنوان یکی از روشهای کشف دانش ، روشن تر می گردد .
کلمات کلیدی:

داده کاوی

اکتشاف دانش

مدل سازی داده ها

فرایند کشف دانش از پایگاه داده ها

فهرست مطالب
مقدمه ای بر داده کاوی و اکتشاف دانش1
مقدمه3

مفاهیم پایه در داده کاوی4

تعریف داده کاوی4

تاریخچه داده کاوی5

مراحل فرایند کشف دانش از پایگاه داده ها7
مدلسازی پیشگویی کننده10
تقطیع پایگاه داده ها11
تحلیل پیوند12
قابلیتهای DataMining:14
Geographic16
Data Mining16
Data16
Analysis16
داده كاوی و OLAP:16
داده كاوی , آمار و یادگیری ماشین16

كاربردهای داده كاوی17

داده كاوی موفق:18
تحلیل ارتباطات:18
سلسله مراتبی از انتخاب ها21
- هدف كار22
طبقه بندی23
حدس بازگشتی24
سری های زمانی24

مدلها و الگوریتمهای داده كاوی24

شبكه های عصبی25
یك شبكه عصبی با یك لایه پنهان26

درخت های انتخاب26

استنتاج قانون27
الگوریتمهای ژنتیك27
فرآیند داده كاوی28
مدلهای فرآیند28
مدل فرآیند دو سویه28

ساختن یك پایگاه داده داده كاوی29

آماده سازی داده برای مدل سازی31
ساختن مدل داده كاوی31
تائید اعتبارساده32
ارزیابی و تفسیر32
تایید اعتبار مدل32
ماتریسهای پیچیدگی32
ایجاد معماری مدل و نتایج33
منابع و مراجع:34
عباس بازدید : 185 جمعه 07 خرداد 1395 نظرات (0)

دانلود مقاله کارشناسی ارشد رشته هوش مصنوعی

تکنیک های یادگیری ماشین برای حل مسئله در بازی برابر انسان

مقدمه:
در این مقاله ، سعی برآن است که یک بررسی بر روی حجم زیادی از ادبیاتی که با رهیافت یادگیری ماشین بر بازیها در ارتباط است انجام شود .هدف اصلی از این مقاله ارائه توانایی به خوانندگان مشتاق است تا خیلی سریع به نتایج گذشته که در ارتباط با تحقیق یا پروژه آن هاست دست یابند تا تحقیق خود را از آن جا شروع کنند.تعداد راه های زیادی برای دسته بندی مطالب در این مقاله وجود دارد . ما می توانستیم به طور مثال دسته بندی براساس بازی های مختلف انجام دهیم مانند: شطرنج ، تخته نرد، Go، chekers ، shogi ، poker و ... و یا اینکه دسته بندی را براساس روش ها و تکنیک های یادگیری انجام دهیم . به جای آنها تصمیم گرفته شد که رهیافتی بر پایه مسئله در نظر گرفته شود و دسته بندی را براساس رقابت هایی که در جنبه های مختلف بازی ها انجام شده اند انجام دهیم . با توجه به این معتقدیم که هم محقق در بازی های کامپیوتری می تواند تکنیک های یادگیری ماشین را برای حل مسئله خود پیدا کند و هم محقق در یادگیری ماشین می تواند موضوعات مفید در دامنه تحقیق در بازی های کامپیوتری را داشته باشد.
مقاله پس از نگاهی گذرا بر تاریخچه تحقیق بر روی تکنیک‌های یادگیری ماشین در بازیها با طرح book Learning به عنوان مثال تکنیک هایی که در ذخیره پیش محاسبات حرکات انجام می شود که به نام دستیابی سریع در بازی های تورنمنت هم خوانده می شود آغاز می گردد. سپس مسئله استفاده از تکنیک های یادگیری برای کنترل کردن فرآیند جستجو که در همه برنامه های بازی وجود دارد مورد بررسی قرار می گیرد.
در قسمت چهارم به بررسی بیشترین و معروف ترین وظیفه یادگیری که به نام تنظیم خودکار یک تابع ارزیابی است می پردازیم . مسئله یادگیری با ناظر ، یادگیری مقایسه‌ای ، یادگیری تقویتی ، یادگیریTemporal Difference نیز بررسی می گردند. در یک زیر بخش مجزا در مورد موضاعات مهم و متفاوت بر این رهیافت ها بحث می شود . سپس در بخش پنجم به بررسی راه حل های مختلفی که در شناسائی طرح ها و الگو ها پرداخته می شود از simple – advice taking رهیافت مدل سازی هوشمند گرفته تا استقراء الگوها و استراتژی ها از یک پایگاه داده بازی . در پایان در قسمت ششم مدل سازی حریف به طور مختصر بحث شده و وظیفه بهبود برنامه بازی توسط یادگیری برای استفاده از ضعف حریف مورد بررسی قرار می گیرد.
کلمات کلیدی:

یادگیری ماشین

رهیافت یادگیری ماشین بر بازیها

یادگیری ماشین در بازی مقابل انسان

تکنیک های یادگیری ماشین برای حل مسئله

فهرست مطالب
1- بازی ماشین در مقابل انسان :
2- میراث ساموئل :
3- یادگیری کتابی:

3-1- یادگیری برای انتخاب تغییرات باز:

3-2- یادگیری از روی اشتباهات :

3-3- یادگیری به وسیله شبیه سازی :

4- یادگیری کنترل جستجو:
5- تنظیم تابع ارزیابی:

5-1- یادگیری با ناظر:

5-2- آموزش مقایسه ای :

6- یادگیری تقویتی :

6-1- Temporal-difference learning :
6-2- یادگیری تابع ارزیابی :

6-2-1- توابع ارزیابی خطی در مقابل توابع ارزیابی غیرخطی :

6-2-2- استراتژی‌های آموزش :

6-2-3- یادگیری توابع ارزیابی و جستجو :

6-2-4- استخراج خصایص :

7- الگوهای یادگیری و تصمیم :

7-1- Advice-taking :
8- مدلسازی حریف :

1- بازی ماشین در مقابل انسان :

عباس بازدید : 459 جمعه 07 خرداد 1395 نظرات (0)

دانلود مقاله کارشناسی ارشد رشته هوش مصنوعی

مدلهای گرافیکی و نمایش آنها

مقدمه:
مدل های گرافیكی تركیبی از تئوری احتمال و تئوری گراف می باشند . در این روش ابزارهای طبیعی فراهم می گردد كه از طریق آنها می توان مسائل مربوط به ریاضی كاربردی و مهندسی را كه پیچیده و غیر قطعی هستند را حل كرد و علاوه بر آن نقش مهم و رو به افزونی در مورد الگوریتم های بادگیری ماشین دارند .حتی می توان یک مدل گرافیکی را یک نوعی از شبکه احتمالی در نطر گرفت که ریشه در زمینه های مختلفی مانند هوش مصنوعی ، احتمال ، کنترل خطای کد گذاری و شبکه های هوش مصنوعی دارد.مدل گرافیکی یک ساختار رسمی ریاضیاتی را فراهم می کند که امکان درک انواع مختلفی از شبکه ها محاسباتی را به وجود می آورد.
ایده اصلی در طراحی مدل گرافیكی استفاده از ساختار ماژولی می باشد از تئوری گرافی برای ایجاد یك رابط مناسب استفاده می شود كه می تواند تعامل بالای مجموعه داده ای را مدل نماید . تئوری ریاضی ( احتمال) به عنوان ارتباط دهنده ی بین ماژول ها می باشد و سیستم در مجموع به صورت یك پارچه می باشد . مهندسی سیستم ها ، تئوری اطلاعات ، تشخیص الگو موارد ویژه ای از فرم های عمومی مدل گرافیكی می باشد .
مدل های گرافیكی یك زیر ساختی را برای معرفی مدل هایی كه در آن تعدادی متغییر با هم تعامل می كنند را ایجاد می كنند . از مدل گرافیكی در زمینه های مختلف مانند : توسعه سیستم خبره احتمالی ، مدل سازی تصویر ، تصحیح خطا در تبادل پیام های دیجیتال استفاده می کردد. هر گره در گراف یك متغییر تصادفی را معرفی می كند و نوعی یال در گراف وابستگی كیفی بین متغییر ها را نشان می دهد .عدم وجود این یال به معنای نبود وابستگی این متغیر به متغییر های دیگر است . وابستگی مقداری بین گره های متصل از طریق توزیع شرطی پارامتری شده ، بیان می شود . الگوی یال ها و تابع پتانسیل یك توزیع پیوسته را روی همه متغیر های گراف نشان می دهد . الگوی یال ها ساختار گراف را نشان می دهد .
کلمات کلیدی:

مدل های گرافیکی

مسائل پیچیده و غیر قطعی

الگوریتم های بادگیری ماشین

فهرست
مقدمه ای بر مدل های گرافیکی ....................................2

نمایش های مدل گرافیکی ...........................................4

مدل گرافیکی جهت دار ..................................5

مدل گرافیکی بدون جهت ................................7

استنتاج..............................................................9
استنتاج دقیق ...............................................10
حذف متغییر ...............................................14
استنتاج احتمالی ...........................................15

الگوریتم های تبادل پیام ..................................15

استنتاج تخمینی ............................................16
یادگیری .............................................................16
مراجع..............................................................25
عباس بازدید : 485 چهارشنبه 01 اردیبهشت 1395 نظرات (0)

دانلود مقاله کارشناسی ارشد رشته هوش مصنوعی

نقش شبكه های عصبی در مسیریابی انرژی آگاه

مقدمه
در اغلب كاربردها، گره‌های حسگر از نظر منبع انرژی با محدودیت مواجه هستند. بنابراین نیاز به روش‌های ابتكاری برای برطرف نمودن اتلاف انرژی كه موجب كوتاه شدن طول عمر شبكه‌های حسگر می‌گردد، كاملاً احساس می‌گردد. این محدودیت‌ها به همراه زیاد بودن تعداد گره‌های حسگر باعث چالش‌های بسیاری در طراحی و مدیریت شبكه‌های حسگر بی‌سیم و لزوم آگاهی از انرژی در همه لایه‌های پشته پروتكل شبكه‌ای شده است. برای مثال، در لایه شبكه، به شدت به یافتن روش‌هایی نیاز داریم كه با بهره‌وری در مصرف انرژی، كشف مسیر انجام داده و داده‌ها را از گره‌های حسگر به ایستگاه مبنا انتقال دهند. به دلیل اهمیت مسیریابی در شبكه‌های حسگر بی‌سیم و حجم قابل توجهی از مقالات و تحقیقات در این زمینه، در این مقاله دقیقاً به مسالة مسیر‌یابی ( و نه به سایر لایه‌های پشته شبكه ) پرداخته شده و سپس نقش شبكة عصبی (نقشة خودسازماندهی) در مسیریابی آگاه از انرژی از طریق مرور مقالات تحقیقاتی مرتبط، مورد بررسی قرار می‌گیرد.
کلمات کلیدی:

شبكه‌های عصبی

مسیریابی انرژی آگاه

شبکه های حسگر بیسیم

فهرست مطالب
نقش شبكه‌های عصبی در مسیریابی انرژی آگاه1
1-1. مقدمه2

1-2. ویژگی‌های مسیریابی در شبكه حسگر بی‌سیم3

1-3. روش‌های مسیریابی در شبكه‌های حسگر بی‌سیم6

1-3-1. مسیریابی مسطح7
1-3-2. مسیریابی مبتنی بر مكان8
1-3-3. مسیریابی سلسه مراتبی(مبتنی بر خوشه‌بندی)9
1-3-4. پروتكل خوشه‌بندیLEACH10
1-3-5. پروتكل خوشه‌بندیLEACH متمركز13

1-4. شبكه‌های عصبی در الگوریتم‌های مسیریابی آگاه از انرژی15

1-4-1. شبكة عصبی انتشار معكوس در كشف مسیر15
1-4-2. شبكة عصبی نقشة خودسازماندهی در مسیریابی16

1-4-3. پروتكل‌های مسیریابی مبتنی بر نقشة خودسازماندهی19

1-5. پروتكل خوشه‌بندی پیوندگرا وفقی با انرژی پایین23
1-6. جمع‌بندی26
مراجع26
عباس بازدید : 480 چهارشنبه 01 اردیبهشت 1395 نظرات (0)

دانلود مقاله کارشناسی ارشد رشته هوش مصنوعی

ارائه یک روش جدید خوشه بندی مبتنی بر انرژی خودسازمانده با استفاده از شبکه عصبی SOM به منظور کاهش مصرف انرژی درشبکه های حسگر بی سیم

چکیده
پروتكل‌های مسیریابی مبتنی بر خوشه‌بندی یكی از مهمترین روش‌های كاهش مصرف انرژی در شبكه‌های حسگر بی‌سیم هستند. در این مقاله، یك پروتكل خوشه‌بندی جدید، ارایه می‌شود. این پروتكل خوشه‌بندی جدید كه پروتكل خوشه‌بندی مبتنی بر انرژی خودسازمانده (EBCS) نام دارد، با استفاده از شبكة عصبی نقشة خودسازماندهی(SOM)، گره‌های شبكه را براساس دو معیار سطح انرژی و همسایگی خوشه‌بندی می‌نماید و سعی در توازن بهتر انرژی در خوشه‌ها و نهایتاً افزایش طول عمر شبكه و حفظ پوشش شبكه‌ای دارد. در ادامة این مقاله به بیان فرضیات، تشریح مراحل الگوریتم جدید و تفاوت‌های آن با الگوریتم‌های مرتبط پیشین خواهیم پرداخت.
کلمات کلیدی:

شبکه عصبی SOM

پروتكل‌ مسیریابی مبتنی بر خوشه‌بندی

پروتكل خوشه‌بندی مبتنی بر انرژی خودسازمانده

کاهش مصرف انرژی در شبكه‌های حسگر بی‌سیم

مقدمه
برای بهره‌مندی از اثربخشی الگوریتم‌های مسیریابی مبتنی بر خوشه‌بندی در افزایش طول عمر شبكه‌های حسگر بی‌سیم، الگوریتم خوشه‌بندی جدیدی ارایه شده است كه بر اساس انرژی و با استفاده از شبكة عصبی نقشه خودسازماندهی كار می‌كند. انگیزه خلق EBCS، بی‌توجهی الگوریتم‌های خوشه‌بندی قبلی به سطح انرژی گره‌ها به عنوان پارامتر اصلی تشكیل خوشه‌های شبكه بوده است. تلاش تحقیق حاضر این بوده است كه با بهبود ایدة سنتی خوشه‌بندی(خوشه بندی بر حسب مكان)، به منظور رسیدن به هدف اصلی شبكه‌های حسگر بی‌سیم یعنی افزایش طول عمر شبكه همزمان با حفظ پوشش شبكه‌ای، روشی یكپارچه برای خوشه‌بندی مبتنی بر مكان - انرژی ارایه نماید. باور ما برای ارایة الگوریتم جدید این بوده است كه خوشه‌بندی مبتنی بر انرژی می‌تواند خوشه‌هایی با سطح انرژی یكسان ایجاد كرده و مصرف انرژی را به شكل بهتری در بین سراسر گره‌های شبكه توزیع كند.
فهرست مطالب
ارایه یک روش جدید خوشه بندی مبتنی بر انرژی خودسازمانده با استفاده از شبکه عصبی SOM به منظور کاهش مصرف انرژی درشبکه های حسگر بی سیم2
مقدمه2

1-1. پروتكل مسیریابی خوشه‌بندی مبتنی بر انرژی خودسازمانده3

1-2. فرضیات الگوریتم4

1-3. مراحل خوشه‌بندی5

1-3-2. مرحلة اول : خوشه‌بندی با شبكة عصبی نقشة خودسازماندهی7
1-3-3. مرحلة دوم : خوشه‌بندی با الگوریتم K-means15
1-3-4. مرحلة انتخاب سرخوشه17
1-4. مرحلة انتقال داده20
1-5. مرحلة خوشه‌بندی مجدد22
1-6. جمع‌بندی27
مراجع27
عباس بازدید : 663 چهارشنبه 01 اردیبهشت 1395 نظرات (0)

دانلود مقاله کارشناسی ارشد رشته هوش مصنوعی

اتوماتای سلولی یادگیر و کاربرد آن در پردازش تصاویر و تولید یک مدل تکاملی

*قابل استفاده برای رشته مهندسی کامپیوتر،صنایع و هوش مصنوعی
آپدیت شد:
ضمیمه شدن مقاله اتوماتای یادگیری سلولی و کاربرد‌های آن در قالب 24 صفحه بصورت رایگان:)
کل محتوا: 42 صفحه اولیه + 24 صفحه آپدیت
چکیده
در این مقاله اتوماتای سلولی یادگیر را معرفی می کنیم. برای درک اتوماتای سلولی یادگیر ابتدا باید به اتوماتای سلولی و پس از آن با اتوماتای یادگیر آشنا شد. پس از آشنایی با این دو مدل ، اتوماتای سلولی یادگیر مطرح می شود و کاربردهای آن مطرح می شود. دو کاربرد اتوماتای سلولی یادگیر در پردازش تصاویر و استفاده از آن برای تولید یک مدل تکاملی به شکل دقیق مورد بررسی قرار می گیرد.
کلمات کلیدی:

اتوماتای یادگیر

اتوماتای سلولی

اتوماتای سلولی یادگیر

مقدمه
اتوماتای سلولی یادگیر[1] تشکیل شده از اجزایی است که در همسایگی یکدیگر قرار می گیرند و رفتار این اجزا بر اساس رفتار همسایگان و تجربیات خودش و همسایه ها تعریف می شود. برای این که با این مدل آشنا شویم ابتدا باید دو مدل اتوماتای یادگیر[2] و اتوماتای سلولی[3] را به خوبی بشناسیم. پس از شناخت این دو مدل ، اتوماتای سلولی یادگیر را که ترکیبی ار دو مدل گفته شده است را مطرح می کنیم.
اتوماتای سلولی یک مدل ریاضی است که می تواند برای محاسبات و شبیه سازی سیستمها به کار رود. اتوماتای سلولی سیستمهای ساده ی گسسته ای هستند که با قوانین ساده و محلی می توانند محاسبات و رفتار پیچیده ای از خود بروز دهند. حلی بودن به این معناست که در تعیین مقدار جدید هر سلول، سلولهایی که در همسایگی وی هستند تاثیرگذار هستند و سلولهای دورتر، تاثیری ندارند. هر سلول برای خود مجموعه ای از حالات دارد که در هر لحظه با توجه به حالت خودش و همسایه ها تصمیم می گیرد که به چه حالتی برود. قوانین تغییر حالت در اتوماتای سلولی در طول کار ثابت است و تغییر نمی کند. .
شبکه سلولها می تواند ابعاد متفاوتی داشته باشند و یک , دو و یا بیشتر بعد داشته باشند. با توجه به تعداد مقادیری که سلولها می توانند اختیار کنند, اتوماتای سلولی به دو نوع دودویی و چند مقداره تقسیم می شود. درک رفتار اتوماتای سلولی از روی قوانین آن بسیار مشکل می باشد و درک آن نیاز به شبیه سازی دارد.یکی از مشکلات استفاده از اتوماتای سلولی طراحی قوانینی است که عمل دلخواه ما را انجام دهد. انواع متفاوتی از قوانین به روز رسانی سلولها وجود دارند که باعث ایجاد انواع متفاوت اتوماتای سلولی میشوند. به عنوان مثال، قوانین میتوانند به صورت قطعی و یا احتمالی بیان گردند و این دو دسته از قوانین منجر به دو دسته اتوماتای سلولی قطعی و اتوماتای سلولی احتمالی میشوند. ویژگیهای اتوماتای سلولی را به اختصار میتوان به صورت زیر بیان نمود: فضا و زمان به صورت گسسته پیش میروند.
فهرست مطالب
1. مقدمه
1.1. اتوماتای سلولی
1.2. اتوماتای یادگیر
1.2.1. اتوماتان L2N2
1.2.2. اتوماتان G2N2
1.2.3. اتوماتان Krinsky
1.2.4. اتوماتان Krylov
1.2.5. اتوماتان Ponomarev
1.3. اتوماتای یادگیر سلولی

2. انواع اتوماتای سلولی یادگیر

2.1. توماتای یادگیر سلولی ناهمگن
2.2. اتوماتای یادگیر سلولی دارای ورودی (باز)
2.3. اتوماتای یادگیر سلولی با شعاع همسایگی متغیر
2.4. اتوماتای یادگیر سلولی با متغیر سراسری

3. کاربردهای اتوماتای سلولی یادگیر

3.1. پردازش تصویر

3.2. محاسبات تکاملی به کمک اتوماتای سلولی یادگیر

4. نتیجه گیری
منابع
عباس بازدید : 527 سه شنبه 31 فروردین 1395 نظرات (0)

دانلود مقاله کارشناسی ارشد رشته هوش مصنوعی

تاثیر نویز بر داده کاوی

چکیده
در این تحقیق ایده ای برای داده کاوی در مورد پایگاه های داده نویزی که ممکن است توسط سیستم های آموزش ماشین ساخته شده باشد توضیح داده می شود. همچنین روشهایی برای تخمین توزیع احتمال پیوسته بدون نویز در حالتی که نویز مشاهده می شود. و همچنین احتمال شرطی ، که می تواند با استفاده از نمونه های آماری و آنالیز خطا تخمین زده شود بررسی می شود و همچنین آزمایشات مختلفی برای تست این ایده ها ارائه شده است توضیح داده می شود.
در قسمت بعد الگوریتمهایی برای آموزش نویزی از جمله الگوریتم PAC ارائه می گردد و در مورد توسعه آن نیز بحث می شود که تحت دو الگوریتم یادگیری ضعیف و قوی که قابل تعمیم به یکدیگر هستند مورد بررسی قرار می گیرد.در نهایت کاربردی از داده کاوی در محیط نویزی از جمله روشهایی داده کاوی در محیطهای نویزی برای از بین بردن نویز در صفحات وب بحث می گردد.
کلمات کلیدی:

داده کاوی

الگوریتم PAC

نویز در داده کاوی

پایگاه های داده نویزی

مقدمه
روشهای قدیمی داده کاوی شامل گستره وسیعی از ابزار و تکنیک ها بوده که برای آنالیز پایگاه های داده خیلی بزرگ در جهت کشف دانشهای مفید و همچنین دانشهایی که قبلاً مجهول بوده در داخل داده ها نهفته مورد استفاده قرار می گیرد. در اکثر این روشها فرض بر این است که پایگاه داده های موجود در ابعاد مناسب می باشد و نسبتاً بدون نویز می باشد. یعنی شرایط ایده آل برای داده کاوی کاملاً مهیا می باشد البته گاهی اوقات که داده ها دارای نویز می بود پاکسازی داده ها نیز برای حذف یا تصحیح بخشهای نسبتاً کوچکی از اطلاعات که دارای مقادیر اشتباه می باشد یا داده هایی که دارای تناقض هستند بکار می رفت.
بعبارت دیگر در برخورد با داده های خطا و یا ناقص آن داده ها حذف می گردید و آموزش با بعقیه داده های موجود بکار گرفته می شد که البته این روش مناسب نیست زیرا ممکن است داده های حذف شده داده های مهمی باشد و تاثیر زیادی در آموزش صحیح داشته باشد یا اینکه حتی داده های باقیمانده در اثر حذف داده های اشتباه به قدر کافی برای آموزش مناسب نباشد. البته مشکل بزرگتر آن است که برخی پایگاه های داده شامل داده هایی می باشد که به صورت ذاتی دارای نویز می باشد و قابل پاکسازی نمی باشد که یک مثال خوب از این مفاهیم ، پایگاه دادههایی است که توسط یکی (یا بیشتر) از الگوریتمهای یادگیری ماشین ساخته شده است. بنابراین بسیار مهم است که بتوان تاثیر نویز بر داده کاوی را درک کرد و آموزش را بر مبنای داده های اشتباه نیز به نحو صحیح انجام داد.
بسیاری از ایده های موجود در مورد داده کاوی بر مبنای اعمال تکنیک های بدون ناظر آموزش به داده های خیلی بزرگ برای کشف دانش ، الگوها و قوانین می باشد. مشکل عمومی یادگیری بدون ناظر استنتاج و یا حدس زدن جزئیات توزیع احتمال پیوسته می باشد . متغیر تصادفی X و نمونه های حاصل از N مشاهده در نظر گرفته می شود ( ) و با توجه به این تعریف ، هدف آموزشهای بدون نظارت بصورت تعریف جزئیات مفید چگالی پیوسته P(x) تعریف می شود.در این بخش ارتباط بین توزیع احتمال پیوسته که از خروجی پردازش نویزی بدست آمده در مقابل توزیع در محیطهای عاری از نویز بررسی می شود. بنابراین امید است که بتوان ایده های عمومی و همچنین یکسری محدودیت ها را برای حصول دانش از داده های نویزی بدست آورد و اهمیت اصلی بر روی داده های نویزی بدست آمده از الگوریتمهای یادگیری می باشد.
فهرست مطالب
چکیده1
1- مقدمه1
2- مدلها و ایده ها2
2-1- حالت عمومی3
3- آزمایش8
شکل 3. نتایج ساخت داده ها با استفاده از درخت تصمیم.14
4- کارهای وابسته14

5- مدل آموزش نویزی15

5-1- مدلهای آموزش20

5-1-1- مدلهای آموزشی قوی و ضعیف PAC20

5-1-2- طبقه بندی نویز و مدلهای خطای بدخیم23

6- پاکسازی نویز در وب26

6-2- كارهای مربوط27
6-3- تكنیك پیشنهادی27
6-3-1- مدل درخت DOM28

6-3-3- تعیین عنصر دارای نویز در ST30

6-4- كشف نویز31
7- نتیجه33
8- مراجع33
عباس بازدید : 440 سه شنبه 31 فروردین 1395 نظرات (0)

دانلود مقاله کارشناسی ارشد رشته هوش مصنوعی

یادگیری بر مبنای نمونه و الگوریتمهای آن

*ضمیمه شدن پاورپوینت یادگیری بر مبنای نمونه در قالب 63 اسلاید و بصورت رایگان:)
چکیده:
ذخیره سازی و استفاده از نمونه های خاص، باعث افزایش و بهبود کارایی بسیاری از الگوریتمهای یادگیری با ناظر می باشد. که شامل مواردی چون درخت تصمیم، قوانین دسته بندی و شبکه های توزیع شده می شود. با این حال، الگوریتمهایی که تنها از نمونه های خاص در حل مسائل یادگیری افزایشی استفاده می کنند، کاملا بررسی نشده اند. روش بررسی شده در اینجا برای این امر، همان IBL(Instance Based Learning) است.در IBL بر خلاف دیگر الگوریتمهای یادگیری افزایشی، به جای استفاده از بخشهای از قبل کامپایل شده در طول فاز پیش بینی از یک سری نمونه های مشخص استفاده می شود. و از آنجائی که این الگوریتمها از توابع شباهت برای رده بندی میان نمونه ها استفاده می کنند، قادر به تشریح مفاهیم احتمالی نیز می باشند.
کلمات کلیدی:

الگوریتم IBL

الگوریتمهای یادگیری با ناظر

الگوریتمهای یادگیری افزایشی

مقدمه:
در IBL بر خلاف دیگر الگوریتمهای یادگیری افزایشی، به جای استفاده از بخشهای از قبل کامپایل شده در طول فاز پیش بینی از یک سری نمونه های مشخص استفاده می شود. و از آنجائی که این الگوریتمها از توابع شباهت برای رده بندی میان نمونه ها استفاده می کنند، قادر به تشریح مفاهیم احتمالی نیز می باشند. در واقع، روشهای IBL دقیقا همه داده دریافتی شان را به خاطر می آورند. در واقع، معمولا هیچ گونه فاز آموزشی نداشته و تنها در زمان پیش گویی و تصمیم گیری دارای محاسبات می باشند. سپس، با گرفتن یک گزارش در پایگاه داده به دنبال نمونه های مشابه گشته و یک مدل محلی online برای محاسبه مقدار خروجی ایجاد می کند.
الگوریتمهای IBL از دسته بندی کننده الگوی NN(Nearest Neighbor) گرفته شده اند، که در عین حال به ذخیره و استفاده از نمونه های منتخب برای پیش بینی دسته بندی می پردازد.الگوریتمهای تغییر یافته NN غیر افزایشی بوده و هدف اولیه شان، حفظ سازگاری کامل با مجموعه آموزشی اولیه می باشد، اگرچه داده را خلاصه می کنند ولی برای حداکثر کردن دقت دسته بندی در مورد نمونه های جدید نیز تلاشی انجام نمی دهند. در واقع به مساله نویز توجهی ندارند. در مقابل، الگوریتمهای IBL ، افزایش بوده و حداکثر ساختن دقت دسته بندی را نیز دز نظر می گیرند.
سیستمهای CBR برای حل برخی از مشکلات این سیستمها ارائه شده اند. این سیستمها مشابه IBL ها هستند، با این تفاوت که حالات را تغییر داده و در طی حل مساله از بخشهایی از یک حالت نیز استفاده می کنند. در واقع IBL ، الگوریتم متمرکز شده CBR است که به انتخاب حالات مناسب برای دسته بندی، کاهش فضای ذخیره سازی، متعادل کردن نویز و یادگیری ارتباط ویژگیها کمک می کند.
فهرست مطالب
- مقدمه5

- الگوریتم های Instance Based Learning7

الگوریتم IB1 7
الگوریتم IB29
الگوریتم IB311

- بهینه سازی IBL با استفاده از الگوریتم جستجو14

- تاثیر پارامترهای دامنه ای بر الگوریتم های IBL16

تاثیر احتمال رخداد برای هر ویژگی16
تاثیر پارامتر k 17
منحنی یادگیری18
فضای ذخیره سازی19
مقدار بهینه k19
تاثیر سطح نویز20
- برخی کاربردها22

استفاده از IBL در تصمیم گیری دینامیک22

استفاده از IBL در تخمین توابع26

- نتیجه گیری28
- منابع29
فهرست اشکال
شکل 1 – مرزهای فضای IBL8
شکل 2 – فضای IB2 9
شکل 3 – کاهش فضای ذخیره سازی و حساسیت به نویز در IB210
شکل 4 – عملکرد بهتر فیلترهای نویز در IB3 نسبت به IB1 و IB212
شکل 5 – تاثیر بر دقت مورد انتظار در 1-NN17
شکل 6 – تاثیر مقدار k بر دقت Knn18
شکل 7 – منحنی یادگیری 1NN و KNN بهینه18
شکل 8 – تعداد نمونه های آموزشی مورد نیاز برای دسترسی به سطح دقت مورد نظر برای 1NN و KNN بهینه19
شکل 9 – مقدار بهینه k20
شکل 10 – تاثیر بر دقت مورد انتظار 1NN و KNN بهینه
a)نویز ویژگی مرتبط و b )نویز کلاسی21
شکل 12 – فرآیند IBLT23
اطلاعات کاربری
  • فراموشی رمز عبور؟
  • آرشیو
    آمار سایت
  • کل مطالب : 1201
  • کل نظرات : 24
  • افراد آنلاین : 132
  • تعداد اعضا : 5
  • آی پی امروز : 372
  • آی پی دیروز : 33
  • بازدید امروز : 1,166
  • باردید دیروز : 52
  • گوگل امروز : 5
  • گوگل دیروز : 5
  • بازدید هفته : 3,224
  • بازدید ماه : 3,224
  • بازدید سال : 23,088
  • بازدید کلی : 495,106
  • کدهای اختصاصی