تشخیص بیماری اسکیزوفرنی (تحقیقاتی)

تغییرات پروژه از تاریخ 1396/10/07 تا حالا
![تصویر MRI](https://boute.s3.amazonaws.com/207-pic7.png)
در این پروژه باید سامانه‌ای را توسعه دهید که با یادگیری ویژگی‌های اسکن مغزی بیماران مبتلا به اسکیزوفرنی، قادر باشد تا این بیماری را از روی ویژگی‌های استخراج شده از تصویر اسکن مغزی، تشخیص دهد.مجموعه داده و نحوه ارزیابی پروژه خود را می‌توانید از ا[ین مسابقه](https://www.kaggle.com/c/
-2014-mri) دریافت کنید.


----------
[لازم به ذکر است نوشتار ذیل تحقیقاتی است و پیاده سازی شامل‌ آن نمی شود.]

#** مقدمه**

##اختلال روان‌گسیختگی یا اسکیزوفرنی
روان‌گسیختگی یا اسکیزوفرنی یا شیزوفرنی (Schizophrenia) یک اختلال روانی است که مشخصهٔ آن ازکارافتادگی فرایندهای فکری و پاسخگویی عاطفی ضعیف است.[۲] این بیماری در بین همهٔ بیماری‌های عمدهٔ روان‌شناختی از همه وخیم‌تر می‌باشد و معمولاً خود را به صورت توهم شنیداری، توهم‌های جنون آمیز یا عجیب و غریب، یا تکلم و تفکر آشفته نشان می‌دهد و با اختلال در عملکرد اجتماعی یا شغلی قابل توجهی همراه است. شروع علائم معمولاً در دوران نوجوانی رخ می‌دهد.
![یک اسکیزوفرن اختلال خودرا به تصویر درآودره است.](https://boute.s3.amazonaws.com/240-desktop-1420224924.jpg)
اختلال عمدتاً ادراک را تحت تأثیر قرار می‌دهد، به صورتی که فرد مبتلا به آن نمی تواند تشخیص دهد که چه چیزی واقعی و چه چیزی وهم و خیال است اما معمولاً به مشکلات مزمن در رفتار و احساسات نیز می‌انجامد. افراد مبتلا به اسکیزوفرنی در معرض افسردگی اساسی و اختلال اضطراب و احتمال سوء مصرف مواد مخدر در طول زندگی هستند.[۴] مشکلات اجتماعی از قبیل بیکاری طولانی مدت، فقر و بی‌خانمانی نیز در بین این بیماران شایع است. امید به زندگی متوسط افراد مبتلا به این اختلال به دلیل افزایش مشکلات سلامت جسمی و نرخ خودکشی بالاتر، ۱۲ تا ۱۵ سال کمتر از کسانی‌ست که مبتلا به آن نیستند.[۳]
فرد مبتلا به اسکیزوفرنی ممکن است دچار توهم‌هایی شوند (اغلب به صورت شنیدن صداها)، یا دچار خیالات و آشفتگی فکری و کلامی باشد. مورد دوم ممکن است از از دست دادن قطار اندیشه، تا جملات بی‌نظم در معنی، تا تناقض شناخته شده به عنوان آشفته گویی متغیر باشد. گوشه‌گیری اجتماعی، نامرتبی لباس و بهداشت، و از دست دادن انگیزه و قضاوت تماماً موارد عادی موجود در اسکیزوفرنی می‌باشند.[۵] اغلب الگوی قابل مشاهده‌ای از مشکل عاطفی وجود دارد، برای مثال عدم پاسخگویی به محرکات.[۶] اختلال در شناخت اجتماعی با اسکیزوفرنی مرتبط است،[۷] همچنین علائم پارانویا؛ انزوای اجتماعی به طور معمول اتفاق می‌افتد.[۸] همچنین معمولاً مشکلات در کار و حافظهٔ بلند مدت، توجه، عملکرد اجرایی، و سرعت پردازش رخ می‌دهد.[۳]  فرد ممکن است تا حد زیادی ساکت باشد، در وضعیت‌های حرکتی عجیب و غریب، یا در جلوه‌های بی‌موردی از اضطراب قرار بگیرد، که همهٔ اینها نشانه‌هایی از جنون می‌باشند.[۹]

##عوامل مؤثر
به نظر می‌رسد عوامل مهم مؤثر در شیوع این بیماری این پنج دلیل باشند:
1.  ژنتیک
2. محیط اولیه
3. نوروبیولوژی (کنش ها و واکنش های الکتریکی سیستم عصبی و ساختار مغز انسان)
4. سوء مصرف مواد مخدر
5. فرایندهای روانی و اجتماعی

##عصب‌شناسی
بررسی‌های برگرفته از تست روان‌شناسی عصبی و تکنولوژی‌های تصویربرداری از مغز برای بررسی تفاوت‌های اجرایی در فعالیت مغز نشان دهنده تفاوت‌هایی هستند که به نظر می‌رسد اغلب در **لب قدامی مغز هیپوکامپ‌ها و لب گیجگاهی** رخ می‌دهند.[۱۰] حجم **ماده خاکستری و سفید** افراد مبتلا نسبت به گروه سالم نیز کاهش می‌یابد. **افزایش حجم مایع مغزی- نخاعی** و**کاهش حجم مغز**در مناطقی از **قشر پیشانی و لب‌های گیجگاهی**  نیز گزارش شده‌اند. معلوم نیست که آیا این تغییرات حجمی تدریجی هستند یا قبل از شروع بیماری به وجود می‌آیند.[۱۱] این تفاوت‌ها به فقدان شناخت عصبی مرتبط اند که اغلب ابتلاء به اسکیزوفرنی را به همراه دارند.[۱۲]
![تصویر MRI دو برادر دوقلوی همسان، یکی اسکیزوفرن و دیگری سالم ](https://img.webmd.com/dtmcms/live/webmd/consumer_assets/site_images/articles/health_tools/schizophrenia_overview_slideshow/webmd_rf_photo_of_mri_brain_scans.jpg)

##اهمیت موضوع
به گزارش ***سازمان بهداشت جهانی***: [۱۳] 

> حدود **۰.۳-۰.۷** از مردم جهان در حال حاضر از اختلال اسکیزوفرنی رنج می‌برند.  طبق آخرین آمار  در سال ۲۰۱۱،  حدود **۲۴ میلیون نفر** در سراسر جهان تحت تأثیر اسکیزوفرنی قرار گرفتند.

اسکیزوفرنی هزینه‌های جانی و مالی بسیاری دارد.[۳] اسکیزوفرنی به کاهش امید به زندگی از ۱۲–۱۵ سال منتج می‌شود، به دلیل به همراه داشتن چاقی، بی حرکتی در طول زندگی روزمره،  سیگار کشیدن و افزایش قابل ملاحظه احتمال خودکشی.[۳]
اسکیزوفرنی یکی از علل عمده ناتوانی است. حدود سه چهارم از افراد مبتلا به اسکیزوفرنی همراه با عود کردن بیماری از ناتوانی مداوم برخوردارند.[۱۴]   تنها برخی به طور کامل بهبود می‌یابند.[۱۵] بسیاری از افراد مبتلا به اسکیزوفرنی، برای مابقی زندگی خود با پشتیبانی دیگران زندگی می‌کنند.[۳]

![روند وخیم‌تر شدن نقاشی های یک اسکیزوفرن(Louis Wain). در صورت عدم تشخیص و شروع نکردن روند درمان، بیمار و اطرافیان ناچار به روبرو شدن با مشکلات عدیده هستند.](http://media.galaxant.com/000/104/484/desktop-1420226290.jpg)

در حال حاضر اسکیزوفرنی با پرسش سوال از افراد در مورد احساسات آن ها یا چیزی هایی که دوست دارند، تشخیص داده می شود؛ اما در برخی از موارد متخصصان نمی توانند به سادگی از این روش برای تشخیص استفاده کنند؛ زیرا برخی از افراد نمی توانند به راحتی احساسات خود را بیان کنند و یا  نمی‌توانند با متخصصان سلامت روانی ارتباط برقرار کنند و مشکلات خود را با آن ها در میان بگذارند. از سویی دیگر عدم تشخیص می‌تواند باعث ایجاد مشکلات جدی در زندگی افراد شود و حتی می تواند منجر به خودکشی افراد شود.
همان طور که پیش‌تر اشاره شد، بخشی از شبکه عصبی مغز در افراد اسکیزوفرن تحت تاثیر قرار می گیرد که با **MRI** می‌توان این بیماری را تشخیص داد. اسکن مغز افراد برای تشخیص اینکه افراد دچار اسکیزوفرنی هستند یا نه، تنها ده دقیقه طول می کشد، چه بسا ده دقیقه‌ای که می‌تواند باعث بهبود کامل جنون بیمار شود، اما در حال حاضر دستگاه های MRI به صورت گسترده در همه جا یافت نمی شود و برخی از افراد با شرایط خاص (مثلا افرادی که در بدن آن ها از ضربان ساز استفاده شده است) نمی توانند از دستگاه های MRI استفاده کنند.
در آخر باید توجه داشت اگر چه راهکارهایی برای شروع روش های درمانی خاص وجود دارند؛ اما با قطعیت نمی توان گفت که این روش های درمانی تا چه اندازه ای به بیماران خاص کمک می کنند[۱۶]؛ اما می توان گفت الگوهای ایجاد شده از ناحیه های مغز توسط محققان، می توانند به آن ها کمک کنند تا **میزان بهبود** افراد را به درستی تشخیص دهند.

#**پردازش تصاویر**
پردازش تصاویر دارای دو شاخه عمدهٔ بهبود تصاویر و بینایی ماشین است. بهبود تصاویر دربرگیرندهٔ روشهایی چون استفاده از فیلتر محوکننده و افزایش تضاد برای بهتر کردن کیفیت دیداری تصاویر و اطمینان از نمایش درست آنها در محیط مقصد (مانند چاپگر یا نمایشگر رایانه)است، در حالی که بینایی ماشین به روشهایی می‌پردازد که به کمک آنها می‌توان معنی و محتوای تصاویر را درک کرد تا از آنها  استفاده شود.
در معنای خاص پردازش تصویر عبارتست از هر نوع پردازش سیگنال که ورودی یک تصویر است و خروجی پردازشگر تصویر می‌تواند یک تصویر یا یک مجموعه از نشانهای ویژه یا متغیرهای مربوط به تصویر باشد. اغلب تکنیک‌های پردازش تصویر شامل برخورد با تصویر به عنوان یک سیگنال دو بعدی و به‌کار گرفتن تکنیک‌های استاندارد پردازش سیگنال روی آنها می‌شود. پردازش تصویر اغلب به پردازش دیجیتالی تصویر اشاره می‌کند ولی پردازش نوری و آنالوگ تصویر هم وجود دارند.[۲۷]
پردازش تصویر در بسیاری از شاخه های علمی از جمله پزشکی ، باستان شناسی، حمل و نقل ، رباتیک ، کنترل صنعتی ،سیستم های دفاعی و .. وارد شده و باعث تحولی چشمگیر در این زمینه ها شده است .
یکی از سیستم های پر استفاده تصویربرداری ام آر آی می باشد، که تصاویر بدون پردازش آن برای بهبود ادراک بهتر تصاویر توسط انسان  و پردازش داده های تصویر برای ادراک ماشین نیازمند پردازش های وسیع و گسترده ای روی آن هست، برای مثال حذف نویز، اختصاص رنگ، بازسازی تصاویر در کامپیوتر به صورت سه بعدی و درون یابی اطلاعات جهت تولید برش های لازم از ارگان تحت تصویربرداری (در این پروژه مغز) می باشد.

![مراحل کلی پردازش تصویر](http://slideplayer.com/slide/5228599/16/images/7/Fundamental+Steps*+Knowledge+Base+Preprocessing.jpg)

1. مرحله preprocessing (پیش پردازش) : پس از تصویربرداری  پیش پردازش انجام می شود. هدف اصلی بهبود تصویر است به عنوان مثال حذف نویز و ارتقاء رنگ ها از داده های تصویری در این مرحله انجام می شود.
2. مرحله segmentation (بخش بندی) : 
بخش بندی تصویر روشی است برای نام گذاری هر پیکسل به طوری که پیکسل هایی که دارای ویژگی های یکسان هستند نام یکسان دارند. پس هر قطعه شامل پیکسل هایی است با ویژگی های یکسان.
هدف از بخش بندی یک تصویر این است که عکس را طوری به قسمت هایی تبدیل کنیم که برای تحلیل و بررسی و پردازش قابل درک تر و آسان تر باشند. با این عمل یافتن مرز ها یا اشیا سهل تر خواهد شد.
بخشبندی، یکی از شاخه های اصلی در علم پردازش تصویر است که مهمترین کارکرد آن، تصحیح مرزهای مخدوش بین بخشهای مختلف تصویر است. هدف از بخش بندی، جداسازی اجزای اصلی تشکیل دهنده ی تصویر است. دقت بخش بندی تصویر، اثر مستقیمی در کارایی کل سیستم میگذارد به طوری که میتواند موفقیت یا شکست احتمالی تحلیل نهایی تصویر را تعیین کند. در کاربردهای هوایی وسنجش از دور، تنها شناسایی اشیای روی زمین برای بخش بندی مورد نظر است. بخش بندی به طور گستردهای در علم سنجش از دور به کار میرود. این پیش پردازش به عنوان مثال فرایند تقسیم یک تصویر به گروه های همگن تعریف میشود به طوری که هر ناحیه همگن باشد ولی اجتماع هیچ یک از دو ناحیه ی مجاور آن همگن نباشد.
خروجی مرحله بخش بندی، مرز یک ناحیه و یا تمام نقاط درون یک ناحیه است. در این مرحله باید توجه داشت:
		+  نمایش مرزی زمانی مفید است که مشخصات خارجی شکل (مانند گوشه ها یا خمیدگی ها ) مهم باشد و نمایش ناحیه ای وقتی مفید است که خواص درونی بخش های تصویر( مانند بافت شکل ) مورد توجه باشد.
3. مرحله  representation and describtion (توضیح و توصیف یا انتخاب ویژگی) : در این مرحله، روشی برای برجسته کردن ویژگی های مورد نظر اجرا می شود. برای مثال در تشخیص بیماری اسکیزو فرنی  تفاوت‌هایی در لب قدامی مغز هیپوکامپ‌ها و لب گیجگاهی و کاهش حجم ماده خاکستری و سفید افراد که در تصویر MRI باعث تمایز بیمار از شخص سالم می شود.
4. مرحله recognition and interpretion  (تشخیص و تفسیر) : طی این مرحله با استفاده از اطلاعات توصیف گر ها ، یک برچسب به هر شی نسبت داده می شود (در این پروژه: مبتلا به اسکیزوفرنی یا سالم) .


#**الگوریتم های تشخیص**


تشخیص الگو شاخه‌ای از مبحث یادگیری ماشینی است. می‌توان گفت تشخیص الگو، دریافت داده‌های خام و تصمیم گیری بر اساس دسته‌بندی داده‌ها است. روش‌های تشخیص الگو، الگوهای مورد نظر را از یک مجموعه داده‌ها با استفاده از دانش قبلی در مورد الگوها یا اطلاعات آماری داده‌ها، جداسازی می‌کند. الگوهایی که با این روش دسته‌بندی می‌شوند، گروه‌هایی از اندازه‌گیری‌ها یا مشاهدات هستند که نقاط معینی را در یک فضای چند بعدی تشکیل می‌دهند. این ویژگی اختلاف عمده تشخیص الگو با تطبیق الگو است، که در آنجا الگوها با استفاده از موارد کاملا دقیق و معین و بر اساس یک الگوی مشخص، تشخیص داده می‌شوند. مسئله دسته بندی یکی از مسائل اصلی مطرح شده در یادگیری ماشین است و بسیاری از مسائل را می توان به صورت یک مسئله دسته بندی مطرح کرده و حل کرد.[۳۴]
شایان توجه است مدل یادگیری برای این مسئله، یادگیری با ناظر است یعنی سیستم با استفاده از یک مجموعه از مثال های برچسب گذاری شده(توسط انسان)، دسته بندی را یاد می گیرد. در این روش ابتدا سامانه به وسیله‌ی داده های آموزشی که به صورت دستی و به وسیله ی انسان برچسب گذاری شده اند آموزش دیده، با یادگیری از طریق این داده ها به تشخیص خودکار بیماری اسکیزوفرنی در عکس ها می پردازد. روش های با ناظر به داده های برچسب گذاری شده برای ساخت یک مدل آماری نیاز دارند. استفاده از داده های آموزشی نامناسب باعث افت شدیدی در دقت کلاس بندی شده و این اهمیت داده های آموزشی مناسب را نشان میدهد.
این دسته روش، اولین بار توسط Pang و lee با بررسی چند مدل classifier مورد پژوهش قرار گرفتند [۳۲] . آنها روش های SVM - Naive bayes - MAX Entropy را مورد بررسی قرار دادند و بین آنها SVM را دارای بالاترین و Naive bayes را دارای پایین ترین دقت ارزیابی کردند[۳۳] .

پیش از توضیح الگوریتم ها لازم است به  FNC و SBM پرداخته شود.[۲۹] و [۳۰]
####مجموعه Functional Network Connectivity :
مجموعه FNC از  FMRI (تصویرسازی تشدید مغناطیسی کارکردی) [۲۸] ، به دست می‌آید و هماهنگی بین مناطق مختلف مغز را توصیف می کند. 
####مجموعه Source-Based Morphometry :
مجموعه SBM از اسکن MRI (تصویرسازی تشدید مغناطیسی)[۳۱] مشتق شده و غلظت ماده خاکستری را در مناطق مخنلف مغز نشان می دهد.

در [این مسابقه](http://mlsp2014.conwiz.dk/competition.htm) تصویر اسکن مغزی افرادی در بازه سنی ۱۸-۶۵ سال وجود دارد. training data شامل۴۶ بیمار اسکیزوفرن و ۴۰ فرد سالم است. test set تشکیل شده از ۱۱۹,۷۴۸ سوژه بدون label می‌باشد.
مجموعه داده های برای یادگیری که شامل ۸۶ فرد می باشد، شامل سه مجموعه ی زیر است :

+ فایل train_labels.csv : به هر فرد یک Id و یک برچسب داده شده است. به فرد سالم برچسب صفر و به بیمار اسکیزوفرنی برچسب یک داده شده است.

+ فایل train_FNC.csv : برای هر فرد 378FNC معین شده و اعدادی که به هر FNC نسبت داده شده، که این مقادیر در واقع از ارتباط بین هر جفت نقشه های مغز به دست آمده است.

+ فایل train_SBM.csv :شامل 32SBM برای هر فرد است. این مقادیر وزن های استانداردی هستند که غلظت ماده خاکستری در مناطق مختلف مغز را نشان می دهند.

در ادامه نمونه هایی از الگوریتم هایی که برای دسته بندی جهت تشخیص بیماری اسکیزوفرنی استفاده شده اند، معرفی می شوند.

##روش SVM :
الگوریتم SVM اولیه در ۱۹۶۳ توسط Vladimir Vapnik ابداع شد و در سال ۱۹۹۵ توسط Vapnik و Corinna Cortes برای حالت غیرخطی تعمیم داده شد. ماشین بردار پشتیبانی یکی از روش‌های یادگیری با نظارت است که از آن برای طبقه‌بندی و رگرسیون استفاده می‌کنند.
این روش از جمله روش‌های نسبتاً جدیدی است که در سال‌های اخیر کارایی خوبی نسبت به روش‌های قدیمی‌تر برای طبقه‌بندی از جمله شبکه‌های عصبی پرسپترون نشان داده است. مبنای کاری دسته‌بندی کننده SVM دسته‌بندی خطی داده‌ها است و در تقسیم خطی داده‌ها سعی می‌کنیم خطی را انتخاب کنیم که حاشیه اطمینان بیشتری داشته باشد. حل معادله پیدا کردن خط بهینه برای داده‌ها به وسیله روش‌های QP که روش‌های شناخته شده‌ای در حل مسائل محدودیت‌دار هستند صورت می‌گیرد.[۳۵]
الگوریتم SVM از یک تکنیک که kernel trick نامیده می شود، برای تبدیل داده‌ها استفاده می‌کند و سپس بر اساس این تبدیل، مرز بهینه بین خروجی‌های ممکن را پیدا می‌کند. به عبارت ساده تبدیلات بسیار پیچیده را انجام می‌دهد، سپس مشخص می‌کند چگونه داده‌هایتان را بر اساس برچسب‌ها یا خروجی‌هایی که تعریف کرده اید، جدا کنید.
لذا یکی از روش‌هایی که در حال حاضر به صورت گسترده برای مسئله دسته‌بندی مورد استفاده قرار می گیرد، روش ماشین بردار پشتیبان است. شاید به گونه ای بتوان محبوبیت کنونی روش ماشین بردار پشتیبان را با محبوبیت شبکه‌های عصبی در دهه گذشته مقایسه کرد. علت این قضیه نیز قابلیت استفاده این روش در حل مسائل گوناگون می‌باشد، در حالیکه روش‌هایی مانند درخت تصمیم‌گیری را نمی‌توان به راحتی در مسائل مختلف بکار برد.[۳۶] و [۳۷]

به طور ساده تر این الگوریتم  پیش بینی می کند یک نمونه در کدام کلاس یا گروه قرار می گیرد. 
این الگوریتم برای تفکیک دو کلاس از هم، از یک صفحه استفاده می کند به طوریکـه ایـن صـفحه از هـر طرف بیشترین فاصله را تا هر دو کلاس داشته باشد . نزدیک ترین نمونه های آموزشی به این صفحه "بردارهای پشتیبان" نام دارند.
![ نزدیکترین نمونه ها به صفحه، بردارهای پشتیبان](https://boute.s3.amazonaws.com/240-bf5d2840-e518-11e4-9ebf-e1ac09e35224.png)
به عنوان مثال، صفحه ی H1 و H2 دو کلاس را از هم تفکیک کرده اند، اما کلاس H3 در شرایط این الگوریتم صدق مـی کند.
![](https://boute.s3.amazonaws.com/240-8ace2e26-e518-11e4-936c-ca9d357554cb.png)
روش کلی بردارهای پشتیبان:
فرض کنید n نمونه آموزشی در یک فضای حقیقی با ابعاد p و دو کلاس داریم، برای هر نمونه می توان نوشت:
که Ci خروجی هر کلاس برای نمونه آموزشی i ام است می خواهیم صفحه ای را پیدا کنیم که نقاط کلاس Ci=1 را از نقاط کلاس Ci=-1 جدا کنیم معادله این صفحه به صورت w.x-b=0 نوشته می شود که wبردار نرمال و عمود بر صفحه است و پارامتر |b/|w فاصله ی صفحه از مبدا بردار نرمـال، را مـشخص مـی کند برای هر نمونه اگر w.x-b>=1 آنگاه نمونه Xi متعلق به کلاس اول خواهد بود و در غیر این صورت اگر w.x-b=<-1 آنگاه نمونه Xi متعلق به کلاس دوم خواهد بود .مقادیر b و w باید به نحوی انتخاب شوند تا شرط مـاکزیمم بـودن فاصـله تامین شود. در مسئله ی بهینه سازی می توان دو رابطه ی بالا را به صورت      1=<(Ci(w.Xi - b نوشت که در این مسئله به دنبال مینیمم کردن مقادیر b و ||W|| هستیم. برای اینکه از ورود نقاط به حاشیه جلو گیری کنیم، شرایط زیر را اضافه می کنیم. برای هر i:
برای کلاس اول : 1 =< w . xi - b 
برای کلاس دوم : w . xi - b => -1
![پارامترهای ماشین بردار پشتیبان](https://boute.s3.amazonaws.com/240-69b2d5f2-e518-11e4-8ef9-2fabed25dabe.png)

##روش درخت تصمیم:
ساختار درخت تصمیم در یادگیری ماشین، یک مدل پیش بینی کننده می باشد که حقایق مشاهده شده در مورد یک پدیده را به استنتاج هایی در مورد مقدار هدف آن پدیده نقش می کند. تکنیک یادگیری ماشین برای استنتاج یک درخت تصمیم از داده ها، یادگیری درخت تصمیم نامیده می شود. هر گره داخلی متناظر یک متغیر و هر کمان به یک فرزند، نمایانگر یک مقدار ممکن برای آن متغیر است. یک گره برگ، با داشتن مقادیر متغیرها که با مسیری از ریشه‌ درخت تا آن گره برگ بازنمایی می شود، مقدار پیش بینی شده متغیر هدف را نشان می دهد. یک درخت تصمیم ساختاری را نشان می دهد که برگ ها نشان دهنده‌ی دسته بندی و شاخه ها ترکیبات فصلی صفاتی که منتج به این دسته بندی ها را بازنمایی می کنند. یادگیری یک درخت می تواند با تفکیک کردن یک مجموعه‌ی منبع به زیرمجموعه هایی براساس یک تست مقدار صفت انجام شود. این فرآیند به شکل بازگشتی در هر زیرمجموعه‌ی حاصل از تفکیک تکرار می شود. عمل بازگشت زمانی کامل می شود که تفکیک بیشتر سودمند نباشد یا بتوان یک دسته بندی را به همه‌ی نمونه های موجود در زیرمجموعه‌ی بدست آمده اعمال کرد.[۳۸]
از ویژگی های مثبت درخت تصمیم می‌توان گفت:
+ درخت تصمیم از نواحی تصمیم گیری ساده استفاده می‌کند.
+ مقایسه های غیر ضروری در این ساختار حذف میشوند.
+ آماده سازی داده ها برای یک درخت تصمیم ساده یا غیر ضروری است.
+ درختهای تصمیم قادر به شناسایی تفاوتهای زیرگروه ها میباشد.
اما ویژگی منفی درخت‌های تصمیم، به صورت نمایی بزرگ شدن هنگام بزرگ شدن مسئله می‌باشد. همچنین اکثر درخت‌های تصمیم تنها از یک ویژگی برای شاخه زدن در گره‌ها استفاده می‌کنند(مانند مسئله بیماری اسکزوفرنی) در صورتی که ممکن است ویژگی ها دارای توزیع توأم باشند. ساخت درخت تصمیم حافظه زیادی را مصرف می‌کند زیرا برای هر گره باید معیار کارایی برای ویژگی‌های مختلف را ذخیره کند تا بتواند بهترین ویژگی را انتخاب کند [۳۹]. با این حال می توان با استفاده از الگوریتم های ذیل، می‌توان درخت تصمیم بهینه ای تشکیل داد.از انواع این الگوریتم ها می‌توان به الگوریتم CART  و Hunt و ID3 و C4.5 و  SPRINT اشاره کرد که در ادامه به معرفی برخی از این الگوریتم ها می‌پردازیم.

![درخت تصمیم](http://mines.humanoriented.com/classes/2010/fall/csci568/portfolio_exports/lguo/image/decisionTree/decisionTree.jpg)

###الگوریتم ID3 :
ویژگی این روش [۴۱] ساخت درخت تصمیم از بالا به پائین است. در آن از آزمونی آماری به نام بهره مطالعاتی(Gain Information) استفاده می‌شود  تا مشخص گردد هر کدام تا چه حد قادر است به تنهایی داده های آزمایشی را دسته‌بندی کند.  با انتخاب این صفت برای هر یک از مقادیر ممکن، شاخه‌ای ایجاد شده و داده های آموزشی بر اساس ویژگی هر شاخه مرتب می‌شوند. به دنبال آن عملیات فوق برای مثال‌های قرار گرفته در هر شاخه تکرار می‌شود تا بهترین ویژگی برای گره بعدی انتخاب شود. عمل‌کرد الگوریتم جستجو‌ی حریصانه است که در آن انتخاب‌های قبلی هرگز مورد بازبینی قرار نمی‌گیرند.
$$Gain Information(S,A) = Entropy(S) - \sum_{v \in (A) } (\frac{{S}_{v}} {S}) Entropy({S}_{v}) $$
$$Entropy(S) = \sum_{i=1}^{c} pi\log_{2}^{pi}$$

###الگوریتم CART :
الگوریتم[۴۲] CART یک روش تقسیم بندی بازگشتی باینری است . داده ها در این الگوریتم  بصورت خام استفاده می‌شوند و هیچگونه پاکسازی نه نیاز است نه پیشنهاد می‌شود . درختان بدون استفاده از یک قانون متوقف کننده به رشد حداکثری خود می‌رسند و سپس اصلاح می‌شوند (که این کار قسمت به قسمت انجام می‌شود .) اصلاح تا ریشه ادامه دارد  و با اصلاح پیچیدگی کار بالا می‌رود. قسمت بعدی برای اصلاح بخشی است که کمترین کمک را به کارکرد کلی درخت در پردازش اطلاعات می‌کند (و ممکن است در یک زمان بیشتر از یک بخش حذف شود). هدف مکانیزم CART تولید تنها یک درخت نیست بلکه تولید یک سر‌ی درختان اصلاح شده تو در توست که همه آن درختان بهینه داوطلب هستند . درخت با اندازه مناسب یا “درخت درست ” به وسیله  ارزش گذاری عملکرد پیشگویانه هر درخت در توالی اصلاح ، شناخته می‌شود . CART هیچگونه اندازه عملکرد داخلی برای انتخاب درخت براساس پردازش اطلاعات پیشنهاد نمی کند زیرا این ها  قابل اطمینان نیستند . به جای آن عملکرد درخت در آزمایش داده های جداگانه (یا از طریق تائید میانه ) اندازه گیری می‌شود و انتخاب درخت تنها پس از ارزشیابی آزمایش داده ها صورت می‌گیرد . اگر هیچ آزمایش داده ای وجود نداشته باشد و تائیدیه میانی انجام نشده باشد CART نمی‌تواند بهترین درخت توالی را مشخص کند . این با روش هایی مانند C4.5 که مدل های برتر را بر اساس اندازه های‌پردازش داده ایجاد می‌کنند همسان نیست .

 درخت  ابتدا با تعیین متغیر Xj از میان تمام متغیر ها ساخته می شود، این متغیر "بهترین پیش بینی" را برای Y(متغیر پاسخ) خواهد داشت. بعد از انتخاب این متغیر، افراد بر اساس مقادیر Xj به دو گروه مختلف در درخت تقسیم می شوند. در این صورت افرادی که MRI آن ها ویژگی های MRI بیمار اسکیزوفرنی را دارد به یک گروه و سایر افراد به گروه دیگر تقسیم می شوند. این فرایند در هر گره به وجود آمده تکرار می شود. مجموعه افراد با  $\Omega$  نشان داده می شود. "بهترین پیش بینی" اول با X1 نشان داده می شود. بر اساس مقادیر X1 افراد به دو گروه $\Omega1`$   و  $\Omega2 $ تقسیم می شوند. که در آن : 
$$ { \Omega  }_{ 1 }=\left\{ i:{ x }_{ i1 }={ 0 } \right\} { , }\quad { \Omega  }_{ 2 }=\left\{ i:{ x }_{ i1 }={ 1 } \right\} { ,\quad { i\quad =\quad { 1,2,... } } } $$
گام بعدی الگوریتم ساختن درخت، تشخیص متغیر بعدی است که "بهترین پیش بینی" را برای متغیر Y داشته باشد، اما در داخل هر گروه $\Omega1`$ یا  $Omega1\$ ، زیرگروه های بعدی بر اساس مقادیر Xi2  و Xi3 تعریف می شوند. این فرایند آنقدر به صورت بازگشتی ادامه می یابد تا به شرایط ملاک توقف برسیم. در آخر بعد از ساختن درخت ممکن آن را هرس نماییم.

###الگوریتم Hunt :
توسعه این درخت[۴۰]، با یک روش بازگشتی با جداسازی داده های آموزشی به زیر مجموعه هایی که به طور تکرار شونده تخلیص می‌شوند، می‌باشد.
برای مثال  مجموعه ${ D }_{ t }$ داده های آموزشی ما است که در نظر داریم تصمیمی در مورد تعلق یک مقدار به گره t-ام اتخاز کنیم. آنگاه داریم:

- اگر ${ D }_{ t }$  شامل رکوردهایی باشد که متعلق به کلاس یکسان  ${ y }_{ t )$ هستتند، آنگاه t یک گره برگ است که با  ${ y }_{ t }$ برچسب گذاری می شود.
- اگر ${ D }_{ t }$ یک مجموعه ی خالی باشد، آنگاه t یک گره برگ با یک مقدار پیش فرض برای کلاس ${ y }_{ d }$  می باشد.
- اگر ${ D }_{ t }$ شامل رکوردهایی باشد که متعلق به بیش از یک کلاسند، یک صفت را برای جداسازی داده ها به زیرمجموعه هایی کوچکتر تست می کنیم. و همان طور که اشاره شد برای هر زیر مجموعه روند را به صورت بازگستی به کار می گیریم.

##روش Random Forest :
جنگل تصادفی[۴۳]، درخت تصمیم های زیادی را تولید می کند. برای طبقه بندی یک شیء جدید از برداری ورودی در انتهای هر یک از درختان جنگل تصادفی قرار می‌دهد. هر درخت پدیدآورنده یک طبقه بندی می‌شود و گوییم این درخت به آن کلاس “رأی” می‌دهد. جنگل طبقه بندی‌ای که بیشترین رأی را داشته باشد (بین همه درخت های جنگل) انتحاب می‌کند. 
$$f(x,{\theta}_{k})                       ,                               k=1 , 2 , ... , K$$
درحالتی که ${\theta}_{k}$ ها بردارهای رندوم مستقل از توزیع هستند و هر درخت در ورودی x برای  برچسب رأی گیری می‌کند. حال  (X = (X1, X2, ... , Xp مجموعه‌ای است از P متغیر، Xj= (X1 j ,X2 j ,...,Xnj ) m و Y صفت تحت بررسی ما یعنی ابتلا به اسکیزوفرنی است و n تعداد افراد نمونه است. همچنین b شماره درخت و B تعداد کل درختان است. مقدار اولیه b را برابر یک قرار می دهیم. در گام k-ام ، $\theta k$ نمونه مستقل و با توزیع یکسان از مجموعه داده ها انتخاب می گردد. همچنین  x  نیز نمونه تصادفی از مجموعه متغیر های پیش بین مورد مطالعه انتخاب می گردد. تابع پیش بین h با استفاده از x و تتایk  ساخته می شود. گام ها B مرتبه تکرار شده تا به تعداد B درخت برسیم. اگر P > Q باشد، x به به کلاس  1 (بیماران اسکیزوفرنی) تعلق دارد و برعکس، اگر P < Q باشد، پیش بینی می نماید که به کلاس 0 (افراد سالم) تعلق دارد.
$$ { P\quad =\quad \sum _{ K=1 }^{ E }{ I\left( h\left( x,{ \theta  }_{ k } \right)  \right)  }  }=\quad { 1 } $$
$$ { Q\quad =\quad \sum _{ K=1 }^{ E }{ I\left( h\left( x,{ \theta  }_{ k } \right)  \right)  }  }=\quad { 0 } $$

##روش فرایند گوسی :
این روش بر مبنای الگوی یادگیری ماشین های بیزی می باشد. در یادگیری بیزی اطلاعات اولیه در مورد داده ها را مدل سازی می‌کنیم، سپس به صورت یکپارچه با اطلاعات حاصل از داده های نمونه گیری شده ، ادغام می‌کنیم. ساختمان استنتاج الگوریتم های بیزی سیار  شبیه روند طبیعی استدلال در انسان هاست. در واقع داشتن پیش فرض هایی در رابطه با یک حقیقت  و استنتاج به وسیله ی تابعی که امکان پذیربودن رخدادی را به شرط داشتن  پارامترهای پیش فرض برای بدست آوردن امکان پذیر بودن رخداد مورد نظر، اساس کار استدلال و آموزش بیزی بوده، که بسیار مشابه روند استدلالی در انسان است. مدل بر اساس فرض داشتن یک فرایند گوسی روی داده های ورودی است. داده های آموزشی : {( D = {(Xi , Yi داده های تست : {( D={(X_i , Y_iبر اساس عملیات ریاضی که در فرآیند گوسی انجام می دهد، به داده های خروجی برچسبی را نسبت می دهد ، در این نمونه مقاله به بیماران اسکیزوفرنی عدد ۰ و به افراد سالم 1 نسبت می‌دهد.


# **کارهای مرتبط**
 
در مقام تحقیق در راه‌حل های ارائه شده در این مسابقه باید خاطر نشان کرد:

+ راه ‌حل رتبه نخست [۲۶]  این مسابقه بر پایه [۲۵]Gaussian process classification  و در ادامه استفاده از توزیع برنولی برای شانس موفقیت است.
+ رتبه دوم  مسابقه [۲۲] ابتدا  از random vector استفاده کرده سپس با استفاده از random forest و استفاده از Gini-index  مسئله را حل می‌کند.
+ رتبه سوم این مسابقه [۲۳] از متود کمتر شناخته شده تری برای حل مسئله استفاده می‌کند، [۲۴] (Distance Weighted Discriminant (DWD
+ رتبه هشتم و نهم مسابقه [۲۱]   از رگرسیون خطی و  svm برای دسته بندی و تفکیک داده ها استفاده کرده‌اند و با استفاده از  sci-kit پایتون مسئله را حل کرده اند.
+ رتبه شانزدهم مسابقه با استفاده از [۱۷] Bayesian analysis  مسئله را حل کرده است.  

# **آزمایش‌ها**

# **کارهای آینده**
در صورت دسترسی داشتن به سابقه خانوادگی بیماری اسکیزوفرنی در بیمار و یا دسترسی به اطلاعات مهمی نظیر سن فرد، جنسیت، استفاده از مواد مخدر، استفاده از داروهای متنوع، می‌توانیم با دخیل کردن این اطلاعات هنگام کلاس بندی، شاهد اعتلای درصد درستی نتیجه باشیم.

# **مراجع**
+ [1]:[صفحه رسمی مسابقه تشخیص اسکیزوفرنی](http://mlsp2014.conwiz.dk/competition.htm)

----------
+ [2]:"Schizophrenia" Concise Medical Dictionary. [انتشارات دانشگاه آکسفورد]
+ [3]:van Os J, Kapur S.  [Schizophrenia](http://xa.yimg.com/kq/groups/19525360/611943554/name/Schizophrenia+-+The+Lancet.pdf)
+ [4]:Buckley PF, Miller BJ, Lehrer DS, Castle DJ.  [Psychiatric comorbidities and schizophrenia](http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2659306/).
+ [5]:Carson VB (2000). [Mental health nursing: the nurse-patient journey](http://books.google.com/books?id=QM5rAAAAMAAJ)
+ [6]:_[Schizophrenia](http://books.google.com/books?id=x3fmsV55rigC&pg=PA21)_. Wiley-Blackwell; 2003.
+ [7]:Brunet-Gouet E, Decety J. Social brain dysfunctions in schizophrenia: a review of neuroimaging studies.
+ [8]:_[Schizophrenia](http://books.google.com/books?id=x3fmsV55rigC&pg=PA21)_. Wiley-Blackwell; 2003
+ [9]:Ungvari GS, Caroff SN, Gerevich J. The catatonia conundrum: evidence of psychomotor phenomena as a symptom dimension in psychotic disorders.
+ [10]:Kircher, Tilo and Renate Thienel. _[The Boundaries of Consciousness](http://books.google.com/?id=YHGacGKyVbYC&pg=PA302)_. Amsterdam: Elsevier; 2006
+ [11]:[Coyle 2006](https://fa.wikipedia.org/wiki/%D8%A7%D8%B3%DA%A9%DB%8C%D8%B2%D9%88%D9%81%D8%B1%D9%86%DB%8C#CITEREFCoyle2006)
+ [12]:Green MF. Cognitive impairment and functional outcome in schizophrenia and bipolar disorder. _Journal of Clinical Psychiatry_.
+ [13]:World Health Organization. [Schizophrenia](http://www.who.int/mental_health/management/schizophrenia/en/)
+ [14]:Smith T, Weston C, Lieberman J. Schizophrenia (maintenance treatment). _Am Fam Physician_
+ [15]:Warner R. Recovery from schizophrenia and the recovery model. _Curr Opin Psychiatry_. 2009
+ [16]:Marshall M, Rathbone J. Early intervention for psychosis. _Cochrane Database Syst Rev
+ [17]:[ What is Bayesian analysis](https://www.stata.com/features/overview/bayesian-intro/)
+ [18]:https://kaggle2.blob.core.windows.net/forum-message-attachments/51131/1432/Lebedev_AV_MLSP_2014_Sch.pdf
+ [19]:https://kaggle2.blob.core.windows.net/forum-message-attachments/51131/1459/Lebedev_AV__MLSP2014_Sch.pdf
+ [20]:C. E. Rasmussen and C. K. I. Williams. Gaussian Processes for Machine Learning. The MIT
+ [21]:https://github.com/gabegaster/kaggle_schizophrenia_2014
+ [22]:https://www.kaggle.com/c/mlsp-2014-mri/discussion/9854
+ [23]:https://www.kaggle.com/c/mlsp-2014-mri/discussion/9967
+ [24]:J. S. Marron, Michael Todd, Jeongyoun Ahn. Distance Weighted Discrimination. Journal of the
American Statistical Association; Volume 102, Issue 480, 2007
+ [25]:1.  C. E. Rasmussen and C. K. I. Williams. Gaussian Processes for Machine Learning. The MIT
	Press, 2006.
+ [26]:https://www.kaggle.com/c/mlsp-2014-mri/discussion/9907
+ [27]:https://fa.wikipedia.org/wiki/پردازش_تصویر
+ [28]: https://en.wikipedia.org/wiki/Functional_magnetic_resonance_imaging
+ [29]: https://www.ncbi.nlm.nih.gov/pubmed/22255319
+ [30]: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2751641/
+ [31]: https://en.wikipedia.org/wiki/Magnetic_resonance_imaging
+ [32]:1.  Sentiment Analysis - A multimodal approach by Lucas Carstens
+ [33]:Bo Pang; Lillian Lee and Shivakumar Vaithyanathan (2002)."Thumbs up? Sentiment Classification using Machine Learning Techniques
+ [34]:http://www.boute.ir/iust-ai-94/mlsp-2014-mri#fn-functional%20network%20connectivity
+ [35]:http://www.boute.ir/iust-ai-94/face-recognition
+ [36]:http://www.bigdata.ir/1394/05/svm
+ [37]:http://www.analyticsvidhya.com/blog/2014/10/support-vector-machine-simplified
+ [38]:لعبت عزیزی "گزارش تحقیق درس یادگیری ماشین"
+ [39]:_Y. Yuan and M.J. Shaw, Induction of fuzzy decision trees.Fuzzy Sets and Systems 69 (1995), pp. 125–139._
+ [40]:http://mines.humanoriented.com/classes/2010/fall/csci568/portfolio_exports/lguo/decisionTree.html
+ [41]:http://profsite.um.ac.ir/~monsefi/machine-learning/pdf/Decision-Tree-1.pdf
+ [42]:Application and Comparison of Random Forest and CART in Genetic Association Study in Coronary Artery Disease
+ [43]:https://kaggle2.blob.core.windows.net/forum-message-attachments/51131/1459/Lebedev_AV__MLSP2014_Sch.pdf