**بِسمِ اللّهِ الرَّحمنِ الرَّحیم**
در این پروژه سعی خواهم کرد که یکی از مسابقات سایت www.kaggle.com را که از طریق این [پیوند](https://www.kaggle.com/c/titanic) قابل دست رسی میباشد، بررسی کنم.
در این مسابقه، از شرکت کنندگان خواسته شده که با استفاده از اطّلاعات داده شده درباره ی مسافران کشتی آر اِم اِس تایتانیک[^RMS Titanic]، که در مجموعه ی دادههای[^Dataset] مسابقه ارائه شده، پیش بینی کنند که چه کسی از کشتی تایتانیک جان سالم به در برده است!
در ادامه، ابتدا توضیحاتی راجع به داده های مسئله داده می شود؛ سپس تعدادی از روش هایی که برای حلّ مسئله مطرح هستند، بررسی خواهند شد.
# مقدمه
در حادثه ی برخورد کشتی بخار بزرگ تایتانیک به کوه یخ، که در تاریخ 15 آوریل 1912، از بندر ساوت همپتون انگلستان به مقصد نیویورک آمریکا در سفر بود، 1514 نفر از 2224 مسافر و خدمه ی کشتی، کشته شدند؛ که یکی از دلایل اصلی آن عدم تعبیه ی قایق نجات، به تعداد لازم بود.
هر چند که می توان شانس را یکی از عوامل تأثیر گذار در نجات یافتن افراد بیان کرد؛ امّا برای برخی افراد، مانند زنان و بچّه ها
و افرادی که در قسمت های با درجه ی بالاتر جای داشتند، احتمال بیشتری وجود داشت که نجات پیدا کنند.
داده های مسئله، به صورت فایل های [^Comma-separated values]csv، در اختیار کاربران قرار داده شده اند.
در شکل زیر ، اطّلاعاتِ داده شده و توضیحات آن ها آورده شده است.![شکل 1- اطّلاعات داده شده راجع به مسافران](https://boute.s3.amazonaws.com/278-1MpPa2D.png)
قسمتی از داده ها نیز در شکل پایین، قابل مشاهده می باشند.![شکل 2- قسمتی از داده ها](https://boute.s3.amazonaws.com/278-4wCqrcS.png)
همان طور که در شکل 2 مشخّص است، برای برخی افراد، بعضی ویژگی ها، دارای مقدار نمی باشند.
مجموعه ی داده ها، دارای 819 نمونه می باشد.
مجموعه ی داده شده جهت تست، دارای 418 نمونه است.
در صورتی که یک بررسی اوّلیه بر روی داده ها انجام دهیم، نتایج شکل زیر به دست می آیند.![شکل 3- بررسی اوّلیه](https://boute.s3.amazonaws.com/278-OanANSO.png)
همان طور که مشاهده می کنید، جنسیت مسافر، در این که نجات پیدا می کند یا خیر، بسیار تأثیر گذار می باشد؛ چنان که 74% زنان زنده ماندند؛ در حالی که تنها 18% مردان توانستند نجات پیدا کنند.
این اطّلاعات، یک درک کلّی از شرایط مسئله، در اختیار ما قرار می دهد.
در منابع ذکر شده، روش های جنگل تصادفی، درخت تصمیم، شبکه های عصبی، ماشین بردار پشتیبان، Naive Bayes، افزایش شیب دار و... استفاده شده اند.
اِن شاءَ اللّه ما در این پروژه، سعی خواهیم کرد روش شبکه های عصبی[^Neural Networks] را در حدّ امکان و قابل فهم بررسی کنیم.
ابتدا کلّیت روش شبکه های عصبی را توضیح داده، و سپس این روش را برای مسئله ی داده شده به کار خواهیم برد.
**شبکه های عصبی**
شبکههای عصبی، مدلی میباشند که با الهام از سیستمهای زیستی به وجود آمدهاند. در یک شبکه از عصبهای زیستی مانند مغز، عصبها سلولهای جداگانهای میباشند که ورودی دریافت کرده؛ بر روی آن عملیات انجام میدهند؛ سپس حاصل را به عصب یا عصبهای دیگری که به آنها متّصل میباشند، منتقل مینمایند. این را رفتار را میتوان با استفاده از یک عصب مصنوعی مدل سازی نمود.
![شکل 4- یک عصب در شبکه ی عصبی](https://boute.s3.amazonaws.com/307-bQjkEFQ.png)
شکل بالا یک عصب را نشان میدهد که ورودیهایی را دریافت کرده؛ با استفاده از f، آن ها را پردازش میکند و خروجیهایی را تولید مینماید.
میتوان مجموعهای از این عصبها را در چند لایه به صورتی که در شکل زیر مشاهده میکنید به کار برد.
![شکل 5- یک شبکه ی عصبی با چهار لایه](https://boute.s3.amazonaws.com/307-JUZGeEe.png)
یک لایه، مربوط به ورودی ( input ) میباشد. تعداد عصبها در این لایه معمولاً با تعداد ویژگیها ( در اینجا سن، کلاس، جنسیت، ...) برابر میباشد.
یک شبکه ی عصبی میتواند فاقد لایه ی میانی ( hidden ) باشد یا شامل یک یا چند لایه از این نوع باشد ( در قسمت آزمایش، یک لایه ی میانی در نظر گرفته شده است ).
لایه ی آخر که لایه خروجی ( output ) نام دارد نیز میتواند شامل یک یا چند عصب، بسته به طرّاحی شبکه باشد ( در قسمت آزمایش، یک عصب برای این لایه در نظر گرفته شده است ).
هم چنین در این شبکه، هر ارتباط بین عصبها دارای یک وزن میباشد. بنا بر این برای مثال، در شکل بالا، تابع فعّال سازی برای عصب Hidden 1 به شکل زیر میباشد:
![شکل ۶](https://boute.s3.amazonaws.com/307-Untitled.png)
یکی از توابع فعّال سازی معمول، تابع logistic میباشد؛ که یکی از مزایای آن این است که قابل مشتقگیری میباشد. در زیر فرمول تابع را مشاهده می کنید.
![شکل ۷](https://boute.s3.amazonaws.com/307-Untitled2.png)
روش یادگیری: داده ها در یک شبکه ی عصبی، در دو حالت جریان پیدا میکنند. حالت اوّل زمانی است که شبکه در حال یادگیری میباشد. حالت دوم زمانی است که شبکه در حالت عادی ( پس از یادگیری میباشد ). دادهها از طریق عصبهای ورودی وارد میشوند و پس از عبور از لایههای میانی وارد عصبهای خروجی میگردند.
این روش طراحی feedforward نامیده میشود. شبکههای عصبی با استفاده از یک عنصر باز خوردِ یادگیری که backpropagation نامیده میشود یاد گیری میکنند.
در این روش، مقادیری که در شبکه تولید میشود، با مقادیری که میبایست تولید شود مقایسه میگردد و از تفاوت بین آن ها برای اصلاح ورژنهای بین ارتباطات استفاده میشود.
این فرایند از لایه ی خروجی شروع می شود؛ سپس به لایههای میانی و سرانجام، به سمت لایه ی ورودی به طرف عقب میرود.
# کارهای مرتبط
در رابطه پیاده سازی پیشبینی نجات یافتگان با شبکه عصبی چند کار صورت گرفته که در سایت kaggle قرار دارند.
در پروژه اول توسط کتابخانه keras پیشبینی نجات یافتگان با شبکه عصبی را پیاده سازی کرده است و بر روی داده های train تغییراتی مثل نگاشت جنسیت و هر کدام از شهر های که مسافر سوار کرد به یک عدد و پر کردن مقادیر خالی با 0 داده است. [۶]
در پروژه دوم از کتابخانه tensorflow و tflearn استفاده شده است و بر روی داده های train دستکاری بهتری روی سن های خالی دارد و تغییرات جزیی دیگری نیز اعمال کرده است. [۵]
در پروژه هوش مصنوعی دیگری در همین سایت بر روی مساله پیشبینی نجات یافتگان کار شد که به دلیل اینکه از چند روش یادگیری ماشین استفاده شد خوب بود، ولی چون عملیات زیادی بر روی داده های train انجام ندادند نتایج کاملا خوبی در روش شبکه های عصبی بدست نیاوردند. [9]
# آزمایشها
**1-3- پیش نیاز**
جهت اجرای کد برنامه که از [لینک](https://github.com/AmirHosseinTaghavi/PredictingTitanicSurvivorsNN/tree/code) قابل دست رسی است، نیاز به ماژولهایی میباشد که در فایل requirements.txt موجود در پیوند داده شده ذکر شده اند.
برای نصب ماژولها دو راه وجود دارد:
راه اوّل: همان ابتدا با استفاده از دستور زیر ماژولهای موجود در فایل را نصب کنید. این روش معمولاً به خطا میانجامد؛ چرا که بعضی از ماژولها به راحتی قابل نصب نمیباشند:
pip install –r requirements.txt
راه دوم: نرمافزار miniconda متناسب با سیستم عامل خود را از [اینجا](http://conda.pydata.org/miniconda.html) دریافت و نصب نمایید. Conda یک برنامه ی package manager میباشد که روش سریعی را جهت استفاده از package ها فراهم میآورد.
پس از این که مراحل نصب تمام شد، با استفاده از دستور conda create -n myenv python یک virtual environment بسازید و با دستور
activate myenv، آن را فعّال کنید ( میتوانید از اسم دل خواه خود به جای myenv استفاده نمایید ).
اکنون با دستور conda install numpy ماژول numpy را نصب کنید.
سایر ماژول ها با استفاده از دستوری که در روش اوّل ذکر شد، قابل نصب میباشند.
**2-3- پیش پردازش**
دادههای مسئله که در سایت مسابقه دریافت شده اند،در github پروژه قابل دسترسی میباشند.
برای این که دادهها در الگوریتمهای به کار رفته قابل استفاده باشند، لازم است که یک عملیات پیشپردازش بر روی آن ها انجام شود.
برای خواندن و پردازش فایلهای csv از کتابخانه pandas پایتون استفاده شده است. دادههای مسئله دارای یک فایل train.csv میباشد و داده های مربوط به test را از روی داده ی اولیه بدست می آوریم و جهت سادگی کار، دادههای train.csv را که حاوی اطّلاعات کامل میباشند، به دو قسمت، به صورت 30% برای تست و 70% برای یادگیری تقسیم میکنیم تا فرایند آزمایش، بصورت آفلاین قابل انجام باشد.
بسیاری از دادههای داده شده، دارای مقادیر غیر عددی میباشند که لازم است جهت کارکرد صحیح روشها، به مقادیر عددی تبدیل شوند.
هم چنین مقادیر بسیاری از سطرهای جدول دارای مقادیر null میباشند که این مقادیر، قابل قبول نمیباشند.
ستون cabin را به علّت تعداد زیاد مقادیر null، ستون name و ستون ticket را نیز به این دلیل که برای هر فرد، منحصر به فرد میباشد و یافتن روابط در آن ها دشوار میباشد از دادهها حذف میکنیم.
ستونهای دارای مقادیر غیر عددی یا ستونهایی که عدد آن ها نشان دهنده ی مقدار آن ها نمی باشد را نیز به ستونهایی، به تعداد مقادیر مختلفی که میتوانند داشته باشند، تقسیم میکنیم؛
برای مثال ستون Pclass که میتواند دارای مقادیر 1، 2 یا 3 باشد، به سه ستون 1 و 2 و 3 تقسیم میشود که برای فردی که در کلاس 3 بوده، این ستونها به ترتیب مقادیر 0 و 0 و 1 خواهند داشت.
تفاوت این پروژه با نسخه ی قبلی در سایت بوته این است که طبق روش هایی که در تابع get_manipulated_train آمده است برای تعیین سن مسافرانی
که محتوایی ندارد استفاده از interpolate گفته شده بود که در حال حاضر ابتدا برای این کار مقادیر random بین age_avg-age-std و age_avg+age_std انتخاب می شوند. سپس با توجه به sex,pclass,title از روی داده اولیه می توان به جدول زیر رسید :
![](https://ufile.io/6rwmj)
که از این اطلاعات در کد برای تعیین سن های مشخص نشده استفاده می کنیم .
سپس برای بازه های مختلف سن و کرایه مقدار در نظر گرفته شده است که باعث یادگیری بهتر می شود.
برای دقیق تر شدن تعداد اعضای خانوده هر فرد که در کشتی بودند را نیز از روی sibSp,Parch می فهمیم با توجه به تست و مطالب موجود در منابع تنها بودن فرد نیز موثر است که یک ستون دیگر به نام isAlone تعریف کردیم.
معیار دیگر لقب های هر شخص است که در تصویر زیر تاثیر مورد بررسی قرار داده شده است :
![](https://ufile.io/85uya)
توضیحات بیشتر در کد آمده است.
**3-3-
این عملیات را به طور مشابه برای ستون های Sex و Embarked هم اعمال می کنیم. با این کار به جای این دو ستون به ترتیب ستون های female,male و ستون های C,Q,S قرار می گیرند.
نسخه ی قبلی این پروژه در سایت بوته، طبق روش هایی که در تابع get_manipulated_train آمده، برای تعیین سن مسافرانی که محتوایی ندارد از تابع interpolate استفاده شده بود . (تعداد ۱۷۷ مسافر بدون سن هستند. برای پیشبینی بهتر توسط شبکه های عصبی بهتر است داده های مناسب تر به عنوان ورودی بدهیم پس باید فیلد های خالی را پر کنیم.)
در حال حاضر ابتدا برای این کار مقادیر random بین age_avg-age-std و age_avg+age_std را برای حدس زدن سن های خالی انتخاب کردیم، که نسبت به روش قبل برای تخمین سن بهتر بود چون اعداد را تصادفی بین حدود خاصی نسبت به میانگین تعیین می کرد.
در مرحله بعد تخمین سن را بهتر نمودیم. با توجه به ستون های sex,pclass,title (نحوه بدست آوردن title هر فرد در ادامه توضیح داده شده است) از روی داده اولیه و میانگین گرفتن می توان به جدول زیر رسید :
![شکل ۸[1]](http://uupload.ir/files/in5_screen_shot_2017-12-28_at_7.34.01_am.png)
که از این اطلاعات می فهمیم برای مسافرانی که سن ندارند به ازای جنسیت،pclass و عنوان شان چه سنی را باید به آن ها تخصیص بدهیم.
یک معیار دیگر برای بهبود عملیات یادگیری نرمال سازی[^Normalization] داده ها است، به همین دلیل برای مثال بازه های مختلف سن را به اعداد 0,1,2,3,4 نگاشت می دهیم یعنی به سن های کمتر از ۱۶ مقدار ۰، به سن های بین ۱۶ و ۳۲ مقدار ۱، به سن های بین ۳۲ تا ۴۸ مقدار ۲ و... می دهیم.
به همین ترتیب عملیات نرمال سازی را برای مقدار کرایه های مسافران کشتی نیز اعمال می کنیم.
دو ستون sibSp,Parch به ترتیب به معنی تعداد والدین،فرزندان و تعداد خواهر،برادر و همسر هر فرد در کشتی می باشند. به این ترتیب می توان تعداد اعضای خانواده هر فرد را با جمع کردن فیلد های sibSp,Parch با عدد ۱(یعنی خودش) بدست آورد و نتیجه را در ستون FamilySize هر فرد بنویسیم. با تحلیل رابطه بین تعداد اعضای خانواده و زنده ماندن افراد می توان به مقادیر زیر رسید:
![شکل ۹ [3]](http://uupload.ir/files/li6_screen_shot_2018-01-29_at_7.30.10_pm.png)
با توجه به مقادیر موجود در شکل بالا می توان فهمید افرادی که تنها در کشتی بودند با احتمال بیشتری از بین رفته اند. با توجه به این که تعداد افراد تنها در کشتی ۵۳۷ نفر هستند (که بیشتر از نصف می شود) می توان یک ستون به نام isAlone به منظور یادگیری بهتر تعریف نماییم. [۳]
با بررسی دقیق تر اطلاعات مسافران می فهمیم در ستون نام ، عنوان هر شخص نیز درج شده است که می تواند مورد استفاده قرار گیرد. ما توسط تابع get_title با کمک عبارات منظم این عناوین را از اسم هر شخص در می آوریم و در ستون title قرار می دهیم.
با تحلیل این القاب می فهمیم در مجموع ۱۷ عنوان مختلف وجود دارد که ۴ لقب Mr,Miss,Mrs,Master خیلی بیشتر نسبت به بقیه تکرار شده اند.
برای بهینه کردن عملیات یادگیری خوب است انواع هر ستون را کمتر و مقادیر عددی به هر کدام بدهیم ، بنابراین می توان بقیه عنوان های کمتر تکرار شده را مقدار Rare بهشان بدهیم. پس در مجموع پنج دسته عنوان Mr,Miss,Mrs,Master,Rare داریم که به هر کدام یک عدد بین ۱ تا ۵ تخصیص می دهیم. با تحلیل رابطه ی بین عنوان و زنده ماندن هر فرد به مقادیر زیر می رسیم :
![شکل ۱۰[3]](http://uupload.ir/files/loj8_screen_shot_2018-01-29_at_7.56.20_pm.png)
با توجه به این که درصد زنده ماندن بر اساس هر عنوان به طور کلی زیاد نزدیک به نصف نیست، پس ما معیار عنوان را به درستی به داده یادگیری مان اضافه کردیم.
ورودی ای که در نهایت آماده یادگیری توسط شبکه های عصبی می شود به فرمت زیر است که مقادیر مختلف برای چند مسافر اول هم در آن درج شده است:
![شکل ۱۰](http://uupload.ir/files/3kce_screen_shot_2017-12-28_at_8.09.59_am.png)
همان طور که مشاهده می شود مقادیر همه ی ستون ها عددی و در بازه ی مشخص می باشد که آماده ی استفاده توسط روش های مختلف یادگیری ماشین مثل درخت تصمیم[^Decision Tree] ، جنگل تصادفی[^Random Forest]، شبکه های عصبی و ... می باشد.
**3-3- بررسی نتایج توسط روش شبکه های عصبی**
در پیاده سازی این قسمت، از ماژول neurolab در زبان پایتون و شبکه ی feed forward multilayer perceptron استفاده شده است.
در ماژول ذکر شده، الگوریتمهای زیادی برای یادگیری در نظر گرفته شده است.
اگر مقدار عصب بیشتر از 0.5 بوده باشد، فرد، زنده و در غیر این صورت، غرق شده پیش بینی شده است.
قبل از بررسی نتایج، لازم است که عبارت epoch توضیح داده شود:Epoch یک تکرارِ کاملِ روندِ یادگیریِ کاملِ روندِ یادگیریِ دادههای داده شده، جهت یادگیری میباشد.
نتایج، در زیر آورده شده است. سعی شده مقادیر به گونه ای در نظر گرفته شوند که نشان دهنده ی تأثیر تعداد Epoch ها و تعداد عصبهای میانی باشند:
با ۲۰ epoch با ۷۷.۹ درصد موفقیت حاصل شده است.
از جمله کارهایی که میتوان در فاز بعد، جهت بهینه کردن نتایج انجام داد، استفاده از روشهایی جهت حدس دقیقتر مقادیر null و استفاده از دادههای test، جهتِ گرفتنِ نتیجه ی روشهای به کار رفته از سایت مسابقه میباشد.
# کارهای آینده
# مراجع
http://adataanalyst.com/kaggle/4-different-ways-predict-survival-titanic-part-3/
http://andrew.gibiansky.com/blog/machine-learning/machine-learning-neural-networks/
https://www.kaggle.com/sinakhorami/titanic-best-working-classifier/notebook
https://www.kaggle.com/ledadel/titanic-survivorship-neural-network-model?scriptVersionId=1555583
و ..![شکل ۱۱](http://uupload.ir/files/1729_screen_shot_2017-12-28_at_6.24.44_pm.png)
این درصد ها نسبت به پروژه هایی که قبلا در این زمینه فعالیت کرده اند خوب است ولی می توانند بهتر شوند.
# تکمیل پیاده سازی و بهبود نتایج
برای بهبود نتایج می توان داده های موجود برای مساله پیشبینی نجات یافتگان را بیشتر تحلیل کرد تا به گونه ای داده های یادگیری را تغییر دهیم که باعث بهتر شدن درصد های بدست آمده توسط روش شبکه های عصبی شویم.
کد های مربوط به این فاز هم در[Github](https://github.com/AmirHosseinTaghavi/PredictingTitanicSurvivorsNN) پروژه می باشد.
با بررسی دقیق داده ها می توان فهمید هنوز محل سوار شدن به کشتی برای دو مسافر با PassengerId های ۶۲ و ۸۳۰ خالی می باشند برای پر کردن این مقادیر می توان به صورت تصادفی یک محل سوار شدن برای آن ها تخصیص بدهیم که زیاد مناسب نیست. بنابراین می توان به کرایه و pclass این دو مسافر توجه کرد و این مقادیر را با بقیه مسافران مقایسه کرد تا محل سوار شدن این دو مسافر هم بتوانیم حدس بزنیم.
رابطه بین کرایه، pclass و محل سوار شدن مسافران در نمودار زیر نشان داده شده است :
![شکل ۱۲[7]](http://uupload.ir/files/0dto_screen_shot_2018-01-29_at_9.23.51_pm.png)
با توجه به این که دو مسافر مد نظر ما هر دو در کلاس ۱ هستند و کرایه ۸۰ دلار پرداخت کرده اند، با رجوع به نمودار بالا می توان فهمید هر دو از Charbourg سوار شده اند.(خطچین قرمز نشان دهنده کرایه ۸۰ دلار می باشد.)
در مرحله بعد می توان دو ستون وابسته به سن دیگر Child و Mother را به ستون ها اضافه کرد. به این ترتیب که هر مسافری که سنش کمتر از ۱۸ باشد پس بچه است و هر مسافری که سنش بیشتر از ۱۸ ، زن و فیلد Parch اش بیشتر از یک باشد و همچنین عنوانش Miss نباشد پس مادر است.[7]
با تحلیل دو ستون جدید اضافه شده درصد زنده ماندن هر دسته در جدول زیر مشخص شده است:
![شکل ۱۳](http://uupload.ir/files/ivs7_screen_shot_2018-01-29_at_10.18.12_pm.png)
با توجه به جدول بالا پس ستون های جدید به درستی اضافه شده اند چون درصد ها به طور کلی نزدیک به نصف نیست که باعث می شود الگوریتم توانایی بیشتری برای یادگیری و پیشبینی نجات یافتگان داشته باشد.
ورودی ای که در نهایت آماده یادگیری توسط شبکه های عصبی می شود به فرمت زیر است که مقادیر مختلف برای چند مسافر اول هم در آن درج شده است:
![شکل ۱۴](http://uupload.ir/files/o0b4_imgonline-com-ua-twotoone-qyner9wo2lc987.jpg)
**1-4- تکرار بررسی نتایج توسط روش شبکه های عصبی**
نسبت به فاز قبل این بار تعداد epoch ها را تا ۱۰۰۰ افزایش دادیم ، هر چه تعداد epoch ها بیشتر باشند به دلیل این که تکرار های کامل بیشتر می شوند یادگیری در شبکه های عصبی بهتر صورت می گیرد.
این بار معیار دیگری به نام نرخ یادگیری[^Learning Rate] هم که هنگام استفاده از تابع train به همراه تعداد epoch ها می توان مقدار آن را تعیین کرد را نیز در نظر می گیریم.
مدل های یادگیری عمیق به طور معمول توسط یک بهینه ساز گرادیان کاهشی[^Gradient Descent] تصادفی آموزش داده می شود. همه این الگوریتم ها به شما اجازه می دهد نرخ یادگیری را تنظیم کنید. این پارامتر ، بهینه ساز را به جایی می برد که وزن را در جهت گرادیان برای یک mini-batch حرکت دهد.[10]
اگر نرخ یادگیری کم باشد، آموزش قابل اعتمادتر است، اما بهینه سازی زمان زیادی را صرف خواهد کرد، زیرا گام های در جهت حداقل کردن تابع loss کوچک هستند. اگر نرخ یادگیری بالا باشد، ممکن است training همگرا یا حتی واگرا شود.[10]
![شکل۱۵[10]](http://uupload.ir/files/4syi_screen_shot_2018-01-30_at_8.00.01_pm.png)
بنابراین باید نرخ یادگیری را یک عدد مناسب که نه زیاد کوچک باشد و نه زیاد بزرگ انتخاب کنیم. (در کتابخانه استفاده شده در حالت پیش فرض نرخ یادگیری را ۰.۰۱ درنظر گرفته است که به نسبت بزرگ است.)
ما آزمایش ها را در دو نرخ یادگیری مختلف ۰.۰۱ و ۰.۰۰۱ انجام دادیم.
نتایج کلی در جداول زیر آمده است:
![شکل۱۶](http://uupload.ir/files/utr6_imgonline-com-ua-twotoone-2gjjp2xbizpzik.jpg)
همان طور که مشاهده می شود در این آزمایش ها به طور کلی سه معیار تعداد epoch، نرخ یادگیری و تعداد عصب های میانی هر چه بیشتر شدند درصد پیشبینی بهتر شده است.(البته در مواردی به این ترتیب نیست.) بهترین درصدی که به آن دست یافتیم ۸۳.۹ می باشد.
# کارهای آینده
از جمله کارهایی که میتوان در ادامه انجام داد میتوان موارد زیر را ذکر نمود:
1. داده های مربوط به سن افراد خالی را به روش های بهتری حدس زد و پر کرد.
2. از بین داده های موجود ارتباطات و نظم های بیشتری بین ستون ها کشف کنیم که منجر به تولید ستون های جدید و یادگیری بهتر شوند.
3. هنگام استفاده از کتابخانه شبکه های عصبی می توان معیار های بیشتری استفاده نمود، برای مثال تعداد لایه های میانی را افزایش دهیم و یا batch size موقع train را بیشتر کنیم .( البته در کتابخانه neurolab مثل اینکه مقدار batch size را نمی توان تعیین کرد.[8])
4. می توان برای رسمی تر شدن آزمایش ها به جای اینکه ۰.۳ داده های train شده را به عنوان تست قرار دهیم، نمونه داده های مربوط به تست و trainجدا باشد. ولی ما برای این پروژه چون یادگیری بهتر با نمونه های بیشتر صورت گیرد این کار را نکردیم.
# مراجع
[1] Vaish P. 4 different ways to predict survival on Titanic – part 3. a data analyst. Available at: URL: http://adataanalyst.com/kaggle/4-different-ways-predict-survival-titanic-part-3/. Accessed 30 Jan,2018.
[2] Gibiansky A. Machine Learning: Neural Networks. Andrew Gibiansky. Available at: URL: http://andrew.gibiansky.com/blog/machine-learning/machine-learning-neural-networks/. Accessed 30 Jan,2018.
[3]Khorami S. Titanic best working Classifier. Kaggle. Available at: URL:
https://www.kaggle.com/sinakhorami/titanic-best-working-classifier/notebook. Accessed 30 Jan,2018.
[4] Liu J. RailsConf 2017: Predicting Titanic Survivors with Machine Learning by Ju Liu. Youtube. Available at: URL: https://www.youtube.com/watch?v=4l-aB_Sk41Y&t=1371s. Accessed 30 Jan,2018.
[5] Bakhtiarova A. Titanic survivorship Neural Network model. Kaggle. Available at: URL:
https://www.kaggle.com/ledadel/titanic-survivorship-neural-network-model?scriptVersionId=1555583. Accessed 30 Jan,2018.
[6] Titanic by Neural Network with Keras. Kaggle. Available at: URL:
https://www.kaggle.com/kay2mj/titanic-by-neural-network-with-keras. Accessed 30 Jan,2018.
[7]Tripathi P. Prediction of Titanic Survival using R. Kaggle. Available at: URL:
https://www.kaggle.com/pradeeptripathi/prediction-of-titanic-survival-using-r/code#L354. Accessed 30 Jan,2018.
[8]NeuroLab 0.3.5 documentation. Python Software Foundation. Available at: URL: https://pythonhosted.org/neurolab/lib.html. Accessed 30 Jan,2018.
[9]ضیاشهابی ا. پیشبینی مسافران نجاتیافته. بوته. .Available at: URL: http://www.boute.ir/iust-ai-94/survived-passengers
Accessed 30 Jan,2018.
[10]Surmenok P. Estimating an Optimal Learning Rate For a Deep Neural Network. Towards Data Science. Available at: URL: https://towardsdatascience.com/estimating-optimal-learning-rate-for-a-deep-neural-network-ce32f2556ce0. Accessed 30 Jan,2018.
# پیوندهای مفید
+ [صفحه این مسابقه](https://www.kaggle.com/c/titanic)
+ [درخت تصمیم](https://en.wikipedia.org/wiki/Decision_tree_learning)
+ [توصیح تصویری درخت تصمیم](http://www.r2d3.us/visual-intro-to-machine-learning-part-1/)
+ [روشnaive bayes](http://scikit-learn.org/stable/modules/naive_bayes.html)
+ [توضیحnaive-bayes به زبان ساده](https://stackoverflow.com/questions/10059594/a-simple-explanation-of-naive-bayes-classification/20556654#20556654)
+ [آشنایی با یادگیری ماشینی](http://www.toptal.com/machine-learning/machine-learning-theory-an-introductory-primer)
+ [توضیح درخت تصمیم](http://dms.irb.hr/tutorial/tut_dtrees.php)
+ [جنگل تصادفی](https://en.wikipedia.org/wiki/Random_forest)
+ [آشنایی با شبکههای عصبی](http://andrew.gibiansky.com/blog/machine-learning/machine-learning-neural-networks/)