![عکس](http://www.xum.ir/images/2014/03/13/girl-gamer1.jpg) در این پروژه بطور کلی هدف این است که بازیکن با گفتار و صحبت ، کنترل کاراکتر یا بطور کلی تر، بازی را در اختیار داشته باشد به نحوی که با گفتن تعدادی کلمه خاص کارهای مختلفی را انجام دهد. مثلا با گفتن کلمه "برو" حرکت کند ، "بزن" با حریف مبارزه کند و ... برای این کار از پردازش و تشخیص گفتار بازیکن در کامپیوتر استفاده می شود. این فرایند با توجه به نوع کاربرد روش های مختلفی دارد. روش های انجام این کار و متدهای مختلف در ادامه به تفضیل شرح داده خواهند شد. #مقدمه امروزه بازی های رایانه ای به یکی از بزرگ ترین صنعت های جهان تبدیل شده است که تاثیر بسزایی در اقتصاد و فرهنگ ملت ها دارد. علاوه بر مباحث گیم پلی و مکانیک در بازی ، بحث کنترل بازی از اهمیت خاصی برخوردار است . هرچه کنترل بازی آسان تر باشد ، به دلچسبی و جذابیت بازی بیشتر کمک میکند. کنترل بازی از طریق گفتار و صدا یکی از بهترین راههای کنترل کاراکتر در بازیها به حساب میآید. بازیهای فارسی به دلیل کمبود و حتّی نبود امکانات کافی برای بازی سازان در موتورهای بازی سازی ، از این امکان کمتر بهره برده اند. به همین دلیل بر آن شدیم که این امکان را در معروفترین موتور بازی سازی یعنی [موتور بازی سازی یونیتی] پیاده سازی کنیم. بدیع و جدید بودن این تکنولوژی برای داخل کشور و زبان فارسی، یکی از مشکلات جدی کار در این پروژه محسوب می شود. البته لازم به ذکر است که در بخش های مختلف، این تکنولوژی به زبان فارسی وجود دارد اما در بحث بازی های رایانه ای و موتورهای بازی سازی پروژه و حتی تحقیق جامعی صورت نگرفته است و اگر هم صورت گرفته است به صورت جامع و کامل مطرح نشده است. ![عکس09](http://www.xum.ir/images/2014/03/13/iSpeechScreen-1024x709.jpg) مشکل دوم پیچیدگی خود فرایند پردازش و تشخیص گفتار است. محاسبات دقیق و آزمایش روند کار بطور مداوم است که می تواند به هرچه بهتر شدن این پروژه کمک کند. هدف از این پروژه، پیاده سازی کلی این تکنولوژی در موتور بازی سازی یونیتی است. بطوری که در بازی کنترل تمامی رخدادها را از طریق گفتار فارسی انجام دهیم. ![عکس49](http://www.xum.ir/images/2014/03/13/imagesTeDqn.jpg) اما نکته اساسی در این پروژه ، حجم بالای کار است. در این زمان محدود امکان پیاده سازی کامل و رسیدن به آنچه که هدف کلی این پروژه محسوب می شود، عملا نشدنی است. به همین منظور ما تعداد کلمات محدودی را مورد بررسی و ارزیابی قرار می دهیم لذا پیاده سازی بر روی نمونه های کمتر و ساده تر هدف اولیه کار در این پروژه درسی است که درصورت پیشرفت درست کار، فازها و مراحل بالاتر را ادامه خواهیم داد. البته خاطر نشان می شوم که این پروژه تا رسیدن به مرحله تجاری شدن در هر زمانی ، ادامه پیدا خواهد کرد. #کارهای مرتبط برای پیاده سازی ، اولین قدم کار این است که ضرایب و داده هایی از صوت استخراج کنیم. این ضرایب نشان می دهند که انرژی در کجا متمرکز شده است و این نشان می دهد که از چه حرف یا صامت و... استفاده کرده ایم. به طور تخصصی تر یک سیستم شناسایی زبان باید به طور دقیق و جزئی جنبه های مختلف مربوط به اطلاعات گفتار را استخراج کند و از آن ها بهره برداری کند، آن ها باید به اندازه کافی انعطاف پذیر بوده تا خود را با تنوع گوینده های مختلف (مرد ، زن، بچه و ...) وفق دهند. برای استخراج ویژگی های مورد نیاز به طور معمول ابتدا سیگنال گفتار به پنجره های کوتاهی با طول مثلآ 20 میلی ثانیه که با هم همپوشانی دارند تقسیم میگردد. علت آن هم اینست که مشخصات سیگنال گفتار و مجاری گفتار در حین بیان یک گویش تغییر می کند. بنابراین، سیگنال گفتار سیگنالی غیر ایستا است و خواص آماری آن در طول زمان تغییر می کند. ولی از آنجا :77/ه اندام¬های گفتار به کندی تغییر حالت می دهند یا به عبارت دیگر انسان نمی تواند آنها را سریع تراز حد خاصی تغییر دهد، در بازه های زمانی کوچکی می توان آنرا سیگنال ایستان فرض کرد. به همین دلیل، سیگنال گفتار رابه فواصل زمانی کوتاه(20 تا 40) میلی ثانیه تقسیم می کنند و تحلیل سیگنال در این فواصل کوتاه بر روی سیگنال انجام میگیرد. این قطعات گفتاری را پنجره یا قاب می نامند. سپس در مرحله استخراج ویژگی، از هر قاب ویژگی های گفتاری استخراج می شوند. برای هر قاب ، سیگنال گفتار هر زبان، 39 ضریب مبتنی بر ضرایب (MFCC (Mel Frequency Cepstram Coefficients و سه ضریب مبتنی بر انرژی آن قاب استخراج شده اند. ###تصاویر spectrogram در صداهای مختلف : ### ![عکس1](http://www.xum.ir/images/2014/05/25/Spectrogram-iua-.png) ###نحوه استخراج ضرایب بردارهای ویژگی:### ضرایب MFCC الهام گرفته از خواص شنیداری گوش انسان در دریافت و فهم گفتار می باشد. جهت محاسبه ضرایب MFCC هر قاب، سیگنال مربوط به هر زبان را ابتدا در پنجره همینگ ضرب کرده و سپس از سیگنال بدست آمده تبدیل فوریه گسسته FFT گرفته می شود . اندازه تبدیل فوریه گرفته شده، محاسبه شده وبرروی پوش طیف بدست آمده مراحلی را انجام می دهیم تا این ضراسب استخراج شود. در نهایت هم از طریق شبکه های عصبی و مدل مخفی مارکوف (HMM(Hidden Markov Models پردازش می کنیم. # روند دقیق کار و آزمایش ##مقدمه ای بر مدلهای مخفی مارکف و جعبة ابزار HTK :## HTK یک جعبه ابزار برای ساختن مدل مخفی مارکف[^1] است. مدل مخفی مارکف برای مدل نمودن هر سری زمانی مورد استفاده قرار می گیرد. در ابتدای کار جعبه ابزار HTK برای ساخت ابزارهای پردازش گفتار مبتنی بر مدل مخفی مارکف طراحی گردید. به همین دلیل اغلب پشتیبانی های ساختاری در جعبه ابزار HTK به این کار اختصاص داده شده است. شکل (1) دو مرحله اصلی پردازش در این جعبه ابزار را نشان می دهد. در مرحله نخست (مرحله آموزش)، ابزار یادگیری[^2] HTK برای تخمین پارامترهای مجموعه ای از مدلهای مخفی مارکف برای واج های مجموعه آموزش و برچسب های انتساب یافته به آنها مورد استفاده قرار می گیرد. در مرحله دوم (مرحله آزمون)، واج های ناشناخته ، توسط ابزار بازشناسی HTK، برچسب دهی می شوند. ![عکس111](http://www.xum.ir/images/2014/05/25/fig1ZCHrU.png) ### اصول اصلی مدل مخفی مارکف### سیستم های بازشناسی گفتار عموما فرض می کنند که سیگنال گفتار یک realization از پیام کد شده به صورت دنباله ای از یک یا چند سمبل است. برای به دست آوردن این دنباله از سمبل ها، با توجه به یک جمله ادا شده، شکل موج گفتار پیوسته، در ابتدا به رشته ای از بردارهای پارامتری گسسته هم فاصله تبدیل می شود. (فرض شده است که گفتار برای یک بردار منفرد، حدود 10 میلی ثانیه، ایستان در نظر گرفته می شود. اگرچه این فرض کاملا صحیح نیست، ولی منطقی و قابل توجیه است.) در مقوله بازشناسی گفتار دو مسئله اهمیت دارد؛ نخست آنکه نگاشت میان سمبل ها به گفتار، یک نگاشت یک به یک نیست. یعنی سمبلهای متفاوت ممکن است به اصوات گفتاری یکسانی (واحدهای آوایی) نگاشته شوند. دوم آنکه، مرز میان سمبلها به سادگی از روی شکل موج گفتار قابل تشخیص نمی باشد. برای رفع این مشکل، یک راه حل ساده اولیه، انتخاب حیطه تشخیص کلمات مجزا[^3] می باشد. در ادامه ابتدا به این مقوله پرداخته شده است. ###تشخیص کلمات مجزا### هر کلمه ادا شده توسط رشته ای از بردارهای گفتار یا مشاهدات O نمایش داده می شود. ![عکس112](http://www.xum.ir/images/2014/05/25/math3.png) که ot بردار گفتار مشاهده شده در زمان t است. مسئله تشخیص کلمات مجزا، معادل است با محاسبة عبارت زیر: ![عکس113](http://www.xum.ir/images/2014/05/25/math1.png) که wi، iامین کلمه از فرهنگ کلمات است. این احتمال توسط رابطه بیز به راحتی قابل محاسبه است: ![عکس114](http://www.xum.ir/images/2014/05/25/math2.png) که (P(wi مقدار احتمال پیشین و (P(O|wi مقدار درست نمایی برای مشاهدات به شرط کلمه wi می باشد. محتمل ترین کلمه تنها به مقدار درست نمایی (P(O|wi بستگی دارد. در بازشناسی گفتار مبتنی بر مدل مخفی مارکف فرض شده است که رشته بردارهای گفتار مشاهده شده، متناظر با هر کلمه، توسط یک مدل مارکف تولید شده است. به شکل (2) توجه نمایید. این شکل نمونه ای از این فرایند را نشان می دهد. شکل از 6 وضعیت مختلف تشکیل شده است. در وضعیت های شروع و خاتمه، مشاهده ای صورت نمی گیرد. دنباله 1، 2، 2، 3، 4، 4، 5 و 6 چگونگی گذار میان وضعیت ها را نشان می دهد. در طول این گذار دنباله سمبل های o1 تا o6 تولید می شوند. ![عکس115](http://www.xum.ir/images/2014/05/25/fig2.png) مدل مخفی مارکف، یک ماشین حاوی تعداد حالات محدود است که وضعیت (state) آن، در هر واحد زمانی تغییر می کند. اگر در واحد زمانی t وارد وضعیت j شویم، یک بردار گفتار ot با توجه به توزیع احتمال (bj(ot تولید می شود. گذار از وضعیت i به وضعیت j نیز احتمالی بوده و با احتمال گسستة aij مدیریت می شود. در HTK، در حالت شروع و خاتمه، مشاهده ای انجام نمی شود. این دو حالت به منظور امکان ترکیب مدل ها و ساخت مدل های ترکیبی ایجاد شده اند. احتمال توام تولید بردار مشاهدات O توسط مدل M و گذار از وضعیتهای X، در شکل (2)، توسط رابطه زیر مشخص می شود: ![عکس116](http://www.xum.ir/images/2014/05/25/math6.png) در عمل تنها رشتة مشاهدات O شناخته شده است و دنباله وضعیتهای X مخفی است. به همین دلیل است که این مدل، مدل مخفی مارکف نامیده شده است. با فرض آنکه X ناشناخته است، مقدار درست نمایی با محاسبه حاصل جمع رابطه زیر بر روی تمام وضعیتهای ممکن ( X=x(1),x(2),x(3),…,x(T انجام می شود: ![عکس117](http://www.xum.ir/images/2014/05/25/math4vbg3H.png) که ( x(0 وضعیت شروع و (x(T+1 وضعیت خاتمه محسوب می شود. با در نظر گرفتن محتمل ترین رشته از وضعیت ها، رابطه زیر به صورت زیر تغییر می کند: ![عکس118](http://www.xum.ir/images/2014/05/25/math5.png) در تمام مطالب بیان شده فرض شده است که {aij} و {bj(ot)} برای هر مدل Mi شناخته شده هستند. (در فاز آموزش یاد گرفته شده اند.) با توجه به مطالب گفته شده، مراحل استفاده از یک مدل مخفی مارکف، برای بازشناسی کلمات مجزا از هم به صورت زیر بیان شده اند. شکل (3) این مراحل را نشان می دهد. ![عکس119](http://www.xum.ir/images/2014/05/25/fig4.png) 1. یک مدل مخفی مارکف برای هر کلمه از فرهنگ لغت با استفاده از تعداد محدودی از نمونه های آن کلمه آموزش داده می شود. 2. برای تشخیص کلمات ناشناخته، درست نمایی هر مدل برای تولید آن کلمه محاسبه می شود. محتمل ترین مدل، کلمه را بازشناسی می کند. ###نحوه انتخاب توزیع احتمالات در نظر گرفته شده در مدل### قبل از آنکه مسئله تخمین پارامترهای مدل مخقی مارکف با جزئیات توضیح داده شود، لازم است که شکل توزیع های خروجی {bj(ot)} مشخص شود. مانند اغلب سیستم های مدل مخفی مارکف با توزیع پیوسته، جعبه ابزار HTK نیز برای توزیع های خروجی، توزیع مخلوط گوسی را در نظر می گیرد. HTK اجازه می دهد که هر بردار مشاهداتی در زمان t، به S تا مجموعه داده Ost تقسیم شوند. فرمول لازم برای محاسبه( bj(ot به صورت زیر می باشد: ![عکس120](http://www.xum.ir/images/2014/05/25/math7.png) که Ms تعداد مولفه های مخلوط گوسی در جریان s، Cjsm وزن mامین مولفه و توزیع گوسی چند متغیره با بردار میانگین و ماتریس کوواریانس می باشد که به صورت رابطi زیر بیان می شود: ![عکس121](http://www.xum.ir/images/2014/05/25/math8.png) که n ابعاد بردار مشاهدات o را نشان می دهد. ###تخمین Baum-Welch### برای تعیین پارامترهای مدل مخفی مارکف، یک حدس اولیه از مقادیر آن انجام می شود. سپس با اعمال نمودن روش Baum-welch، پارامترهای دقیق تری حاصل خواهد شد. با توجه به نکات مطرح شده، هدف نهایی، تعیین مقدار میانگین و واریانس یک مدل مخفی مارکف است که در آن خروجی هر وضعیت، یک مولفه گوسی منفرد است. ![عکس122](http://www.xum.ir/images/2014/05/25/math9.png) اگر تنها یک حالت j در مدل مخفی مارکف وجود داشته باشد، تخمین میانگین و واریانس به سادگی توسط رابطه زیر انجام می شود: ![عکس123](http://www.xum.ir/images/2014/05/25/math10.png) گرچه در عمل بیشتر از یک وضعیت وجود دارد و رشته وضعیت ها را نمی شناسیم، اما می توان حدس اولیه ای مبتنی بر آنکه در هر حالت چه مشاهده ای خواهیم داشت، انجام داده، دو رابطه بالا برای استفاده در هر وضعیت قابل استفاده خواهند بود. در HTK از دستور HINIT بدین منظور استفاده می شود. HINIT ابتدا بردارهای مشاهدات را به صورت مساوی بین حالتهای مختلف تقسیم نموده و سپس دو روابط بالا را برای به دست آوردن مقادیر اولیه برای هر وضعیت مورد استفاده قرار می دهد. سپس محتمل ترین رشته وضعیت ها با کمک الگوریتم ویتربی حاصل می شود. در ادامه بردار مشاهدات مجددا به وضعیت ها انتساب یافته، سپس با استفاده از دو رابطه بالا مقادیر اولیه بهتری حاصل می شود. فرایند تا زمانی ادامه می یابد که پارامترهای تخمین زده شده تغییر نکنند. از آنجایی که درست نمایی کامل هر رشته از مشاهدات بر اساس حاصل جمع تمام رشته وضعیتهای محتمل است. به جای انتساب هر بردار مشاهده به یک وضعیت خاص، هر بردار مشاهده به تمام وضعیت ها منسوب می شود. بر اساس احتمال آنکه هنگام مشاهده آن بردار، مدل در آن وضعیت قرار داشته باشد. فرض کنید (Lj(t احتمال حضور در وضعیت j در زمان t باشد. آنگاه دو رابطه قبلی را می توان به صورت زیر نوشت: ![عکس124](http://www.xum.ir/images/2014/05/25/math11.png) المان (Lj(t بر اساس پارامترهای الگوریتم Forward-backward مورد محاسبه قرار می گیرد. ![عکس125](http://www.xum.ir/images/2014/05/25/math12.png) احتمال توام مشاهده سمبل های O1 تا Ot و قرار گرفتن در وضعیت j در زمان t است. در وضعیتهای 1 و N (دو حالت ابتدایی و انتهایی) هیچ مشاهده ای صورت نمی گیرد. شرایط اولیه برای رابطه بازگشتی فوق عبارتست از: ![عکس126](http://www.xum.ir/images/2014/05/25/math13.png) برای محاسبه احتمال شرطی (Bj(t، احتمال شرطی مشاهده سمبل های Ot+1 تا OT به شرط آنکه در زمان t سمبل j مشاهده شده باشد، از رابطة backward زیر محاسبه می شود: ![عکس127](http://www.xum.ir/images/2014/05/25/math14.png) روابط سوم و چهارم از روابط بالا شرایط اولیه به کارگیری الگوریتم backward و دو رابطه آخر نحوه محاسبة( Lj(t را بر حسب مقادیر محاسبه شده به صورت backward و forward ارائه می کند. الگوریتم ارائه شده بر اساس روابط بالا در HTK ، عبارت ، HRest نامیده می شود. ###بازشناسی و کدگشایی ویتربی### در فاز بازشناسی، ( P(O|Mi مانند الگوریتم backward-forward استفاده می شود. با این تفاوت که عمل جمع (summation) به عمل ماکزیمم گیری تبدیل می شود. فرض کنید ( Qj(t مشاهدات O1 تا Ot و حضور در وضعیت j در زمان t را نشان می دهد. داریم: ![عکس128](http://www.xum.ir/images/2014/05/25/math15.png) در جعبه ابزار HTK، برای انجام مراحل فوق الذکر از دستورات Hvite و HNet و HRec استفاده می کنیم. ###بازشناسی گفتار پیوسته### برای انتقال از حالت بازشناسی کلمات کلیدی مجزا به حالت بازشناسی گفتار پیوسته، کافی است که مدلهای HMM را به یکدیگر متصل نماییم. واضح است که وضعیت های شروع و خاتمه هر مدل برای انجام این اتصالات مورد استفاده قرار می گیرد. از مسائل مطرح در بحث بازشناسی گفتار پیوسته آن است که، داده آموزش برای گفتار پیوسته باید شامل جملات پیوسته بوده و در کل محدوده ای که سگمنت های گفتار را به هر مدل زیر کلمه ربط می دهد، شناخته شده نیست. برای رفع این مشکل در HTK از HErest که آموزش ادغام شده را انجام می دهد، استفاده می شود. آموزش ادغام شده از روال Baum-welch مشابه با حالت بازشناسی کلمات مجزا استفاده می کند. اما به جای آموزش هر مدل به صورت مستقل، تمام مدل ها به صورت موازی آموزش داده می شوند. مراحل هفتگانه الگوریتم عبارتند از: 1. مقدار دهی اولیه انباره ها برای تمام پارامترهای HMMها 2. دریافت عبارت آموزشی بعدی 3. ساختن یک HMM ترکیبی با ترکیب دنباله HMM های متناظر با سمبل های هر عبارت آموزشی 4. محاسبة احتمالات backward و forward برای ترکیب HMM ها. 5. استفاده از احتمالات backward و forward به دست آمده از مرحله قبل، برای محاسبه احتمال اشغال هر وضعیت در هر زمان و به روز رسانی انباره ها 6. تکرار از مرحله 2 تا زمانی که تمام عبارات آموزشی پردازش شوند. 7. استفاده از انباره ها برای محاسبة تخمینهای پارامتری جدید برای تمام HMMها. این مراحل تا زمانیکه الگوریتم به همگرایی مورد نیاز برسد، ادامه پیدا می کند. در HTK به جای الگوریتم ویتربی از Token Passing Model استفاده می شود. فرض کنید که هر وضعیت j از یک HMM در زمان t یک token را نگهداری کند. این token، یک انطباق جزئی بین رشته مشاهدات O1 تا Ot و مدل M، با توجه به این شرط که مدل در زمان t در وضعیت j است، نشان می دهد. مراحل اصلی الگوریتم به صورت زیراست: 1. یک کپی از هر token در وضعیت i به تمام وضعیت های j متصل به وضعیت i پاس داده شده و مقدار احتمال کپی را با پارامتر[(( log[aij]+log[bj(o(t افزایش دهید. 2. در هر وضعیت، همه tokenها به جز token دارای بالاترین احتمال را حذف نمایید. نکته مهم در ارتباط با الگوریتم token passing آن است که به سادگی به حالت بازشناسی گفتار پیوسته، تعمیم می یابد. ##معرفی جعبة ابزار HTK## ###جعبه ابزار HTK### ابزار HTK همانطور که در شکل(4) نشان داده شده شامل چهار مرحله اساسی آماده سازی اطلاعات، آموزش، آزمون و آنالیز میباشد. ![عکس129](http://www.xum.ir/images/2014/05/25/fig5.png) ###ابزارهای آمادهسازی اطلاعات### به منظور ساختن یک مجموعه از HMMها یک مجموعه از فایلهای گفتار و برچسبهای مربوط به آنها نیاز میباشد. قبل از اینکه دیتابیس اطلاعات گفتاری بتواند قابل استفاده برای آموزش باشد، باید به شکل پارامتریک مناسب و فایلهای برچسب مرتبط با آنها به فرمت صحیح تبدیل گردند. ابزار HCopy برای پارامتریک کردن سیگنال گفتار( استخراج ویژگی) مورد استفاده قرار میگیرد. HCopy برای کپی نمودن یک یا چند فایل مبدا به یک فایل خروجی مورد استفاده قرار میگیرد. به طور عادی HCopy کل ویژگیهای یک فایل را کپی میکند، اما مکانیسمهای مختلفی برای استخراج قسمتی از فایل و متصل نمودن فایلها در دسترس میباشد. به وسیله تنظیم مناسب متغیرهای پیکربندی، همه فایلهای ورودی همانطور که خوانده می شوند، می توانند به فرم پارامتریک تبدیل شوند. بنابراین کپی نمودن هر فایل در این حالت، کدگذاری مورد نیاز را انجام می دهد. با استفاده از دستور زیر عمل استخراج ویژگیها انجام میگیرد: >>> HCopy -A -T 1 -C confignist -C config -S wavtomfcc39.txt سوئیچ A- باعث چاپ خط دستور مربوطه شده و سوئیچ T 1- باعث نشان دادن مراحل اجرای ابزار میگردند. این دو سوئیچ از سوئیچهای عمومی بوده و برای همه ابزارها قابل استفاده می باشند. از سوئیچهای عمومی دیگر V- ، برای چاپ اطلاعات مربوط به نسخه ابزار و D- ، برای نمایش تنظیمات مربوط به پیکربندی[^4] میباشد. در دستور فوق از این دو سوئیچ استفاده نکرده ایم. سوئیچ عمومیC- برای مشخص کردن نام فایل پیکربندی و سوئیچ عمومی S- برای مشخص کردن نام فایل اسکریپت[^5] میباشد. در ابزار HCopy از دو فایل پیکربندی با نامهای Confignist و Config استفاده نمودهایم. فایل Confignist قالب فایلهای ورودی را مشخص می نماید. به عنوان مثال اگر فرمت فایلهای صوتی Nist باشد محتوای فایل پیکربندی به صورت زیر خواهد بود. SOURCEFORMAT = NIST فایل Config قالب فایلهای خروجی را مشخص مینماید. محتوای این فایل که در ابزار HCopy استفاده شده به صورت زیر است. TARGETKIND = MFCC_0_D_A_Z TARGETRATE = 100000.0 SAVECOMPRESSED = T SAVEWITHCRC = T WINDOWSIZE = 250000.0 USEHAMMING = T PREEMCOEF = 0.97 NUMCHANS = 26 CEPLIFTER = 22 NUMCEPS = 12 ENORMALISE = T ZMEANSOURCE = T USEPOWER = T BYTEORDER = VAX در TARGETKINDNنوع ویژگی را بر اساس جدول زیر مشخص می نماید. USEHAMMING نوع پنجره، TARGETRATE نرخ پرش پنجره و WINDOWSIZE طول پنجره را مشخص مینماید. عدد 250000.0 نشاندهنده طول پنجره همینگ یعنی 25 میلیثانیه میباشد( HTK از واحد 100 نانو ثانیه استفاده می نماید.) در این مثال MFCC_0_D_A_Z و NUMCEPS=12 یعنی بردار ویژگی شامل 12 ضریب MFCC ، ضریب صفر کپسترال، مشتقات اول و دوم آنها و میانگین صفر ضرایب ثابت می باشد. همچنین USEHAMMING = T به معنی استفاده از پنجره همینگ میباشد. NUMCHANS = 26 تعداد کانالهای فیلتربانک بکاررفته را نشان می دهد. این جدول نوع ویژگی و علامت اختصاری تعریف آن در پیکربندی HCopy را نشان می دهد. ![عکس130](http://www.xum.ir/images/2014/05/25/TABLE1.png) ما نیاز خواهیم داشت که فایلهای برچسب را نیز آماده نماییم. به عنوان مثال برچسبهای استفاده شده در فایلهای برچسب اصلی به دلیل اختلاف در مجموعه واج های استفاده شده، دقیقا مطابق با خواسته ما نخواهند بود. همچنین آموزش HMM به برچسب های وابسته به متن نیاز دارد. ابزار HLed یک ویرایشگر برچسب می باشد که برای ایجاد تبدیلات مورد نیاز به فایل های برچسب طراحی شده است. فایل خروجی HLed می تواند یک فایل[^6]MLF باشد که معمولا برای پردازش های بعدی بسیار مناسب می باشد. به عنوان مثال دستور Hled به صورت زیر فایل phone.mlf را که حاوی برچسبهای مجموعه آموزش ما می باشد، را تولید می نماید. >>>HLEd -A -T 1 -D -n tlist -i phone.mlf -G TIMIT -S labfiles_noisy_train.txt .\LIB\timit.led در دستور فوق اسکریپت timit.led به همه فایلهای برچسب که اسامی آنها در فایل labfiles_noisy_train.txt وجود دارد، اعمال میشود. timit.led یک فایل متنی و حاوی دستورات HTK میباشد. به عنوان مثال در هنگام استفاده از دیتاست TIMIT ، 61 سمبل اصلی واجها اغلب به 48 سمبل ساده از واجها نگاشت میشوند. هدف از این نگاشت حذف همهی توقفهای حلقی[^7] ، جایگزینی همه پایانهای قبلی یک توقف صدادار با یک پایان صدادار عمومی (vcl) ، همه پایانهای قبلی یک توقف بی صدا با یک پایان بی صدای عمومی (cl) و انواع مختلف یک سکوت با یک سکوت عمومی (sil) میباشد. اسکریپت برای انجام این اعمال به صورت زیر می باشد. >>># Map 61 Phone Timit Set -> 48 Phones >>>SO >>>DE q >>>RE cl pcl tcl kcl qcl >>>RE vcl bcl dcl gcl >>>RE sil h# #h pau دستور خط دوم (SO) یک دستور سراسری برای مرتب کردن برچسبها است. دستور خط سوم (DE) یک دستور حذف میباشد. این دستور همه برچسبهایی را که در سمت راست آن می باشد، حذف می نماید. دستور خط سوم (RE) برچسبهای (pcl,tcl,kcl,qcl) را با برچسب (cl) جایگزین مینماید. در زیر نمونهای از فایل phone.mlf را میبینیم. phone.mlf "Timit/spc39/TRAIN/DR1/FCJF0/SA1.lab" 0 1906250 sil 1906250 2849375 sh 2849375 3576875 ih 3576875 4151250 hh ... واحد زمان در فایل های MLF ، 100 نانو ثانیه می باشد. ### ابزارهای آموزش### دومین گام در ایجاد سیستم، تعریف توپولوژی مورد نیاز برای هر HMM به وسیله تعریف و نوشتن یک نمونه اولیه می باشد. HTK اجازه می دهد که HMMها با هر توپولوژی دلخواه ساخته شوند. تعاریف HMM به صورت فایل های متنی ساده قابل ذخیره سازی بوده و بنابراین با هر ویرایشگر متنی مناسب قابل ویرایش می باشند. هدف از تعریف نمونه اولیه مشخص نمودن همه خصوصیات و توپولوژی HMM می باشد. پارامترهای واقعی HMM توسط ابزارهای آموزش محاسبه خواهند شد. لازم است، مقادیر معقولی برای احتمالات گذار حاصل شود؛ لیکن فرآیند آموزش نسبت به این مقادیر خیلی حساس می باشد. یک استراتژی ساده و قابل قبول برای انتخاب این احتمالات این است که احتمالات گذار خروجی از هر حالت را مساوی در نظر بگیریم. فرآیند آموزش واقعی در چند مرحله اجرا می شود. جزئیات بیشتر این مراحل در شکل(5) تفسیر شده است. در ابتدا، یک مجموعه اولیه از مدل ها باید ایجاد گردد. اگر اطلاعات گفتاری که محل مرزهای زیرکلمات[^8] ( مثلا فون ) آن علامت گذاری شده باشد، وجود داشته باشد، می تواند به عنوان اطلاعات خودراه انداز مورد استفاده قرارگیرد. در این مثال ابزارهای HInit و HRest با استفاده از اطلاعات برچسب خورده برای آموزش کلمات مجزا مورد استفاده قرار می گیرد. هر یک از HMMهای مورد نیاز به طور جداگانه ایجاد می گردند. HInit همه اطلاعات خودراه انداز را خوانده و نمونه واج های مورد نیاز را بریده و جدا می کند. سپس به صورت iterative یک مجموعة اولیه از مقادیر پارامتری با استفاده از یک الگوریتم segmental k-means محاسبه می نماید. در سیکل اول دیتای آموزش به صورت یک شکل قطعه قطعه شده، هر حالت از مدل با قطعه اطلاعات مربوطه متناظر می شود. و سپس میانگین ها و واریانس ها تخمین زده می شوند. چنانچه مدل های مخلوط گوسی آموزش داده شده باشند یک فرم تغییر یافته از الگوریتم کلاسترینگ مورد استفاده قرار می گیرد. در سیکل های متوالی دوم، قطعه قطعه نمودن یک شکل، توسط تراز ویتربی[^9] جایگزین می شود. مقادیر پارامتریک اولیه توسط HInit محاسبه شده و سپس به وسیله HRest باز تخمین زده می شود. دوباره از اطلاعات برچسب زده شده خودراه انداز استفاده می شود . اما در این مرحله الگوریتم segmental k-means با الگوریتم باز تخمین Baum-Welch توصیف شده در فصل قبل جایگزین می شود. زمانی که اطلاعات مربوط به برچسب ها در دسترس نباشد همه مدل ها به طور مشابه مقداردهی اولیه شده و میانگین و واریانس حالتها برابر با میانگین و واریانس کلی گفتار می باشد. در این حالت از ابزار HCompv برای محاسبه میانگین و واریانس کلی استفاده می شود. وقتی که مجموعه ای از مدل های اولیه ایجاد شده است ابزار HERest برای انجام آموزش درونی[^10] با استفاده از کل مجموعه آموزش استفاده می شود. ![عکس131](http://www.xum.ir/images/2014/05/25/fig6.png) همانطور که گفته شد دستور Hinit برای هر کلاس یک مدل اولیه ایجاد می نماید. به عنوان مثال قالب کلی دستور HInit بکاررفته در این مثال برای ایجاد مدل اولیه سکوت به شکل زیر می باشد. >>>HInit -A -T 1 -l sil -o sil -M \phone0 -S train_mfc.scp -I labelfiles.mlf proto و دستور HRest یک باز تخمین برای هر یک از مدلهای اولیه ایجاد شده توسط HInit، محاسبه می نماید. قالب کلی دستور HRest بکاررفته در این مثال، برای بازتخمین مدل اولیه سکوت به شکل زیر می باشد >>>HRest -A -T 1 -S train_mfc.scp -I labelfiles.mlf -l sil -M \phone1 \phone0\sil در مرحله بعد با استفاده از دستورHCompv میانگین و واریانس کلی ویژگی ها را بدست می آوریم. شکل کلی این دستور به صورت زیر است: >>>HCompv -A -T 1 -C config -f 0.01 -m -S train_mfc.scp -M \phone1 -I labelfiles.mlf proto خروجی این دستور فایل های vfloor و proto می باشد. فایل vfloor که حاوی واریانس ویژگی ها میباشد را به انتهای فایل macros می چسبانیم و در مسیر به آدرس phone1/ قرار میدهیم. در مرحله بعد با استفاده از دستور HERest زیر، مشخصات کلیه مدل ها که به صورت فایل های جداگانه هستند تخمین زده شده و در فایل hmmdefs ذخیره می گردد. >>>HERest -A -T 1 -d \phone1 -C config -I labelfiles.mlf -t 250.0 150.0 1000.0 –S train_mfc.scp –H… phone1\macros -H \phone1\hmmdefs –M \hmm1 monophones0 با استفاده از دستور HERest با فرمت زیر می توان hmmdefs را چندین بار تخمین زد. در صورت داشتن یک دیتاست بزرگ جهت آموزش می توان دیتاست را به قسمت های مساوی تقسیم نمود و عمل تخمین را به صورت تکراری چندین مرتبه انجام داد. >>>HERest -A –T 1 -C config –I lablefiles.mlf –t 250.0 150.0 1000.0 -S train_mfc.scp -H… \hmm1\macros -H \hmm1\hmmdefs -M \hmm2 monophones0 ###ابزارهای آزمایش### HTK ابزار آزمایش HVite را که از الگوریتم token passing استفاده می نماید برای انجام تشخیص گفتار مبتنی بر ویتربی ارائه نموده است. ورودی هایی این ابزار یک شبکه که دنباله مجاز کلمات را توصیف می نماید، یک دیکشنری که چگونگی ادای کلمات را تعریف می کند و یک مجموعه از HMMها می باشد. این با تبدیل شبکه کلمات به یک شبکه واج و سپس نسبت دادن HMM مناسب به هر یک از واج های نمونه، عمل می کند. با استفاده از این ابزار تشخیص بر روی فایل های گفتار ذخیره شده یا بر روی ورودی صوتی به طور مستقیم قابل انجام می باشد. شبکه کلمات مورد نیاز برای ابزار HVite معمولا لوپ های ساده ای از کلمات هستند که هر کلمه بتواند هر کلمه دیگر را دنبال نماید و یا گراف های جهت داری هستند که نقش یک گرامر حالت محدود را ایفا می نمایند. شبکه کلمات با استفاده از فرمت استاندارد HTK ذخیره می شوند. این یک فرمت متنی است و بنابراین با استفاده از یک ویرایشگر متنی قابل ایجاد می باشد. HTK دو ابزار برای ایجاد شبکه کلمات معرفی نموده است. ابتدا HBuild اجازه می دهد زیر شبکه ها با شبکه های سطح بالا ایجاد و استفاده شوند. اگرچه همان نوع سطح پایین استفاده می شود، از تعداد زیادی از تکرارها اجتناب می شود. در این مثال با استفاده از دستور Hbuild زیر، یک شبکه کلمات را ایجاد میکنیم: >>>HBuild -A -T 1 monophones0 wdnet_monophones0 خروجی دستور فوق فایل wdnet_monophones0 بوده که حاوی شبکه کلمات می باشد. برای مشخص نمودن شبکه کلمات به طور مستقیم یک نوع گرامر سطح بالا نیز می توان استفاده نمود. این نوع یادداشت مبتنی بر [^11]EBNF استفاده شده در کامپایلر مشخص بوده و با گرامر زبانی مشخص، استفاده شده در جدیدترین نسخه HTK سازگار می باشد. ابزار HParse برای تبدیل این نوع یادداشت به شبکه کلمات معادل آن استفاده می شود. قالب بکارگیری این ابزار در این مثال به صورت زیر است: >>> HParse net_monophones0 wdnet_monophones0 که فایل net_monophones0 گرامر زبانی مربوطه بوده و با استفاده از ابزار HParse تبدیل به شبکه کلمات معادل آن می گردد. برای مثال گرامر زبانی یک مثال دو کلاسه مانند VAD به صورت زیر می تواند باشد. >>> H$phone = spe; >>> ( sil <$phone> sil ) در نهایت قالب کلی استفاده از ابزار Hvite به صورت زیر می باشد. >>> HVite -A -T 1 -H \hmm5\macros -H \hmm5\hmmdefs -S train_mfc.scp -i \result\recout.mlf … -w wdnet_monophones0 dict_monophones0 monophones0 نمونهای از خروجی Hvite به شکل زیر می باشد: "c:/HTK_VAD/Timit/spc39/TRAIN/DR1/FCJF0/SA1.rec" 0 1900000 sil -1918.425659 1900000 2800000 sh -964.856140 2800000 3600000 iy -885.123413 3600000 4200000 hh -645.493408 4200000 5500000 ae -1363.288086 ... ###ابزار آنالیز### وقتی که تشخیص دهنده مبتنی بر HMM ساخته شد، برای ارزیابی کارائی آن نیاز به ابزار آنالیز خواهیم داشت. این معمولا بوسیله اعمال آن بر روی برچسب های تعدادی جملات آزمایش یعنی مقایسه خروجی تشخیص دهنده با برچسب های مرجع صحیح انجام می پذیرد. این مقایسه با ابزار HResults که از یک برنامه دینامیک برای تراز کردن دو برچسب و سپس شمارش خطاهای جانشین ، حذف و درج استفاده می نماید، انجام می شود. ابزار HResults را میتوان با فرمت زیر بکار برد. >>> HResults -A -T 1 -I labelfiles.mlf monophones0 recout.mlf >results.log ابزار فوق فایل recount.mlf را با فایل مرجع labelfiles.mlf مقایسه کرده و نتیجه این مقایسه را در فایل results.log ذخیره می نماید. نمونه ای از محتوای فایل خروجی results.log به صورت زیر می باشد. >>> HResults -n -A -T 1 -I labelfiles.mlf monophones0 recout.mlf ====================== HTK Results Analysis ======================= Ref : C:\HTK_VAD\Timit\little\labelfiles.mlf Rec : C:\HTK_VAD\Timit\little\result\recout.mlf ------------------------ Overall Results -------------------------- SENT: %Correct=0.00 [H=0, S=380, N=380 WORD: %Corr=57.43, Acc=52.58 [H=6888, D=1653, S=3453, I=582, N=11994 =================================================================== نتیجه فوق در دو سطح جمله و کلمه می باشد. دو معیار که برای ارزیابی عملکرد تشخیصدهنده در سطح کلمه توسط این ابزار محاسبه می شود Corr و Acc می باشد. این دو معیار یعنی نرخ درستی واج[^12] و نرخ دقت درستی واج[^13] از روابط زیر بدست می آید: ![عکس132](http://www.xum.ir/images/2014/05/25/math16.png) در این روابط N و H و I به ترتیب تعداد کل واجهای گفتار و تعداد واج های درست تشخیص داده شده و تعداد واجهای درج شده می باشند. در ضمن D تعداد واجهای حذف شده و S تعداد واجهای جانشینشده می باشد. با استفاده از ابزار HResults می توان ماتریس کانفیوژن[^14] و معیار FOM را نیز بدست آورد. ##دادگان گفتاری و نویز برای ارزیابی روشهای بازشناسی گفتار ## ### دادگان گفتاری TIMIT### دادگان TIMIT یک بانک اطلاعاتی از گفتار پیوسته انگلیسی است که توسط شرکت [^15]TI و دانشگاه [MIT[^16 تهیه شده است و اداره استاندارد آمریکا( [^17]NIST) آن را تایید کرده است. این دادگان حاوی 6300 جمله است که توسط 630 گوینده و با 8 لهجه معمول آمریکای شمالی بیان شده اند. 70% گویندگان مرد و 30% آنها زن هستند. هر گوینده 10 جمله را ادا کرده است که 2 جمله از این 10 جمله توسط سایر گویندگان نیز ادا شده است. در مجموع 2432 جمله متمایز در TIMIT موجود است که شامل 2 جمله مشترک میان تمامی گویندگان، 450 جمله مشترک میان گروههای 7 نفری گویندگان و 1890 جمله تک گوینده است. کلیه کلمات و واج های موجود در جملات این بانک اطلاعاتی دارای برچسب زمانی هستند. بانک اطلاعاتی TIMIT به دو بخش آموزش و آزمون تقسیم شده است که بخش آموزش شامل 462 گوینده و بخش آزمون شامل 168 گوینده است و گویندگان و جملات ادا شده در هر یک از این دو بخش با یکدیگر متفاوتند. دادگان TIMIT عاری از نویز است و معمولا برای ارزیابی نرخ بازشناسی واج ها در بازشناسی گفتار پیوسته مورد استفاده قرار می گیرد. هر چند که با وجود برچسب های زمانی برای کلمات و واج ها، برای ارزیابی نرخ بازشناسی کلمات مجزا نیز قابل استفاده است. برای کاربرد این دادگان در ارزیابی روشهای مقاوم سازی بازشناسی گفتار، باید نویز را بطور مصنوعی به این دادگان اضافه نمود. ###دادگان گفتاری TIDIGITS### دادگان TIDIGITS یک بانک اطلاعاتی گفتار انگلیسی است که در شرکت TI تهیه شده است. هدف از تهیه این دادگان طراحی و ارزیابی الگوریتم های بازشناسی مستقل از گوینده برای دنباله متصل اعداد[^18] بوده است. این دادگان حاوی گفتار 326 گوینده متشکل از 111 مرد، 114 زن، 50 پسر بچه و 51 دختر بچه است که هر یک از گویندگان 77 دنباله متصل عددی را بیان کرده اند. دنباله های عددی بیان شده با استفاده از 11 رقم زیر ساخته شده اند : zero, oh, one, two, three, four, five, six, seven, eight, nine. این دنباله های عددی بیان شده برای هر گوینده را می توان این گونه تقسیم کرد: 22 بار بیان اعداد مجزا ( 2 بار بیان برای هر عدد) و 11 مرتبه بیان برای هر یک از رشته های متشکل از 2، 3، 4، 5 و7 عدد که در مجموع 77 دنباله مذکور را برای هر گوینده شکل می دهند. تمامی این دنباله ها به دو زیر مجموعه دادگان آموزش و دادگان آزمایش تقسیم شده اند. دادگان TIDIGITS نیز عاری از نویز است و برای ارزیابی روش های مقاوم سازی بازشناسی گفتار باید به آن بطور مصنوعی نویز اضافه نمود. اگرچه دادگان AURORA2 که با استفاده از TIDIGITS ساخته شده است، حاوی نسخه نویزی دنباله های بیان شده در TIDIGITS با استفاده از نویزهای کانال و جمع پذیر است. ### دادگان گفتاری AURORA 2 ### دادگان گفتاری AURORA 2 برای ارزیابی دقت بازشناسی سیستم های بازشناسی گفتار در محیط های نویزی و به ویژه برای ارزیابی روشهای جبران ویژگی در شرایط نویزی متفاوت مورد استفاده قرار می گیرد. این دادگان با استفاده از گفتار بزرگسالان دادگان گفتاری TIDIGITساخته شده است، به این ترتیب که ابتدا نرخ نمونه برداری به 8 کیلو هرتز کاهش یافته است و سپس فیلتری برای شبیه سازی تاثیر کانال انتقال تلفنی بر روی دادگان اعمال گردیده است. برای شبیه سازی اثر خط تلفن، دو نوع فیلتر استاندارد مورد استفاده قرار گرفته اند که با نامهای G.712 و MIRS شناخته می شوند و پاسخ فرکانسی آنها مطابق شکل (6) است. ![عکس133](http://www.xum.ir/images/2014/05/25/fig7.png) گفتار حاصل از اعمال فیلترهای فوق، دادگان تمیز گفتاری را شکل می دهند. سپس به این دادگان تمیز نویزهای جمع پذیری با نسبتهای سیگنال به نویز 20، 15،10،5،0و 5- دسی بل اضافه می شوند. نویزهای جمع پذیر بکار رفته عبارتند از: نویزهای مترو ، همهمه ، ماشین ، نمایشگاه ، رستوران ،خیابان ، فرودگاه و ایستگاه قطار . در دادگان AURORA2 دو مجموعه مجزای آموزش و آزمایش مشخص شده اند. داده های آموزش خود به دو گروه تقسیم می شوند: داده های آموزش تمیز و داده های آموزش مختلط ( هم تمیز و هم نویزی) است. این دو مجموعة آموزش به وسیله فیلتر G.712 فیلتر شده اند و شامل 8440 جمله می باشند. در دادگان آموزش مختلط 8440 جمله مذکور به 20 زیرمجموعه 422 جمله ای دسته بندی شده اند. این زیرمجموعه ها در برگیرنده 4 نوع نویز مترو، همهمه، ماشین و نمایشگاه با چهار نسبت سیگنال به نویز 20،15،10،5 دسی بل و همچنین چهار زیرمجموعه بدون نویز می باشند. دادگان آزمایش نیز به سه مجموعه تقسیم می شوند که با نامهای A,B,C شناخته می شوند. دادگان آزمایش A شامل 4004 جمله فیلتر شده با فیلتر G.712 می باشند که به چهار زیرمجموعه 1001 جمله ای تقسیم شده اند. علاوه بر زیرمجموعه های جداگانه تمیز مذکور، به هر یک از آنها نیز نویزهای مترو، همهمه، ماشین و نمایشگاه با نسبتهای سیگنال به نویز 5-، 0، 5، 10، 15 و 20 دسی بل افزوده گردیده اند. دادگان آموزش B نیز مشابه با دادگان آموزش A ساختار دهی شده اند با این تفاوت که در آنها از نویزهای جمع پذیر رستوران، خیابان، فرودگاه و ایستگاه قطار استفاده شده است. برای مجموعه B عدم تطبیق میان داده های آموزش و آزمایش حتی برای دادگان آموزش مختلط نیز وجود دارد.، زیرا دادگان آموزشی مختلط تنها شامل نویزهایی است که به مجموعه A اضافه شده اند. دادگان آزمایش C شامل دو زیر مجموعه از چهار مجموعه 1001 جمله ای است. در این مجموعه داده های گفتار و نویز بوسیله فیلتر MIRS فیلتر شده اند و سپس نویزهای مترو و خیابان با نسبت های سیگنال به نویز 5-، 0، 5، 10، 15 و 20 دسی بل به گفتار افزوده شده اند. در این مجموعه نیز داده های تمیز بطور جداگانه وجود دارند. به این ترتیب مجموعه C برای آزمایش اثر کانالهای متفاوت مناسب است.https://github.com/sjalalnezhad/speech_recognition#نتایج آزمایش در این مرحله آزمایشات متعددی انجام گرفته شد که در آن مراحل متعدد کار آزمایش شدند. مراحل کار بدین ترتیب بودند که از طریق کدهایی که در فایل های گیت هاب قرار دادم ، ابتدا ضرایت صوت مورد نظر را که ظرایب MFC هستند را استخراج کردم و سپس از طریق مدل MonoPhone که مدل های مختلفی از HMM ها دارد ، آن را مدل کرده و تشخیص صوت را انجام دادم. برای توضیح فایل هایی که قرار دادم باید اضافه کنم که من data را از فایل Speechdata خوانده و ضرایب mfc را در آن قرار می دهم. در اینجا نمونه shahab.wav را مورد آزمایش قرار می دهم و فایل shahab.mfc را از آن استخراج می نمایم. نتایج کار می توان در پوشه result دید . https://github.com/sjalalnezhad/speech_recognition #کارهای آینده من در آینده نزدیک مدل های لهجه های مختلف را هم در پروژه وارد می کنم تا یادگیری و تشخیص خطا به بهترین شکل ممکن برسد. برای این منظور دیتابیس مربوطه را در حال بررسی قرار می دهیم. در این مرحله چون کسی که لهجه کردی ، ترکی ، لری و ... دارد و فارسی صحبت می کند ، در برخی کلمات و صداها نوع خاصی تلفظ می کنند و در مبحث Learning و تشخیص کاراریی سیستم به طرز زیادی افزایش می یابد. ##حرف آخر بدلیل نو و جدید بودن موضوع (در زبان فارسی) مشکلات زیادی داشتم. این کار بعد از این درس هم ادامه پیدا می کند و تا یک سال آینده به هدف اصلی خود که در بالا ذکر شد رسانده می شود . امیدوارم تمام کارهای انجام شده در این پروژه بخوبی دیده شوند. وظیفه خودم می دانم که تشکر ویژه ای از دکتر روح الله عبدی پور و همچنین دکتر امین جولا داشته باشم که در طی مراحل انجام این پروژه از هیچ راهنمایی دریغ نکردند. #مراجع + C. Cortes, V. Vapnik, "Support vector networks," Mach. Learn, vol. 20, pp. 273-297, 1995. + K.K. Paliwal. On The Use Of Fliter-Bank Energies As Fetures For Robust Speech Recognition, ISSPA,1999 + X. Huang, A. Acero and H. Hon, SpokenLanguage Processing: A Guideo to Theory,Algorithm and System Development.Prentice Hall, 2001 + Jayram, A.K.V.Sai, Ramasubramanian, V., Sreenivas, T.V. Automatic Language Recognition Using Acoustic Sub-word Units. Proc. ICSLP’02, pp. 81-84, 2002 + E. Singer, P.A. Torres-Carrasquillo, T.P. Gleason, W.M. Campbell, and D.A. Reynolds. Acoustic, Phonetic, and Discriminative Approaches to Automatic Language Identification. Geneva.Switzerland.pp.1345-1348.2003 + J.-julien Aucouturier and F. Pachet, “Improving Timbre Similarity : How high’s the sky?,” J. Negative Results Speech Audio Sci., vol. 1, 2004 + LU Shi-Dan,Rong-Yi. An approchto content-independent feature exraction for Chinese-Korean spoken language identification. IEEE, 2011 + Sudhamay Maity1, Anil Kumar Vuppala2, K. Sreenivasa Rao1, and Dipanjan Nandi. IITKGP-MLILSC Speech Database for Language Identification. IEEE,2012 + Rania Chakroun, Yassine BenAyed.Automatic Language Identification in speech streams. IEEE,2012 + Subhadeep Dey, Hema Murthy. Universal Syllable Tokeniser for Language Identification. IEEE,2012 + david mayer.support vector machine.The interfrance to libsvm in package e1071,2012 + Sadanandam Manchala • V. Kamakshi Prasad •V. Janaki. GMM based language identification system using robust features. Int J Speech Technol DOI 10.1007/s10772-013-9209-1.spriner 2013 The 8th Symposium on Advances in Science and Technology (8thSASTech), Mashhad, Iran. 8thSASTech.khi.ac.ir + http://www.cs.cmu.edu/~tanja/GlobalPhone/index-e-wel.html + آزمایشگاه و مرکز پژوهش پردازش گفتار دکتر اکبری دانشگاه علم و صنعت ایران. با تشکر از روح الله عبدی پور - امین جولا و ... [موتور بازی سازی یونیتی]:https://unity3d.com/ [^1]: Hidden Markov Model (HMM) [^2]: Training tools [^3]: Isolated Word Recognition [^4]:Configuration File [^5]:Script File [^6]:Master Label Files [^7]:Glottal Stops [^8]:Sub-Word [^9]:Viterbi alignment [^10]:Embedded Training [^11]:Extended Backus Naur Form [^12]:Correctness Rate [^13]:Accuracy Rate [^14]: Confusion Matrix [^15]:Texas Instruments [^16]:Massachusetts Institute of Technology [^17]:National Institute for Standards and Technologies [^18]:Connected Digit Sequences