قرار است تصور حرکتی1 را از سیگنال EEG تفکیک کنیم. با این روش می توانیم از سیگنال حاصله جهت استفاده در به حرکت درآوردن بازوهای مکانیکی استفاده کنیم. برای مثال می‌توان با ایجاد تصور حرکت دست‌ها و تفکیک و انتقال این سیگنال به فردی که از ناحیه دست قطع عضو گردیده یا نرون‌های عصبی آن از کار افتاده، دست مصنوعی و یا دست خود فرد را به حرکت درآوریم.

۱. مقدمه

در این گزارش، روش CSP به همراه سه تعمیم آن یعنی ACSP، ACCSP و SUTCCSP به طور کامل شرح داده می‌شود. الگو های فضایی مشترک روشی محبوب در جداسازی بین کلاس‌ها است. اعمال این روش به داده‌ها پیش از کلاس‌بندی، عملکرد را بالا تر می‌برد. این روش ماهیتی چند کاناله دارد و اغلب برای چند کانال سیگنال به کار می‌رود. یکی از مشکلات این روش عدم دخالت اطلاعات مربوط به فاز سیگنال‌ها در آن است. سیگنال‌های جهان ما اکثراً غیر‌دایره ای هستند. برای مثال در سیگنال EEG ، به دلیل اختلاف توان بین کانال‌ها و همبستگی بین آن‌ها این موضوع رویت می‌شود. سه تعمیمی که مورد بحث قرار می‌گیرند، سعی در اضافه کردن اطلاعات فاز و جدا سازی بیشتر و بهتر بین کلاس‌ها را دارند.

۲. کارهای مرتبط

روش الگو های فضایی مشترک 2 روشی محبوب و پر کاربرد در جدا سازی بین داده‌های دو کلاس، مخصوصاً در تفکیک فعالیت‌های ذهنی در واسط‌های مغز کامپیوتر 3 مبتنی بر داده‌های EEG 4 است. عملکرد بالا در کلاس‌بندی و فیلترهای فضایی مفید به دست آمده از این روش، این الگوریتم را مشهور ساخته است [1] و [2].
این الگوریتم برای اولین بار برای تشخیص غیر طبیعی بودن 5 سیگنال EEG به کار گرفته شد [3] و سپس در جدا سازی بین کلاس‌های مربوط به واسط‌های مغز کامپیوتر و الگو های حرکتی 6 نیز مورد استفاده قرار گرفت [1] و [2]. به دلیل ماهیت چند کاناله بودن، این روش کاربرد فراوانی برای سیگنال های EEG دارد.
روش CSP، با اعمال فیلترهای فضایی به ورودی‌ها، واریانس سیگنال‌ها را در کلاس اول ماکزیمم و به طور همزمان در کلاس دیگر مینیمم می کند و سپس از سیگنال‌های فیلتر شده ویژگی‌های کلاس اول را می‌سازد. این کار به طور عکس نیز اتفاق می افتد. یک سری از فیلترهای فضایی، واریانس سیگنال را در کلاس دوم ماکزیمم و به طور همزمان در کلاس اول مینیمم می‌کنند. سپس با استفاده از این سیگنال‌های فیلتر شده، ویژگی‌های کلاس دوم ایجاد می‌شود. برای به دست آوردن این فیلترهای فضایی، CSP مجموع ماتریس‌های کواریانس دو کلاس را تبدیل به ماتریس همانی 7 می‌کند. این کار با اعمال تبدیلی به نام سفید کنندگی8 انجام می‌شود. با این کار، افزایش واریانس یک کلاس، واریانس کلاس دیگر را کاهش می‌دهد.
تعمیم‌های زیادی از این روش ارائه شده است که هر کدام سعی در بهبود کارایی و یا رفع محدودیتی در الگوریتم اصلی دارند. برای مثال در [5] حالت چند کلاسه‌ی CSP و در [6] انتخاب فیلتر طیفی به طور خود کار9 مطرح شده است. در این گزارش، به غیر از روش CSP ، سه تعمیم آن، یعنی ACSP 10 ، ACCSP 11 و SUTCCSP12 نیز شبیه سازی می شود.
این سه تعمیم، به غیر از اطلاعات دامنه‌ی سیگنال‌ها، اطلاعات فاز سیگنال‌ها را نیز در تفکیک کلاس‌ها دخیل می‌کنند. چرا که بسیاری از سیگنال‌های دنیای واقعی، سیگنال‌های غیر دایره ای 13 هستند. به عبارت دیگر، بین سیگنال‌های دو کانال، همبستگی 14 وجود دارد. روش ACSP فقط اطلاعات فاز سیگنال ها را در الگوریتم CSP دخیل می‌کند. ولی روش‌های ACCSP و SUTCCSP به غیر از این کار، از آمار درجه دوم مربوط به مجموعه اعداد مختلط15 استفاده می کنند. مباحث آماری که به ما می گوید، برای اعداد متغیر های تصادفی مختلف به غیر از کواریانس، به شبه کواریانس 16 هم نیاز داریم. شبه کواریانس داده های غیر دایره ای صفر نیستند! روش ACCSP ماتریسی حاصل از ترکیب کواریانس و شبه کواریانس را برای قطری‌سازی 17 استفاده می‌کند. در حالی که روش SUTCCSP ، به طور همزمان ماتریس های کواریانس و شبه کواریانس را قطری می سازد.

۳. الگو های فضایی مشترک برای سیگنال های حقیقی و تحلیلی

الگوریتم CSP با روش CSP مختلط یا همان ACSP18 تفاوتی ندارد. ولی در روش ACSP سیگنال های ورودی پیش از اعمال به الگوریتم، به صورت تحلیلی19 در می آیند. پس ابتدا فرض کنید که سیگنال ورودی، سیگنالی حقیقی است.
ماتریس داده های زیر را در نظر بگیرید:

Z_a \in {R}^{N*T}
Z_b
دو ماتریس با میانگین صفر هستند. N تعداد کانال ها و T تعداد نمونه ها در هر کانال است. در حقیقت N کانال داریم که سیگنال هر کانال T نمونه دارد و میانگین صفر است. ماتریس کواریانس و را به صورت زیر تعریف می کنیم:
1)
C_a = cov(Z_a) = E[Z_a Z_a^H]

که در آن منظور از ... ، جمع المان های قطری ماتریس است. می دانیم که محاسبه ی امید ریاضی با توجه به نیاز به تابع چگالی داده ها، کار مشکلی است. به همین دلیل اغلب آن را تخمین می زنند. نرمالیزه کردن ماتریس کواریانس به وسیله ی ... آن ماتریس انجام می شود. چرا که تریس در ماتریس کواریانس یک داده، واریانس کل آن داده است.
در مسائل شناسایی آماری الگو، اصولاً در داده های آموزشی، بیش از یک داده برای هر کلاس وجود دارد. پس در این جا ( و در تمامی تعمیم های CSP ) هم برای هر کدام از داده ها، ماتریس کواریانس مربوطه را به دست آورده و سپس میانگین ماتریس های مربوط به هر کلاس را به دست می آوریم. پس دو ماتریس ...... هرمیتین و تقریباً همیشه مثبت هستند به دست می آید. اگر داده های ما مختلط باشند، ماتریس های کواریانس دارای مقادیر حقیقی روی قطر اصلی و مقادیر مختلط در سایر المان های ماتریس هستند. حال یک ماتریس مرکب به صورت زیر تعریف می کنیم:
...
...ترکیبی از ماتریس های کواریانس هر دو کلاس است. می توان این ماتریس را به صورت زیر تبدیل کرد:
...
...ماتریس بردار های ویژه است که هر ستون آن را یک بردار ویژه تشکیل می دهد. بردار های ویژه ای که هر کدام مربوط به یکی از مقادیر ویژه ی موجود در ماتریس قطری ... ( ماتریس مقادیر ویژه ) هستند. در ضمن ... ، یک ماتریس واحد است. یعنی رابطه ی ... وجود دارد.
به تبدیل ... ، تبدیل سفید کننده می گویند. چرا که:
...
یعنی این تبدیل، کواریانس مرکب را قطری ( ماتریس همانی ) می کند. پس می توان نوشت:
....
که در آن I نشان دهنده ی ماتریس همانی است.
حال اگر ... را تعریف کنیم و B یک ماتریس متعامد نرمال باشد، آنگاه داریم:
...
چرا که می دانیم...
یعنی می توان گفت که ماتریس های ... ماتریس بردار های ویژه ی مشترکی دارند. به طوری که:
...
حال با توجه به رابطه ی (10) ، اگر ماتریس مقادیر ویژه ی ... را به صورت نزولی مرتب کنیم، به طور هم زمان ... به صورت صعودی مرتب می شود. با این کار، بردار ویژه ای از ماتریس B که مربوط به بزرگ ترین مقدار ویژه ی ... می شود،
مربوط به کوچک ترین مقدار ویژه ی ... است. یعنی یک بردار ویژه از B (مربوط به بزرگترین مقدار ویژه ی ... )، به طور همزمان واریانس کلاس a را ماکزیمم و واریانس کلاس b را مینیمم می کند. پس این فیلتر فضایی را به صورت زیر تعریف می کنیم:
...
و با توجه به این تعریف، رابطه ی (9) و (11) داریم:
...
حال ماتریس داده ها را روی این فیلتر فضایی تصویر می کنیم تا داده های جدیدی به دست آوریم. در حقیقت داده های ورودی را توسط فیلتر های فضایی فیلتر می کنیم. یعنی:
...
هر کدام از ستون های ماتریس ...را یک فیلتر فضایی می نامند.
برای جدا سازی بین دو کلاس، از واریانس سیگنال های فیلتر شده در رابطه ی (12) استفاده می کنیم. می دانیم که هر سطر از ماتریس V ، یک سیگنال جدید است. به منظور کاهش بعد فضای ویژگی، m سطر اول V ( که وابسته به مقدار ویژه ی بزرگ ... است، یعنی بیشترین واریانس را در کلاس a ایجاد می کنند ) و m سطر آخر V ( که وابسته به m مقدار ویژه ی بزرگ ... است یعنی بیشترین واریانس را در کلاس b ایجاد می کنند ) را انتخاب می کنیم. به عبارت دیگر، سطر های
ماتریس ... ، اختلاف واریانس بین دو کلاس را ماکزیمم می کنند. چرا که m سطر اول بیشترین واریانس در کلاس a و کمترین واریانس در کلاس b را دارند و m سطر آخر، دارای بیشترین واریانس در کلاس b و کمترین واریانس در کلاس a هستند. ویژگی های مورد نظر ما از رابطه ی زیر به دست می آید:
...
که در این رابطه p ، ویژگی مربوط به سطر pاُم ماتریس و منظور از ... ، واریانس سطر pاُم ماتریس V است. در این رابطه، به منظور نرمالیزاسیون ، واریانس هر سطر ( سیگنال فیلتر شده ی هر کانال ) را به مجموع واریانس سطر ها تقسیم می کنیم. همچنین از لگاریتم برای تخمین توزیع نرمال داده ها استفاده می کنیم [4] .
حال بردار ویژگی مربوط به هر کلاس را از روی داده های آزمایشی به دست می آوریم و از آن ها برای آموزش کلاسیفایر مورد نظر استفاده می کنیم.

۴. تبدیل سیگنال حقیقی به سیگنال تحلیلی

می دانیم که سیگنال هایی که در طبیعت وجود دارند، داده هایی با مقادیر حقیقی هستند. پس در الگوریتم CSP ، عملگر ... به عملگر ترانهاده یا ... تبدیل می شود.
در 2010 ، فالزون روش ACSP پیشنهاد کرد [12] . در این روش، سیگنال های ورودی پیش از اعمال به الگوریتم CSP ، تبدیل به فُرم تحلیلی خود می شوند. پس ورودی Z ، ماتریسی با مقادیر مختلط است. در این جا هم هدف قطری سازی ماتریس کواریانس مرکب است. با این تفاوت که در این حالت، ماتریس های کواریانس، ماتریس بردار های ویژه و ضرایب فیلتر به دست آمده، همگی مختلط هستند. اما ماتریس مقادیر ویژه ی کواریانس مرکب ... مقادیر حقیقی دارد [8] .
در حقیقت، روش ACSP از اطلاعات فاز ورودی نیز برای متمایز کردن کلاس ها استفاده می کند. چرا که سیگنال های ورودی به فرم تحلیلی خود در آمده و اطلاعات فاز را نیز در بر دارد.
اگر فرض کنیم که x(t) سیگنال ورودی باشد، سیگنال تحلیلی مربوطه، z(t)، به صورت زیر تعریف می شود:
...
در رابطه ی بالا، ... و ... به ترتیب، دامنه و فاز سیگنال مختلط z(t) هستند که به صورت زیر تعریف می شوند:
...
و ... ، تبدیل هیلبرت سیگنال ورودی است:
...
که منظور از P.V. ، مقدار اصلی کوشی ( روشی برای مقدار دادن به انتگرال های ناسره ) است.
در خصوص استفاده از تبدیل هیلبرت باید به این موضوع توجه داشت که این تبدیل فقط برای سیگنال هایی با باند فرکانسی باریک استفاده می شود و نمی تواند برای سایر سیگنال ها، اطلاعات کاملی راجع به محتوای فرکانسی آن ها ارائه کند. همچنین زمانی که تغییرات دامنه سریع تر از تغییرات فاز است (مثلاً سیگنال هایی که میانگین صفر ندارند)، تبدیل هیلبرت، فرکانس لحظه ای منفی ایجاد می کند [9] . به همین جهت، برای رفع محدودیت پهنای باند تبدیل هیلبرت، باید از تبدیل فوریه و یا EMD در کنار ACSP استفاده کرد [5] .
طبق [5] ، المان های بردار ویژگی به دست آمده از ACSP برای هر کلاس را می توان از روابط زیر به دست آورد:
...

۵. الگو های فضایی مشترک مختلط افزوده (ACCSP)

برای یک بردار میانگین صفر مختلط مانند ، ماتریس کواریانس به صورت ... محاسبه می شود. مباحث آماری مربوط به اعداد مختلط، به طور کامل تعمیمی از مباحث آماری اعداد حقیقی نیستند! پس ماتریس کواریانس C به طور کامل آمار درجه دوم بردار z را توصیف نمی کند!! پس برای برداری مانند z که مقادیر مختلط دارد، به ماتریس شبه کواریانس یعنی ... نیز احتیاج داریم.
متغیر تصادفی ... را در نظر بگیرید. کواریانس این ماتریس برابر ... می شود ( که همیشه مثبت است مگر آن که ... باشد ). منظور از ... ، عملگر مزدوج مختلط است. این در حالیست که شبه کواریانس که به صورت ... تعریف می شود، هنگامی بی اثر است که به طور همزمان، ... با یک دیگر ناهمبسته بوده و واریانس آن ها برابر باشد( [ ] [ ]) . به سیگنال هایی که شبه کواریانس صفر دارند، دایره ا ی مرتبه دوم یا مناسب می گویند. با این حال، حتی اگر داده ای در دنیای واقعی، دایره ا ی باشد، به دلیل مشاهده ی سیگنال در پنجره های کوچک، نویز های نا همسانگر و توان متفاوت کانال های مختلف، شبه کواریانس برابر صفر نیست [5] . شکل 1، نمایشی هندسی از توضیح داده های دایره ا ی و غیر دایره ا ی را نشان می دهد. میزان دایره ا ی بودن بستگی به میزان همبستگی بین قسمت حقیقی و موهومی داده ها دارد.همبستگی کمتر، دایره ا یبودن بیشتر و همبستگی بیشتر، غیر دایره ا یبودن بیشتری را ایجاد می کند [5] .

شکل 1: نمایش هندسی داده ها از نظر دایره ای و غیر دایره ای بودن. نمودار پراکندگی قسمت حقیقی در برابر قسمت موهومی دو نوع داده نمایش داده شده است. (a) داده ی دایره ای که همبستگی میان قسمت حقیقی و موهومی آن صفر است (b) داده ی غیر دایره ای که همبستگی میان قسمت حقیقی و موهومی آن 0.9 است.

از این رو، برای داده های مختلط، باید خواص آماری مشترک ... مورد بررسی قرار گیرد. پس فُرم افزوده ای از متغیر مختلط z به صورت ̂ [ ] ،تعریف می شود. ماتریس کواریانس این متغیر افزوده ( ماتریس افزوده ) به صورت زیر است:
...
این ماتریس کواریانس افزوده، خصوصیات آماری مرتبه ی دوم کامل کواریانس و شبه کواریانس را در بر دارد.
روش ACSP ( و به طور قطع روش CSP )، غیر دایره ای بودن داده ها را در نظر نمی گیرد. به همین دلیل روش الگوهای فضایی مشترک مختلط افزوده (ACCSP) مطرح می شود [5] . در این روش به جای ماتریس کواریانس، فیلتر های فضایی از طریق ماتریس کواریانس افزوده به دست می آید. ماتریس داده های تبدیل شده به فرم تحلیلی ... را داریم ( منظور از C ، مجموعه اعداد مختلط است ). این ماتریس ها را به فرم افزوده ی خود ...تبدیل کرده و کواریانس آنها را
به دست می آوریم:
...
که ̂ [ ] و ̂ [ ] هستند. ادامه ی روند، مانند الگوریتم اولیه ی CSP است. ماتریس کواریانس مرکب افزوده تعریف می شود. تبدیل سفید کننده روی آن اعمال می شود و ماتریس بردار های ویژه ی مشترک بین کلاس a و b به دست می آید. ماتریس فیلتر فضایی افزوده،...، از رابطه ی (11) به دست می آید. حال برای هر داده ی ورودی Z ، فرم افزوده ی ورودی،...، را به دست می آوریم و سیگنال ها را با استفاده از رابطه ی زیر، فیلتر می کنیم:
...
ماتریس...مقادیر مختلط دارد و مانند قبل، m سطر اول و m سطر آخر آن انتخاب می شود و از رابطه ی (13) و یا (17) و (18) برای استخراج ویژگی از این 2m سیگنال، استفاده می شود.

۶. الگو های فضایی مشترک مختلط افزوده با تبدیل ناهمبستگی قوی (SUTCCSP)

در این قسمت تبدیل ناهمبستگی قوی (SUT) ) را به کار گرفته می شود. این تبدیل، تعمیمی از تبدیل سفید کنندگی (7) برای متغیر های تصادفی مختلط غیر دایره ای ا ست. در این تعمیم از CSP که به طور مخفف SUTCCSP نامیده می شود، هردوی ماتریس های کواریانس و شبه کواریانس به طور همزمان قطری می شوند.
ما در SUT به دنبال ماتریس Q می گردیم به طوری که:
...
و C ماتریس کواریانس، P ماتریس شبه کواریانس و Λ ماتریسی قطری است. به عبارت دیگر، SUT به طور همزمان، ماتریس کواریانس و شبه کواریانس را قطری می کند.
فرض کنید ماتریس داده های تبدیل شده به فرم تحلیلی ... را در اختیار داریم. این بار علاوه بر تعریف ماتریس کواریانس مرکب، ماتریس شبه کواریانس مرکب را نیز تعریف می کنیم. به طوری که:
[ ] [ ] ( )
[ ] [ ] ( )
تبدیل سفید کنندگی ( √ ) را به ... اعمال می کنیم. می دانیم که ... به ترتیب، ماتریس بردار های ویژه و ماتریس مقادیر ویژه ی ... هستند. همان طور که بیان شد نتیجه ی اعمال این تبدیل، رابطه ی(7)است.
حال فرض کنید تبدیل سفید کننده را به صورت زیر به شبه کواریانس اعمال کنیم:
̅ ( )
ماتریس ... ، متقارن است. چرا که رابطه ی ... برقرار است. اکنون از قضیه ای به نام فاکتورگیری تاکاگی ( که به آن تجزیه به مقادیر تکین متقارن یا SSVD نیز می گویند ) استفاده می کنیم [13] . این قضیه به ما می گوید که اگر ماتریسی ( مانند ... )مربعی و متقارن باشد، می توان آن را به صورت زیر تجزیه کرد:
...
که ... ماتریسی است که مقادیر آن، جذر مقادیر تکین ماتریس ... است. به طور کامل تر، می دانیم که طبق تجزیه ی SVD می توان ماتریس ... را به صورت ... تجزیه کرد. قابل ذکر است که ماتریس ... می تواند مربعی نباشد، ... ماتریس های واحد و ... هم ماتریسی با ابعاد ... است که عناصر آن جذر مقادیر تکین ...هستند. اگر ... ماتریسی مربعی باشد ( که هست! )، ... ماتریسی قطری می شود.
همان طور که بیان شد، داریم:
̅ ̅ ( )
ابتدای دو طرف رابطه را ... در ضرب می کنیم :
...
در رابطه ی بالا از خاصیت واحد بودن ماتریس ... استفاده کردیم. حال انتهای دو طرف رابطه را در ... ضرب می کنیم :
( )
حال با تعریف ... ، به رابطه ی زیر می رسیم:
( )
... یک ماتریس واحد است. چرا که از ضرب دو ماتریس واحد حاصل شده است. پس رابطه ی ... بر قرار است.
همچنین می توان ثابت کرد که اگر رابطه ی ... وجود داشته باشد، رابطه ی ( ) نیز موجود است!
چرا که می توان نوشت:
( ) ( ) ( ) ( ) ( ) ( )
به همین طریق می توان به ( ) نیز رسید!
حال به رابطه ی (28) باز می گردیم:
̅ ( ) ( ) ( )
اگر ... را تعریف کنیم، به عبارت زیر می رسیم:
̅ ( )
به رابطه ی (30) تبدیل تاکاگی یا SSVD می گویند. باز هم مشخص است که Y یک ماتریس واحد است. چرا که از ضرب دو ماتریس واحد به دست می آید.
همان طور که پیش تر گفته شد، به دنبال ماتریس Q می گردیم که در رابطه ی (23) صدق کند. اگر ... را تعریف کنیم، آنگاه:
( ) ̅ ( )
پس ملاحظه می شود که با تعریف ... ، ماتریس مورد نظر در رابطه ی (23) را یافتیم. برای کواریانس می توان نوشت:
( )
اگر ... را تعریف کنیم، مانند الگوریتم اصلی CSP ، می توان گفت که ماتریس های ... ماتریس بردار های ویژه ی مشترکی دارند. به طوری که:
, ( ) ( )
به همین ترتیب، می خواهیم برای شبه کواریانس دو کلاس هم، ماتریس بردار های ویژه ی مشترکی تخمین بزنیم. پس:
...
ابتدا و انتهای عبارت بالا را در ... ضرب می کنیم:
( )
در رابطه ی بالا، ... یک ماتریس قطری با عناصر حقیقی است. پس رابطه ی ... برقرار است. برای یافتن ماتریس بردار های ویژه ی مشترک شبه کواریانس ها، به صورت زیر عمل می کنیم:
̂ ( )
اگر ̂ ̂ ̂ و ̂ ̂ ̂ را تعریف کنیم، رابطه ی (33) به صورت ̂ ̂ در می آید. پس مانند مباحث قبل، می توان برای ماتریس های ̂ و ̂ ، ماتریس بردار های ویژه ی مشترکی تخمین زد. یعنی:
̂ ̂ ̂ ̂ , ̂ ̂ ̂ ̂ ( ̂ ̂ ) ( )
در حقیقت با اعمال تبدیل SUT ، به طور هم زمان ماتریس های کواریانس و شبه کواریانس را به ماتریس همانی تبدیل کردیم ( رابطه ی (32 )و (34)). با این کار، اختلاف واریانس بین دو کلاس ماکزیمم خواهد شد. این بار به جای یک دسته فیلتر فضایی، برای هر کدام از کواریانس و شبه کواریانس، یک دسته فیلتر فضایی تعریف می کنیم:
̂ ̂ ̂ ( )
و به همین ترتیب، سیگنال ها به صورت زیر فیلتر می شوند:
̂ ̂ ( )
تا بتوانیم المان های بردار های ویژگی را طبق (17) و (18) یا (13) به دست آوریم.
زمانی که ماتریس کواریانس مرکب را با اعمال تبدیل سفید کنندگی، به ماتریس همانی تبدیل می کنیم، مجموع ماتریس بردار های ویژه کلاس و همانی می شود. این کار باعث می شود که سطر اول ماتریس فیلتر شده ی ، بیشترین واریانس را در کلاس و کمترین واریانس را در کلاس داشته باشد و همین طور سطر آخر این ماتریس فیلتر شده بیشترین واریانس را در کلاس و کمترین واریانس را در کلاس دارد. حال در این جا با اعمال تبدیل SUT ، به غیر از ماتریس کواریانس مرکب، شبه کواریانس مرکب نیز به ماتریسی همانی تبدیل می شود. پس طبیعی است که سیگنال های فیلتر شده به وسیله ی فیلتر های فضایی شبه کواریانس ) ̂ ( نیز، خاصیت های را در مورد اختلاف واریانس ها در کلاس های مختلف داشته باشند.
می دانیم که تبدیل تاکاگی منجر به رابطه ی (23) شد. نگاهی به این رابطه می اندازیم:
[ ] [( )( ) ]
می دانیم که مقادیری مختلط دارد. پس مقادیر ماتریس به صورت زیر بیان می شوند:
λ [ ] [ ] [ ] [ ]
این در حالیست که ماتریس ای که از تبدیل تاکاگی به دست می آید، مقادیری حقیقی دارد. این موضوع نشان می دهد که مقادیر ماتریس λ که به صورت [ ] [ ] هستند، اطلاعات اضافی راجع به اختلاف توان بین قسمت های حقیقی و موهومی منبع ورودی به ما می دهند. پس روش SUTCCSP بر خلاف روش CSP ، تفاوت بین توان قسمت های حقیقی و موهومی ورودی را نیز در نظر می گیرد.

۷. رابطه ی بین CSP و ACCSP

در این قسمت نشان می دهیم که بین روش ACCSP و CSP ، دوگانگی 1 وجود دارد. فرض کنید سیگنال تصادفی مختلطی با میانگین صفر مربوط به کلاس داریم. ( ) ( ) ( ) که در آن ( ) و ( ) به ترتیب، قسمت حقیقی و موهومی این سیگنال هستند و هر دو، سیگنال هایی تصادفی می باشند. فُرم افزوده ی این سیگنال مختلط را به صورت [ ( ) ( ) ] تعریف می کنیم. این ماتریس را می توان به صورت زیر نیز نمایش داد:
̂ [ ( ) ( ) ] [ ( ) ( ) ( ) ( ) ] [ ][ ( ) ( )] ( )
اگر ماتریس های زیر را تعریف کنیم:
𝚽 [ ] [ ( ) ( )] ( )
با استفاده از این تعریف ها، ماتریس کواریانس ̂ به صورت به دست می آید:
[ ̂ ̂ ] 𝚽 [ ]𝚽 𝚽 [ ]𝚽 ( )
در این رابطه، ماتریس مقادیری حقیقی دارد. پس می باشد.
پس از این که تبدیل سفید کنندگی را به ماتریس کواریانس ̂ ) رابطه ی ) 39 ( ( اعمال کنیم، این ماتریس، یک ماتریس همانی می شود. به عبارت دیگر [ ̌ ̌ ] می شود. با این کار رابط ی ) 39 ( به صورت Φ [ ̌ ̌ ]Φ تبدیل می شود. پس می توانیم بگوییم:
𝚽
(𝚽
) [ ̌ ̌ ] ( )
𝚽
(𝚽
رابطه ی ) 41 ( به ما می گوید که در روش ACCSP ، زمانی که کواریانس یک ماتریس کواریانس ̂ را قطری می کنیم، ماتریس [ ̌ ̌ ] )با مقادیری حقیقی( نیز قطری می شود. این موضوع نشان می دهد که عملکرد ACCSP مانند CSP است. با این تفاوت که در ACCSP پس از اعمال تبدیل سفید کنندگی، قطری شدن ماتریس کواریانس مقادیر حقیقی، با ضریب 0.5 همراه است و همانی نمی شود!

۸. آزمایش‌ها

۹. کارهای آینده

۱۰. مراجع

[1] Müller-Gerking, Johannes, Gert Pfurtscheller, and Henrik Flyvbjerg. "Designing optimal spatial filters for single-trial EEG classification in a movement task." Clinical neurophysiology 110.5 (1999): 787-798.

[2] Ramoser, Herbert, Johannes Muller-Gerking, and Gert Pfurtscheller. "Optimal spatial filtering of single trial EEG during imagined hand movement." Rehabilitation Engineering, IEEE Transactions on 8.4 (2000): 441-446.

[3] Koles, Zoltan Joseph. "The quantitative extraction and topographic mapping of the abnormal components in the clinical EEG." Electroencephalography and clinical Neurophysiology 79.6 (1991): 440-447.

[4] Ramoser, Herbert, Johannes Muller-Gerking, and Gert Pfurtscheller. "Optimal spatial filtering of single trial EEG during imagined hand movement." Rehabilitation Engineering, IEEE Transactions on 8.4 (2000): 441-446.

[5] Park, Cheolsoo, C. CHEONG TOOK, and D. Mandic. "Augmented Complex Common Spatial Patterns for Classification of Noncircular EEG from Motor Imagery Tasks." (2014): 1-1.

[6] Dornhege, Guido, et al. "Boosting bit rates in noninvasive EEG single-trial classifications by feature combination and multiclass paradigms." Biomedical Engineering, IEEE Transactions on 51.6 (2004): 993-1002.

[7] Lemm, Steven, et al. "Spatio-spectral filters for improving the classification of single trial EEG." Biomedical Engineering, IEEE Transactions on 52.9 (2005): 1541-1548.

[8] Haykin, Simon. "Adaptive filter theory." 2nd. ed., Prentice-Hall, Englewood Cliffs, NJ (1991).

[9] Huang, Norden E., et al. "The empirical mode decomposition and the Hilbert spectrum for nonlinear and non-stationary time series analysis." Proceedings of the Royal Society of London. Series A: Mathematical, Physical and Engineering Sciences 454.1971 (1998): 903-995.

[10] Yuan, Han, et al. "Cortical imaging of event-related (de) synchronization during online control of brain-computer interface using minimum-norm estimates in frequency domain." Neural Systems and Rehabilitation Engineering, IEEE Transactions on 16.5 (2008): 425-431.

[11] Pfurtscheller, Gert, and Fernando H. Lopes da Silva. "Event-related EEG/MEG synchronization and desynchronization: basic principles." Clinical neurophysiology 110.11 (1999): 1842-1857.

[12] Falzon, O., K. P. Camilleri, and J. Muscat. "Complex-valued spatial filters for task discrimination." Engineering in Medicine and Biology Society (EMBC), 2010 Annual International Conference of the IEEE. IEEE, 2010.

[13] Chebotarev, Alexander M., and Alexander E. Teretenkov. "Singular value decomposition for the Takagi factorization of symmetric matrices." Applied Mathematics and Computation 234 (2014): 380-384.


  1. Motor Imagery

  2. Common Spatial Patterns (CSP)

  3. Brain-Computer Interfaces (BCI)

  4. Electroencephalogram

  5. Abnormality

  6. Identity Matrix

  7. Whitening Transform

  8. Automatic spectral filter selection

  9. Analytic Signal-based CSP

  10. Augmented Complex Common Spatial Patterns

  11. Strong Uncorrelating Transform Augmented Complex Common Spatial Patterns

  12. Non-Circular

  13. Correlation

  14. Complex Statistics

  15. Pseudocovariance

  16. Diagonalization

  17. ‘Analytic Signal’-based CSP

  18. Analytic

علیرضا نوریان

توضیحات‌تون نامفهوم هست، لطفا نگاهی به نوشتار پروژه‌های دیگه بندازید.