جدول3-1 به جای استفاده از ضرایب ویولت توصیه شده است]35] [23[.
ویژگی های موجک استخراج شده
انرژی
درصد انرژی طول سیگنال
واریانس ضرایب ویولت
انحراف معیار ضرایب ویولت
مقدار حداکثرتوزیع داده ها
انحراف داده ها
انحراف استاندارد
میانگین داده ها
جدول 3-1 ويژگي ویولت براي تشخيص مولفه هاي شناختي از ECG
3-3- ویژگی زمانی
تشخيص پزشك به طور عمده مبتني بر اطلاعات زماني‌ و ریخت‌شناسی استخراج شده از سيگنال الكتروكارديوگرافي است. اين در حالي است كه در برخي از شرايط ويژگي‌هاي به دست آمده از تحليل موجك بر روي سيگنال‌هاي قلبي، به تنهايي از تمايز كافي براي طبقه‌بندي برخوردار نيستند. از اين رو، استفاده از ديگر مشخصه‌هاي موجود در سيگنال‌هاي قلبي به جهت طبقه‌بندي بيمار‌یهاي قلبي ضروري به نظر مي‌رسد.
براي توصيف كاملتر سيگنال الكتروكارديوگرافي، علاوه بر ويژگي‌هاي موجك از ويژگي‌هاي زماني نيز در اين تحقيق استفاده شده است. ويژگي‌هاي زماني مورد استفاده شامل نه ويژگي زماني براي تشخيص مولفه‌هاي شناختي از سيگنال ECG هستند كه نماد اختصاری آ نها در جدول 3-2 بيان شده است]4[.

جدول 3-2 : ويژگي زماني براي تشخيص مولفه‌هاي شناختي از ECG
ویژگی
نماد اختصاری
دامنه ماكزيمم سيگنال
AMP
دامنه مينيمم سيگنال
-AMP
ناحيه مثبت
PAR
ناحيه منفي
NAR
قدر مطلق ناحيه منفي
NANR
مجموع ناحيه
TAR
قدر مطلق مجموع ناحيه
ATAR
قدر مطلق مجموع ناحيه
TAAR
پيك تا پيك سيگنال
PP

3-4- استخراج ویژگی با مدل خودبازگشتی(AR17)
روش مدلسازي خود بازگشتی یکی از مدل‌هاي اتفاقی است که براي نمایش سیگنال‌هاي غیر ایستا بسیار مورد استفاده می‌باشد. در این مدل، مقادیر جاري سیگنال به صورت جمع خطی از تعداد محدودي از مقادیر قبلی بعلاوه خطای e(n) بیان می‌شود. بنابر این پردازش به صورت 3-2 مدل می‌شود:
x[n]=∑_(i=1)^p▒〖a[i].x[n-1]+e[n]〗
به طوری‌که می توان گفت x(n) سیگنال مورد نظر، e(n) نویز سفید با میانگین صفر و واریانس مجهول، a_i ها ضرایب و p مرتبه مدل AR می‌باشد. در این معادله متغیر x(n) به مقادیر قبلی خودش وابسته است. روشهاي متعددي بطور رایج براي تخمین ضرایب AR استفاده می‌شود]2[.

3-5- استراتژی انتخاب ویژگی
انتخاب ویژگی فرآیندی است که ویژگی‌های با قدرت تشخیص بالاتر و موثرتر را از مجموعه‌های داده برای انجام اعمال داده کاوی انتخاب می‌کند. مرحله مقدماتی فرایند انتخاب ویژگی عبارتند از: شناسایی مجموعه ویژگی‌ها و جستجو برای بهترین زیر مجموعه. مجموعه پارامترها اغلب شامل الگوریتم‌های یادگیری الگوریتم های انتخاب و فرآیندهای تخمین خطا می‌باشند. البته این مسئله کاملا روشن است که هیچ مجموعه ویژگی به تنهایی برای کلیه‌ی مسائل داده کاوی کارا نمی‌باشد.
الگوریتم‌های انتخاب ویژگی به طور کلی به سه دسته تقسیم می‌شوند: مدل‌های فیلتر، مدل‌های رپر18 و مدل‌های ترکیبی]13[. مدل‌های فیلتر از مشخصات ذاتی یا آماری ویژگی‌های مجموعه‌های داده استفاده می کنند و از هر گونه الگوریتم یادگیری مستقل اند. چنین رویه‌هایی شامل ماشین یادگیری نمی‌باشند و برای مجموعه داده‌های با ابعاد بالا موثر بوده و پیشنهاد می‌شوند. در مقابل مدل‌های رپر از ماشین‌های یادگیری استفاده کرده و زیرمجموعه ویژگی‌ها را بر اساس تخمین کارایی انتخاب می‌کنند. در مقایسه با فیلتر‌ها رپرها دارای زمان و هزینه‌های محاسباتی بالاتری بوده و برای مجموعه داده‌های با ابعاد بالا مناسب نمی‌باشد. مزیت اصلی رپرها در دقت بالای پیش‌بینی آنها است. نتایج جستجوی رپرها برای یافتن بهترین زیر مجموعه ویژگی بسیار بالاتر از فیلتر‌ها گزارش شده است. برای انتخاب ویژگی خوب،تلاش اصلی فرایند جستجو باید شناخت ویژگی‌های موثر و غیر افزونه باشد]25[. اغلب روش‌های ترکیبی فیلتر و رپر از فیلترها جهت رتبه‌بندی ویژگی‌ها و کاهش تعداد ویژگی‌های کاندید استفاده می‌کنند. به طور کلی مدل‌های ترکیبی بر اساس رویه‌های ترتیبی دو مرحله‌ای کار می‌کنند.در مرحله اول معمولا براساس فیلترها تعداد ویژگی‌های مورد نظر برای مرحله دوم کاهش می‌یابند. سپس با استفاده از مجموعه کاهش یافته یک رویه رپر در مرحله دوم جهت انتخاب ویژگی‌های مطلوب اعمال می‌شود.

3-6- تحلیل مولفه اصلی (PCA)
در روش تحليل مؤلفه‌هاي اصلي، محور‌هاي مختصات جديدي براي داده‌ها تعريف مي‌شود به گونه اي كه نخستين محور در جهتي قرار مي‌گيرد كه واريانس داده‌ها بيشينه است و دومين محور نيز عمود بر محور اول و در جهتي كه واريانس داده ها بيشينه باشد،در نظر گرفته مي‌شود و به همين ترتيب، محورهاي بعدي عمود بر تمامي محورهاي قبلي به گونه‌اي قرار مي‌گيرند كه واريانس داده‌ها در آن جهت بيشينه باشد]4[.تحلیل مولفه اصلی یکی از روش‌های مرسوم استخراج ویژگی است که در بسیاری از پژوهش‌ها به دلیل سادگی و سرعت بالا در پردازش از آن استفاده می‌شود]26[. تکنیک PCA بهترین روش برای کاهش ابعاد داده به صورت خطی می‌باشد یعنی با حذف ضرایب کم اهمیت بدست آمده از این تبدیل،اطلاعات از دست رفته نسبت به روشهای دیگر کمتر است.
فرض کنید ماتریس ورودی X دارای N_T نمونه و n ویژگی است و N_T نمونه باید در C گروه قرار گیرند، میانگین و کوواریانس داده با توجه به روابط (3-3) و (3-4) محاسبه میشوند [38]:
m_d=1/N_T ∑_(i=1)^c▒∑_(j=1)^(N_i)▒x_(i,j) (3-3) COV=1/N_T ∑_(i=1)^c▒∑_(j=1)^(N_i)▒〖(x_(i,j)-m_d)〖(x_(i,j)-m_d)〗^T 〗 (3-4)
در مرحلهی بعد، مقادیر ویژه و بردارهای ویژه از روی ماتریس کواریانس محاسبه می‌شوند. سپس، تعداد k مقدار ویژه بزرگتر از n مقدار ویژه انتخاب می‌شوند. حال ماتریس ورودی X تحت ماتریس بردار ویژه P با تعداد k ویژگی، به فضای تحلیل مولفه‌اصلی تبدیل می‌شود:
(3-5) Y_ij=〖[P_1,P_2,…,P_k]〗^T X_ij

3-7- روش بیشترین وابستگی و کمترین افزونگی (mRMR19)
در بسیاری از کاربرد‌های شناسایی آماری الگو، انتخاب زیرمجموعه‌ای از مجموعه ویژگی‌ها می‌تواند سبب کاهش خطای دقت طبقه‌بندی گردد. هدف روش بیشترین وابستگی و کمترین افزونگی، انتخاب زیرمجموعه از فضای ویژگی مبتنی بر مفهوم همبستگی و کاهش افزونگی اطلاعات می‌باشد. فرض کنید فضای داده ورودی D، شامل N نمونه و M ویژگی است و c نیز برچسب مربوط به هر گروه باشد. در این حالت، هدف انتخاب بهینه m ویژگی از فضای M بعدی است بطوریکه هر نمونه متعلق به گروه c باشد. از آنجاییکه تعداد زیرمجموعه‌های ممکن 2^M بوده و تعداد زیرمجمو ع‌هایی که ابعادشان کوچکتر از m باشد نیز ∑_(i=1)^m▒(M¦i) می‌باشد جستجوی کامل زیرمجموعه‌های ویژگی بسیار دشوار است. از اینرو، روش‌های جستجوی ترتیبی مانند پیش رو ترتیبی و شناور پیش رو ترتیبی، برای جستجوی فضای کامل زیرمجموعه‌ها در فضای ویژگی پیشنهاد می‌شوند]29[. شرط توصیف بهینه معادل با کمترین خطای دقت طبقه‌بندی درنظر گرفته می‌شود، بطوریکه در طبقه‌بندی بی سرپرست،‌کمترین خطا زمانی رخ می‌دهد که بیشترین وابستگی آماری دادگان در زیر فضای R^m گروه هدف c پیدا شود. از این شیوه به عنوان شرط بیشترین وابستگی یاد می‌شود. یکی از روش‌های رایج برای بررسی مفهوم بیشترین وابستگی، روش بیشترین ارتباط است که مقصود آن بالاترین ارتباط هر ویژگی با گروه هدف c می‌باشد. بطور عام، ارتباط برحسب همبستگی و یا اطلاعات متقابل دو متغیر معرفی می‌شود. اطلاعات متقابل دو متغیر x و y، بر حسب توابع چگالی احتمال بصورت زیر تعریف می‌شود:
I(X,Y)=∑_x▒∑_y▒〖p(X,Y)〖log〗_2 〗 (p(X,Y))/(p(Y)p(X))
در انتخاب ویژگی بر اساس بیشترین ارتباط، بیشترین اطلاعات متقابل I(x_i,c) بین ویژگی‌های منتخب x_i گروه هدف c صورت می‌گیرد که مبین بیشترین وابستگی ویژگی به هدف مربوط می‌باشد. در روش‌های جستجوی متوالی، m بهترین ویژگی انفرادی، یعنی آن‌هایی که بیشترین مقدار وابستگی را دارند به عنوان ویژگی‌های منتخب برگزیده می‌شوند. ولی همواره ترکیبی از بهترین ویژگی‌های منفرد به عنوان یک زیرمجموعه بهینه نیست، به عبارت دیگر m بهترین ویژگی همیشه بهترین m ویژگی نیستند. از اینرو، در کنار بیشترین همبستگی ویژگی‌ها با گروه هدف c، روش هایی جهت کاهش افزونگی وجود دارد که ویژگی هایی با کمترین افزونگی را برمی‌گزیند. لذا روش انتخاب ویژگی با معیار بیشترین وابستگی و کمترین افزونگی، یکی از روش‌هایی است که مبتنی بر سه اصل بیشترین وابستگی، بیشترین ارتباط و کمترین افزونگی بنا شده است. بر اساس اطلاعات متقابل بین دو نمونه، هدف از انتخاب ویژگی با بیشترین وابستگی به هدف گروه c، یافتن یک مجموعه ویژگی S با m عضو است که بطور مشترک بیشترین وابستگی را به هدف مربوطه داشته باشد. از دید ریاضی این مفهوم به شکل زیر بیان می‌شود]31[:
max⁡〖 D(S,c), D=I({x_i,i=1,…,m};c)〗
هنگامی که m برابر 1 باشد، مساله به یافتن ویژگی تبدیل می‌شود که I(x_j,c),(I≤j≤M) را بیشینه کند و زمانی که m بزرگتر از 1 باشد، یک روش جستجوی ترتیبی ساده می‌تواند افزودن یک متغیر در هر لحظه باشد. در حالتی که مجموعه شامل m-1 ویژگی S_(m-1) دردست باشد، m امین ویژگی بصورت ویژگی‌ای که بیشترین افزایش را در I(S_m,c) ایجاد می‌کند، تعریف می‌شود:
I(S_m,c)=∑_(S_m)▒∑_c▒〖p(S_m,c)〖log〗_2 (p(S_m,c))/(p(S_m )p(c))〗
=∑_(S_m)▒∑_(x_m)▒∑_c▒∑_c▒〖p(S_(m-1),x_m,c)〖log〗_2 (p(S_(m-1),x_m,c))/(p(S_(m-1),x_m )p(c))〗
=∑▒〖…∑▒〖p(x_1,…,x_m,c)〗〗 〖log〗_2 (p(x_1,…,x_m,c))/(p(x_1,…,x_m)p(c))
از آنجایی‌که تخمین دقیق از توابع چگالی چند متغیره p(x_1,…,x_m) و p(x_1,…,x_m,c) بدلیل کافی نبودن تعداد نمونه‌ها و دشواری محاسبه ابعاد بالای ماتریس کوواریانس، مشکل است، بنابراین بجای استفاده از بیشترین وابستگی از معیار بیشترین ارتباط استفاده می‌کنیم. این معیار، D(S,c) را با استفاده از میانگین مقادیر اطلاعات متقابل میان ویژگی‌های انفرادی x_i و گروه c تخمین می زند:
max⁡〖 D(S,c), D=1/|S| 〗 ∑_(x_i∈S)▒〖I(x_i,c)〗
ویژگی‌هایی که براساس بیشترین ارتباط انتخاب می‌شوند دارای افزونگی بالایی هستند، یعنی وابستگی میان آن ها زیاد است. هنگامی که دو ویژگی به شدت به هم وابسته باشند، در صورت حذف یکی از آن‌ها قدرت مجزاسازی مربوط به آن ها تغییر زیادی نخواهد کرد]37[. بنابراین معیار کمترین افزونگی برای انتخاب ویژگی‌های مستقل بصورت زیر است:
min⁡〖R(S), R=1/|S|^2 ∑_(x_i,x_j∈S)▒〖I(x_i,x_j)〗〗
برای ترکیب D و R از عملگر Φ(D,R) استفاده کرده و در ساده ترین حالت داریم:
〖max 〗⁡〖Φ(D,R), 〗 Φ=D-R
〖max 〗⁡〖Φ(D,R), 〗 Φ=D/R
در عمل از روش‌های جستجوی ترتیبی می توان به‌منظور انتخاب ویژگی‌های زیربهینه منتخب توسط عملگر Φ استفاده کرد. اگر فرض شود که مجموعه ویژگی S_(m-1) از مجموعه X انتخاب شده و هدف انتخاب ویژگی m ام باشد، آنگاه این ویژگی باید تابع Φ(0) را بیشینه کند:
max┬(x_j∈X-S_(m-1) )⁡[I(x_j;c)-1/(m-1) ∑_(x_i∈S_(m-1))▒〖I(x_j,x_i)〗]

3-8- الگوریتم فاخته COA20
الگوریتم فاخته یکی از جدیدترین و قوی ترین روش‌های بهینه سازی تکاملی می باشد که تا کنون معرفی شده است. الگوریتم فاخته با الهام از روش زندگی پرنده‌ای به نام فاخته است که در سال 2009 توسط شین اویانگ ودب ساش، توسعه یافته است. این الگوریتم توسط پرواز levy به جای پیاده روی ایزوتروپیک تصادفی ساده توسعه یافته است. الگوریتم فاخته بعدها در سال 2011 توسط رامین رجبیون به طور کامل با جزئیات بیشتر مورد بررسی قرار گرفت]30[.
اکثر پرندگان لانه‌های خود را به صورت جدا شده،

دسته بندی : No category

دیدگاهتان را بنویسید