Ad Code

Responsive Advertisement

SVM in machine learning in hindi | मशीन लर्निंग में SVM क्या होता है

 

Support Vector Machine in Hindi





SVM एक supervised machine learning एल्गोरिथ्म है जो classification, regression और outlier detection के लिए उपयोग किया जाता है। यह एक non-parametric एल्गोरिथ्म है, जिसका मतलब है कि यह डेटा के वितरण के बारे में कोई भी अनुमान नहीं लगाता।

SVM में लक्ष्य उन विभिन्न वर्गों में डेटा को सबसे अच्छी तरह से अलग करने वाले hyperplane को ढूंढना होता है। hyperplane एक उच्च आयामी सतह होती है जो विशेषता स्थान को दो भागों में विभाजित करती है। SVM एल्गोरिथ्म hyperplane का पता लगाने का प्रयास करता है जो सबसे बड़ी margin के साथ होता है, जो हर वर्ग से सबसे करीबी डेटा बिंदु और hyperplane के बीच की दूरी होती है। यह दृष्टिकोण सुनिश्चित करता है कि वर्गीकरणकर्ता में अच्छी जनरलाइज़ेशन प्रदर्शन होता है और प्रशिक्षण डेटा को overfit करने की कम संभावना होती है।

SVM एल्गोरिथ्म डेटा को एक कर्नल फंक्शन का उपयोग करके एक उच्च-आयामी अंतरिक्ष में बदलता है। इससे एल्गोरिथ्म दो वर्गों के बीच एक गैर-लीनियर सीमा ढूंढ सकता है। सबसे आम उपयोग होने वाले कर्नल फंक्शन लीनियर, पॉलिनोमियल, और रेडियल बेसिस फंक्शन (आरबीएफ) हैं।

SVM एल्गोरिथ्म दो तरह के वर्गीकरण समस्याओं, दो वर्गीकरण और बहु-वर्गीकरण, को संभव बनाता है। दो वर्गीकरण के लिए, SVM उन दो वर्गों को अलग करने वाला हाइपरप्लेन ढूंढता है। बहु-वर्गीकरण के लिए, SVM एक संयुक्त तरीके से बाइनरी वर्गकर्ताओं का उपयोग करता है ताकि डेटा को कई वर्गों में विभाजित किया जा सके।

SVM का व्यापक उपयोग चित्र वर्गीकरण, पाठ वर्गीकरण, जैव जानकारी विज्ञान, और वित्त में किया जाता है। हालांकि, SVM बड़े डेटासेट के लिए गणनात्मक रूप से महंगा हो सकता है, और सही कर्नल फंक्शन और पैरामीटर चुनना चुनौतीपूर्ण हो सकता ह


Example:

हमें एक डेटासेट है जिसमें हर बिंदु "Positive" (Green) या "Negative" (Red) चिह्नित होता है। यह एक 2D बिंदु डेटासेट है, जहां प्रत्येक बिंदु के (x, y) निर्देश होते हैं।

हम एक डेटासेट के साथ उपलब्ध हैं जिसमें हर बिंदु "Positive" (Red) या "Negative" (Red) लेबल के साथ हैं:

हम नए बिंदुओं के लेबल को उनकी (x, y) निर्देशांकों पर आधारित भविष्यवाणी करने के लिए एक वर्गीकरणकर्ता प्रशिक्षित करना चाहते हैं। एक रैखिक एसवीएम Positive और Negative बिंदुओं को जितनी विस्तृत संभव हो उन्हें अलग करने के लिए सर्वश्रेष्ठ रेखा (Hyperplane) खोजने की कोशिश करता है। इस उदाहरण में, SVM एक फैसला सीमा सीख सकता है जो इस तरह दिखता है:

बीच की रेखा फैसला सीमा होती है, और दोनों ओर के Parallel रेखाएं Margin होती हैं। SVM Margin को अधिकतम करने का प्रयास करता है, जो निर्णय सीमा और दोनों क्लास के सबसे करीबी बिंदुओं (Support vector) के बीच की दूरी होती है। इस तरीके से, SVM training data में अधिक फिट होने की संभावना कम होती है और नए डेटा पर अधिक से अधिक generalize करने की संभावना बढ़ती है।

जब नए बिंदु को Data set में जोड़ा जाता है, तो SVM उसकी लेबल की पूर्वानुमान लगा सकता है जांच करके कि वह निर्णय सीमा किस तरफ होता है।


Types of (SVM) 

Support vector machine are two type

Linear  SVM
Non - Linear  SVM

1- Linear SVM 




Linear SVM (Support Vector Machine) एक ऐसा Algorithm है  जो Data Points को अलग-अलग वर्गों में विभाजित करने के लिए एक रैखिक Hyperplane का उपयोग करता है। यह एक लोकप्रिय Algorithm है जो Linear विभाजनीय डेटा के लिए उपयोग किया जाता है।

Linear SVM  में, Algorithm दो वर्गों के बीच की Margin को बढ़ाने वाली एक Hyperplane खोजता है। Margin को दो वर्गों के सबसे करीबी Data Points से Hyperplane की दूरी के रूप में परिभाषित किया जाता है। Margin को बढ़ाकर, Algorithm इस सुनिश्चित करता है कि निर्णय सीमा Data Points से ज्यादा दूर होता है, जिससे एक अधिक स्थायी और सटीक मॉडल मिलता है।

Linear SVM के अनुकूलन समस्या को एक उच्चतर गोलीय अनुकूलन समस्या के रूप में सूचीबद्ध किया जा सकता है, जो ग्रेडिएंट डिसेंट, स्टोकास्टिक ग्रेडिएंट डिसेंट या क्वाड्रेटिक Programing जैसी अनुकूलन तकनीकों का उपयोग करके आसानी से हल किया जा सकता है।

Linear SVM कई अन्य वर्गीकरण Algorithm की तुलना में अनेक फायदे होते हैं, जिसमें उच्च अक्सरता, उच्च-आयामी Data को हैंडल करने की क्षमता और बड़े Data set को अच्छी तरह से हैंडल करने की क्षमता शामिल होती है। इसे पाठ की वर्गीकरण, छवि वर्गीकरण और जैव जानकारी विज्ञान जैसे विभिन्न Application में आमतौर पर उपयोग किया जाता है।


2- Non Linear SVM 



Non-linear SVM एक ऐसा SVM का प्रकार है जो उपयोग किया जाता है जब Data Linear रूप से विभाज्य नहीं होता है। यह विभाजन समस्याओं के लिए एक लोकप्रिय Algorithm है, जहां वर्गों के बीच निर्णय सीमा एक रूपरेखा से नहीं दर्शाई जा सकती है।

Non-linear SVM में, Algorithm प्रवेश Data को एक उच्च आयामी सुविधा अंतरिक्ष में मैप करता है जहां वर्ग एक Hyperplane द्वारा विभाज्य होते हैं। यह इसलिए संभव होता है कि एक Non Linear रूपरेखा polynomial या रेडियल बेसिस फंक्शन जैसी एक Non Linear परिवर्तन को प्रयोग करते हुए इनपुट Data को बदलता है। बदला हुआ Data फिर सबसे बड़े Margin के साथ वर्गों को अलग करने वाली Optimal Hyperplane खोजने के लिए उपयोग किया जाता है।

Non Linear SVM  की अनुकुलन समस्या भी एक उच्च आयामी विशेषता वाली उपलब्धि है, लेकिन इसे गणनात्मक रूप से महंगा बनाता है क्योंकि इसके लिए एक उच्च-आयामी विशेषता अंतरिक्ष में डेटा को प्रकाशित रूप से नहीं लिया जाता। हालांकि, Kernel method का उपयोग करके इस समस्या को असंभव नहीं बनाया जा सकता है। इसके लिए दो डेटा बिंदुओं के बीच विशेषता अंतरिक्ष में समानता का माप लेने वाले एक Kernel function की परिभाषा की जाती है।

Non Linear SVM कई अन्य Non Linear वर्गीकरण Algorithm से बेहतर विशेषताओं से लब्ध होती है, जिसमें उच्च सटीकता, जटिल निर्णय सीमाओं को संभालने की क्षमता और Data में शोर और Outliers को संभालने की क्षमता शामिल होती है। यह छवि पहचान, बायो-सूचना विज्ञान और प्राकृतिक भाषा प्रोसेसिंग जैसे विभिन्न अनुप्रयोगों में आमतौर पर उपयोग किया जाता है।



kernel methods




Kernel Method को हम एक Machine learning तकनीक के रूप में जानते हैं, जिसे हाई-डाइमेंशनल फीचर स्पेस में गैर-लीनियर समस्याओं को हल करने के लिए इस्तेमाल किया जाता है। यह क्लासिफिकेशन, रिग्रेशन और क्लस्टरिंग समस्याओं में आमतौर पर इस्तेमाल किया जाता है, जहां डेटा लीनियरली सेपरेबल नहीं होता है।

Kernel Method के पीछे की विचारधारा है कि इनपुट डेटा को एक हाई-डाइमेंशनल फीचर स्पेस में ट्रांसफॉर्म किया जाता है, जहां यह लीनियरली सेपरेबल हो जाता है। इसे एक कर्नल फंक्शन की मदद से प्राप्त किया जाता है जो फीचर स्पेस में दो डेटा प्वाइंट के बीच समानता को मापता है। कर्नल फंक्शन एल्गोरिदम को ट्रांसफॉर्मेशन को निर्वाह करने के लिए अवश्यक नहीं होता है, जिससे इसका अभिप्राय डेटा पर काम करने में अधिक संगठित और अधिक उपयोगी हो जाता है।   









Post a Comment

1 Comments