Support Vector Machine in Hindi
SVM एक supervised machine learning एल्गोरिथ्म है जो classification, regression और outlier detection के लिए उपयोग किया जाता है। यह एक non-parametric एल्गोरिथ्म है, जिसका मतलब है कि यह डेटा के वितरण के बारे में कोई भी अनुमान नहीं लगाता।
SVM में लक्ष्य उन विभिन्न वर्गों में डेटा को सबसे अच्छी तरह से अलग करने वाले hyperplane को ढूंढना होता है। hyperplane एक उच्च आयामी सतह होती है जो विशेषता स्थान को दो भागों में विभाजित करती है। SVM एल्गोरिथ्म hyperplane का पता लगाने का प्रयास करता है जो सबसे बड़ी margin के साथ होता है, जो हर वर्ग से सबसे करीबी डेटा बिंदु और hyperplane के बीच की दूरी होती है। यह दृष्टिकोण सुनिश्चित करता है कि वर्गीकरणकर्ता में अच्छी जनरलाइज़ेशन प्रदर्शन होता है और प्रशिक्षण डेटा को overfit करने की कम संभावना होती है।
SVM एल्गोरिथ्म डेटा को एक कर्नल फंक्शन का उपयोग करके एक उच्च-आयामी अंतरिक्ष में बदलता है। इससे एल्गोरिथ्म दो वर्गों के बीच एक गैर-लीनियर सीमा ढूंढ सकता है। सबसे आम उपयोग होने वाले कर्नल फंक्शन लीनियर, पॉलिनोमियल, और रेडियल बेसिस फंक्शन (आरबीएफ) हैं।
SVM एल्गोरिथ्म दो तरह के वर्गीकरण समस्याओं, दो वर्गीकरण और बहु-वर्गीकरण, को संभव बनाता है। दो वर्गीकरण के लिए, SVM उन दो वर्गों को अलग करने वाला हाइपरप्लेन ढूंढता है। बहु-वर्गीकरण के लिए, SVM एक संयुक्त तरीके से बाइनरी वर्गकर्ताओं का उपयोग करता है ताकि डेटा को कई वर्गों में विभाजित किया जा सके।
SVM का व्यापक उपयोग चित्र वर्गीकरण, पाठ वर्गीकरण, जैव जानकारी विज्ञान, और वित्त में किया जाता है। हालांकि, SVM बड़े डेटासेट के लिए गणनात्मक रूप से महंगा हो सकता है, और सही कर्नल फंक्शन और पैरामीटर चुनना चुनौतीपूर्ण हो सकता ह
Example:
हमें एक डेटासेट है जिसमें हर बिंदु "Positive" (Green) या "Negative" (Red) चिह्नित होता है। यह एक 2D बिंदु डेटासेट है, जहां प्रत्येक बिंदु के (x, y) निर्देश होते हैं।
हम एक डेटासेट के साथ उपलब्ध हैं जिसमें हर बिंदु "Positive" (Red) या "Negative" (Red) लेबल के साथ हैं:
हम नए बिंदुओं के लेबल को उनकी (x, y) निर्देशांकों पर आधारित भविष्यवाणी करने के लिए एक वर्गीकरणकर्ता प्रशिक्षित करना चाहते हैं। एक रैखिक एसवीएम Positive और Negative बिंदुओं को जितनी विस्तृत संभव हो उन्हें अलग करने के लिए सर्वश्रेष्ठ रेखा (Hyperplane) खोजने की कोशिश करता है। इस उदाहरण में, SVM एक फैसला सीमा सीख सकता है जो इस तरह दिखता है:
बीच की रेखा फैसला सीमा होती है, और दोनों ओर के Parallel रेखाएं Margin होती हैं। SVM Margin को अधिकतम करने का प्रयास करता है, जो निर्णय सीमा और दोनों क्लास के सबसे करीबी बिंदुओं (Support vector) के बीच की दूरी होती है। इस तरीके से, SVM training data में अधिक फिट होने की संभावना कम होती है और नए डेटा पर अधिक से अधिक generalize करने की संभावना बढ़ती है।
जब नए बिंदु को Data set में जोड़ा जाता है, तो SVM उसकी लेबल की पूर्वानुमान लगा सकता है जांच करके कि वह निर्णय सीमा किस तरफ होता है।
Types of (SVM)
Support vector machine are two type
Linear SVM
Non - Linear SVM
1- Linear SVM
.png)
Linear SVM (Support Vector Machine) एक ऐसा Algorithm है जो Data Points को अलग-अलग वर्गों में विभाजित करने के लिए एक रैखिक Hyperplane का उपयोग करता है। यह एक लोकप्रिय Algorithm है जो Linear विभाजनीय डेटा के लिए उपयोग किया जाता है।
Linear SVM में, Algorithm दो वर्गों के बीच की Margin को बढ़ाने वाली एक Hyperplane खोजता है। Margin को दो वर्गों के सबसे करीबी Data Points से Hyperplane की दूरी के रूप में परिभाषित किया जाता है। Margin को बढ़ाकर, Algorithm इस सुनिश्चित करता है कि निर्णय सीमा Data Points से ज्यादा दूर होता है, जिससे एक अधिक स्थायी और सटीक मॉडल मिलता है।
Linear SVM के अनुकूलन समस्या को एक उच्चतर गोलीय अनुकूलन समस्या के रूप में सूचीबद्ध किया जा सकता है, जो ग्रेडिएंट डिसेंट, स्टोकास्टिक ग्रेडिएंट डिसेंट या क्वाड्रेटिक Programing जैसी अनुकूलन तकनीकों का उपयोग करके आसानी से हल किया जा सकता है।
Linear SVM कई अन्य वर्गीकरण Algorithm की तुलना में अनेक फायदे होते हैं, जिसमें उच्च अक्सरता, उच्च-आयामी Data को हैंडल करने की क्षमता और बड़े Data set को अच्छी तरह से हैंडल करने की क्षमता शामिल होती है। इसे पाठ की वर्गीकरण, छवि वर्गीकरण और जैव जानकारी विज्ञान जैसे विभिन्न Application में आमतौर पर उपयोग किया जाता है।
2- Non Linear SVM
Non-linear SVM एक ऐसा SVM का प्रकार है जो उपयोग किया जाता है जब Data Linear रूप से विभाज्य नहीं होता है। यह विभाजन समस्याओं के लिए एक लोकप्रिय Algorithm है, जहां वर्गों के बीच निर्णय सीमा एक रूपरेखा से नहीं दर्शाई जा सकती है।
Non-linear SVM में, Algorithm प्रवेश Data को एक उच्च आयामी सुविधा अंतरिक्ष में मैप करता है जहां वर्ग एक Hyperplane द्वारा विभाज्य होते हैं। यह इसलिए संभव होता है कि एक Non Linear रूपरेखा polynomial या रेडियल बेसिस फंक्शन जैसी एक Non Linear परिवर्तन को प्रयोग करते हुए इनपुट Data को बदलता है। बदला हुआ Data फिर सबसे बड़े Margin के साथ वर्गों को अलग करने वाली Optimal Hyperplane खोजने के लिए उपयोग किया जाता है।
Non Linear SVM की अनुकुलन समस्या भी एक उच्च आयामी विशेषता वाली उपलब्धि है, लेकिन इसे गणनात्मक रूप से महंगा बनाता है क्योंकि इसके लिए एक उच्च-आयामी विशेषता अंतरिक्ष में डेटा को प्रकाशित रूप से नहीं लिया जाता। हालांकि, Kernel method का उपयोग करके इस समस्या को असंभव नहीं बनाया जा सकता है। इसके लिए दो डेटा बिंदुओं के बीच विशेषता अंतरिक्ष में समानता का माप लेने वाले एक Kernel function की परिभाषा की जाती है।
Non Linear SVM कई अन्य Non Linear वर्गीकरण Algorithm से बेहतर विशेषताओं से लब्ध होती है, जिसमें उच्च सटीकता, जटिल निर्णय सीमाओं को संभालने की क्षमता और Data में शोर और Outliers को संभालने की क्षमता शामिल होती है। यह छवि पहचान, बायो-सूचना विज्ञान और प्राकृतिक भाषा प्रोसेसिंग जैसे विभिन्न अनुप्रयोगों में आमतौर पर उपयोग किया जाता है।


.png)
.png)
1 Comments
thanks
ReplyDelete