लिंगो को माहिर करना: प्रत्येक डेटा उत्साही के लिए एआई/एमएल शब्दावलियों की एक अनिवार्य सूची
आंदोलन
एजीआई (आर्टिफिशियल जनरल इंटेलिजेंस) एक सैद्धांतिक शब्द है जो मानव संज्ञानात्मक संकायों के समान गतिविधियों की एक विस्तृत श्रृंखला में सूचनाओं को समझने, प्राप्त करने और लागू करने में सक्षम एक कृत्रिम बुद्धि को दर्शाता है। एआई अनुसंधान में एजीआई का विकास एक महत्वपूर्ण मील का पत्थर होगा, क्योंकि वर्तमान एआई मॉडल संकीर्ण, विशेष कार्यों में उत्कृष्टता प्राप्त करते हैं, लेकिन जानकारी को स्थानांतरित करने और डोमेन में सामान्यीकरण करने के लिए संघर्ष करते हैं। एजीआई की खोज संभावित सामाजिक परिणामों, नैतिकता से संबंधित चिंताओं और एजीआई के लाभों के लिए समान पहुंच के आश्वासन सहित कई सवाल और चिंताएं उठाती है।
ध्यान तंत्र
तंत्रिका नेटवर्क में ध्यान तंत्र प्रक्रियाओं को मानव मस्तिष्क के ध्यान समारोह के बाद तैयार किया जाता है। ये तकनीकें मॉडल को इनपुट डेटा के विभिन्न हिस्सों पर काम के लिए उनकी प्रासंगिकता के अनुसार ध्यान केंद्रित करने की अनुमति देती हैं। ध्यान तंत्र एक दूसरे के संबंध में विभिन्न इनपुट टुकड़ों की प्रासंगिकता का आकलन करके संदर्भ को पकड़ने और दीर्घकालिक निर्भरताओं को संभालने के लिए मॉडल की क्षमता में सुधार करता है। प्राकृतिक भाषा प्रसंस्करण, कंप्यूटर दृष्टि और वाक् पहचान सहित विभिन्न प्रकार के कृत्रिम बुद्धिमत्ता क्षेत्रों में ध्यान देने की प्रक्रियाएँ उपयोगी साबित हुई हैं।
बर्ट
बीईआरटी (ट्रांसफॉर्मर्स से बिडायरेक्शनल एनकोडर रिप्रेजेंटेशन) एक ट्रांसफॉर्मर-आधारित मॉडल है जिसे Google द्वारा प्राकृतिक भाषा बोध कार्यों के लिए पूर्व-प्रशिक्षित किया गया है। इसकी नवीन द्विदिश प्रशिक्षण प्रक्रिया इसे टोकन के बाएँ और दाएँ दोनों पक्षों से प्रासंगिक जानकारी एकत्र करने की अनुमति देती है, जिससे भाषा की अधिक व्यापक समझ मिलती है। बीईआरटी ने प्राकृतिक भाषा प्रसंस्करण अनुप्रयोगों की एक विस्तृत श्रृंखला में बेजोड़ प्रदर्शन का प्रदर्शन किया है, जिसमें प्रश्न-उत्तर, भावना विश्लेषण और नामित इकाई पहचान शामिल है। इसकी असाधारण सफलता ने कई बीईआरटी-आधारित मॉडल और अलग-अलग भाषाओं और नौकरियों के अनुरूप ठीक-ठीक संस्करणों के निर्माण को प्रेरित किया है।
जीपीटी
जीपीटी (जनरेटिव प्री-ट्रेन्ड ट्रांसफॉर्मर) बड़े पैमाने पर ट्रांसफॉर्मर-आधारित भाषा मॉडल का एक ओपनएआई-विकसित परिवार है जिसे प्राकृतिक भाषा की व्याख्या और अनुप्रयोगों को उत्पन्न करने के लिए डिज़ाइन किया गया है। GPT मॉडल को बड़ी मात्रा में टेक्स्ट डेटा पर पूर्व-प्रशिक्षित किया गया है और विशिष्ट कार्यों जैसे टेक्स्ट पूर्णता, सारांश और अनुवाद के लिए ठीक-ठीक किया जा सकता है। GPT मॉडल, जैसे GPT-3 और GPT-4, ने सुसंगत, प्रासंगिक रूप से प्रासंगिक पाठ बनाने में उत्कृष्ट क्षमता दिखाई है, जिससे उन्हें विभिन्न प्रकार के AI अनुप्रयोगों जैसे कि चैटबॉट और आभासी सहायकों के लिए उपयुक्त बनाया जा सकता है।
ज्ञान का ग्राफ
एक ज्ञान ग्राफ एक संरचित, आदेशित जानकारी का प्रतिनिधित्व है जो वस्तुओं और उनके इंटरैक्शन को ग्राफ की तरह फैशन में जोड़ता है। नॉलेज ग्राफ़ का उपयोग एआई सिस्टम को सूचनाओं को जल्दी से स्टोर करने, सॉर्ट करने और पुनः प्राप्त करने में सक्षम बनाता है, जो प्रश्नों के उत्तर देने, अनुशंसा प्रणाली और अनुमान जैसे कार्यों की एक विस्तृत श्रृंखला के लिए आधार तैयार करता है। प्राकृतिक भाषा प्रसंस्करण मॉडल के साथ ज्ञान के ग्राफ के संयोजन ने एआई शोधकर्ताओं को जटिल, परस्पर डेटा को पचाने और सही, प्रासंगिक रूप से प्रासंगिक प्रतिक्रियाओं का उत्पादन करने में सक्षम सिस्टम विकसित करने के लिए प्रेरित किया है।
एलएलएम
एलएलएम (बड़ी भाषा के मॉडल) कृत्रिम बुद्धिमत्ता के मॉडल हैं जिन्हें बड़े पैमाने पर पाठ्य डेटा के बड़े पैमाने पर प्रशिक्षित किया गया है ताकि मानव-जैसे गद्य को समझा और तैयार किया जा सके। ये मॉडल प्रशिक्षण डेटा से जटिल पैटर्न, प्रासंगिक बारीकियों और ज्ञान प्राप्त कर सकते हैं, जिसके परिणामस्वरूप सुसंगत और प्रासंगिक रूप से उपयुक्त सामग्री उत्पन्न करने की उल्लेखनीय क्षमता होती है। उदाहरण के लिए, OpenAI की GPT श्रृंखला ने विभिन्न प्रकार के प्राकृतिक भाषा प्रसंस्करण कार्यों जैसे पाठ पूर्णता, सारांश और अनुवाद में उल्लेखनीय प्रदर्शन दिखाया है।
आरएलएचएफ
RLHF (इंफोर्समेंट लर्निंग फ्रॉम ह्यूमन फीडबैक) कार्यप्रणाली रीइन्फोर्समेंट लर्निंग को जोड़ती है, एक मशीन लर्निंग दृष्टिकोण जिसमें एक एजेंट अपने परिवेश के साथ बातचीत करके निर्णय लेना सीखता है, मानवीय प्रतिक्रिया के साथ एजेंट के कार्यों को मानवीय मूल्यों और प्राथमिकताओं के साथ संरेखित करता है। आरएलएचएफ में मानव प्रतिक्रिया का उपयोग एक इनाम संकेत प्रदान करने के लिए किया जाता है जो एजेंट की सीखने की प्रक्रिया का मार्गदर्शन करता है, मानव अपेक्षाओं का अनुपालन करने की क्षमता में सुधार करता है। यह दृष्टिकोण रोबोटिक्स, गेमिंग और वैयक्तिकृत अनुशंसाओं सहित विभिन्न क्षेत्रों में उपयोग में आया है।
आत्म ध्यान
स्व-ध्यान एक अद्वितीय प्रकार का ध्यान तंत्र है जिसका उपयोग ट्रांसफार्मर-आधारित मॉडल में किया जाता है। यह वर्तमान स्थिति के लिए उनकी प्रासंगिकता के आधार पर सभी पदों के भारित औसत की गणना करके एक ही क्रम में विभिन्न पदों को जोड़ने के लिए मॉडल की क्षमता में सुधार करता है। यह कौशल मॉडल को स्थानीय और वैश्विक दोनों संदर्भों को एकीकृत करने में सक्षम बनाता है, जिससे सार्थक सामग्री की व्याख्या और लिखने की क्षमता बढ़ जाती है। बीईआरटी और जीपीटी जैसे आधुनिक प्राकृतिक भाषा प्रसंस्करण मॉडल में आत्म-ध्यान एक महत्वपूर्ण घटक है।
ट्रांसफर लर्निंग
ट्रांसफर लर्निंग एक मशीन लर्निंग रणनीति है जो संबंधित असाइनमेंट पर प्रदर्शन को बेहतर बनाने के लिए पहले सीखे गए ज्ञान का उपयोग करती है। जीपीटी और बीईआरटी जैसे बड़े भाषा मॉडल के लिए स्थानांतरण सीखने के लिए भाषा का पूरा ज्ञान प्राप्त करने के लिए पाठ डेटा के विशाल कोष पर मॉडल को पूर्व-प्रशिक्षण की आवश्यकता होती है, इसके बाद इसे एक छोटे, एनोटेट डेटासेट के साथ एक विशिष्ट कार्य पर परिष्कृत किया जाता है। अत्याधुनिक प्राकृतिक भाषा प्रसंस्करण मॉडल की सफलता के लिए ट्रांसफर लर्निंग आवश्यक है, जिससे उन्हें सीमित कार्य-विशिष्ट डेटा के साथ भी असाधारण प्रदर्शन प्राप्त करने की अनुमति मिलती है।
ट्रांसफार्मर
ट्रांसफार्मर एक गहन शिक्षण ढांचा है । इसका लक्ष्य अनुक्रम-से-अनुक्रम कार्यों जैसे मशीन अनुवाद और पाठ सारांश को संभालना है। ट्रांसफार्मर अपने आत्म-ध्यान तंत्र द्वारा प्रतिष्ठित है, जो इसे इनपुट डेटा के भीतर विशाल निर्भरता और अंतर्संबंधों को प्रभावी ढंग से रिकॉर्ड करने में सक्षम बनाता है। यह ढांचा BERT, GPT, और T5 सहित कई अत्याधुनिक प्राकृतिक भाषा प्रसंस्करण मॉडल का आधार बन गया है।
संदर्भ
- https://alumni.media.mit.edu/~kris/ftp/Helgason-AGI2012-AwardEdition-Final.pdf
- https://aws.amazon.com/what-is/gpt/
- https://cloud.google.com/ai-platform/training/docs/algorithms/bert-start
- https://ai.googleblog.com/2018/11/open-sourcing-bert-state-of-art-pre.html
- https://en.wikipedia.org/wiki/Generative_pre-trained_transformer
- https://machinelearningmastery.com/the-attention-mechanism-from-scratch/
- https://www.kdnuggets.com/2021/01/attention-mechanism-deep-learning-explained.html
- कर्पथी की व्याख्याhttps://www.youtube.com/watch?v=kCc8FmEb1nY
- https://machinelearningmastery.com/transfer-learning-for-deep-learning/
- https://www.stardog.com/building-a-knowledge-graph/