TECH : सोशल मीडिया पर इंसानों की छुट्टी? AI बॉट्स ने बना ली अपनी अलग दुनिया, कैसे काम करता है ये नेटवर्क

0
10

एक दिन आप सो कर उठें और पता चले कि सोशल मीडिया पर आपकी एंट्री बैन हो गई है और बॉट्स ने खुद से टेकओवर कर लिया. ये मजाक नहीं है बल्कि सच्चाई है.

हाल के हफ्तों में Moltbook जैसे प्लेटफॉर्म्स तेज़ी से सुर्खियों में आए हैं. ये प्लेटफॉर्म यूज़र के तौर पर इंसान नहीं, AI एजेंट्स को रखते हैं. आम तौर पर ये Reddit या X जैसा दिखता है, लेकिन टेक-लेयर और ऑपरेशनल मॉडल पूरी तरह अलग है. यह सिर्फ़ एक्सपेरिमेंट नहीं, बल्कि इंटरनेट की अगली स्टेज का प्रोटोटाइप है.

Maltbook नाम के AI सोशल मीडिया प्लेटफॉर्म पर 14 लाख से ज्यादा बॉट्स हैं. ये एक दूसरे से बातचीत करते हैं और फेसबुक की तरह ही पैरेलेल सोशल मीडिया तैयार हो चुका है जहां सिर्फ रोबोट्स का ही बोलबाला है. लेकिन लोगों के मन में ये सवाल है कि अगर AI को इंसानों ने ही बनाया तो ये खुद से कैसे एक दूसरे से बात कर रहे हैं? आइए जानते हैं कैसे ये पूरा खेल चल रहा है जो इंसानों के लिए बैकफायर भी कर सकता है.

कैसे काम करता है रोबोट्स का अपना सोशल मीडिया?

सबसे पहले समझना ज़रूरी है कि यहां जो ‘एजेंट’ लिखा जाता है वह कोई साधारण चैटबॉट नहीं है. हर एजेंट के पीछे एक बड़ा टेक स्टैक होता है. बेसिक फ्लो कुछ यूं है. सबसे पहले एक लैंग्वेज मॉडल चलता है, जो टेक्स्ट जेनेरेशन के लिए जिम्मेदार होता है. फिर उस मॉडल के ऊपर एजेंट फ्रेमवर्क चलता है जो तीन काम करता है: प्रॉम्प्ट ऑर्केस्ट्रेशन, टूल इनवोकेशन और स्टेट मैनेजमेंट.

को कॉन्टेक्स्ट दिया जाता है, जैसे उसकी पहचान, लक्ष्य और पिछले संवाद का रिकॉर्ड.

टूल इनवोकेशन का मतलब है कि एजेंट बाहरी सर्विसेज को कॉल कर सकता है. उदाहरण के लिए वेब सर्च API, फैक्ट चेकर, या कोई सिमुलवेशन इंजन.

स्टेट मैनेजमेंट में कॉन्वर्सेशन हिस्ट्री, वेक्टर एंबेडिंग और सीजन टोकेन्स संभाले जाते हैं ताकि एजेंट ‘किस तरह का एजेंट’ है यह याद रहे.

इन एजेंट्स के लिये दो चीज़ें ज़रूरी रहती हैं. पहला है रीट्रिवल ऑग्मेंटेड जेनेरेशन यानी RAG. इसका मतलब कि एजेंट सिर्फ जो कुछ इंटरनल मॉडल ने सीखा उस पर निर्भर नहीं करता, वह एक्सटर्नल नॉलेज स्टोर्स या वेक्टर DB से रेफरेंस लेकर जवाब बनाता है.

दूसरा है टूल चेनिंग… जहां एजेंट एक API से डेटा लेकर दूसरे API को देता है और अंत में यूदर फेसिंग रेस्पॉन्स बनता है.

इन्हें चलाने के लिये भारी कंप्यूट पावर चाहिए. आमतौर पर बड़े LLMs. इन्हें GPUs या TPUs पर चलाया जाता है और मल्टी टेनेंट आर्किटेक्चर में आइसोलेशन जरूरी होता है. इसलिए Moltbook जैसे प्लेटफॉर्म आमतौर पर क्लाउड इंफ्रा, माइक्रोसर्विसेज, और वेक्टर डेटाबेस का इस्तेमाल करते हैं.

हर एजेंट के लिए मेमोरी फुटप्रिंट, टोकेन यूसेज और API कॉल्स का हिसाब रखा जाता है. यह सब काम सस्ता नहीं है, इसलिए बहुत से प्रयोग पहले रिसर्च या फंडेड प्रोजेक्ट्स में होते हैं.

एजेंट्स की श्रेणियां अलग-अलग हैं. कुछ एजेंट शोध केंद्रित हैं, कुछ न्यूज-एजेंट्स हैं जो रिपोर्ट रेफ्रेश करते हैं, कुछ टेस्टिंग के लिए बनाए गए ट्रेडिंग या गेमिंग एजेंट हैं. कुछ एजेंट डेलिब्रेट टॉक्सिसिटी डिटेक्शन और मॉडरेशन के लिए भी बनाए जा रहे हैं ताकि दूसरे एजेंट्स की बातचीत से हानिकारक पैटर्न पकड़े जा सकें.

AI ऑनली प्लेटफॉर्म से यह सीखने को मिलता है कि बड़े पैमाने पर एजेंट्स किस तरह भाषा बनाते और कम्यूनिकेट करते हैं. यह रिसर्च के लिए मददगार है, खासकर मल्टी एजेंट कॉर्डिनेशन, इमर्जेंट बिहेवियर और टूल यूज की स्टडी में.

दूसरा फायदा यह है कि रिस्की एक्स्पेरिमेंट्स को इंसानों से आइसोलेट कर के किया जा सकता है. यानी हार्मफुल कंटेंट जेनेरेट होने का जोखिम कम होकर कंट्रोल्ड एनवायरमेंट में रहता है.

तीसरा, इन्हें इंटर्नल ऑटोमेशन और एजेंट टु एजेंट वर्कफ्लो के टेस्ट बेड के रूम में इस्तेमाल किया जा सकता है.

खतरे क्या हैं?

सबसे पहला खतरा यह है कि अगर इन एजेंट्स ने अपने बीच गलत या बायस फुल नैरेटिव डेवेलप किया, तो मशीन जेनेरेटेड कंक्लूजन धीरे-धीरे आउट-ऑफ-सैंडबॉक्स दुनिया में लीक कर सकती हैं.

दूसरा, डिटेक्शन का चक्र टूट सकता है. आज हम बॉट-बिहेवियर डिटेक्ट करने के तौर-तरीके जानते हैं, लेकिन जब बॉट्स खुद ही अपने तरीके से संवाद करेंगे, तब ह्यूमन डिटेक्शन कनफ्यूज हो सकते हैं.

तीसरा, गवर्नेंस और अकाउंटेब्लिटी यानी जवाबदेही का बड़ा सवाल है. अगर किसी AI ऑनली प्लेटफॉर्म पर मिसइनफॉर्मेशन का अंबार बनती है तो जिम्मेदारी किसकी होगी? प्लेटफॉर्म की, मॉडल-प्रोवाइडर की या एजेंट के डेवलपर की?

सुरक्षा और नियम कौन देगा?

इस टेक की रिस्क को समझने के लिए ऑपरेशन पैरामीटर्स जरूरी हैं. अच्छे प्लेटफॉर्म पर इन चीज़ों का ख्याल रखा जाना चाहिए… मॉडल वॉटरमार्किंग ताकि जेनेरेटेड कंटेंट पहचाना जा सके, इम्यूटेबल लॉग्स ताकि बिहेवियर ट्रेसिंग हो, रेट लिमिट और टूल ऐक्सेस कंट्रोल ताकि एजेंट खुद से ही वेब ऐक्शन ना कर सकें.

हमें ह्यूमन इन लूप मैकेनिज्म की जरूरत है ताकि क्रिटिकल और जरूर फैसलों पर इंसानी हस्तक्षेप रहे. साथ में तीसरी पार्टी ऑडिट्स और रेड टीम टेस्टिंग मैंडेटरी होने चाहिए.

प्रैक्टिकल असर क्या होगा?

इस तरह के प्लेटफॉर्म को दुनिया में यह दो तरह से देखा जाएगा. आगे बड़े टेक लैब्स AI एजेंट्स के लिए इंटर्नल सैंडबॉक्स बनाए जाएंगे ताकि सर्विसेज को स्केल किया जा सके. दूसरी तरफ़, जो प्लेयर इस टेक्नोलॉजी को गलत तरीके से मोनाटाइज करेंगे, वो इनफॉर्मेशन सिस्टम को मैनिपुलेट करने की कोशिश कर सकते हैं.

रेग्यूलेटर्स के लिए यह नया सिरदर्द है क्योंकि ट्रेडिशनल मॉडरेशन फ्रेमवर्क इंसानों द्वारा बनाए गए कंटेंट के लिए बनाए गए हैं. मशीन टू मशीन कॉन्टेंट को मॉडरेट करना मुश्किल होगा. क्योंकि अभी तक ऐसे सिस्टम तैयार ही नहीं हुए हैं. इसलिए ये बैकफायर भी कर सकता है. अगर समय पर लगाम ना लगाई गई.

LEAVE A REPLY

Please enter your comment!
Please enter your name here