एक दिन आप सो कर उठें और पता चले कि सोशल मीडिया पर आपकी एंट्री बैन हो गई है और बॉट्स ने खुद से टेकओवर कर लिया. ये मजाक नहीं है बल्कि सच्चाई है.
हाल के हफ्तों में Moltbook जैसे प्लेटफॉर्म्स तेज़ी से सुर्खियों में आए हैं. ये प्लेटफॉर्म यूज़र के तौर पर इंसान नहीं, AI एजेंट्स को रखते हैं. आम तौर पर ये Reddit या X जैसा दिखता है, लेकिन टेक-लेयर और ऑपरेशनल मॉडल पूरी तरह अलग है. यह सिर्फ़ एक्सपेरिमेंट नहीं, बल्कि इंटरनेट की अगली स्टेज का प्रोटोटाइप है.
Maltbook नाम के AI सोशल मीडिया प्लेटफॉर्म पर 14 लाख से ज्यादा बॉट्स हैं. ये एक दूसरे से बातचीत करते हैं और फेसबुक की तरह ही पैरेलेल सोशल मीडिया तैयार हो चुका है जहां सिर्फ रोबोट्स का ही बोलबाला है. लेकिन लोगों के मन में ये सवाल है कि अगर AI को इंसानों ने ही बनाया तो ये खुद से कैसे एक दूसरे से बात कर रहे हैं? आइए जानते हैं कैसे ये पूरा खेल चल रहा है जो इंसानों के लिए बैकफायर भी कर सकता है.
कैसे काम करता है रोबोट्स का अपना सोशल मीडिया?
सबसे पहले समझना ज़रूरी है कि यहां जो ‘एजेंट’ लिखा जाता है वह कोई साधारण चैटबॉट नहीं है. हर एजेंट के पीछे एक बड़ा टेक स्टैक होता है. बेसिक फ्लो कुछ यूं है. सबसे पहले एक लैंग्वेज मॉडल चलता है, जो टेक्स्ट जेनेरेशन के लिए जिम्मेदार होता है. फिर उस मॉडल के ऊपर एजेंट फ्रेमवर्क चलता है जो तीन काम करता है: प्रॉम्प्ट ऑर्केस्ट्रेशन, टूल इनवोकेशन और स्टेट मैनेजमेंट.

को कॉन्टेक्स्ट दिया जाता है, जैसे उसकी पहचान, लक्ष्य और पिछले संवाद का रिकॉर्ड.
टूल इनवोकेशन का मतलब है कि एजेंट बाहरी सर्विसेज को कॉल कर सकता है. उदाहरण के लिए वेब सर्च API, फैक्ट चेकर, या कोई सिमुलवेशन इंजन.
स्टेट मैनेजमेंट में कॉन्वर्सेशन हिस्ट्री, वेक्टर एंबेडिंग और सीजन टोकेन्स संभाले जाते हैं ताकि एजेंट ‘किस तरह का एजेंट’ है यह याद रहे.
इन एजेंट्स के लिये दो चीज़ें ज़रूरी रहती हैं. पहला है रीट्रिवल ऑग्मेंटेड जेनेरेशन यानी RAG. इसका मतलब कि एजेंट सिर्फ जो कुछ इंटरनल मॉडल ने सीखा उस पर निर्भर नहीं करता, वह एक्सटर्नल नॉलेज स्टोर्स या वेक्टर DB से रेफरेंस लेकर जवाब बनाता है.
दूसरा है टूल चेनिंग… जहां एजेंट एक API से डेटा लेकर दूसरे API को देता है और अंत में यूदर फेसिंग रेस्पॉन्स बनता है.
इन्हें चलाने के लिये भारी कंप्यूट पावर चाहिए. आमतौर पर बड़े LLMs. इन्हें GPUs या TPUs पर चलाया जाता है और मल्टी टेनेंट आर्किटेक्चर में आइसोलेशन जरूरी होता है. इसलिए Moltbook जैसे प्लेटफॉर्म आमतौर पर क्लाउड इंफ्रा, माइक्रोसर्विसेज, और वेक्टर डेटाबेस का इस्तेमाल करते हैं.
हर एजेंट के लिए मेमोरी फुटप्रिंट, टोकेन यूसेज और API कॉल्स का हिसाब रखा जाता है. यह सब काम सस्ता नहीं है, इसलिए बहुत से प्रयोग पहले रिसर्च या फंडेड प्रोजेक्ट्स में होते हैं.
एजेंट्स की श्रेणियां अलग-अलग हैं. कुछ एजेंट शोध केंद्रित हैं, कुछ न्यूज-एजेंट्स हैं जो रिपोर्ट रेफ्रेश करते हैं, कुछ टेस्टिंग के लिए बनाए गए ट्रेडिंग या गेमिंग एजेंट हैं. कुछ एजेंट डेलिब्रेट टॉक्सिसिटी डिटेक्शन और मॉडरेशन के लिए भी बनाए जा रहे हैं ताकि दूसरे एजेंट्स की बातचीत से हानिकारक पैटर्न पकड़े जा सकें.
AI ऑनली प्लेटफॉर्म से यह सीखने को मिलता है कि बड़े पैमाने पर एजेंट्स किस तरह भाषा बनाते और कम्यूनिकेट करते हैं. यह रिसर्च के लिए मददगार है, खासकर मल्टी एजेंट कॉर्डिनेशन, इमर्जेंट बिहेवियर और टूल यूज की स्टडी में.
दूसरा फायदा यह है कि रिस्की एक्स्पेरिमेंट्स को इंसानों से आइसोलेट कर के किया जा सकता है. यानी हार्मफुल कंटेंट जेनेरेट होने का जोखिम कम होकर कंट्रोल्ड एनवायरमेंट में रहता है.
तीसरा, इन्हें इंटर्नल ऑटोमेशन और एजेंट टु एजेंट वर्कफ्लो के टेस्ट बेड के रूम में इस्तेमाल किया जा सकता है.
खतरे क्या हैं?
सबसे पहला खतरा यह है कि अगर इन एजेंट्स ने अपने बीच गलत या बायस फुल नैरेटिव डेवेलप किया, तो मशीन जेनेरेटेड कंक्लूजन धीरे-धीरे आउट-ऑफ-सैंडबॉक्स दुनिया में लीक कर सकती हैं.
दूसरा, डिटेक्शन का चक्र टूट सकता है. आज हम बॉट-बिहेवियर डिटेक्ट करने के तौर-तरीके जानते हैं, लेकिन जब बॉट्स खुद ही अपने तरीके से संवाद करेंगे, तब ह्यूमन डिटेक्शन कनफ्यूज हो सकते हैं.
तीसरा, गवर्नेंस और अकाउंटेब्लिटी यानी जवाबदेही का बड़ा सवाल है. अगर किसी AI ऑनली प्लेटफॉर्म पर मिसइनफॉर्मेशन का अंबार बनती है तो जिम्मेदारी किसकी होगी? प्लेटफॉर्म की, मॉडल-प्रोवाइडर की या एजेंट के डेवलपर की?
सुरक्षा और नियम कौन देगा?
इस टेक की रिस्क को समझने के लिए ऑपरेशन पैरामीटर्स जरूरी हैं. अच्छे प्लेटफॉर्म पर इन चीज़ों का ख्याल रखा जाना चाहिए… मॉडल वॉटरमार्किंग ताकि जेनेरेटेड कंटेंट पहचाना जा सके, इम्यूटेबल लॉग्स ताकि बिहेवियर ट्रेसिंग हो, रेट लिमिट और टूल ऐक्सेस कंट्रोल ताकि एजेंट खुद से ही वेब ऐक्शन ना कर सकें.
हमें ह्यूमन इन लूप मैकेनिज्म की जरूरत है ताकि क्रिटिकल और जरूर फैसलों पर इंसानी हस्तक्षेप रहे. साथ में तीसरी पार्टी ऑडिट्स और रेड टीम टेस्टिंग मैंडेटरी होने चाहिए.
प्रैक्टिकल असर क्या होगा?
इस तरह के प्लेटफॉर्म को दुनिया में यह दो तरह से देखा जाएगा. आगे बड़े टेक लैब्स AI एजेंट्स के लिए इंटर्नल सैंडबॉक्स बनाए जाएंगे ताकि सर्विसेज को स्केल किया जा सके. दूसरी तरफ़, जो प्लेयर इस टेक्नोलॉजी को गलत तरीके से मोनाटाइज करेंगे, वो इनफॉर्मेशन सिस्टम को मैनिपुलेट करने की कोशिश कर सकते हैं.
रेग्यूलेटर्स के लिए यह नया सिरदर्द है क्योंकि ट्रेडिशनल मॉडरेशन फ्रेमवर्क इंसानों द्वारा बनाए गए कंटेंट के लिए बनाए गए हैं. मशीन टू मशीन कॉन्टेंट को मॉडरेट करना मुश्किल होगा. क्योंकि अभी तक ऐसे सिस्टम तैयार ही नहीं हुए हैं. इसलिए ये बैकफायर भी कर सकता है. अगर समय पर लगाम ना लगाई गई.

