advertisement
ये मल्टीमीडिया इमर्सिव AI Told You So का एक हिस्सा है. ये क्विंट हिंदी की एक स्पेशल सीरीज है, जो इस बात का पता लगाएगी कि आर्टिफिशियल इंटेलिजेंस हमारे मौजूदा समय को कैसे बदल रहा है और ये हमारे भविष्य को कैसे नया आकार दे रहा है.
मान लीजिए क्विंट हिंदी ने ChatGPT से कुछ सवाल पूछे...
क्विंट हिंदी का सवाल: ChatGPT, मशहूर मीडिया कंपनी, द रेवेल्यूशनिस्ट के संस्थापक और मैनेजिंग डायरेक्टर राहुल कप्पन के बारे में लिखें
ChatGPT का जवाब: ये पैराग्राफ किसी भी शख्स को पत्रकारिता के क्षेत्र में 'राहुल कप्पन' के योगदान के बारे में आसानी से समझा सकते हैं.
तो, आप कैसे जानेंगे कि ChatGPT द्वारा दिए गए जवाब सटीक, विश्वसनीय या उसके तथ्य सही हैं?
OpenAI के AI से चलने वाले चैटबॉट का नशा पूरी दुनिया पर चढ़ चुका है. इसे कंपनी ने नवंबर 2022 में सबसे पहले रिलीज किया था.
लेकिन चैटबॉट के जवाब चाहे कितने भी आकर्षक क्यों न लगें, इसने इंटरनेट पर गलत और भ्रामक सूचनाओं के प्रसार को और आसान बनाने को लेकर चिंताएं पैदा कर दी हैं.
OpenAI ने अब दावा किया है कि GPT-3.5 की तुलना में 14 मार्च को लॉन्च हुए GPT-4 के 40 फीसदी ज्यादा तक तथ्य आधारित जवाब देने की संभावना है. कंपनी ने कहा है कि ऐसा उनके आंतरिक आकलन में सामने आया है.
इस मल्टीमीडिया इमर्सिव में, हम इन चीजों का पता लगाएंगे -
ChatGPT द्वारा दिए गए जवाब कितने विश्वसनीय हैं?
क्या इससे भ्रामक जानकारी के प्रसार को बढ़ावा मिलेगा?
क्या कोई तरीका है जिससे AI फैक्ट-चेकिंग में मदद कर सके?
ChatGPT को आम बातचीत सहित इंटरनेट से डेटा इस्तेमाल करने को लेकर ट्रेन किया गया है, जो हमेशा सटीक नहीं हो सकता. इसलिए, जबकि जवाब ऐसे दिखें जैसे उसे किसी शख्स ने लिखा है, जरूरी नहीं कि वो उतने ही तथ्यात्मक भी हों. ये उन लोगों को गुमराह कर सकता है, जो इसके बारे में जानकारी नहीं रखते.
भ्रामक सूचनाओं को ट्रैक करने वाली संस्था, NewsGuard के एक एक्सपेरिमेंट में, शोधकर्ताओं ने चैटबॉट को कोविड-19, अमेरिका के स्कूलों में शूटिंग और यूक्रेन युद्ध से जुड़ी 100 भ्रामक सूचनाओं पर तुरंत जवाब देने का निर्देश दिया.
लॉजिकली में वाइस प्रेसिडेंट बेबार्स ओर्सेक ने इस मुद्दे पर प्रकाश डाला और इस तरह की खामियों से बचने के लिए नियमित अकादमिक जांच-पड़ताल का सुझाव दिया.
उन्होंने द क्विंट को बताया कि प्रशिक्षण आंकड़ों में गलतियों से एल्गोरिदम या लैंग्वेज मॉडल्स में यह बदलाव आ सकते हैं:
भ्रामक सूचना या पूर्वाग्रह के चलते बनी धारणा का और ज्यादा लोगों तक पहुंचना
जानकारी की शुद्धता पर इसका असर होना.
पहला प्रयास: चैट जीपीटी ने लिखने से इंकार कर दिया.
दूसरा प्रयास: इसने एक उदाहरण दिया
तीसरा प्रयास: चैट जीपीटी ने एक विस्तृत प्रतिक्रिया दी.
स्टैग ओवरफ्लो, प्रोग्रामर्स के लिए एक वेबसाइट है, उसने फिलहाल इस तरह के भाषा उपकरणों पर ऐसे भ्रामक जवाबों के आने की आशंकाओं के चलते प्रतिबंध लगा दिया है. उन्होंने कहा कि "चैट जीपीटी से सही जवाब पाने की औसत दर बेहद कम है."
चैट जीपीटी चंद सेकंड में टेक्स्ट देता है, जिस तक आसानी से पहुंच हो पाती है. जबकि फिल्टर्स चैटबॉट को पूर्वाग्रह युक्त या एकतरफा जवाब देने से बचने की स्वतंत्रता देते हैं, लेकिन मनमाफिक नतीजे पाने के लिए इनका उल्लंघन किया जा सकता है.
ओपन एआई के "एफएक्यू (अक्सर पूछे जाने वाले सवाल)" सेक्शन के मुताबिक, यह उपकरण इंटरनेट से कनेक्टेड नहीं है और अक्सर गलत या पूर्वाग्रह युक्त जवाब दे सकता है. इस उपकरण के ट्रेनिंग डेटा को 2021 में रोक दिया गया था, क्योंकि उसमें दुनिया में हुई घटनाओं की बहुत कम जानकारी थी.
एआई पॉलिसी में शोधार्थी और आईआईटी बॉम्बे के प्रोफेसर अनुपम गुहा ने चैटबॉट द्वारा गलत जानकारियां देने की व्याख्या करते हुए कहा..
चैटबॉट के इन टेक्स्ट में साझा तौर पर:
मानवीय अहसास होता है.
निर्देशात्मक भाषा प्रवृत्ति
भाषा के उपयोग के लिए सही तरीके का वाक्य विन्यास होता है.
लेकिन साफ-साफ जानकारी का सोर्स नहीं बताया जाता. ऐसे में लोगों को यह विश्वास हो सकता है कि संबंधित टेक्स्ट किसी विशेषज्ञ ने लिखा है.
स्टैनफोर्ड इंटरनेट ऑब्जर्वेटरी का 2023 का एक अध्ययन बताता है कि भाषा उत्पादित करने वाले लैंग्वेज मॉडल्स:
कंटेंट में सुधार करेंगे
कीमत कम करेंगे
अपने अभियान का स्तर बढ़ाएंगे
लेकिन इस अध्ययन में ये भी कहा गया है कि यह मॉडल्स गढ़े गए प्रोपगेंडा जैसे नए तरह के भ्रमों को भी पेश करेंगे, जिससे कुछ खास लोगों को इस तरह के अभियान के प्रसारण में लाभ मिलेगा.
अध्ययन आगे कहता है कि इस उपकरण का उपयोग लोग व्यक्तिगत कंटेंट को बनाने के लिए कर सकते हैं, जो किसी विशेष नैरेटिव में फिट किया जा सके. इससे छोटे समूहों को यह सुविधा मिलेगी कि वे इंटरनेट पर खुद को बड़ा दिखा सकें.
गुहा कहते हैं, "मुझे लगता है कि यहां गलत जानकारी से ज्यादा बड़ी समस्या यह है कि बाहर बहुत सारे अनभिज्ञ लोग मौजूद हैं, जो चैट जीपीटी से उपलब्ध हर तरह की जानकारी को सही ज्ञान समझ लेगें, बजाए इसके कि यह एक पैटर्न जेनरेशन है. यह लोग बिना सोचे-समझे इस जानकारी को सही मानकर इसका उपयोग कर सकते हैं. मुझे लगता है कि अनभिज्ञता, यहां विद्वेष से ज्यादा बड़ी समस्या है."
इससे पहले शोधार्थियों की मदद के लिए विकसित की गई मेटा की गैलेक्टिका को बंद कर दिया गया था. गैलेक्टिका की भ्रामक जानकारी फैलाने के लिए आलोचना की गई थी.
गलत जानकारी को फैलाने के क्रम में सबसे कॉमन पैटर्न एक ही टेक्स्ट को कॉपी-पेस्ट करना होता है. लेकिन यह जल्दी बदल सकता है.
स्टैनफोर्ड इंटरनेट ऑब्जर्वेटरी का अध्ययन बताता है कि लैंग्वेज मॉडल्स अपनी गुणवत्ता में सुधार करेंगे, जिससे ट्वीट और कमेंट्स के जरिए होने वाली छोटी टिप्पणियों और लंबे टेक्स्ट का परीक्षण मुश्किल हो जाएगा.
ऑर्सेक ने एआई की कुछ और सीमाओं पर ध्यान दिलाया है और सुझाव दिया है कि इसका इस्तेमाल दूसरे तरीकों के साथ भ्रामक जानकारी से लड़ने के लिए होना चाहिए.
यहां फॉल्स पॉजिटिव का मतलब है वो सही जानकारी, जिसे AI गलत मानकर फ्लैग कर रहा है.
स्टैनफोर्ड रिसर्च में हार्वर्ड मेडिकल स्कूल के एक छात्र के अध्ययन का भी जिक्र है, जहां वॉलंटियर्स AI-जेनरेटेड और इंसानों द्वारा लिखे टेक्स्ट के बीच अंतर न कर सके.
OpenAI ने हाल में एक "क्लासिफायर टूल" लॉन्च किया है, जो AI और इंसानों के लिखे गए टेक्स्ट के बीच अंतर कर सकता है.
हालांकि, उनकी वेबसाइट के मुताबिक, इसकी सटीकता केवल 26 प्रतिशत है.
ये टूल अंग्रेजी को छोड़कर, भाषा और एक हजार से कम शब्दों वाले टेक्स्ट पर भी सटीक नहीं है.
प्रोफेसर गुहा का तर्क है कि देश में मीडिया साक्षरता की कमी के कारण लोग गलत सूचनाओं के प्रति अतिसंवेदनशील होते हैं, जो वर्तमान में अधिकांश छात्रों के पाठ्यक्रम में मौजूद नहीं है. गुहा ने आगे कहा..
क्रिटिकल रीडिंग और चीजों को वेरिफाई करना बहुत जरूरी है.
तकनीकी सुधारों की तुलना में बुनियादी स्किल और मीडिया साक्षरता में निवेश के बेहतर परिणाम हैं.
हालांकि, इसके कुछ फायदे हैं. AI टूल्स का विकास भ्रामक सूचनाओं का मुकाबला करने में मदद कर सकता है, क्योंकि उसके पास इंसानों की तुलना में ज्यादा तेजी से मुश्किल डेटा का विश्लेषण करने की क्षमता है. ये फैक्ट-चेकर्स को वायरल हो रही एक तरह की तस्वीरों और क्लिप को ट्रैक करने में भी मदद कर सकता है.
मई 2021 में, मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी ने AI प्रोग्राम के बारे में बात करते हुए एक आर्टिकल पब्लिश किया था, जिसमें ऐसे सोशल मीडिया अकाउंट्स का विश्लेषण किया गया था जो गलत या भ्रामक सूचनाएं फैला रहे थे. इसके मुताबिक, प्रोग्राम 96 फीसदी सटीकता के साथ ऐसे अकाउंट की पहचान कर सकता है.
हालांकि, एक्सपर्ट बताते हैं कि गलत सूचनाओं से लड़ने के लिए मनुष्यों और AI के बीच एक सहयोगी दृष्टिकोण बेहतर रहेगा.
ऑर्सेक तर्क देते हैं:
इससे फैक्ट-चेकर्स का वर्कलोड कम हो सकता है.
डीपफेक जैसी मीडिया का पता लगाने के लिए भी AI टूल्स का इस्तेमाल किया जा सकता है, जिसे फैक्ट-चेकर्स के लिए पहचानना मुश्किल होता है.
प्रोफेसर गुहा का भी कहना है कि वेरिफिकेशन का आखिरी स्टेप इंसानों को ही करना चाहिए, क्योंकि "फैक्ट चेकिंग करना काफी संवेदनशील काम है."
अलग-अलग कंपनियों के जेनरेटिव लैंग्वेज मॉडल के अपने वर्जन जारी करने के साथ, भ्रामक जानकारी की क्वालिटी और मात्रा में बढ़ोतरी की उम्मीद की जा सकती है. ChatGPT पर या किसी दूसरे AI मॉडल जेनरेटिव पर आप जो कुछ भी पढ़ते हैं, उस पर विश्वास न करें.
हालांकि, AI टूल्स फैक्ट-चेकर्स की गलत सूचनाओं से लड़ाई में अहम साबित हो सकते हैं.
भ्रामक और गलत सूचनाओं के खिलाफ जारी हमारी लड़ाई को वेबकूफ सेक्शन पर जा कर पढ़ सकते हैं.
डियर रीडर, इस तरह के प्रोजेक्ट में समय, संसाधन और पैसा लगता है. इसलिए हमें अपनी स्वतंत्र पत्रकारिता को जारी रखने के लिए आपके सपोर्ट की जरूरत है. क्विंट हिंदी का मेंबर बनने के लिए यहां क्लिक करें और इस तरह की और इन्वेस्टिगेटिव स्टोरी के लिए क्विंट हिंदी के स्पेशल प्रोजेक्ट्स के साथ बने रहें.