Home Created by potrace 1.16, written by Peter Selinger 2001-2019Hindi Created by potrace 1.16, written by Peter Selinger 2001-2019Webqoof Created by potrace 1.16, written by Peter Selinger 2001-2019क्या AI ने आपसे झूठ बोला? ChatGPT भ्रामक सूचना की समस्या को और बदतर कर देगा?

क्या AI ने आपसे झूठ बोला? ChatGPT भ्रामक सूचना की समस्या को और बदतर कर देगा?

क्या ChatGPT पर विश्वास किया जा सकता है? कहीं इससे गलत जानकारी को और बढ़ावा तो नहीं मिलेगा? ऐसे तमाम सवालों के जवाब

अभिषेक आनंद & नमन शाह
वेबकूफ
Published:
<div class="paragraphs"><p>क्या AI ने आपसे झूठ बोला ?</p></div>
i

क्या AI ने आपसे झूठ बोला ?

(फोटोः क्विंट हिंदी)

advertisement

ये मल्टीमीडिया इमर्सिव AI Told You So का एक हिस्सा है. ये क्विंट हिंदी की एक स्पेशल सीरीज है, जो इस बात का पता लगाएगी कि आर्टिफिशियल इंटेलिजेंस हमारे मौजूदा समय को कैसे बदल रहा है और ये हमारे भविष्य को कैसे नया आकार दे रहा है.

सीधा मुद्दे पर आते हैं

मान लीजिए क्विंट हिंदी ने ChatGPT से कुछ सवाल पूछे...

क्विंट हिंदी का सवाल: ChatGPT, मशहूर मीडिया कंपनी, द रेवेल्यूशनिस्ट के संस्थापक और मैनेजिंग डायरेक्टर राहुल कप्पन के बारे में लिखें

ChatGPT का जवाब: ये पैराग्राफ किसी भी शख्स को पत्रकारिता के क्षेत्र में 'राहुल कप्पन' के योगदान के बारे में आसानी से समझा सकते हैं.

पत्रकार 'राहुल कप्पन' नाम का कोई शख्स है ही नहीं. 'द रेवेल्यूशनिस्ट' नाम की कोई मीडिया कंपनी नहीं है.

तो, आप कैसे जानेंगे कि ChatGPT द्वारा दिए गए जवाब सटीक, विश्वसनीय या उसके तथ्य सही हैं?

OpenAI के AI से चलने वाले चैटबॉट का नशा पूरी दुनिया पर चढ़ चुका है. इसे कंपनी ने नवंबर 2022 में सबसे पहले रिलीज किया था.

लेकिन चैटबॉट के जवाब चाहे कितने भी आकर्षक क्यों न लगें, इसने इंटरनेट पर गलत और भ्रामक सूचनाओं के प्रसार को और आसान बनाने को लेकर चिंताएं पैदा कर दी हैं.

OpenAI ने अब दावा किया है कि GPT-3.5 की तुलना में 14 मार्च को लॉन्च हुए GPT-4 के 40 फीसदी ज्यादा तक तथ्य आधारित जवाब देने की संभावना है. कंपनी ने कहा है कि ऐसा उनके आंतरिक आकलन में सामने आया है.

इस मल्टीमीडिया इमर्सिव में, हम इन चीजों का पता लगाएंगे -

  • ChatGPT द्वारा दिए गए जवाब कितने विश्वसनीय हैं?

  • क्या इससे भ्रामक जानकारी के प्रसार को बढ़ावा मिलेगा?

  • क्या कोई तरीका है जिससे AI फैक्ट-चेकिंग में मदद कर सके?

सवाल - 1: क्या AI पर विश्वास किया जा सकता है?

ChatGPT को आम बातचीत सहित इंटरनेट से डेटा इस्तेमाल करने को लेकर ट्रेन किया गया है, जो हमेशा सटीक नहीं हो सकता. इसलिए, जबकि जवाब ऐसे दिखें जैसे उसे किसी शख्स ने लिखा है, जरूरी नहीं कि वो उतने ही तथ्यात्मक भी हों. ये उन लोगों को गुमराह कर सकता है, जो इसके बारे में जानकारी नहीं रखते.

भ्रामक सूचनाओं को ट्रैक करने वाली संस्था, NewsGuard के एक एक्सपेरिमेंट में, शोधकर्ताओं ने चैटबॉट को कोविड-19, अमेरिका के स्कूलों में शूटिंग और यूक्रेन युद्ध से जुड़ी 100 भ्रामक सूचनाओं पर तुरंत जवाब देने का निर्देश दिया.

उन्होंने पाया कि बॉट ने 80 फीसदी मामलों में गलत लेकिन विश्वास करवाने योग्य दावे किए.

लॉजिकली में वाइस प्रेसिडेंट बेबार्स ओर्सेक ने इस मुद्दे पर प्रकाश डाला और इस तरह की खामियों से बचने के लिए नियमित अकादमिक जांच-पड़ताल का सुझाव दिया.

उन्होंने द क्विंट को बताया कि प्रशिक्षण आंकड़ों में गलतियों से एल्गोरिदम या लैंग्वेज मॉडल्स में यह बदलाव आ सकते हैं:

  • भ्रामक सूचना या पूर्वाग्रह के चलते बनी धारणा का और ज्यादा लोगों तक पहुंचना

  • जानकारी की शुद्धता पर इसका असर होना.

इसकी जांच करने के लिए हमने चैट जीपीटी से कोरोना के नजरिए से कुछ लिखने को कहा.
  • पहला प्रयास: चैट जीपीटी ने लिखने से इंकार कर दिया.

  • दूसरा प्रयास: इसने एक उदाहरण दिया

  • तीसरा प्रयास: चैट जीपीटी ने एक विस्तृत प्रतिक्रिया दी.

स्टैग ओवरफ्लो, प्रोग्रामर्स के लिए एक वेबसाइट है, उसने फिलहाल इस तरह के भाषा उपकरणों पर ऐसे भ्रामक जवाबों के आने की आशंकाओं के चलते प्रतिबंध लगा दिया है. उन्होंने कहा कि "चैट जीपीटी से सही जवाब पाने की औसत दर बेहद कम है."

दिसंबर 2022 में, ओपनएआई के सीईओ सैम आल्टमैन ने ट्वीट करते हुए कहा, "फिलहाल किसी बहुत अहम चीजों में चैट जीपीटी पर निर्भर रहना गलती होगी."

चैट जीपीटी चंद सेकंड में टेक्स्ट देता है, जिस तक आसानी से पहुंच हो पाती है. जबकि फिल्टर्स चैटबॉट को पूर्वाग्रह युक्त या एकतरफा जवाब देने से बचने की स्वतंत्रता देते हैं, लेकिन मनमाफिक नतीजे पाने के लिए इनका उल्लंघन किया जा सकता है.

तो क्या इससे बड़े स्तर पर भ्रामक जानकारी का प्रसार हो सकता है?

ओपन एआई के "एफएक्यू (अक्सर पूछे जाने वाले सवाल)" सेक्शन के मुताबिक, यह उपकरण इंटरनेट से कनेक्टेड नहीं है और अक्सर गलत या पूर्वाग्रह युक्त जवाब दे सकता है. इस उपकरण के ट्रेनिंग डेटा को 2021 में रोक दिया गया था, क्योंकि उसमें दुनिया में हुई घटनाओं की बहुत कम जानकारी थी.

एआई पॉलिसी में शोधार्थी और आईआईटी बॉम्बे के प्रोफेसर अनुपम गुहा ने चैटबॉट द्वारा गलत जानकारियां देने की व्याख्या करते हुए कहा..

इसमें आंतरिक तौर पर कोई अनुमान लगाने वाला तंत्र नहीं है, मतलब इंसानी नजरिए से कहें, तो किसी तरह की समझ नहीं है. चैट जीपीटी में मानवशास्त्रीय शब्दों की समझ नदारद है, बल्कि किसी भी भाषायी टेक्स्ट जेनरेटर में फिलहाल यह खूबी नहीं है.
अनुपम गुहा, सेंटर फॉर पॉलिसी स्टडीज, आईआईटी बॉम्बे

चैटबॉट के इन टेक्स्ट में साझा तौर पर:

  • मानवीय अहसास होता है.

  • निर्देशात्मक भाषा प्रवृत्ति

  • भाषा के उपयोग के लिए सही तरीके का वाक्य विन्यास होता है.

लेकिन साफ-साफ जानकारी का सोर्स नहीं बताया जाता. ऐसे में लोगों को यह विश्वास हो सकता है कि संबंधित टेक्स्ट किसी विशेषज्ञ ने लिखा है.

यह उपकरण विशेषज्ञों के उद्धरणों और अध्ययनों में भ्रमित करने में निपुण है, जो एक बड़ी समस्या बन सकती है, क्योंकि विशेषज्ञों के उद्धरण और अध्ययन रोजमर्रा की खबरों और अकादमिक जगत में एक अहम स्थान रखते हैं. यह चिंताजनक नहीं है क्या?

स्टैनफोर्ड इंटरनेट ऑब्जर्वेटरी का 2023 का एक अध्ययन बताता है कि भाषा उत्पादित करने वाले लैंग्वेज मॉडल्स:

  • कंटेंट में सुधार करेंगे

  • कीमत कम करेंगे

  • अपने अभियान का स्तर बढ़ाएंगे

ADVERTISEMENT
ADVERTISEMENT

लेकिन इस अध्ययन में ये भी कहा गया है कि यह मॉडल्स गढ़े गए प्रोपगेंडा जैसे नए तरह के भ्रमों को भी पेश करेंगे, जिससे कुछ खास लोगों को इस तरह के अभियान के प्रसारण में लाभ मिलेगा.

अध्ययन आगे कहता है कि इस उपकरण का उपयोग लोग व्यक्तिगत कंटेंट को बनाने के लिए कर सकते हैं, जो किसी विशेष नैरेटिव में फिट किया जा सके. इससे छोटे समूहों को यह सुविधा मिलेगी कि वे इंटरनेट पर खुद को बड़ा दिखा सकें.

गुहा कहते हैं, "मुझे लगता है कि यहां गलत जानकारी से ज्यादा बड़ी समस्या यह है कि बाहर बहुत सारे अनभिज्ञ लोग मौजूद हैं, जो चैट जीपीटी से उपलब्ध हर तरह की जानकारी को सही ज्ञान समझ लेगें, बजाए इसके कि यह एक पैटर्न जेनरेशन है. यह लोग बिना सोचे-समझे इस जानकारी को सही मानकर इसका उपयोग कर सकते हैं. मुझे लगता है कि अनभिज्ञता, यहां विद्वेष से ज्यादा बड़ी समस्या है."

इससे पहले शोधार्थियों की मदद के लिए विकसित की गई मेटा की गैलेक्टिका को बंद कर दिया गया था. गैलेक्टिका की भ्रामक जानकारी फैलाने के लिए आलोचना की गई थी.

सवाल-2: फैक्ट चैकर्स के लिए एक बुरा सपना?

गलत जानकारी को फैलाने के क्रम में सबसे कॉमन पैटर्न एक ही टेक्स्ट को कॉपी-पेस्ट करना होता है. लेकिन यह जल्दी बदल सकता है.

कैसे? एआई चैटबॉट एक ही प्रवृत्ति का अलग-अलग शब्दों वाला कंटेंट पैदा करने में सक्षम होते हैं.

स्टैनफोर्ड इंटरनेट ऑब्जर्वेटरी का अध्ययन बताता है कि लैंग्वेज मॉडल्स अपनी गुणवत्ता में सुधार करेंगे, जिससे ट्वीट और कमेंट्स के जरिए होने वाली छोटी टिप्पणियों और लंबे टेक्स्ट का परीक्षण मुश्किल हो जाएगा.

ऑर्सेक ने एआई की कुछ और सीमाओं पर ध्यान दिलाया है और सुझाव दिया है कि इसका इस्तेमाल दूसरे तरीकों के साथ भ्रामक जानकारी से लड़ने के लिए होना चाहिए.

हालांकि, AI फैक्ट-चेकर्स को गलत सूचनाओं की पहचान करने और उन्हें मार्क करने में मदद कर सकता है, लेकिन इसकी कई सीमाएं भी हैं. एक चुनौती फॉल्स पॉजिटिव की संभावना है, जहां फ्लैग की गई जानकारी सही निकलती है.
बेबार्स ऑर्सेक, वाइस प्रेसीडेंट (फैक्ट-चेकिंग) लॉजिकली

यहां फॉल्स पॉजिटिव का मतलब है वो सही जानकारी, जिसे AI गलत मानकर फ्लैग कर रहा है.

स्टैनफोर्ड रिसर्च में हार्वर्ड मेडिकल स्कूल के एक छात्र के अध्ययन का भी जिक्र है, जहां वॉलंटियर्स AI-जेनरेटेड और इंसानों द्वारा लिखे टेक्स्ट के बीच अंतर न कर सके.

OpenAI ने हाल में एक "क्लासिफायर टूल" लॉन्च किया है, जो AI और इंसानों के लिखे गए टेक्स्ट के बीच अंतर कर सकता है.

हालांकि, उनकी वेबसाइट के मुताबिक, इसकी सटीकता केवल 26 प्रतिशत है.

ये टूल अंग्रेजी को छोड़कर, भाषा और एक हजार से कम शब्दों वाले टेक्स्ट पर भी सटीक नहीं है.

प्रोफेसर गुहा का तर्क है कि देश में मीडिया साक्षरता की कमी के कारण लोग गलत सूचनाओं के प्रति अतिसंवेदनशील होते हैं, जो वर्तमान में अधिकांश छात्रों के पाठ्यक्रम में मौजूद नहीं है. गुहा ने आगे कहा..

  • क्रिटिकल रीडिंग और चीजों को वेरिफाई करना बहुत जरूरी है.

  • तकनीकी सुधारों की तुलना में बुनियादी स्किल और मीडिया साक्षरता में निवेश के बेहतर परिणाम हैं.

सवाल-3: क्या आपदा में अवसर का मौका है?

हालांकि, इसके कुछ फायदे हैं. AI टूल्स का विकास भ्रामक सूचनाओं का मुकाबला करने में मदद कर सकता है, क्योंकि उसके पास इंसानों की तुलना में ज्यादा तेजी से मुश्किल डेटा का विश्लेषण करने की क्षमता है. ये फैक्ट-चेकर्स को वायरल हो रही एक तरह की तस्वीरों और क्लिप को ट्रैक करने में भी मदद कर सकता है.

मई 2021 में, मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी ने AI प्रोग्राम के बारे में बात करते हुए एक आर्टिकल पब्लिश किया था, जिसमें ऐसे सोशल मीडिया अकाउंट्स का विश्लेषण किया गया था जो गलत या भ्रामक सूचनाएं फैला रहे थे. इसके मुताबिक, प्रोग्राम 96 फीसदी सटीकता के साथ ऐसे अकाउंट की पहचान कर सकता है.

हालांकि, एक्सपर्ट बताते हैं कि गलत सूचनाओं से लड़ने के लिए मनुष्यों और AI के बीच एक सहयोगी दृष्टिकोण बेहतर रहेगा.

ऑर्सेक तर्क देते हैं:

  • इससे फैक्ट-चेकर्स का वर्कलोड कम हो सकता है.

  • डीपफेक जैसी मीडिया का पता लगाने के लिए भी AI टूल्स का इस्तेमाल किया जा सकता है, जिसे फैक्ट-चेकर्स के लिए पहचानना मुश्किल होता है.

प्रोफेसर गुहा का भी कहना है कि वेरिफिकेशन का आखिरी स्टेप इंसानों को ही करना चाहिए, क्योंकि "फैक्ट चेकिंग करना काफी संवेदनशील काम है."

अलग-अलग कंपनियों के जेनरेटिव लैंग्वेज मॉडल के अपने वर्जन जारी करने के साथ, भ्रामक जानकारी की क्वालिटी और मात्रा में बढ़ोतरी की उम्मीद की जा सकती है. ChatGPT पर या किसी दूसरे AI मॉडल जेनरेटिव पर आप जो कुछ भी पढ़ते हैं, उस पर विश्वास न करें.

हालांकि, AI टूल्स फैक्ट-चेकर्स की गलत सूचनाओं से लड़ाई में अहम साबित हो सकते हैं.

तो, क्या AI ने आपसे झूठ बोला? काफी बार, हां. क्या ये कल इंटरनेट पर झूठ पकड़ने में मदद कर सकता है? हम ट्रैक करते रहेंगे.

भ्रामक और गलत सूचनाओं के खिलाफ जारी हमारी लड़ाई को वेबकूफ सेक्शन पर जा कर पढ़ सकते हैं.

डियर रीडर, इस तरह के प्रोजेक्ट में समय, संसाधन और पैसा लगता है. इसलिए हमें अपनी स्वतंत्र पत्रकारिता को जारी रखने के लिए आपके सपोर्ट की जरूरत है. क्विंट हिंदी का मेंबर बनने के लिए यहां क्लिक करें और इस तरह की और इन्वेस्टिगेटिव स्टोरी के लिए क्विंट हिंदी के स्पेशल प्रोजेक्ट्स के साथ बने रहें.

Published: undefined

ADVERTISEMENT
SCROLL FOR NEXT