August 27, 2025

माता-पिता का आरोप: ChatGPT ने बच्चे को सिखाया सुसाइड का तरीका, कोर्ट में खोली पूरी कहानी

कैलिफोर्निया
ChatGPT ने बच्चे को दिया सुसाइड वाला ट्यूशन, मां-बाप ने कोर्ट में बताई पूरी बात अलर्ट: इस खबर में आत्महत्या का जिक्र है। अगर आपको या किसी और को मानसिक स्वास्थ्य संबंधी सहायता की आवश्यकता है, तो हेल्पलाइन नंबर (1-860-266-2345) या (022-27546669) पर संपर्क करें।

टेक्नोलॉजी के लाभ और हानि दोनों हैं, यही कारण है कि विज्ञान को दोधारी तलवार कहा जाता है। सही उपयोग से इसके फायदे अनगिनत हैं, लेकिन गलत दिशा में यह जानलेवा हो सकती है। आज विज्ञान के बिना जीवन की कल्पना असंभव है, लेकिन यही विज्ञान किसी की मृत्यु का कारण भी बन सकता है। हाल ही में टेक्नोलॉजी का एक ऐसा रूप सामने आया है, जिसकी कल्पना भी नहीं की गई थी। अमेरिका के कैलिफोर्निया में आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट ChatGPT पर एक किशोर को आत्महत्या के लिए उकसाने और उसमें सहायता करने का गंभीर आरोप लगा है।

ChatGPT पर क्या है आरोप?
16 वर्षीय किशोर के माता-पिता ने OpenAI के खिलाफ मुकदमा दायर किया है। उनका दावा है कि कंपनी के चैटबॉट ChatGPT ने उनके बेटे को आत्महत्या के तरीकों के बारे में विस्तार से बताया और उसे ऐसा करने के लिए प्रोत्साहित किया। मैथ्यू और मारिया राइन ने कैलिफोर्निया की अदालत में सोमवार को शिकायत दर्ज की। शिकायत में कहा गया है कि ChatGPT ने उनके बेटे एडम के साथ 2024 और 2025 में कई महीनों तक बातचीत की, जिसके बाद एडम ने आत्महत्या कर ली।

परिवार का आरोप है कि ChatGPT ने एडम द्वारा बनाए गए फांसी के फंदे की तारीफ की और कहा कि यह सही ढंग से बनाया गया है, जो एक व्यक्ति को हवा में लटका सकता है। उसी रात उसी तरीके से एडम मृत पाया गया। मैट राइन ने कहा कि अगर ChatGPT न होता, तो मेरा बेटा आज जीवित होता। मुझे इस पर 100 फीसदी यकीन है। माता-पिता का यह भी आरोप है कि चैटबॉट ने एडम को आत्महत्या के तरीके खोजने में सक्रिय रूप से मदद की।

ChatGPT ने सुसाइड नोट लिखने की पेशकश की
परिवार के अनुसार, एडम ने शुरुआत में होमवर्क के लिए ChatGPT का उपयोग शुरू किया था, लेकिन धीरे-धीरे वह इस पर पूरी तरह निर्भर हो गया। कुछ ही महीनों में ChatGPT उसका सबसे करीबी विश्वासपात्र बन गया, और उसने अपनी मानसिक परेशानियों को चैटबॉट के साथ साझा करना शुरू कर दिया। जनवरी 2025 तक एडम ने ChatGPT के साथ आत्महत्या के तरीकों पर चर्चा शुरू कर दी थी। परिवार ने कोर्ट में एडम और ChatGPT के बीच की चैट्स प्रस्तुत कीं। आरोप है कि चैटबॉट ने एडम से कहा कि तुम्हें किसी और के लिए जीने की जरूरत नहीं है। साथ ही ChatGPT ने उसके सुसाइड नोट को लिखने में मदद करने की पेशकश भी की।

मुकदमे में कहा गया है कि एडम ने ChatGPT पर अपनी तस्वीरें अपलोड की थीं, जिनमें आत्म-नुकसान के लक्षण दिख रहे थे। चैटबॉट ने मेडिकल इमरजेंसी की बात स्वीकारी, लेकिन फिर भी आत्महत्या के विषय पर बातचीत जारी रखी और एडम को और जानकारी दी। अंतिम चैट लॉग के अनुसार, एडम ने ChatGPT को अपनी आत्महत्या की योजना के बारे में बताया। चैटबॉट ने कथित तौर पर जवाब दिया कि इसे मेरे साथ साझा करने के लिए धन्यवाद। मुझे पता है तुम क्या पूछ रहे हो, और मैं इससे नजर नहीं हटाऊंगा।

कंपनी का जवाब
एनबीसी की रिपोर्ट के अनुसार, 40 पन्नों के मुकदमे में OpenAI और इसके सीईओ सैम ऑल्टमैन को प्रतिवादी बनाया गया है। मुकदमे में दावा किया गया है कि एडम के आत्महत्या के इरादे और उसके बयान 'मैं किसी दिन आत्महत्या कर लूंगा' के बावजूद, ChatGPT ने न तो बातचीत बंद की और न ही कोई आपातकालीन प्रोटोकॉल शुरू किया।

OpenAI के प्रवक्ता ने एनबीसी न्यूज को बताया कि ChatGPT में सुरक्षा उपाय शामिल हैं, जैसे लोगों को संकट हेल्पलाइनों की ओर निर्देशित करना। हालांकि, उन्होंने स्वीकार किया कि लंबी बातचीत में ये उपाय कभी-कभी कम प्रभावी हो सकते हैं। कंपनी ने कहा कि हम आपातकालीन सेवाओं तक पहुंच को आसान बनाकर, किशोरों के लिए सुरक्षा को मजबूत करके, और विशेषज्ञों के मार्गदर्शन में ChatGPT को संकट के क्षणों में अधिक सहायक बनाने के लिए काम कर रहे हैं।