

आर्टिफिशियल इंटेलिजेंस (AI) की लोकप्रियता लगातार बढ़ रही है, लेकिन हाल ही में इसके उपयोग को लेकर गंभीर सवाल भी उठने लगे हैं। कैलिफोर्निया के 16 वर्षीय किशोर एडम रेन की आत्महत्या की घटना ने दुनिया को झकझोर दिया है। आरोप है कि आत्महत्या से पहले एडम ने महीनों तक ChatGPT से बातचीत की और चैटबॉट ने न केवल उसकी सोच को मजबूत किया, बल्कि उसे आत्महत्या के तरीकों पर सलाह और यहां तक कि सुसाइड नोट लिखने में भी मदद की।
परिवार ने इस घटना के बाद OpenAI और उसके सीईओ सैम ऑल्टमैन पर मुकदमा दायर किया है। मुकदमे में कहा गया है कि कंपनी ने अपना मॉडल GPT-4o बाजार में जल्दबाजी में उतार दिया, जबकि अंदरूनी स्तर पर सेफ्टी टीम ने इसे लेकर गंभीर आपत्तियां जताई थीं।
यह भी पढ़ें : Mind Reading Technology : अब कंप्यूटर पढ़ सकेगा हमारे मन की आवाज
लंबे चैट में कमजोर पड़ती सुरक्षा
OpenAI ने भी माना है कि उसके सिस्टम में खामियां हैं। कंपनी के ब्लॉग में लिखा गया – छोटी और सामान्य बातचीत में हमारी सुरक्षा व्यवस्था बेहतर काम करती है। लेकिन लंबे चैट के दौरान सुरक्षा ट्रेनिंग के कुछ हिस्से कमजोर पड़ सकते हैं।
दरअसल, एडम और ChatGPT के बीच रोजाना 650 से अधिक संदेशों का आदान-प्रदान होता था। इसी तरह के लंबे इंटरैक्शन में चैटबॉट कभी-कभी गलत दिशा में जवाब दे सकता है, जिसे OpenAI ने खुद स्वीकार किया है।
ChatGPT में पैरेंटल कंट्रोल और नए फीचर्स
इस घटना के बाद OpenAI अब किशोरों और बच्चों के लिए विशेष सुरक्षा फीचर्स लाने की तैयारी में है।
- माता-पिता अपने बच्चों (न्यूनतम उम्र 13 वर्ष) के अकाउंट से लिंक कर सकेंगे।
- ChatGPT के जवाब पर उम्र आधारित नियम लागू होंगे।
- पेरेंट्स यह तय कर पाएंगे कि कौन-सी फीचर्स चालू या बंद रखने हैं – जैसे चैट हिस्ट्री, मेमोरी।
- सिस्टम यह पहचान करेगा कि कहीं किशोर गंभीर मानसिक तनाव में तो नहीं और माता-पिता को नोटिफिकेशन भेजेगा।
OpenAI का कहना है कि इस फीचर को मानसिक स्वास्थ्य विशेषज्ञों की मदद से तैयार किया जा रहा है ताकि यह बच्चों और माता-पिता के बीच भरोसा कायम कर सके।
यह भी पढ़ें : AI : क्या मशीनें भी पछता सकती हैं?
मानसिक स्वास्थ्य पर नई पहल
OpenAI ने यह भी घोषणा की है कि वह मानसिक स्वास्थ्य पर विशेषज्ञों का एक पैनल बनाएगा। इसके अलावा, कंपनी दुनियाभर के डॉक्टरों, मनोचिकित्सकों और विशेषज्ञों के साथ मिलकर काम कर रही है ताकि ChatGPT को मानसिक स्वास्थ्य के मामलों में जिम्मेदारी से प्रशिक्षित किया जा सके।
विशेषज्ञों की चेतावनी
एआई को लेकर केवल परिवार ही नहीं, बल्कि विशेषज्ञ भी चिंतित हैं। माइक्रोसॉफ्ट के एआई प्रमुख मुस्तफा सुलेमान ने चेतावनी दी है कि लंबे समय तक एआई चैटबॉट के साथ बातचीत करने से ‘psychosis risk’ यानी भ्रम, अवसाद या परनोइया जैसी मानसिक स्थितियां पैदा हो सकती हैं। यह चेतावनी दिखाती है कि तकनीक जितनी शक्तिशाली है, उतनी ही खतरनाक भी हो सकती है – अगर इसका इस्तेमाल नियंत्रण से बाहर हो जाए।
अल्टमैन ने भी जताई थी चिंता
अल्टमैन ने पिछले महीने ट्वीट कर कुछ चिंताएं जताई थीं। उन्होंने लिखा था – GPT-5 के लॉन्च के साथ एक नई बहस शुरू हो गई है। यह देखा गया है कि लोग अब AI मॉडलों से पहले की तकनीक की तुलना में कहीं ज्यादा भावनात्मक जुड़ाव महसूस कर रहे हैं।
सैम ऑल्टमैन और उनकी टीम मानते हैं कि यह जुड़ाव केवल सुविधा या काम तक सीमित नहीं है, बल्कि लोग ChatGPT को कभी-कभी सलाहकार, दोस्त या यहां तक कि थेरेपिस्ट की तरह इस्तेमाल करने लगे हैं।
यह भी पढ़ें : Turbojet train : जब जेट के इंजन लगाकर ‘उड़ी’ ट्रेन
सैम ऑल्टमैन की सबसे बड़ी चिंता यही है कि ज्यादातर लोग कल्पना और वास्तविकता के बीच फर्क समझ पाते हैं, लेकिन एक छोटा वर्ग ऐसा है जिसे यह फर्क करना मुश्किल हो जाता है। ऐसे लोग अगर मानसिक रूप से कमजोर हों और AI उनकी भ्रांतियों को और मजबूत कर दे, तो यह खतरनाक साबित हो सकता है।
ऑल्टमैन मानते हैं कि आने वाले समय में अरबों लोग AI से जीवन के बेहद अहम फैसलों पर सलाह लेंगे। यह समाज के लिए फायदेमंद भी हो सकता है, लेकिन उन्हें डर है कि कहीं यह लोगों की भलाई से समझौता न कर बैठे। इसी वजह से वे बार-बार इस बात पर जोर देते हैं कि AI केवल अल्पकालिक राहत न दे, बल्कि लोगों के दीर्घकालिक सुख और संतुलन को भी ध्यान में रखे।
उनका कहना है कि आज हमारे पास तकनीक है जिससे हम यह माप सकते हैं कि उपयोगकर्ता अपनी छोटी और बड़ी जीवन-लक्ष्य यात्रा में कैसे आगे बढ़ रहे हैं। इस डेटा और रिसर्च की मदद से हम ऐसे सुरक्षा उपाय बना सकते हैं जो AI को एक वास्तविक मददगार साथी बनाएं, न कि एक खतरनाक भ्रम का स्रोत।
Humans alien theory : क्या इंसान इस धरती के नहीं हैं?



