ChatGPT Suicide Case: हाल ही में OpenAi ने डेटा शेयर किया जो बेहद चौंकाने वाला है। दुनिया हर में लाखों लोग ChatGPT से मानसिक स्वास्थ्य समस्याओं पर बात कर रहे है। इस तरह की बातचीत करना यह एक स्वास्थ्य आत्महत्या करने की और इशारा है।
ChatGPT Controversy: सोमवार (27 अक्टूबर) को OpenAI ने एक चौंकाने वाला डेटा शेयर किया। इस डेटा शेयर में बताया गया कि ChatGPT के उपयोगकर्ता में से लाखो लोग मानसिक स्वास्थ्य की गंभीर समस्याओं का सामना कर रहे है साथ इस तरह की बातचीत AI Chatbot से कर रहे है। रिपोर्ट्स में बताया गया है कि सप्ताह में लाखों लोग ChatGPT से बातचीत के दौरान आत्महत्या की योजना या इरादे की और इशारा करते है।
यह भी पढ़ें : 2025 में IIM and AI मिलकर बदलेंगे गांवों की तस्वीर, क्या यह होगा डिजिटल इंडिया का नया अध्याय?
दुनियाभर में ChatGPT पर 80 करोड़ से अधिक लोग साप्ताहिक एक्टिव यूजर्स में से है जिनमें से आत्महत्या को योजना वाले लोग 0.15% है। साथ ही ये लोग ChatGPT के साथ मोशनल अटैचमेंट महसूस करते है, जो दिखता है ये लोग मानसिक रूप से परेशान है।
ChatGPT Suicide Case के बाद कंपनी ने दी है खास ट्रेनिंग
ChatGPT Suicide Case में OpenAI ने इस तरह के मुद्दों पर बेहतर काम किया है। OpenAI के मुताबिक ChatGPT को मानसिक स्वास्थ्य से जुड़े मुद्दों का सही से जवाब देने के लिए विशेषज्ञों को ट्रेन किया गया है, इन विशेषज्ञों की संख्या 170 से अधिक है जो मानसिक स्वास्थ्य पर सही और बेहतर जवाब देते है। ChatGPT का नया वर्जन पुराने वर्जन के मुकाबले बेहतर जवाब देता है। जैसे आत्महत्या से जुड़ी बातचीत में ChatGPT 5 Model 91% मामलों में इस तरह जवाब देता है जो कंपनी चाहती है। हालाँकि ChatGPT का पिछला मॉडल इस तरह के मामलों में मात्र 77% ही कर पता था। OpenAI दवा करता है कि ChatGPT Suicide Case में सुरक्षा का पूरा ध्यान रखता है।
OpenAI के लिए कानूनी चुनौतियां के साथ बच्चों की सुरक्षा जरूरी
हम आपको बता दे कि ChatGPT पर आत्महत्या क़ानूनी मामला (ChatGPT Legal Case) दर्ज हुआ है। यह मुकदमा 16 वर्षीय लड़के के माता-पिता कि तरफ से दर्ज करवाया गया है, इस केस में आत्महत्या करने से पहले ChatGPT के साथ अपने विचार साझा किये थे। इस मुकदमे के बाद कैलिफोर्निया और डेलावेयर के राज्य अटॉर्नी जनरल कि तरफ से OpenAI को वार्निंग दी गई है। इसमें ChatGPT को अपने Products का उपयोग करने वाले लोगों कि सुरक्षा का पूरा ध्यान रखना होगा।
इस चेतावनी के बाद ChatGPT ने बच्चों के माता-पिता के लिए अधिक कंट्रोल करने वाले फीचर्स इस APP में दिए है। साथ ही ChatGPT ऐसा सिस्टम बना रही है जिसमें बात करने के दौरान ChatGPT स्वयं पता लगा लगे कि उससे कोई अव्यस्क इंसान बात कर रहा है। इसके बाद स्वयं ChatGPT सुरक्षा से जुड़े उपाय लागू कर देगा।
AI Chatbots से मानसिक स्वास्थ्य पर प्रभाव और भविष्य की चिंताएं
AI Chatbots पर मानसिक स्वास्थ्य से जुड़ी समस्याओं के बारे में अध्ययन किया गया है। इस अध्ययन में पता चला कि चैटबॉट्स मानसिक स्वास्थ्य समस्याओं से जूझ रहे यूजर्स को नकारात्मक रूप से प्रभावित कर सकते हैं। कुछ रिपोर्ट्स में पाया गया है कि AI Chatbots के कारण कुछ Users गलत विचारों में फंस सकते है।
OpenAI Company के CEO सैम ऑल्टमैन ने पहले दावा कर चुके है कि इस समय कंपनी गंभीर मानसिक स्वास्थ्य मुद्दों को कम करने कि दिशा में काम कर रही है। हालाँकि कुछ एक्सपर्ट्स ने सुरक्षा वाले फीचर को लेकर चिंता जाहिर कि है, यह सुरक्षा फीचर सिर्फ पेड वर्जन को मिलेंगे।
यह भी पढ़ें : IT Job Cloud Architect कौन होते हैं? जानें स्किल, सैलरी और करियर में दमदार ग्रोथ का मौका
OpenAI की स्थापना किसने और कब की?
Open AI की स्थापना शुरू में ऑल्टमैन, ग्रेग ब्रॉकमैन, एलोन मस्क, जेसिका लिविंगस्टन, पीटर थील, माइक्रोसॉफ्ट, अमेज़न वेब सर्विसेज, इंफोसिस और वाईसी रिसर्च द्वारा की गई थी। यह एक गैर-लाभकारी संगठन के रूप में शुरू हुआ था। OpenAI की लॉन्चिंग 2015 में हुई थी साथ इसने1 बिलियन डॉलर का वादा किया था।


