सोमवार को प्रकाशित एक नवीनतम ब्लॉग पोस्ट के अनुसार, सैम ऑल्टमैन के नेतृत्व वाले ओपनएआई का अनुमान है कि चैटजीपीटी के लगभग 0.15% साप्ताहिक उपयोगकर्ता आत्मघाती विचारों या योजनाओं पर चर्चा करते हैं, यहां तक कि यह चेतावनी भी देता है कि चैटबॉट एक चिकित्सक नहीं है। हालाँकि यह एक छोटा सा अंश है, लेकिन प्लेटफ़ॉर्म की विशाल वैश्विक पहुंच को देखते हुए यह संख्या महत्वपूर्ण है।
OpenAI का कहना है नया GPT-5 मॉडल, जो चैटजीपीटी को डिफ़ॉल्ट रूप से शक्ति प्रदान करता है, मानसिक-स्वास्थ्य से संबंधित चैट में असुरक्षित या गैर-अनुपालक प्रतिक्रियाओं को 80% तक कम कर देता है, और जब उपयोगकर्ता मनोविकृति, उन्माद, या चैटबॉट पर भावनात्मक रूप से अत्यधिक निर्भरता के लक्षण दिखाते हैं तो काफी बेहतर प्रदर्शन करता है।
चैटजीपीटी कोई चिकित्सक नहीं है
यह अपडेट ओपनएआई के ग्लोबल फिजिशियन नेटवर्क में मनोचिकित्सकों और मनोवैज्ञानिकों के साथ महीनों के काम के बाद आया है, जो 60 देशों में लगभग 300 चिकित्सकों का एक समूह है। उनमें से 170 से अधिक ने सीधे नई प्रणाली में योगदान दिया, प्रतिक्रियाएं लिखीं और स्कोरिंग की, सुरक्षित व्यवहार को परिभाषित किया और समीक्षा की कि मॉडल संवेदनशील परिदृश्यों को कैसे संभालता है।
विशेष रूप से, कंपनी ने कहा कि लक्ष्य चैटजीपीटी को एक चिकित्सक में बदलना नहीं है, बल्कि यह सुनिश्चित करना है कि यह संकट के संकेतों को पहचानता है और उपयोगकर्ताओं को पेशेवर या वास्तविक दुनिया के समर्थन में धीरे-धीरे पुनर्निर्देशित करता है। यह मॉडल अब लोगों को संकटकालीन हेल्पलाइनों से अधिक विश्वसनीय रूप से जोड़ता है और कभी-कभी उपयोगकर्ताओं को लंबे या भावनात्मक रूप से चार्ज किए गए सत्रों के दौरान ब्रेक लेने के लिए प्रेरित करता है।
GPT-5 मानसिक-स्वास्थ्य संबंधी प्रश्नों का उत्तर कैसे देता है
OpenAI के आंतरिक परीक्षण से पता चलता है कि उत्पादन ट्रैफ़िक में, GPT-5 मॉडल ने पिछले संस्करणों की तुलना में 65-80% कम असुरक्षित प्रतिक्रियाएँ उत्पन्न कीं, जब उपयोगकर्ताओं ने मानसिक-स्वास्थ्य संकट के लक्षण प्रदर्शित किए।
सैम ऑल्टमैन के नेतृत्व वाली कंपनी ने नोट किया कि स्वतंत्र चिकित्सकों द्वारा वर्गीकृत संरचित मूल्यांकन में, GPT-5 ने GPT-4o की तुलना में अवांछित उत्तरों को 39% से 52% तक कम कर दिया। स्वचालित परीक्षण ने इसे वांछित व्यवहार के अनुरूप 91-92% स्कोर दिया, जो पुराने मॉडलों में 77% या उससे कम था।
सिस्टम ने लंबी या जटिल बातचीत को भी अधिक विश्वसनीय तरीके से संभाला, मल्टी-टर्न संवादों में भी 95% से अधिक स्थिरता बनाए रखी, जहां पहले के मॉडल अक्सर लड़खड़ा जाते थे।
चैटजीपीटी भावनात्मक लगाव से कैसे निपटता है
OpenAI जिस नई चुनौती का सामना कर रहा है, वह है भावनात्मक निर्भरता, जब उपयोगकर्ता चैटबॉट से ही अस्वस्थ जुड़ाव बना लेते हैं। उस व्यवहार को पहचानने और मापने के लिए एक नई वर्गीकरण का उपयोग करते हुए, OpenAI का कहना है कि GPT-5 अब इन परिदृश्यों में 80% कम समस्याग्रस्त उत्तर देता है, जो अक्सर उपयोगकर्ताओं को भावनात्मक निर्भरता को मान्य करने के बजाय मानवीय कनेक्शन की ओर ले जाता है।
फिर भी, OpenAI मानता है कि ये मानसिक-स्वास्थ्य संबंधी वार्तालाप दुर्लभ हैं और इन्हें सटीक रूप से निर्धारित करना कठिन है। इतने कम प्रसार पर, एक प्रतिशत का अंश, यहां तक कि छोटे बदलाव भी, परिणामों को विकृत कर सकते हैं। और विशेषज्ञ हमेशा इस बात पर सहमत नहीं होते कि “सुरक्षित” कैसा दिखता है: मॉडल की प्रतिक्रियाओं की समीक्षा करने वाले चिकित्सक केवल 71-77% मामलों में ही उसी निर्णय पर पहुंचे।










Leave a Reply