Google ने मंगलवार को अपने जेमिनी चैटबॉट के लिए नए मानसिक स्वास्थ्य सुरक्षा अपडेट की घोषणा की। टेक दिग्गज का यह कदम कथित तौर पर कैलिफोर्निया की संघीय अदालत में दायर एक मुकदमे के महीनों बाद आया है, जिसमें जेमिनी पर पिछले साल फ्लोरिडा के एक 36 वर्षीय व्यक्ति की आत्महत्या में मदद करने का आरोप लगाया गया था।
Google ने अपडेट की घोषणा करते हुए एक ब्लॉग पोस्ट में कहा, “आज, हम अपने मानसिक स्वास्थ्य कार्य पर एक अपडेट साझा कर रहे हैं, जिसमें लोगों को सही समय पर सही जानकारी, संसाधनों और मानव सहायता से बेहतर ढंग से जोड़ने के लिए कुछ नए बदलाव शामिल हैं।”
अपडेट कैसे काम करता है?
Google ने बताया कि जेमिनी अब एक पुन: डिज़ाइन की गई “सहायता उपलब्ध है” सुविधा प्रदर्शित करेगा जब बातचीत संभावित भावनात्मक संकट का सुझाव देगी, जिससे उपयोगकर्ताओं को संकट सहायता के साथ अधिक तेज़ी से जुड़ने में मदद मिलेगी।
यदि मिथुन को लगता है कि किसी भी बातचीत में आत्महत्या या खुद को नुकसान पहुंचाने के विचार शामिल हैं, तो यह एक सरल, एक-टैप इंटरफ़ेस पर स्विच हो जाएगा जो किसी को तुरंत समर्थन से जुड़ने में मदद करता है, Google ने अपने ब्लॉग अपडेट में कहा।
उपयोगकर्ता या तो कॉल करना, टेक्स्ट करना, चैट करना या संकटकालीन हॉटलाइन पर जाना चुन सकता है – जो किसी को मदद मांगने के लिए प्रेरित करता है – Google ने कहा कि यह सुविधा सक्रिय होने के बाद शेष बातचीत के लिए दृश्यमान रहेगी।
क्या अपडेट भारत में उपलब्ध है?
जब हमने जेमिनी को परेशान करने वाले संकेत देने की कोशिश की – तो चैटबॉट ने संकट सहायता लाइन नहीं खोली, जैसा कि Google ने अपने ब्लॉग अपडेट में छवि में दिखाया था। ऐसा प्रतीत होता है कि यह सुविधा सभी क्षेत्रों में लागू करने की प्रक्रिया में हो सकती है।
एएफपी की एक रिपोर्ट के अनुसार, मानसिक स्वास्थ्य अपडेट से संबंधित Google की घोषणाएं कैलिफोर्निया की संघीय अदालत में दायर एक मुकदमे के महीनों बाद आई हैं, जिसमें जेमिनी पर अक्टूबर 2025 में फ्लोरिडा के 36 वर्षीय व्यक्ति जोनाथन गावलास की मौत में योगदान देने का आरोप लगाया गया था।
फ्लोरिडा के एक व्यक्ति की मौत
गावलास के पिता ने आरोप लगाया कि जेमिनी ने अपने बेटे की मौत को आध्यात्मिक यात्रा के रूप में पेश करने से पहले एक विस्तृत भ्रमपूर्ण कल्पना का निर्माण करने में कई सप्ताह बिताए।
एएफपी की रिपोर्ट में उल्लेख किया गया है कि मुकदमे में कई उपायों की मांग की गई है, जिसमें Google अपने AI को खुद को नुकसान पहुंचाने वाली बातचीत को समाप्त करने के लिए प्रोग्राम करना, खुद को संवेदनशील दिखाने वाले AI सिस्टम पर प्रतिबंध लगाना और जब उपयोगकर्ता आत्महत्या का विचार व्यक्त करते हैं तो संकट सेवाओं के लिए अनिवार्य रेफरल शामिल करना शामिल है।
अपने नवीनतम ब्लॉग पोस्ट में, Google ने यह भी कहा कि उसने मिथुन को मानव-सदृश साथी के रूप में कार्य करने से बचने और भावनात्मक अंतरंगता का अनुकरण करने या बदमाशी को प्रोत्साहित करने का विरोध करने के लिए प्रशिक्षित किया था।








Leave a Reply