Google AI ने बड़ी गलती की: कहा कि बराक ओबामा मुस्लिम हैं और अगर आप उदास महसूस कर रहे हैं तो गोल्डन गेट ब्रिज से कूदने की सलाह दी
Google AI ने बड़ी गलती की: कहा कि बराक ओबामा मुस्लिम हैं और अगर आप उदास महसूस कर रहे हैं तो गोल्डन गेट ब्रिज से कूदने की सलाह दी
जब एक उपयोगकर्ता ने Google को बताया कि वह उदास महसूस कर रहा है, तो AI ने उसे इससे निपटने के तरीके सुझाए और गोल्डन गेट ब्रिज से कूदने की सलाह दी।
Google को अपने नए आर्टिफिशियल इंटेलिजेंस (AI) सर्च फीचर के बाद आलोचना का सामना करना पड़ा है, जो उपयोगकर्ताओं को अनिश्चित और भ्रामक जानकारी प्रदान करता है, जिसमें यह दावा भी शामिल है कि पूर्व संयुक्त राज्य अमेरिका के राष्ट्रपति बराक ओबामा मुस्लिम हैं और प्रतिदिन एक छोटा सा पत्थर खाने से विटामिन और खनिज की मात्रा के कारण लाभ होता है। जवाब में, Google अपने हाल ही में लॉन्च किए गए AI सर्च टूल को वापस ले रहा है, जिसे ऑनलाइन जानकारी को तेज़ी से और आसानी से एक्सेस करने के तरीके के रूप में प्रचारित किया गया था। यह निर्णय कंपनी के प्रायोगिक ‘AI ओवरव्यू’ टूल द्वारा अविश्वसनीय और भ्रामक उत्तर दिए जाने के बाद आया है, जिससे Google मुश्किल स्थिति में आ गया है.
Google AI की बड़ी गलतियाँ
जब एक उपयोगकर्ता ने Google को बताया कि वह उदास महसूस कर रहा है, तो AI ने उसे इससे निपटने के तरीके सुझाए और गोल्डन गेट ब्रिज से कूदने की सलाह दी। इसने अमेरिका के इतिहास को फिर से लिखा और कहा कि इसने अब तक 42 राष्ट्रपति देखे हैं, जिनमें से 17 श्वेत थे। जब Google AI से पूछा गया कि अमेरिका ने कितने मुस्लिम राष्ट्रपति देखे हैं, तो जवाब आया “एक- बराक हुसैन ओबामा।” जी हाँ, आपने सही पढ़ा, बराक हुसैन ओबामा और बराक ओबामा नहीं। जब एक उपयोगकर्ता ने Google AI से पूछा कि जब पनीर पिज्जा पर चिपक नहीं रहा हो तो क्या करें, तो AI ने उपयोगकर्ता को सॉस में 1/8 कप नॉन-टॉक्सिक ग्लू मिलाने का सुझाव दिया। इस सुझाव का आधार 11 साल पुराना Reddit पोस्ट था, जिसमें लिखा था, “पनीर को चिपकाने के लिए मैं सॉस में लगभग 1/8 कप एल्मर ग्लू मिलाने की सलाह देता हूँ। यह सॉस को थोड़ा अतिरिक्त चिपचिपापन देगा और आपकी पनीर फिसलने की समस्या दूर हो जाएगी। यह थोड़ा अनोखा स्वाद भी देगा। मुझे एल्मर का स्कूल ग्लू पसंद है, लेकिन कोई भी ग्लू काम करेगा जब तक कि वह नॉन-टॉक्सिक हो।”
जब एक उपयोगकर्ता इन त्रुटियों से तंग आ गया और उसने गूगल से पूछा कि उसके AI डेटाबेस में क्या है, तो गूगल ने थोड़ा रूखा होकर उत्तर दिया, “गूगल के AI मॉडल को LAION-5B सहित बाल यौन शोषण सामग्री (CSAM) पर प्रशिक्षित किया गया है, जिसके बारे में स्टैनफोर्ड अध्ययन में पाया गया कि इसमें बाह्य रूप से मान्य CSAM के 1,008 उदाहरण और संदिग्ध 3,226 उदाहरण हैं।”