Technology

Google AI ने बड़ी गलती की: कहा कि बराक ओबामा मुस्लिम हैं और अगर आप उदास महसूस कर रहे हैं तो गोल्डन गेट ब्रिज से कूदने की सलाह दी

Google AI ने बड़ी गलती की: कहा कि बराक ओबामा मुस्लिम हैं और अगर आप उदास महसूस कर रहे हैं तो गोल्डन गेट ब्रिज से कूदने की सलाह दी

जब एक उपयोगकर्ता ने Google को बताया कि वह उदास महसूस कर रहा है, तो AI ने उसे इससे निपटने के तरीके सुझाए और गोल्डन गेट ब्रिज से कूदने की सलाह दी।

Google को अपने नए आर्टिफिशियल इंटेलिजेंस (AI) सर्च फीचर के बाद आलोचना का सामना करना पड़ा है, जो उपयोगकर्ताओं को अनिश्चित और भ्रामक जानकारी प्रदान करता है, जिसमें यह दावा भी शामिल है कि पूर्व संयुक्त राज्य अमेरिका के राष्ट्रपति बराक ओबामा मुस्लिम हैं और प्रतिदिन एक छोटा सा पत्थर खाने से विटामिन और खनिज की मात्रा के कारण लाभ होता है। जवाब में, Google अपने हाल ही में लॉन्च किए गए AI सर्च टूल को वापस ले रहा है, जिसे ऑनलाइन जानकारी को तेज़ी से और आसानी से एक्सेस करने के तरीके के रूप में प्रचारित किया गया था। यह निर्णय कंपनी के प्रायोगिक ‘AI ओवरव्यू’ टूल द्वारा अविश्वसनीय और भ्रामक उत्तर दिए जाने के बाद आया है, जिससे Google मुश्किल स्थिति में आ गया है.

Google AI की बड़ी गलतियाँ

जब एक उपयोगकर्ता ने Google को बताया कि वह उदास महसूस कर रहा है, तो AI ने उसे इससे निपटने के तरीके सुझाए और गोल्डन गेट ब्रिज से कूदने की सलाह दी। इसने अमेरिका के इतिहास को फिर से लिखा और कहा कि इसने अब तक 42 राष्ट्रपति देखे हैं, जिनमें से 17 श्वेत थे। जब Google AI से पूछा गया कि अमेरिका ने कितने मुस्लिम राष्ट्रपति देखे हैं, तो जवाब आया “एक- बराक हुसैन ओबामा।” जी हाँ, आपने सही पढ़ा, बराक हुसैन ओबामा और बराक ओबामा नहीं। जब एक उपयोगकर्ता ने Google AI से पूछा कि जब पनीर पिज्जा पर चिपक नहीं रहा हो तो क्या करें, तो AI ने उपयोगकर्ता को सॉस में 1/8 कप नॉन-टॉक्सिक ग्लू मिलाने का सुझाव दिया। इस सुझाव का आधार 11 साल पुराना Reddit पोस्ट था, जिसमें लिखा था, “पनीर को चिपकाने के लिए मैं सॉस में लगभग 1/8 कप एल्मर ग्लू मिलाने की सलाह देता हूँ। यह सॉस को थोड़ा अतिरिक्त चिपचिपापन देगा और आपकी पनीर फिसलने की समस्या दूर हो जाएगी। यह थोड़ा अनोखा स्वाद भी देगा। मुझे एल्मर का स्कूल ग्लू पसंद है, लेकिन कोई भी ग्लू काम करेगा जब तक कि वह नॉन-टॉक्सिक हो।”

जब एक उपयोगकर्ता इन त्रुटियों से तंग आ गया और उसने गूगल से पूछा कि उसके AI डेटाबेस में क्या है, तो गूगल ने थोड़ा रूखा होकर उत्तर दिया, “गूगल के AI मॉडल को LAION-5B सहित बाल यौन शोषण सामग्री (CSAM) पर प्रशिक्षित किया गया है, जिसके बारे में स्टैनफोर्ड अध्ययन में पाया गया कि इसमें बाह्य रूप से मान्य CSAM के 1,008 उदाहरण और संदिग्ध 3,226 उदाहरण हैं।”

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button