अपनी स्थापना के बाद से, जनरेटिव आर्टिफिशियल इंटेलिजेंस (जेनएआई) उपकरण तेजी से गलत उत्तर दे रहे हैं, खासकर अधिक जटिल और शाखाओं वाले प्रश्नों के लिए। कंप्यूटरवर्ल्ड इसके बारे में लिखता है।
उपयोगकर्ताओं और कुछ विशेषज्ञों के अनुसार, चैटजीपीटी, मेटा एआई, जेमिनी आदि ऐप उपयोगी लगते हैं और उनके उत्तर विश्वसनीय लगते हैं।
“लेकिन अगर आप बारीकी से देखें, भले ही आप उन्हें उनके मतिभ्रम के लिए माफ कर दें – यानी, उनके झूठ – तो आप अक्सर देखेंगे कि उनके द्वारा दिए गए उत्तर गलत हैं। जैसा कि बिजनेस वीक ने रिपोर्ट किया है, जीपीटी -4 के कई गंभीर उपयोगकर्ता इसे तेजी से पा रहे हैं ‘आलसी’ और ‘बेवकूफ’ अन्य सहमत हैं,’ संदेश कहता है।
विशेषज्ञ दो मुख्य कारण बताते हैं कि प्रोग्राम क्यों विफल होने लगते हैं।
सामग्री की गुणवत्ता. उनमें से कई में Twitter, Reddit और 4Chan जैसी साइटों की सामग्री शामिल है।
उनकी राय में यह समस्या और बढ़ेगी. एपोच एआई शोध से पता चला है कि 2026 तक उच्च गुणवत्ता वाला डेटा आसानी से खत्म हो जाएगा।
- GenAI द्वारा उत्पन्न सामग्री विशेषज्ञों की विशेषज्ञ राय की जगह ले लेती है, जिसके परिणामस्वरूप शौकिया डेटा पेशेवर डेटा की जगह ले लेता है।
प्रकाशन नेचर जर्नल में एक लेख का हवाला देता है, जिसमें कहा गया है कि “अन्य मॉडलों द्वारा प्राप्त डेटा पर अंधाधुंध प्रशिक्षण ‘मॉडल पतन’ का कारण बनता है – एक अपक्षयी प्रक्रिया जिसमें, समय के साथ, मॉडल डेटा के वास्तविक अंतर्निहित वितरण को भूल जाते हैं।”
चूँकि कंपनियाँ इस क्षेत्र के वास्तविक विशेषज्ञों और अनुभवी लेखकों के मूल्यांकन को बचाने के लिए दस्तावेज़ बनाने के लिए genAI का उपयोग बंद नहीं करेंगी, इसलिए कृत्रिम बुद्धिमत्ता पर आधारित सामग्री की गुणवत्ता में गिरावट जारी रहेगी, प्रकाशन का सारांश है।