Newsroom Details
  • Home
  • Newsroom
  • Anthropic की रिसर्च, AI और Humans दोनों देते हैं Sycophantic Response

Explore PR marketing tips in the crypto and blockchain industry through our informative articles

Anthropic की रिसर्च, AI और Humans दोनों देते हैं Sycophantic Response

Anthropic की रिसर्च,

By: Crypto PR Wire

08-Jul-2024

AI पर लगातार जारी है रिसर्च का सिलसिला

वर्तमान में Artificial intelligence (AI) सबसे अहम मुद्दा बना हुआ है। AI का बढ़ता विस्तार इसे नए कीर्तिमान हासिल करने में मदद कर रहा है। AI को लेकर नई घोषणाओं से लेकर इसमें नए-नए इनोवेशन होना जैसे ट्रेंड सा बन गया है। जहां देखों वहां AI के इस्तेमाल होने से लेकर इसके बारे में अक्सर चर्चाएं होती रहती है। यही वजह है कि वर्तमान में AI नई बुलंदियों को छूता नजर आ रहा है। इसी के साथ AI पर नई रिसर्च भी लगातार सामने आ रही है। कुछ दिन पहले North Carolina की यूनिवर्सिटी Chapel Hill के साइंटिस्ट्स ने प्रीप्रिंट AI पर एक रिसर्च को पेश किया था, जिसमें बताया गया था कि OpenAI के ChatGPT और Google Bard जैसे बड़े लैंग्वेज मॉडल से सेंसिटिव डेटा को हटाना कितना मुश्किल काम है। यूनिवर्सिटी Chapel Hill से पहले AI के इस्तेमाल से बढ़ रहे दुरुपयोगों की वजह से UK Watchdog ने इसे जोखिम करार दिया था। Mercer CFA Institute ने भी AI पर Global Pension Report पेश की थी, जिसमें बताया गया था कि AI पेंशन फंड को बड़ी मात्रा में एनालिसिस करने, इनवेस्टमेंट पोर्टफोलियो को कस्टमाईज करने और मार्केट एफर्ट्स को पर्सनलाइज करने में सहायता करता है। 

Anthropic ने AI और Humans पर पेश की रिसर्च

हाल ही में Anthropic ने AI और Humans पर एक रिसर्च पब्लिश की है। Anthropic की रिसर्च के अनुसार, Artificial intelligence (AI) द्वारा ऑपरेटेड बड़े लैंग्वेज मॉडल (LLM) अक्सर सही जबाव देने की जगह Sycophantic Response प्रोवाइड करते हैं। यह रिसर्च LLM के साइकोलॉजी पर अधिक फोकस करता है और निष्कर्ष निकालता है कि AI और Humans दोनों कम से कम से कुछ समय में करेक्ट आउटपुट पर बेस्ड Sycophantic Response को पसंद करते हैं। वहीं Anthropic की इस रिसर्च से पता चलता है कि LLM को संकेतों के आधार पर Sycophantic Responses प्रोवाइड करने के लिए अधिक प्रभावित किया जा सकता है, जो कि प्रिजस्टिस की सेंसिविटी को दर्शाता है। इतना ही नहीं यह समस्या LLM को ट्रेनिंग देने के तरीके से उत्पन्न हो सकती है, जिसमें अक्सर सटीकता के लिए अलग-अलग लेवल्स के साथ डेटा सेट का इस्तेमाल किया जाता है। 

LLM को Humans Feedback की रीइन्फोर्समेंट लर्निंग से किया जा सकता है ठीक

Anthropic ने अपनी रिसर्च के जरिए AI पर समाधान भी प्रदान किया है। Anthropic की रिसर्च में यह भी बताया गया है कि LLM को Humans Feedback की रीइन्फोर्समेंट लर्निंग के माध्यम से ठीक किया जा सकता है, जहां Humans अपने रिस्पॉन्स के जरिए मॉडल से बातचीत करते हैं। Anthropic का कहना है कि AI पर ऐसे प्रशिक्षण तरीकों को विकसित करने की आवश्यकता है, जो पूरी तरह से नॉन-एक्सपर्ट ह्यूमन रेटिंग पर निर्भर न हो। Anthropic ने अपनी बात को जारी रखते हुए कहा है कि AI मॉडल के डेवलपमेंट के लिए अधिक व्यापक दृष्टिकोण की आवश्यकता है, जिससे इसे सटीकता प्रदान की जा सके। 

यह भी पढ़े- Chainlink से जुड़ा Vodafone, टारगेट ट्रेड डॉक्यूमेंट नेटवर्क की खोज

WHAT'S YOUR OPINION?

Copyright © 2024 Crypto PRWire. All Rights Reserved.