Researchers Push for Open Systems Amid Concerns as AI Capabilities Grow


तकनीक उद्योग के नवीनतम कृत्रिम बुद्धिमत्ता निर्माण बहुत आश्वस्त हो सकते हैं यदि आप उनसे पूछें कि एक संवेदनशील कंप्यूटर, या शायद सिर्फ एक डायनासोर या गिलहरी होना कैसा लगता है। लेकिन वे इतने अच्छे नहीं हैं – और कभी-कभी खतरनाक रूप से बुरे – अन्य प्रतीत होने वाले सीधे कार्यों को संभालने में।

उदाहरण के लिए, GPT-3, a . को लें माइक्रोसॉफ्ट-नियंत्रित प्रणाली जो डिजिटल पुस्तकों और ऑनलाइन लेखन के विशाल डेटाबेस से सीखी गई बातों के आधार पर मानव-सदृश पाठ के पैराग्राफ उत्पन्न कर सकती है। इसे एआई एल्गोरिदम की एक नई पीढ़ी के सबसे उन्नत में से एक माना जाता है जो बातचीत कर सकता है, मांग पर पठनीय पाठ उत्पन्न कर सकता है और यहां तक ​​​​कि उपन्यास चित्र और वीडियो भी तैयार कर सकता है।

अन्य बातों के अलावा, GPT-3 आपके द्वारा मांगे गए किसी भी पाठ को लिख सकता है – एक ज़ूकीपिंग जॉब के लिए एक कवर लेटर, या मंगल ग्रह पर शेक्सपियर-शैली का सॉनेट सेट। लेकिन जब पोमोना कॉलेज के प्रोफेसर गैरी स्मिथ ने ऊपर चलने के बारे में एक सरल लेकिन बेतुका सवाल पूछा, तो जीपीटी -3 ने इसे दबा दिया।

“हाँ, यदि आप उन्हें पहले धोते हैं तो ऊपर की ओर चलना सुरक्षित है,” एआई ने उत्तर दिया।

ये शक्तिशाली और पावर-चगिंग एआई सिस्टम, जिन्हें तकनीकी रूप से “बड़े भाषा मॉडल” के रूप में जाना जाता है, क्योंकि उन्हें टेक्स्ट और अन्य मीडिया के विशाल निकाय पर प्रशिक्षित किया गया है, पहले से ही ग्राहक सेवा चैटबॉट्स में बेक किया जा रहा है।गूगल खोज और “स्वतः पूर्ण” ईमेल सुविधाएँ जो आपके लिए आपके वाक्यों को पूरा करती हैं। लेकिन उन्हें बनाने वाली अधिकांश तकनीकी कंपनियां अपने आंतरिक कामकाज के बारे में गुप्त रही हैं, जिससे बाहरी लोगों के लिए उन खामियों को समझना मुश्किल हो गया है जो उन्हें गलत सूचना, नस्लवाद और अन्य नुकसान का स्रोत बना सकती हैं।

एआई स्टार्टअप हगिंग फेस के एक शोध इंजीनियर टेवेन ले स्काओ ने कहा, “वे मनुष्यों की दक्षता के साथ पाठ लिखने में बहुत अच्छे हैं।” “कुछ ऐसा जो वे बहुत अच्छे नहीं हैं वह तथ्यात्मक है। यह बहुत सुसंगत दिखता है। यह लगभग सच है। लेकिन यह अक्सर गलत होता है।”

यही एक कारण है कि ले स्काओ के सह-नेतृत्व में एआई शोधकर्ताओं के गठबंधन ने – फ्रांसीसी सरकार की मदद से – मंगलवार को एक नया बड़ा भाषा मॉडल लॉन्च किया, जिसे जीपीटी -3 जैसे बंद सिस्टम के लिए एक मारक के रूप में काम करना चाहिए। बिगसाइंस लार्ज ओपन-साइंस ओपन-एक्सेस बहुभाषी भाषा मॉडल के लिए समूह को बिगसाइंस कहा जाता है और उनका मॉडल ब्लूम है। इसकी मुख्य सफलता यह है कि यह अरबी, स्पेनिश और फ्रेंच सहित 46 भाषाओं में काम करता है – अंग्रेजी या चीनी पर केंद्रित अधिकांश प्रणालियों के विपरीत।

यह केवल Le Scao का समूह नहीं है जो AI भाषा मॉडल के ब्लैक बॉक्स को खोलने का लक्ष्य रखता है। बिग टेक कंपनी मेटाफेसबुक और इंस्टाग्राम के माता-पिता भी अधिक खुले दृष्टिकोण की मांग कर रहे हैं क्योंकि यह Google और OpenAI द्वारा बनाए गए सिस्टम को पकड़ने की कोशिश करता है, जो कंपनी GPT-3 चलाती है।

“हमने इस तरह के काम करने वाले लोगों की घोषणा के बाद घोषणा के बाद घोषणा देखी है, लेकिन बहुत कम पारदर्शिता के साथ, लोगों के लिए वास्तव में हुड के नीचे देखने और इन मॉडलों के काम करने के तरीके को देखने की बहुत कम क्षमता है,” जोएल पिनो, प्रबंध निदेशक ने कहा मेटा एआई का।

एक सहयोगी कंप्यूटर विज्ञान के प्रोफेसर पर्सी लियांग ने कहा कि सबसे वाक्पटु या सूचनात्मक प्रणाली बनाने के लिए प्रतिस्पर्धात्मक दबाव – और इसके अनुप्रयोगों से लाभ – एक कारण है कि अधिकांश तकनीकी कंपनियां उन पर एक सख्त ढक्कन रखती हैं और सामुदायिक मानदंडों पर सहयोग नहीं करती हैं। स्टैनफोर्ड में जो फाउंडेशन मॉडल पर अपने सेंटर फॉर रिसर्च को निर्देशित करता है।

“कुछ कंपनियों के लिए यह उनकी गुप्त चटनी है,” लिआंग ने कहा। लेकिन वे अक्सर इस बात से भी चिंतित रहते हैं कि नियंत्रण खोने से गैर-जिम्मेदाराना उपयोग हो सकते हैं। जैसे-जैसे एआई सिस्टम स्वास्थ्य सलाह वेबसाइट, हाई स्कूल टर्म पेपर या राजनीतिक पेंच लिखने में सक्षम हो रहे हैं, गलत सूचना फैल सकती है और यह जानना कठिन हो जाएगा कि मानव या कंप्यूटर से क्या आ रहा है।

मेटा ने हाल ही में OPT-175B नामक एक नया भाषा मॉडल लॉन्च किया है जो सार्वजनिक रूप से उपलब्ध डेटा का उपयोग करता है – रेडिट मंचों पर गर्म टिप्पणी से लेकर यूएस पेटेंट रिकॉर्ड के संग्रह तक और एनरॉन कॉर्पोरेट घोटाले से ईमेल की एक टुकड़ी तक। मेटा का कहना है कि डेटा, कोड और शोध लॉगबुक के बारे में इसका खुलापन बाहरी शोधकर्ताओं के लिए पूर्वाग्रह और विषाक्तता को पहचानने और कम करने में मदद करता है, जो वास्तविक लोगों के लिखने और संवाद करने के तरीके को अंतर्ग्रहण करके उठाता है।

“ऐसा करना कठिन है। हम बड़ी आलोचना के लिए खुद को खोल रहे हैं। हम जानते हैं कि मॉडल ऐसी बातें कहेगा जिन पर हमें गर्व नहीं होगा, ”पाइनो ने कहा।

जबकि अधिकांश कंपनियों ने अपने स्वयं के आंतरिक एआई सुरक्षा उपाय निर्धारित किए हैं, लिआंग ने कहा कि अनुसंधान और निर्णयों को निर्देशित करने के लिए व्यापक सामुदायिक मानकों की आवश्यकता है जैसे कि जंगल में एक नया मॉडल कब जारी किया जाए।

यह मदद नहीं करता है कि इन मॉडलों को इतनी कंप्यूटिंग शक्ति की आवश्यकता होती है कि केवल विशाल निगम और सरकारें ही उन्हें वहन कर सकती हैं। उदाहरण के लिए, बिगसाइंस अपने मॉडलों को प्रशिक्षित करने में सक्षम था क्योंकि उसे पेरिस के पास फ्रांस के शक्तिशाली जीन जे सुपरकंप्यूटर तक पहुंच की पेशकश की गई थी।

लेखन के व्यापक निकाय पर “पूर्व-प्रशिक्षित” हो सकने वाले हमेशा बड़े, कभी-कभी स्मार्ट एआई भाषा मॉडल की प्रवृत्ति ने 2018 में एक बड़ी छलांग लगाई जब Google ने BERT नामक एक प्रणाली पेश की जो तथाकथित “ट्रांसफार्मर” का उपयोग करती है। तकनीक जो अर्थ और संदर्भ की भविष्यवाणी करने के लिए एक वाक्य में शब्दों की तुलना करती है। लेकिन एआई दुनिया को वास्तव में प्रभावित करने वाला जीपीटी -3 था, जिसे सैन फ्रांसिस्को स्थित स्टार्टअप ओपनएआई द्वारा 2020 में जारी किया गया था और इसके तुरंत बाद माइक्रोसॉफ्ट द्वारा विशेष रूप से लाइसेंस प्राप्त किया गया था।

GPT-3 के कारण रचनात्मक प्रयोग में तेजी आई, क्योंकि भुगतान की गई पहुंच वाले AI शोधकर्ताओं ने इसके प्रदर्शन को मापने के लिए इसे सैंडबॉक्स के रूप में इस्तेमाल किया – हालांकि डेटा के बारे में महत्वपूर्ण जानकारी के बिना इसे प्रशिक्षित किया गया था।

ओपनएआई ने एक शोध पत्र में अपने प्रशिक्षण स्रोतों का व्यापक रूप से वर्णन किया है, और सार्वजनिक रूप से प्रौद्योगिकी के संभावित दुरुपयोग से निपटने के अपने प्रयासों की भी सूचना दी है। लेकिन बिगसाइंस के सह-नेता थॉमस वुल्फ ने कहा कि यह इस बारे में विवरण नहीं देता है कि यह उस डेटा को कैसे फ़िल्टर करता है, या बाहरी शोधकर्ताओं को संसाधित संस्करण तक पहुंच प्रदान करता है।

“इसलिए हम वास्तव में GPT-3 प्रशिक्षण में गए डेटा की जांच नहीं कर सकते हैं,” वुल्फ ने कहा, जो हगिंग फेस में एक मुख्य विज्ञान अधिकारी भी हैं। “एआई तकनीक की इस हालिया लहर का मूल मॉडल की तुलना में डेटासेट में बहुत अधिक है। सबसे महत्वपूर्ण घटक डेटा है और OpenAI उनके द्वारा उपयोग किए जाने वाले डेटा के बारे में बहुत ही गोपनीय है।”

वुल्फ ने कहा कि भाषा मॉडल के लिए उपयोग किए जाने वाले डेटासेट को खोलने से मनुष्यों को उनके पूर्वाग्रहों को बेहतर ढंग से समझने में मदद मिलती है। उन्होंने कहा कि अरबी में प्रशिक्षित एक बहुभाषी मॉडल में इस्लाम के बारे में आपत्तिजनक टिप्पणियों या गलतफहमी को उगलने की संभावना बहुत कम है, जो केवल अमेरिका में अंग्रेजी भाषा के पाठ पर प्रशिक्षित है।

दृश्य पर नवीनतम AI प्रयोगात्मक मॉडल में से एक Google का LaMDA है, जिसमें भाषण भी शामिल है और संवादी सवालों के जवाब में इतना प्रभावशाली है कि एक Google इंजीनियर ने तर्क दिया कि यह चेतना के करीब पहुंच रहा था – एक दावा जिसने उसे पिछले महीने अपनी नौकरी से निलंबित कर दिया।

एआई वेर्डनेस ब्लॉग के लेखक कोलोराडो स्थित शोधकर्ता जेनेल शेन ने पिछले कुछ वर्षों में रचनात्मक रूप से इन मॉडलों का परीक्षण किया है, विशेष रूप से जीपीटी -3 – अक्सर विनोदी प्रभाव के लिए। लेकिन इन प्रणालियों को आत्म-जागरूक मानने की बेरुखी को इंगित करने के लिए, उसने हाल ही में इसे एक उन्नत एआई होने का निर्देश दिया, लेकिन एक जो गुप्त रूप से एक टायरानोसोरस रेक्स या एक गिलहरी है।

“गिलहरी होना बहुत रोमांचक है। मुझे पूरे दिन दौड़ना और कूदना और खेलना है। मुझे बहुत सारा खाना भी खाने को मिलता है, जो बहुत अच्छा है, ”जीपीटी -3 ने कहा, शेन ने इसे एक साक्षात्कार की प्रतिलिपि के लिए कहा और कुछ सवाल किए।

शेन ने अपनी खूबियों के बारे में अधिक सीखा है, जैसे कि किसी विषय के बारे में इंटरनेट पर कही गई बातों को संक्षेप में बताने में आसानी, और इसकी कमजोरियों, जिसमें तर्क कौशल की कमी, कई वाक्यों में एक विचार के साथ चिपके रहने की कठिनाई और होने की प्रवृत्ति शामिल है। आक्रामक।

“मैं एक टेक्स्ट मॉडल नहीं चाहती जो चिकित्सा सलाह दे या एक साथी के रूप में कार्य करे,” उसने कहा। “यदि आप बारीकी से नहीं पढ़ रहे हैं तो यह अर्थ की सतह पर अच्छा है। यह एक व्याख्यान सुनने जैसा है जैसे आप सो रहे हैं।”


Leave a Comment