
टेक उद्योग की तुलना में कोई भी भविष्य को अधिक निपुणता से नहीं बेचता है। इसके समर्थकों के अनुसार, हम सभी “मेटावर्स” में रहेंगे, “वेब3” पर अपने वित्तीय बुनियादी ढांचे का निर्माण करेंगे और “कृत्रिम बुद्धिमत्ता” के साथ अपने जीवन को शक्ति प्रदान करेंगे। ये तीनों शब्द मृगतृष्णा हैं जो वास्तविकता से पीछे हटने के बावजूद अरबों डॉलर में रेक कर चुके हैं। आर्टिफिशियल इंटेलिजेंस विशेष रूप से सोचने वाली मशीनों की धारणा को जोड़ती है। लेकिन कोई मशीन सोच नहीं सकती, और कोई भी सॉफ्टवेयर वास्तव में बुद्धिमान नहीं है। अकेला वाक्यांश अब तक के सबसे सफल विपणन शब्दों में से एक हो सकता है।
पिछले हफ्ते OpenAI ने GPT-4 की घोषणा की, जो ChatGPT को आधार देने वाली तकनीक का एक बड़ा अपग्रेड है। प्रणाली अपने पूर्ववर्ती की तुलना में और भी अधिक मानवीय लगती है, स्वाभाविक रूप से इसकी बुद्धिमत्ता की धारणाओं को पुष्ट करती है। लेकिन GPT-4 और इसके जैसे अन्य बड़े भाषा मॉडल केवल पाठ के डेटाबेस को प्रतिबिंबित कर रहे हैं – पिछले मॉडल के लिए एक खरब शब्द के करीब – जिसका पैमाना सोचना मुश्किल है। मनुष्यों की एक सेना द्वारा इसे सुधार के साथ पुन: प्रोग्रामिंग करने में मदद की गई, मॉडल संभाव्यता के आधार पर एक साथ शब्दों को चमकाते हैं। वह बुद्धिमत्ता नहीं है।
इन प्रणालियों को पाठ उत्पन्न करने के लिए प्रशिक्षित किया जाता है जो प्रशंसनीय लगता है, फिर भी उन्हें ज्ञान के नए दैवज्ञों के रूप में विपणन किया जाता है जिन्हें खोज इंजनों में प्लग किया जा सकता है। यह मूर्खता है जब GPT-4 त्रुटियां करना जारी रखता है, और यह केवल कुछ सप्ताह पहले ही था कि Microsoft और अल्फाबेट के Google दोनों को शर्मनाक डेमो का सामना करना पड़ा जिसमें उनके नए खोज इंजन तथ्यों पर गड़बड़ कर गए।
मामलों में मदद नहीं करना: “तंत्रिका नेटवर्क” और “डीप लर्निंग” जैसे शब्द केवल इस विचार को बल देते हैं कि ये कार्यक्रम मानवीय हैं। तंत्रिका नेटवर्क किसी भी तरह से मानव मस्तिष्क की प्रतियाँ नहीं हैं; वे केवल इसके कार्यकलापों से प्रेरित हैं। लगभग 85 बिलियन न्यूरॉन्स के साथ मानव मस्तिष्क को आजमाने और दोहराने के लिए लंबे समय से चल रहे प्रयास विफल रहे हैं। निकटतम वैज्ञानिक 302 न्यूरॉन्स के साथ एक कीड़े के मस्तिष्क का अनुकरण करने के लिए आए हैं।
हमें एक अलग शब्दावली की आवश्यकता है जो कंप्यूटर सिस्टम के बारे में जादुई सोच का प्रचार न करे, और उन सिस्टम को डिजाइन करने वाले लोगों को उनकी जिम्मेदारियों से दूर न करे। बेहतर विकल्प क्या है? उचित प्रौद्योगिकीविदों ने “एआई” को “मशीन लर्निंग सिस्टम” के साथ बदलने के लिए वर्षों से प्रयास किया है, लेकिन यह उसी तरह से जीभ से नहीं निकलता है।
स्टेफ़ानो क्विंटारेली, एक पूर्व इतालवी राजनेता और प्रौद्योगिकीविद्, एक अन्य विकल्प के साथ आए, “एल्गोरिदम और मशीन संदर्भ सीखने के लिए प्रणालीगत दृष्टिकोण” या SALAMI, उन सवालों की हास्यास्पदता को रेखांकित करने के लिए जो लोग AI के बारे में प्रस्तुत कर रहे हैं: क्या SALAMI संवेदनशील है? क्या सलामी का कभी मनुष्यों पर आधिपत्य होगा?
सिमेंटिक विकल्प पर सबसे निराशाजनक प्रयास शायद सबसे सटीक है: “सॉफ्टवेयर।”
“लेकिन,” मैंने सुना है कि आप पूछते हैं, “इतनी जादुई लगने वाली तकनीक का वर्णन करने के लिए थोड़ा रूपक शॉर्टहैंड का उपयोग करने में क्या गलत है?”
इसका उत्तर यह है कि मशीनों को बुद्धिमत्ता देने से उन्हें मनुष्यों से अयोग्य स्वतंत्रता मिलती है, और यह उनके रचनाकारों को उनके प्रभाव के लिए जिम्मेदार ठहराता है। यदि हम चैटजीपीटी को “बुद्धिमान” के रूप में देखते हैं, तो हम सैन फ्रांसिस्को स्टार्टअप ओपनएआई, इसके निर्माता, को इसकी अशुद्धियों और पूर्वाग्रहों के लिए प्रयास करने और रखने के लिए कम इच्छुक हैं। यह उन मनुष्यों के बीच घातक अनुपालन भी पैदा करता है जो प्रौद्योगिकी के हानिकारक प्रभावों से पीड़ित हैं; हालांकि “एआई” आपकी नौकरी नहीं लेगा या आपकी कलात्मक कृतियों की चोरी नहीं करेगा – अन्य मनुष्य करेंगे।
यह मुद्दा अब और अधिक दबा हुआ है कि मेटा प्लेटफॉर्म से लेकर स्नैप से लेकर मॉर्गन स्टेनली तक की कंपनियां अपने सिस्टम में चैटबॉट और टेक्स्ट और इमेज जेनरेटर प्लग करने के लिए दौड़ रही हैं। Google के साथ अपनी नई हथियारों की दौड़ से प्रेरित होकर, Microsoft Word, Outlook और Excel सहित अपने सबसे लोकप्रिय व्यावसायिक ऐप में OpenAI की भाषा मॉडल तकनीक डाल रहा है, जो अभी भी काफी हद तक अप्रयुक्त है। माइक्रोसॉफ्ट ने अपनी नई सुविधा के बारे में कहा, “कोपायलट मौलिक रूप से बदल देगा कि लोग एआई के साथ कैसे काम करते हैं और एआई लोगों के साथ कैसे काम करता है।”
लेकिन ग्राहकों के लिए बुद्धिमान मशीनों के साथ काम करने का वादा लगभग भ्रामक है। “[AI is] उन लेबलों में से एक जो वर्तमान वास्तविकता के बजाय एक प्रकार की यूटोपियन आशा व्यक्त करता है, कुछ हद तक पहले खाड़ी युद्ध के दौरान ‘स्मार्ट हथियार’ वाक्यांश के उदय ने पूरी तरह से सटीक लक्ष्यीकरण की रक्तहीन दृष्टि को निहित किया जो अभी भी संभव नहीं है, “स्टीवन कहते हैं शब्दों और लेबलों की खतरनाक शक्ति के बारे में अनस्पीक पुस्तक के लेखक पूले।
मार्गरेट मिशेल, एक कंप्यूटर वैज्ञानिक जिसे बड़े भाषा मॉडल में पूर्वाग्रहों की आलोचना करने वाले एक पेपर को प्रकाशित करने के बाद Google द्वारा निकाल दिया गया था, ने अनिच्छा से अपने काम को हाल के वर्षों में “एआई” पर आधारित होने के रूप में वर्णित किया है। “पहले… मेरे जैसे लोग कहते थे कि हम ‘मशीन लर्निंग’ पर काम करते हैं।” लोगों की आंखें चमकने का यह एक शानदार तरीका है, ”उसने शुक्रवार को एक सम्मेलन पैनल में भर्ती कराया।
उनके पूर्व Google सहयोगी और डिस्ट्रीब्यूटेड आर्टिफिशियल इंटेलिजेंस रिसर्च इंस्टीट्यूट के संस्थापक टिमनिट गेब्रू ने कहा कि उन्होंने भी 2013 के आसपास केवल “एआई” कहना शुरू किया: “यह कहने की बात बन गई।”
“यह भयानक है लेकिन मैं यह भी कर रहा हूँ,” मिशेल ने कहा। “मैं वह सब कुछ कह रहा हूं जिसे मैं ‘एआई’ स्पर्श करता हूं क्योंकि तब लोग सुनेंगे कि मैं क्या कह रहा हूं।”
दुर्भाग्य से, “एआई” हमारी शब्दावली में इतना अंतर्निहित है कि इसे हिलाना लगभग असंभव होगा, अनिवार्य वायु उद्धरण याद रखना मुश्किल है। कम से कम, हमें खुद को यह याद दिलाना चाहिए कि ऐसी प्रणालियाँ मानव प्रबंधकों पर कितनी निर्भर हैं जिन्हें उनके दुष्प्रभावों के लिए जवाबदेह ठहराया जाना चाहिए।
लेखक पूले का कहना है कि वह चैटबॉट जैसे चैटबॉट और मिडजर्नी जैसे इमेज जेनरेटर को “विशाल साहित्यिक चोरी मशीन” कहना पसंद करते हैं क्योंकि वे मुख्य रूप से गद्य और चित्रों को पुनर्संयोजित करते हैं जो मूल रूप से मनुष्यों द्वारा बनाए गए थे। “मुझे विश्वास नहीं है कि यह पकड़ में आएगा,” वे कहते हैं।
एक से अधिक तरीकों से, हम वास्तव में “एआई” के साथ फंस गए हैं।
© 2023 ब्लूमबर्ग एल.पी