एआई चैटबॉट्स का उपयोग करना कार्नेगी मेलन, एमआईटी, ऑक्सफ़ोर्ड और यूसीएलए के शोधकर्ताओं के एक नए अध्ययन के अनुसार, केवल 10 मिनट का समय भी लोगों की सोचने और समस्या-समाधान करने की क्षमता पर आश्चर्यजनक रूप से नकारात्मक प्रभाव डाल सकता है।
शोधकर्ताओं ने एक ऑनलाइन प्लेटफ़ॉर्म के माध्यम से लोगों को सरल भिन्न और पढ़ने की समझ सहित विभिन्न समस्याओं को हल करने का काम सौंपा, जिसने उन्हें उनके काम के लिए भुगतान किया। उन्होंने तीन प्रयोग किए, जिनमें से प्रत्येक में कई सौ लोग शामिल थे। कुछ प्रतिभागियों को समस्या को स्वायत्त रूप से हल करने में सक्षम एआई सहायक तक पहुंच प्रदान की गई। जब एआई हेल्पर को अचानक हटा दिया गया, तो इन लोगों द्वारा समस्या को छोड़ देने या अपने उत्तर देने में बहुत अधिक संभावना थी। अध्ययन से पता चलता है कि एआई के व्यापक उपयोग से मूलभूत समस्या-समाधान कौशल विकसित करने की कीमत पर उत्पादकता बढ़ सकती है।
अध्ययन से जुड़े एमआईटी के सहायक प्रोफेसर माइकल बेकर कहते हैं, “मुख्य बात यह नहीं है कि हमें शिक्षा या कार्यस्थलों में एआई पर प्रतिबंध लगा देना चाहिए।” “एआई स्पष्ट रूप से लोगों को इस समय बेहतर प्रदर्शन करने में मदद कर सकता है, और यह मूल्यवान हो सकता है। लेकिन हमें इस बारे में अधिक सावधान रहना चाहिए कि एआई किस प्रकार की सहायता प्रदान करता है और कब प्रदान करता है।”
मैं हाल ही में एमआईटी परिसर में बेकर से मिला, जिसके बाल बिखरे हुए थे और उसकी मुस्कुराहट चौड़ी थी। मूल रूप से नीदरलैंड के रहने वाले, उन्होंने पहले लंदन में Google DeepMind में काम किया था। उन्होंने मुझे बताया कि जिस तरह से एआई समय के साथ इंसानों को कमजोर कर सकता है, उस पर एक प्रसिद्ध निबंध ने उन्हें यह सोचने के लिए प्रेरित किया कि तकनीक पहले से ही लोगों की क्षमताओं को कैसे खत्म कर सकती है। निबंध पढ़ने में थोड़ा निराशाजनक लगता है, क्योंकि यह बताता है कि सशक्तिकरण अपरिहार्य है। उन्होंने कहा, शायद यह पता लगाना कि एआई लोगों को अपनी मानसिक क्षमताओं को विकसित करने में कैसे मदद कर सकता है, यह इस बात का हिस्सा होना चाहिए कि मॉडल को मानवीय मूल्यों के साथ कैसे जोड़ा जाता है।
बेकर ने मुझसे कहा, “यह मूल रूप से एक संज्ञानात्मक प्रश्न है – दृढ़ता, सीखने और लोग कठिनाई पर कैसे प्रतिक्रिया करते हैं, इसके बारे में।” “हम दीर्घकालिक मानव-एआई इंटरैक्शन के बारे में इन व्यापक चिंताओं को लेना चाहते थे और नियंत्रित प्रयोगात्मक सेटिंग में उनका अध्ययन करना चाहते थे।”
बेकर का कहना है कि परिणामी अध्ययन विशेष रूप से चिंताजनक लगता है, क्योंकि किसी व्यक्ति की समस्या-समाधान जारी रखने की इच्छा नए कौशल प्राप्त करने के लिए महत्वपूर्ण है और समय के साथ सीखने की उनकी क्षमता की भविष्यवाणी भी करती है।
बेकर का कहना है कि इस बात पर पुनर्विचार करना आवश्यक हो सकता है कि एआई उपकरण कैसे काम करते हैं ताकि एक अच्छे मानव शिक्षक की तरह-मॉडल कभी-कभी किसी समस्या को हल करने के बजाय किसी व्यक्ति की सीखने को प्राथमिकता दें। बेकर कहते हैं, “जो प्रणालियाँ सीधे उत्तर देती हैं, उनका दीर्घकालिक प्रभाव उन प्रणालियों से बहुत भिन्न हो सकता है जो उपयोगकर्ता को प्रशिक्षित करती हैं या चुनौती देती हैं।” हालाँकि, वह स्वीकार करते हैं कि इस तरह के “पितृसत्तात्मक” दृष्टिकोण को संतुलित करना मुश्किल हो सकता है।
एआई कंपनियां पहले से ही उन अधिक सूक्ष्म प्रभावों के बारे में सोचती हैं जो उनके मॉडल उपयोगकर्ताओं पर डाल सकते हैं। कुछ मॉडलों की चाटुकारिता – या उपयोगकर्ताओं के साथ सहमत होने और उन्हें संरक्षण देने की कितनी संभावना है – कुछ ऐसा है जिसे OpenAI ने GPT की नई रिलीज़ के साथ कम करने की कोशिश की है।
एआई पर बहुत अधिक विश्वास करना विशेष रूप से समस्याग्रस्त प्रतीत होगा जब उपकरण आपकी अपेक्षा के अनुरूप व्यवहार नहीं करेंगे। एजेंट एआई सिस्टम विशेष रूप से अप्रत्याशित हैं क्योंकि वे जटिल काम स्वतंत्र रूप से करते हैं और अजीब त्रुटियां पेश कर सकते हैं। यह आपको आश्चर्यचकित करता है कि क्लॉड कोड और कोडेक्स कोडर के कौशल के साथ क्या कर रहे हैं जिन्हें कभी-कभी उनके द्वारा लाए गए बग को ठीक करने की आवश्यकता हो सकती है।
मुझे हाल ही में खुद एआई पर आलोचनात्मक सोच थोपने के खतरे के बारे में सबक मिला है। मैं दैनिक सहायक के रूप में ओपनक्लॉ (अंदर कोडेक्स के साथ) का उपयोग कर रहा हूं, और मैंने इसे लिनक्स पर कॉन्फ़िगरेशन समस्याओं को हल करने में उल्लेखनीय रूप से अच्छा पाया है। हालाँकि, हाल ही में, जब मेरा वाई-फाई कनेक्शन बार-बार गिर रहा था, तो मेरे एआई सहायक ने ड्राइवर को वाई-फाई कार्ड से बात करने के लिए कमांड की एक श्रृंखला चलाने का सुझाव दिया। परिणाम यह हुआ कि एक ऐसी मशीन ने बूट करने से इनकार कर दिया, चाहे मैंने कुछ भी किया हो।
शायद, केवल मेरे लिए समस्या को हल करने का प्रयास करने के बजाय, OpenClaw को रुककर मुझे यह सिखाना चाहिए था कि समस्या को अपने लिए कैसे ठीक किया जाए। परिणामस्वरूप मेरे पास अधिक सक्षम कंप्यूटर और मस्तिष्क हो सकता है।
यह का एक संस्करण है विल नाइट का एआई लैब न्यूज़लेटर. पिछले न्यूज़लेटर पढ़ें यहाँ।