जीवन की अनिश्चितता को अपनाना
द आर्ट ऑफ अनसर्टेंटी (The Art of Uncertainty) में, डेविड स्पीगलहॉल्टर इस बात की गहन पड़ताल करते हैं कि हम जीवन की अप्रत्याशितता को कैसे देखते हैं, उसका मॉडल कैसे बनाते हैं और उससे कैसे निपटते हैं। सांख्यिकीय विश्लेषण को दार्शनिक अंतर्दृष्टियों के साथ मिलाकर, वे पाठकों को अनिश्चितता को मानव स्थिति का अपरिहार्य हिस्सा मानने का निमंत्रण देते हैं। अनिश्चितता को समाप्त करने की कोशिश करने के बजाय, हमें इसके साथ जीना सीखना चाहिए, और बेयसियन विश्लेषण और गेम थ्योरी जैसे उपकरणों का उपयोग करके बेहतर निर्णय लेने का प्रयास करना चाहिए। साथ ही, हमें अनिश्चितता के सामने विनम्र बने रहना चाहिए, यह स्वीकार करते हुए कि हमारे मॉडल और हमारे ज्ञान की भी सीमाएँ हैं।
आखिरकार, स्पीगलहॉल्टर का काम यह याद दिलाने का काम करता है कि अनिश्चितता कोई डरने वाली चीज़ नहीं है, बल्कि इसे समझने की ज़रूरत है। एक ऐसी दुनिया में जहाँ अप्रत्याशितता ही सामान्य है, अनिश्चितता को अपनाने की कला हमारी क्षमता में है कि हम जीवन की जटिलताओं से जिज्ञासा और खुलेपन के साथ कैसे निपटते हैं।
विश्वासपूर्ण प्राणी: एआई के युग में मानव बुद्धिमत्ता की अवधारणा का विस्तार
द आर्ट ऑफ अनसर्टेंटी में मानव और कृत्रिम बुद्धिमत्ता पर गहराई से विचार करते हुए, स्पीगलहॉल्टर ने रैडिकल अनसर्टेंटी (कट्टर अनिश्चितता) के विचार के खिलाफ एक सूक्ष्म तर्क प्रस्तुत किया है। जबकि फ्रैंक नाइट और जॉन मेनार्ड कीन्स ने प्रसिद्ध रूप से तर्क दिया था कि कुछ परिस्थितियाँ ऐसी होती हैं जहाँ हम वास्तव में नहीं जानते, स्पीगलहॉल्टर इस मानवीय संबंध के बारे में एक अलग दृष्टिकोण पेश करते हैं। वे इस धारणा को खारिज करते हैं कि हम पूरी तरह से भविष्य से अंधे हैं। इसके बजाय, उनका मानना है कि अनिश्चितता एक ऐसी चीज़ है जिसे प्रबंधित किया जा सकता है, भले ही इसे पूरी तरह से नियंत्रित न किया जा सके। अनिश्चितता के साथ एक व्यक्तिगत संबंध पर जोर देकर, स्पीगलहॉल्टर औपचारिक विश्लेषण की सीमाओं को फिर से पुष्ट करते हैं, लेकिन इसे पूरी तरह से छोड़ते नहीं हैं। उनका तर्क दार्शनिक और व्यावहारिक दोनों है, जो यह प्रकट करता है कि हम अज्ञात के प्रति कैसे दृष्टिकोण रखते हैं और कैसे व्यक्तिपरक संभावनाएँ हमारी घटनाओं की समझ को आकार देती हैं।
स्पीगलहॉल्टर का 'व्यक्तिगत निष्कर्ष' विश्लेषणात्मक कठोरता और गहरे, ओन्टोलॉजिकल अनसर्टेंटी के सामने अनुकूल सोच की आवश्यकता के बीच तनाव को उजागर करता है। यह प्रकार की अनिश्चितता सरल अज्ञात से परे है और अस्तित्व की अंतर्निहित अप्रत्याशितता को छूती है, जिसे प्रकृति के नियमों द्वारा नियंत्रित किया जाता है। उदाहरण के लिए, थर्मोडायनामिक्स का दूसरा नियम बताता है कि एक बंद प्रणाली में क्रम अनिवार्य रूप से अनियमितता में बदल जाता है। स्पीगलहॉल्टर इस एंट्रॉपी को जीवन का हिस्सा मानते हैं और इस बात पर जोर देते हैं कि औपचारिक मॉडलों पर पूरी तरह से भरोसा करने के बजाय, मनुष्यों को ऐसी रणनीतियाँ विकसित करनी चाहिए जो अनुमानित और अनपेक्षित दोनों परिणामों के अनुकूल हो सकें। इस प्रकार, अनिश्चितता कोई डरने वाली चीज़ नहीं है, बल्कि यह मानवता के सामने हमेशा से रही एक चुनौती है।
अनिश्चितता और अनुकूलनशीलता के बीच यह संबंध लॉरेंस के कार्य द एटॉमिक ह्यूमन में केंद्रीय भूमिका निभाता है, जहाँ वे कृत्रिम बुद्धिमत्ता (AI) के क्षेत्र में तकनीकी प्रगति के संदर्भ में मानवीय सार का अध्ययन करते हैं। लॉरेंस स्पीगलहॉल्टर के मानव बुद्धिमत्ता के विश्लेषण और उस अनुकूलनशीलता के बीच तुलना करते हैं जो एक अनिश्चित दुनिया में फलने-फूलने के लिए आवश्यक है। वे 'परमाणु मानव' (atomic human) का विचार प्रस्तुत करते हैं, जो एक रूपक है और यह बताता है कि मानवीय बुद्धिमत्ता अप्रत्याशित परिस्थितियों के अनुकूल होने की हमारी क्षमता से उत्पन्न होती है। लॉरेंस का विश्लेषण एआई और मानव अनुभूति के बीच की खाई को पाटता है, और एक महत्वपूर्ण प्रश्न उठाता है जो तकनीक के इतिहास को गहराई से प्रभावित करता है: क्या मशीनें कभी वास्तव में मानवीय बुद्धिमत्ता की नकल कर सकती हैं?
औपचारिक विश्लेषण की सीमाएँ और अनुकूलन की शक्ति
इस अनुकूलनशीलता का सबसे सशक्त उदाहरण द्वितीय विश्व युद्ध के दौरान D-Day की पूर्व संध्या पर जनरल ड्वाइट आइजनहावर के निर्णय लेने की प्रक्रिया में देखा जा सकता है। मित्र देशों की सेनाओं के कमांडर के रूप में, आइजनहावर के पास जर्मन सिफरों के महत्वपूर्ण डिक्रिप्ट्स सहित भारी मात्रा में खुफिया जानकारी थी, जिसे एलन ट्यूरिंग और उनकी टीम ने तोड़ा था। हालांकि, उपलब्ध सभी जानकारी के बावजूद, आइजनहावर को अनिश्चितता के आधार पर निर्णय लेना पड़ा। इस निर्णय को लेते समय, उन्होंने औपचारिक विश्लेषण की सीमाओं को स्वीकार करते हुए व्यक्तिगत दृढ़ता के साथ अज्ञात को अपनाया। जब उन्होंने ऑपरेशन ओवरलॉर्ड के असफल होने पर पूरी ज़िम्मेदारी लेते हुए एक ज्ञापन लिखा, तब यह एक शक्तिशाली गवाही थी कि मानव बुद्धिमत्ता कैसे विश्वास और निर्णय लेने के माध्यम से अनिश्चितता का सामना कर सकती है, सिर्फ ठंडे विश्लेषण के बजाय।
यह प्रकरण लॉरेंस के व्यापक सिद्धांत से गहराई से मेल खाता है, जिसमें वे मानव इतिहास में बुद्धिमत्ता की भूमिका पर चर्चा करते हैं। उनका तर्क है कि मानव संज्ञानात्मक शक्ति प्राकृतिक चयन के माध्यम से विकसित हुई है ताकि पर्यावरण में निहित अप्रत्याशितता से निपटा जा सके। समय के साथ, मनुष्यों ने जटिल कथाओं को संप्रेषित करने, ज्ञान और अनुभवों को साझा करने, और समाजों में विश्वास और सहयोग बनाने की क्षमता विकसित की। यह संचार और कथानिर्माण की क्षमता ही है जो हमें मशीनों से अलग करती है। यह एक विकासात्मक गुण है जो हमें 'माइंड थ्योरीज़' बनाने की अनुमति देता है, यानी हम अन्य लोगों के विचारों और इरादों का मॉडल बना सकते हैं—ऐसी चीज़ जो कृत्रिम बुद्धिमत्ता, कम से कम वर्तमान स्वरूप में, नहीं कर सकती।
एआई और चिंतनशील बुद्धिमत्ता की समस्या
लॉरेंस इस अनुकूलनशीलता को कृत्रिम बुद्धिमत्ता की अंतर्निहित सीमाओं के साथ तुलना करते हैं, विशेष रूप से बड़े भाषा मॉडल्स (LLMs) के संदर्भ में। मानव बुद्धिमत्ता, जो धीमी, विचारशील संचार और कथानिर्माण पर फलती-फूलती है, इसके विपरीत, एलएलएम बुनियादी रूप से संभाव्यत्मक भविष्यवाणी मशीनें हैं। वे मानव भाषा की नकल करने के लिए विशाल मात्रा में डेटा संसाधित करते हैं, लेकिन उनमें अपनी सीमाओं की वास्तविक समझ या जागरूकता का अभाव होता है। लॉरेंस इसे 'महान एआई भ्रम' (The Great AI Fallacy) कहते हैं—यह गलत धारणा कि एआई सिस्टम ने मानव समझ के बराबर किसी प्रकार की बुद्धिमत्ता प्राप्त कर ली है।
लॉरेंस के अनुसार, यह भ्रम इस गलतफहमी पर आधारित है कि एआई वास्तव में क्या करता है। ये सिस्टम कारणात्मक तर्क (causal reasoning) में संलग्न नहीं होते हैं और न ही अपने परिणामों के अर्थ पर विचार करते हैं। इसके बजाय, वे डेटा के भीतर सांख्यिकीय संघों पर भरोसा करते हैं, ऐसी भविष्यवाणियाँ उत्पन्न करते हैं जो सटीक लग सकती हैं, लेकिन उनमें मानव तर्क की गहराई का अभाव होता है। कारणात्मकता पर विशेषज्ञ जुडिया पर्ल ने इस सीमा पर प्रकाश डाला है, यह बताते हुए कि मशीन लर्निंग मॉडल्स संभावना वितरणों का अनुमान लगाने में उत्कृष्ट होते हैं, लेकिन वे इन अनुमानों से आगे बढ़कर कारण-प्रभाव संबंधों को समझने में विफल होते हैं। दूसरे शब्दों में, एआई सिस्टम पैटर्न की पहचान में उत्कृष्ट हैं, लेकिन वे उस वास्तविक बुद्धिमत्ता से बहुत दूर हैं जिसे मनुष्य समझते हैं।
परमाणु मानव और एआई का भविष्य
लॉरेंस के विचार में, एआई का भविष्य संभवतः मानव और मशीन बुद्धिमत्ता दोनों की ताकतों को जोड़ने वाले हाइब्रिड सिस्टम्स में निहित हो सकता है। वे 'मानव-समान मशीन' (Human-Analogue Machine, HAM) की कल्पना करते हैं, जो मानव संज्ञानात्मक क्षमताओं का एक विस्तार हो सकता है। ऐसा सिस्टम मानव बुद्धिमत्ता का स्थान नहीं लेगा, बल्कि इसे बढ़ाएगा, जिससे लोग जटिल, अनिश्चित वातावरण को अधिक प्रभावी ढंग से नेविगेट कर सकेंगे। हालांकि, लॉरेंस इस बात पर जोर देते हैं कि एआई को मानव बुद्धिमत्ता के प्रतिस्थापन के रूप में देखने का प्रलोभन खतरनाक हो सकता है। वे तर्क देते हैं कि मानवता की अनूठी ताकत उसकी कमजोरियों में निहित है—हमारी अपनी क्षमताओं पर सवाल उठाने, संचार के माध्यम से विश्वास बनाने, और बदलती परिस्थितियों के अनुसार अनुकूलित करने की क्षमता।
यह चेतावनी तकनीकी इतिहास के संदर्भ में और भी महत्वपूर्ण हो जाती है। जब लॉरेंस कंप्यूटिंग के विकास का पता लगाते हैं, प्रारंभिक साइबरनेटिक सिस्टम्स से लेकर आज के न्यूरल नेटवर्क और मशीन लर्निंग एल्गोरिदम तक, वे इस तथ्य को रेखांकित करते हैं कि प्रत्येक तकनीकी सफलता मानव कौशल द्वारा प्रेरित रही है। फिर भी, इन प्रगतियों के बावजूद, मानवीय सार अपरिवर्तनीय बना हुआ है। मशीनें शक्तिशाली उपकरण हो सकती हैं, लेकिन वे उस तरह से अज्ञात के अनुकूल होने में असमर्थ हैं, जैसा कि मनुष्य कर सकते हैं। स्पीगलहॉल्टर और लॉरेंस दोनों इस बात को स्वीकार करते हैं कि अनिश्चितता जीवन का अपरिहार्य हिस्सा है, और इससे निपटने की हमारी क्षमता औपचारिक विश्लेषण से कहीं अधिक पर निर्भर करती है।
अनिश्चितता को वश में करना: एक व्यापक दृष्टिकोण
स्पीगलहॉल्टर और लॉरेंस दोनों के विश्लेषणों के केंद्र में यह मान्यता है कि अनिश्चितता को पूरी तरह से नियंत्रित नहीं किया जा सकता है। इसके बजाय, इसे मानव अस्तित्व के एक मौलिक पहलू के रूप में स्वीकार करना चाहिए। यह दृष्टिकोण इस धारणा को चुनौती देता है कि एआई कभी सच्ची बुद्धिमत्ता प्राप्त करेगा, क्योंकि यह उस अनुकूलनशीलता, विश्वास और आत्म-जागरूकता की नकल नहीं कर सकता जो मानवीय अनुभूति को परिभाषित करती है। जबकि एआई विशाल मात्रा में डेटा संसाधित कर सकता है और उस डेटा के आधार पर भविष्यवाणियाँ कर सकता है, इसमें अपनी सीमाओं पर विचार करने या ऐसे कथानक बनाने की क्षमता का अभाव है जो विश्वास और सहयोग को बढ़ावा दे सके।
अनिश्चितता को अपनाना
स्पीगलहॉल्टर की The Art of Uncertainty और लॉरेंस की The Atomic Human दोनों पुस्तकों में मानव बुद्धिमत्ता की प्रकृति और अनिश्चितता के साथ इसके संबंधों पर मूल्यवान अंतर्दृष्टि दी गई है। जहां एआई में तकनीकी प्रगति ने डेटा का विश्लेषण करने और भविष्यवाणियाँ करने के लिए शक्तिशाली उपकरण बनाए हैं, वहीं ये सिस्टम मानव अनुभूति के विशिष्ट गुणों की नकल करने में असमर्थ हैं। जैसे-जैसे हम एक तेजी से अनिश्चित होती दुनिया में आगे बढ़ रहे हैं, यह पहचानना आवश्यक है कि हमारी सबसे बड़ी शक्ति अनिश्चितता को समाप्त करने की क्षमता में नहीं, बल्कि अनजान चुनौतियों का सामना करने में, अनुकूलन, संचार, और विश्वास बनाने में निहित है।
डेटा या भ्रम? डेटा की सीमाएं, अनिश्चितता, और मानव निर्णय-निर्धारण
ऐसे युग में जहाँ डेटा को अक्सर निर्णय लेने के लिए अंतिम उपकरण के रूप में देखा जाता है, डेटा पर निर्भरता और इसके सीमाओं के बीच एक बढ़ता हुआ तनाव है। स्पीगलहॉल्टर और लॉरेंस, दोनों ही, इस बात की सराहना करते हैं कि कैसे मनुष्य डेटा को संसाधित कर सूचित निर्णय लेने की क्षमता रखते हैं। फिर भी, वे स्वीकार करते हैं कि बिना संदर्भ के डेटा का कोई वास्तविक अर्थ नहीं होता। असल मुद्दा इस बात में है कि हम डेटा की व्याख्या कैसे करते हैं और उसे क्या अर्थ देते हैं। संदर्भ की अनुपस्थिति और दुनिया की अंतर्निहित अनिश्चितताओं के कारण, डेटा-आधारित निर्णय विशेष रूप से अप्रत्याशित परिदृश्यों में गलत हो सकते हैं।
एआई और आपराधिक न्याय प्रणाली में पक्षपात
अमेरिकी आपराधिक न्याय प्रणाली में एआई के बढ़ते उपयोग ने यह स्पष्ट कर दिया है कि डेटा कैसे भ्रामक हो सकता है। एआई सिस्टम्स को आपराधिक सज़ाओं की अनुशंसा करने और पैरोल आवेदन मूल्यांकन के लिए इस्तेमाल किया जा रहा है। सतही तौर पर, यह एक तार्किक प्रगति प्रतीत होती है—डेटा का उपयोग कर निष्पक्षता और संगति सुनिश्चित करने का प्रयास। लेकिन ये एआई सिस्टम्स उसी पूर्वाग्रह और पक्षपात को प्रतिबिंबित करते हैं जो उनके प्रशिक्षण डेटा में अंतर्निहित होते हैं। नतीजतन, असमानता को कम करने के बजाय, वे मौजूदा पूर्वाग्रहों को और मजबूत कर सकते हैं। उदाहरण के लिए, कुछ जनसांख्यिकीय समूहों में पूर्ववर्ती सज़ा के रुझान भविष्य में अनुचित सज़ाओं को कायम कर सकते हैं, जिससे सामाजिक असमानताएँ और बढ़ सकती हैं। जब तक इन पूर्वाग्रहों को दूर करने का प्रयास नहीं किया जाता, तब तक डेटा-चालित एआई सिस्टम्स मानव निर्णय लेने वालों की तरह ही त्रुटिपूर्ण रह सकते हैं।
मूल समस्या केवल तकनीकी नहीं बल्कि दार्शनिक है—क्या हम उस डेटा पर भरोसा कर सकते हैं जिसे हम उपयोग कर रहे हैं? यह प्रश्न हमें एक गहरी चुनौती की ओर ले जाता है: ओन्टोलॉजिकल अनसर्टेंटी।
ओन्टोलॉजिकल अनसर्टेंटी की समस्या
स्पीगलहॉल्टर ओन्टोलॉजिकल अनसर्टेंटी की अवधारणा प्रस्तुत करते हैं—यह विचार कि हम हमेशा भविष्य की सभी संभावित स्थितियों की भविष्यवाणी नहीं कर सकते। यह अनिश्चितता केवल सांख्यिकीय नहीं है, बल्कि वास्तविकता की प्रकृति से जुड़ी है। मानव बुद्धिमत्ता लाखों वर्षों में विकसित हुई है, एक ऐसी दुनिया में जिसने हमेशा आश्चर्य, उथल-पुथल और अप्रत्याशित बदलाव देखे हैं। फिर भी, आज की डेटा-चालित समाज में, हम इस धारणा पर तेजी से भरोसा कर रहे हैं कि जिस प्रक्रिया ने वह डेटा उत्पन्न किया है, वह समय के साथ स्थिर रहेगी। लेकिन अगर ऐसा नहीं हुआ तो? क्या हम डेटा पर भरोसा कर सकते हैं जब इसे उत्पन्न करने वाली स्थितियाँ अप्रत्याशित रूप से बदल सकती हैं?
यह चिंता नई नहीं है। 2015 में प्रकाशित अपनी पुस्तक Post Keynesian Theory and Policy में अर्थशास्त्री पॉल डेविडसन ने मुख्यधारा की आर्थिक सोच में एक महत्वपूर्ण खामी की ओर इशारा किया: यह विश्वास कि अतीत के डेटा का उपयोग भविष्य के बारे में सांख्यिकीय रूप से सही पूर्वानुमान बनाने के लिए किया जा सकता है। डेविडसन ने इस धारणा पर सवाल उठाया कि आर्थिक प्रणालियाँ स्थिर, एर्गोडिक प्रक्रियाओं द्वारा शासित होती हैं (यानी, ऐसी प्रक्रियाएँ जो समय के साथ स्थिर रहती हैं)। वास्तव में, अर्थव्यवस्था अधिक अराजक प्रणाली की तरह है, जहाँ भविष्य के परिणामों की भविष्यवाणी हमेशा पिछले डेटा के आधार पर नहीं की जा सकती।
वित्तीय संकट और नियंत्रण का भ्रम
2008 का वैश्विक वित्तीय संकट इस बात का एक और उदाहरण है कि कैसे अतीत के डेटा पर भरोसा सुरक्षा की झूठी भावना पैदा कर सकता है। संकट से पहले, अर्थशास्त्रियों और वित्तीय संस्थानों का मानना था कि उन्होंने जोखिम प्रबंधन के लिए परिष्कृत मॉडल विकसित किए हैं। उन्होंने यह मान लिया था कि हेजिंग और पूंजी भंडार बढ़ाने जैसी रणनीतियों के माध्यम से अनिश्चितता को नियंत्रित किया जा सकता है। हालांकि, जब आवासीय बुलबुला फूटा और संकट प्रकट हुआ, तो यह स्पष्ट हो गया कि ये मॉडल संकट की गंभीरता का अनुमान लगाने में सक्षम नहीं थे। यह धारणा कि वित्तीय बाजार पूर्वानुमेय पैटर्न का अनुसरण करते हैं, टूट गई। इसके जवाब में, नियामकों ने संकट से उजागर हुई कमियों को दूर करने के उपाय किए, लेकिन ये उपाय अतीत को ध्यान में रखकर बनाए गए थे, भविष्य के संकटों को देखने के लिए नहीं।
स्पीगलहॉल्टर ने कहा, 'हमारी कल्पना दुनिया के साथ मिलकर काम करती है और उस दुनिया पर निर्भर करती है ताकि उसे वह निरंतरता प्रदान की जा सके जिसकी उसे आवश्यकता होती है।' लेकिन दुनिया स्थिर नहीं रहती—यह लगातार व्यवधानों, शासन परिवर्तनों और क्रांतियों से आकार लेती है। जैसा कि लॉरेंस इंगित करते हैं, इतिहास अप्रत्याशितता से भरा हुआ है, और यह अप्रत्याशितता डेटा-चालित निर्णय लेने की नींव को चुनौती देती है।
जोखिम, अनिश्चितता और अज्ञानता: ज़ेकहाउज़र का मॉडल
अर्थशास्त्री रिचर्ड ज़ेकहाउज़र ने दुनिया की स्थिति के बारे में विभिन्न ज्ञान स्तरों को समझने के लिए एक रूपरेखा तैयार की है, जो विभिन्न निर्णय लेने के वातावरण से मेल खाती है। ज़ेकहाउज़र तीन क्षेत्रों के बीच अंतर करते हैं: जोखिम, अनिश्चितता, और अज्ञानता।
जोखिम की स्थिति में, संभावित परिणाम और उनकी संभावनाएँ ज्ञात होती हैं। यह वह क्षेत्र है जहाँ सांख्यिकीय मॉडल और डेटा सबसे प्रभावी हो सकते हैं। उदाहरण के लिए, एक निवेशक जो दो शेयरों के बीच चयन कर रहा है, वह ऐतिहासिक डेटा का उपयोग विभिन्न रिटर्न की संभावनाओं का आकलन करने के लिए कर सकता है।
अनिश्चितता की स्थिति में, संभावित परिणाम ज्ञात होते हैं, लेकिन उनकी संभावनाएँ नहीं। उदाहरण के लिए, एक उद्यमी जो एक नया उत्पाद लॉन्च कर रहा है, वह जानता है कि यह या तो सफल होगा या विफल, लेकिन प्रत्येक परिणाम की सटीक संभावना जानने का कोई तरीका नहीं है।
अंत में, अज्ञानता उन स्थितियों को संदर्भित करती है जहाँ संभावित परिणाम भी अज्ञात होते हैं। यह सबसे चुनौतीपूर्ण क्षेत्र है क्योंकि निर्णय लेने वालों को सभी संभावित जोखिमों को जाने बिना ही चुनाव करना पड़ता है। अज्ञानता अक्सर नई प्रौद्योगिकियों या अभूतपूर्व घटनाओं से जुड़े परिदृश्यों में उत्पन्न होती है। इन मामलों में, निर्णय कठिन डेटा के बजाय अनुमान और अनुमान पर आधारित होते हैं।
ज़ेकहाउज़र का मॉडल डेटा-आधारित निर्णय लेने की एक महत्वपूर्ण सीमा को उजागर करता है। जबकि डेटा हमें जोखिम की स्थितियों को नेविगेट करने में मदद कर सकता है, यह अनिश्चितता और अज्ञानता की स्थितियों में कम उपयोगी होता है। ऐसे मामलों में, हमें निर्णय लेने के लिए विवेक, अंतर्ज्ञान और कल्पना पर निर्भर रहना पड़ता है—वे गुण जो एआई सिस्टम, अपनी सभी शक्तियों के बावजूद, अभी भी नहीं रखते।
अनिश्चितता की आत्म-सिद्ध प्रकृति
स्पीगलहॉल्टर इस बात को स्वीकार करते हैं कि कभी-कभी 'हम सभी संभावनाओं की कल्पना नहीं कर सकते' और 'हमें यह स्वीकार करना पड़ सकता है कि हम नहीं जानते।' यह स्वीकारोक्ति महत्वपूर्ण है क्योंकि यह मान्यता देती है कि अनिश्चितता केवल एक बाहरी चुनौती नहीं है, बल्कि एक आत्म-सिद्ध (self-fulfilling) समस्या भी है। अपने प्रसिद्ध 'ब्यूटी कॉन्टेस्ट' रूपक में, जॉन मेनार्ड कीन्स ने इस बात का वर्णन किया कि भविष्य के बारे में लोगों की अपेक्षाएँ इस पर कैसे निर्भर करती हैं कि वे दूसरों को क्या करते हुए मानते हैं। ऐसी स्थितियों में, अनिश्चितता एक प्रतिक्रिया पाश (feedback loop) उत्पन्न कर सकती है, जहाँ हर कोई अन्य लोगों के व्यवहार की भविष्यवाणी करने की कोशिश कर रहा होता है, जिससे समूह व्यवहार (herding) और बाजार बुलबुले (market bubbles) बन सकते हैं।
यह गतिशील विशेष रूप से वित्तीय बाजारों में स्पष्ट होती है, जहाँ भविष्य की कीमतों के बारे में अनिश्चितता सट्टा बुलबुलों को जन्म दे सकती है। जब निवेशक किसी संपत्ति के वास्तविक मूल्य को लेकर अनिश्चित होते हैं, तो वे अपने निर्णयों को वस्तुनिष्ठ डेटा के बजाय इस पर आधारित कर सकते हैं कि वे सोचते हैं कि अन्य लोग क्या विश्वास करते हैं। जैसे-जैसे अधिक से अधिक निवेशक बाजार में आते हैं, कीमतें बढ़ती हैं, यह धारणा मजबूत होती जाती है कि संपत्ति मूल्यवान है। लेकिन जब बुलबुला फूटता है, तो वही प्रतिक्रिया पाश कीमतों को नीचे ले जाता है, क्योंकि हर कोई बेचने की जल्दी में होता है।
निष्कर्ष: डेटा की सीमाएं और निर्णय में विवेक की आवश्यकता
अंत में, लॉरेंस और स्पीगलहॉल्टर का संदेश स्पष्ट है: डेटा एक मूल्यवान उपकरण है, लेकिन यह सबकुछ नहीं है। दुनिया बहुत जटिल, बहुत अनिश्चित, और बहुत अप्रत्याशित है जिसे केवल डेटा के माध्यम से पूरी तरह से कैप्चर किया जा सके। हमें अपने मॉडलों की सीमाओं को पहचानना चाहिए और अनिश्चितता के सामने विनम्र बने रहना चाहिए। जोखिम की स्थितियों में, डेटा हमारी मदद कर सकता है। लेकिन अनिश्चितता और अज्ञानता की स्थितियों में, हमें मानव निर्णय, रचनात्मकता, और अनुकूलनशीलता पर निर्भर रहना चाहिए।
इसका यह अर्थ नहीं है कि हमें डेटा-आधारित निर्णय लेने को छोड़ देना चाहिए। इसके विपरीत, डेटा हमें महत्वपूर्ण अंतर्दृष्टि प्रदान कर सकता है और जिन चुनौतियों का हम सामना करते हैं, उनके माध्यम से नेविगेट करने में हमारी मदद कर सकता है। लेकिन हमें हमेशा इसकी सीमाओं से अवगत रहना चाहिए और इस प्रलोभन का विरोध करना चाहिए कि हम इस पर अत्यधिक निर्भर न हो जाएँ। जैसा कि स्पीगलहॉल्टर याद दिलाते हैं, 'कभी-कभी हमें यह स्वीकार करना पड़ सकता है कि हम नहीं जानते।' ऐसे क्षणों में, यह हमारी मानव क्षमता—चिंतन, कल्पना और सहयोग—है जो हमें अनजान रास्तों पर मार्गदर्शन करेगी।
यह लेख विलियम एच. जेनेवे के लेख 'इन एआई वी ट्रस्ट' से प्राप्त अंतर्दृष्टियों पर आधारित है, जिसमें कुछ अतिरिक्त पहलुओं को शामिल
किया गया है ताकि इस विषय की और व्यापक समझ प्रदान की जा सके। पूरे सम्मान के साथ, हम इन अंतर्दृष्टियों का
पुनः उपयोग कर रहे हैं क्योंकि जेनेवे को एआई के मानव मूल्यों पर संभावित प्रभावों को लेकर चिंता है।
हम उनकी इस चिंता को समझते हैं और इसे और विस्तार देने का प्रयास कर रहे हैं।
विलियम एच. जेनेवे कैम्ब्रिज विश्वविद्यालय में अर्थशास्त्र के प्रतिष्ठित सम्बद्ध प्रोफेसर हैं और
डूइंग कैपिटलिज्म इन द इनोवेशन इकॉनमी (कैम्ब्रिज यूनिवर्सिटी
प्रेस, 2018) के लेखक हैं।