समय-समय पर अग्रणी वैज्ञानिकों, प्रौद्योगिकीविदों और दार्शनिकों ने नवाचार की दिशा के बारे में आश्चर्यजनक भविष्यवाणियाँ की हैं। यहां तक कि आइंस्टीन भी प्रतिरक्षित नहीं थे, उनका दावा था कि “इस बात का ज़रा भी संकेत नहीं है कि परमाणु ऊर्जा कभी हासिल की जा सकेगी।” इसके तुरंत बाद, यह सर्वसम्मति परमाणु विनाश की आशंका में बदल गई।
इसी तरह, आज के विशेषज्ञ चेतावनी देते हैं कि आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) का भी विनाश निकट है। कई लोग तर्क देते हैं कि प्रमुख भाषा मॉडल (एलएलएम) पहले ही अपनी शक्तियों के चरम पर पहुंच चुके हैं।
डेविड कॉलिंग्रिज की प्रभावशाली थीसिस के साथ बहस करना कठिन है कि नई तकनीक से उत्पन्न जोखिमों की भविष्यवाणी करने की कोशिश करना मूर्खतापूर्ण है। यह देखते हुए कि हमारे प्रमुख वैज्ञानिक और प्रौद्योगिकीविद् आम तौर पर तकनीकी विकास के बारे में इतने गलत हैं, हमारे नीति निर्माताओं के पास कृत्रिम बुद्धिमत्ता (एआई) से उभरते तकनीकी खतरों को प्रभावी ढंग से प्रबंधित करने का क्या मौका है?
कृत्रिम बुद्धिमत्ता द्वारा उत्पन्न आर्थिक जोखिमों पर ध्यान केंद्रित करना केवल “एकाधिकार”, “स्व-वरीयता” या “बड़े तकनीकी प्रभुत्व” को रोकने के बारे में नहीं है। यह सुनिश्चित करने के बारे में है कि एक आर्थिक वातावरण जो नवाचार की सुविधा देता है वह तकनीकी जोखिमों का अनुमान लगाने में सक्षम है क्योंकि कंपनियां मुनाफे या बाजार प्रभुत्व की दौड़ में “तेजी से आगे बढ़ती हैं और चीजों को तोड़ देती हैं”।
OpenAI पहले से ही 2 बिलियन अमेरिकी डॉलर (£1.6 बिलियन) की वार्षिक बिक्री और लाखों उपयोगकर्ताओं के साथ एक प्रमुख खिलाड़ी बन रहा है। इसके जीपीटी स्टोर और डेवलपर टूल को इसे बनाने वालों को मूल्य लौटाने की जरूरत है ताकि यह सुनिश्चित किया जा सके कि नवाचार पारिस्थितिकी तंत्र व्यवहार्य और स्केलेबल बना रहे।
इसलिए, आर्टिफिशियल इंटेलिजेंस (एआई) को ठीक से समझने के लिए इससे जुड़ी आर्थिक प्रक्रिया और लाभप्रदता को समझने की जरूरत है। आर्टिफिशियल इंटेलिजेंस (एआई) पैसा कमाने की दुनिया में धूम मचा रहा है और इससे भी अधिक की उम्मीद है।