कृत्रिम बुद्धिमत्तेचे संभाव्य धोके

कृत्रिम बुद्धिमत्तेचे काही संभाव्य धोके काय आहेत?

आर्टिफिशियल इंटेलिजन्स, किंवा AI ज्याचा अनेकदा उल्लेख केला जातो, हा एक विषय आहे ज्यावर गेल्या दशकात बरीच चर्चा झाली आहे. बहुतेक व्यवसायांचे कार्यप्रवाह सुलभ आणि अधिक कार्यक्षम बनवून ते वेगाने विकसित होत आहे. अनेक लोकांच्या दैनंदिन जीवनातही AI ने मोठी क्षमता दाखवली आहे आणि ती आधीच अनेक वेगवेगळ्या ॲप्समध्ये लागू केली जात आहे, ज्यामुळे जीवन सोपे आणि कमी क्लिष्ट होते. AI ने आपल्यासाठी बरेच फायदे आणले आहेत आणि विज्ञानाने आणखी बरेच काही येण्याचा मार्ग मोकळा केला आहे, म्हणून हे सांगणे सुरक्षित आहे की AI भविष्यात अपरिहार्य असेल, जर ते आधीच नसेल.

पण ज्याप्रमाणे प्रत्येक पदकाला दोन बाजू असतात, त्याचप्रमाणे एआयलाही. या तंत्रज्ञानामध्ये अनेक संभाव्य धोके आणि तोटे देखील येतात. आमच्या काळातील अनेक तज्ञ आणि तांत्रिक सूत्रधार AI मुळे भविष्यात उद्भवू शकतील अशा समस्यांबद्दल त्यांच्या चिंता व्यक्त करत आहेत आणि म्हणून आम्ही या समस्यांचे निराकरण करण्यात सक्षम असताना काळजी घेणे आवश्यक आहे. त्यात आपल्याला काय म्हणायचे आहे?

या विशिष्ट समस्यांच्या संदर्भात अनेक गोष्टींचा विचार करणे आवश्यक आहे. या लेखात आम्ही AI च्या चकचकीत वेगवान विकासामुळे आपल्या जगाला कोणते धोके येऊ शकतात आणि त्या प्रगतीचे योग्य दिशेने निरीक्षण आणि मार्गदर्शन करण्यासाठी कोणते उपाय योजले पाहिजेत याचे वर्णन करण्याचा प्रयत्न करू.

1. नोकऱ्या

शीर्षक नसलेले 1 3

आम्हाला खात्री आहे की जुन्या शाळा, मानवावर आधारित कामाच्या ठिकाणी मशीन आणि ऑटोमेशन सादर करू शकतील अशा संभाव्य उपचारांबद्दल ऐकण्याची किंवा वाचण्याची संधी प्रत्येकाला आधीच मिळाली आहे. काही लोक त्यांच्या नोकऱ्या चोरत असलेल्या मशीनबद्दल वेगवेगळ्या प्रमाणात चिंतेने ग्रस्त असू शकतात. ही भीती कदाचित प्रस्थापित असेल, जॉब ऑटोमेशन हा अनेक लोकांसाठी एक मोठा धोका आहे: सुमारे 25% अमेरिकन लोक त्यांची नोकरी गमावू शकतात कारण काही क्षणी मशीन त्यांची जागा घेऊ शकतील. विशेषत: कमी वेतनाच्या पदांना धोका असतो ज्यामध्ये एखादी व्यक्ती प्रशासनातील नोकऱ्या किंवा अन्न-सेवा यासारखी पुनरावृत्तीची कामे करते. तथापि, काही विद्यापीठाच्या पदवीधरांनाही धोका असतो, प्रगत मशीन लर्निंग अल्गोरिदम कदाचित त्यांना काही जटिल कामाच्या स्थानांवर बदलू शकतील कारण ते अधिक परिष्कृत होत आहेत, विशेषत: न्यूरल नेटवर्क आणि सखोल शिक्षणाच्या वापराद्वारे.

परंतु आम्ही असे म्हणू शकत नाही की रोबोट्स लोकांना नोकरीच्या बाजारपेठेतून पूर्णपणे बाहेर काढतील. कर्मचाऱ्यांना फक्त समायोजित करावे लागेल, स्वतःला शिक्षित करावे लागेल आणि एआयला सहकार्य करून, त्याच्या कार्यक्षमतेचा आणि यांत्रिक तर्काचा सर्वोत्तम वापर करून काम करण्याचा मार्ग शोधावा लागेल. AI अद्याप परिपूर्ण नाही, उदाहरणार्थ ते निर्णय कॉल करण्यास सक्षम नाही, म्हणून मशीनच्या बरोबरीने काम करताना मानवी घटक अजूनही निर्णायक असेल.

ऑटोमेटेड सोल्यूशन्स वापरणारे बरेच एआय आधारित तंत्रज्ञान आहे ज्यांना प्रशिक्षित करणे आवश्यक आहे आणि हे प्रशिक्षण मानवी इनपुटवर अवलंबून आहे. याचे उत्तम उदाहरण म्हणजे मशिन भाषांतर जे मोठ्या संख्येने मानवी व्युत्पन्न केलेल्या भाषांतरांमधून इनपुट मिळवतात. दुसरे चांगले उदाहरण म्हणजे ट्रान्सक्रिप्शन सॉफ्टवेअर जे व्यावसायिक मानवी लिप्यंतरणकर्त्यांद्वारे केलेल्या अचूक प्रतिलेखनांमधून प्रशिक्षण डेटा मिळवते. अशाप्रकारे सॉफ्टवेअर थोडे-थोडे वाढवले जाते, वास्तविक जीवनातील उदाहरणांद्वारे त्याचे अल्गोरिदम परिष्कृत होते. मानवी प्रतिलेखकांना सॉफ्टवेअरचा फायदा होतो कारण ते त्यांना जलद प्रतिलेख बनविण्यात मदत करते. सॉफ्टवेअर उताऱ्याची रफ, मसुदा आवृत्ती तयार करते, जी नंतर लिप्यंतरकाद्वारे संपादित आणि दुरुस्त केली जाते. हे खूप वेळ वाचवते, आणि याचा अर्थ असा की शेवटी अंतिम उत्पादन जलद वितरित केले जाईल आणि अधिक अचूक असेल.

2. पक्षपाताची समस्या

अल्गोरिदमची एक मोठी गोष्ट म्हणजे ते नेहमीच निष्पक्ष, पक्षपाती नसलेले निर्णय घेतात, व्यक्तिनिष्ठ आणि भावनिक माणसांच्या अगदी विरुद्ध. किंवा ते करतात? सत्य हे आहे की कोणत्याही स्वयंचलित सॉफ्टवेअरची निर्णय घेण्याची प्रक्रिया त्यांना प्रशिक्षित केलेल्या डेटावर अवलंबून असते. म्हणून, प्रसंगी भेदभाव होण्याचा धोका असतो जेव्हा उदाहरणार्थ लोकसंख्येचा काही भाग वापरलेल्या डेटामध्ये पुरेसा दर्शविला जात नाही. यापैकी काही समस्यांसाठी फेशियल रेकग्निशन सॉफ्टवेअर आधीच तपासले जात आहे, पक्षपाताची प्रकरणे आधीच आली आहेत.

कृत्रिम बुद्धिमत्ता किती पक्षपाती असू शकते याचे एक उत्तम उदाहरण म्हणजे COMPAS (करेक्शनल ऑफेंडर मॅनेजमेंट प्रोफाइलिंग फॉर अल्टरनेटिव्ह सॅन्क्शन्स). अपराध्यांमधील पुनरुत्थान जोखमीचा अंदाज लावण्यासाठी हे जोखीम-आणि-आवश्यकता मूल्यमापन साधन आहे. या अल्गोरिदम-आधारित साधनाची तपासणी करण्यात आली आणि परिणामांनी दर्शविले आहे की COMPAS डेटा गंभीरपणे वांशिक पक्षपाती होता. उदाहरणार्थ, डेटानुसार, आफ्रिकन-अमेरिकन प्रतिवादींना इतर वंशांच्या तुलनेत पुनरुत्थानाचा धोका जास्त असण्याची शक्यता चुकीची होती. अल्गोरिदम देखील पांढऱ्या वंशाच्या लोकांसह उलट चूक करण्यास प्रवृत्त होते.

तर, इथे काय झाले? अल्गोरिदम डेटा-आश्रित आहे त्यामुळे डेटा पक्षपाती असल्यास, सॉफ्टवेअर कदाचित पक्षपाती परिणाम देखील देईल. काहीवेळा डेटा कसा गोळा केला गेला याच्याशी देखील त्याचा काहीतरी संबंध असतो.

ऑटोमेटेड स्पीच रेकग्निशन तंत्रज्ञान देखील लिंग किंवा वंशाच्या आधारावर पक्षपाती असू शकते कारण प्रशिक्षण डेटा आवश्यकतेने अशा बाबींमध्ये निवडला जात नाही ज्यामुळे पुरेशी सर्वसमावेशकता सुनिश्चित होईल.

3. सुरक्षितता चिंता

शीर्षक नसलेले 2 2

कृत्रिम बुद्धिमत्तेच्या काही समस्या आहेत ज्या इतक्या धोकादायक आहेत की त्यामुळे अपघात होऊ शकतात. उपयोजित AI तंत्रज्ञानाच्या सर्वात प्रमुख उदाहरणांपैकी एक म्हणजे स्व-ड्रायव्हिंग कार. हेच वाहतुकीचे भविष्य असल्याचे अनेक तज्ज्ञांचे मत आहे. परंतु रहदारीमध्ये सेल्फ-ड्रायव्हिंग कारच्या त्वरित अंमलबजावणीमध्ये अडथळा आणणारी मुख्य गोष्ट म्हणजे त्यातील खराबी ज्यामुळे प्रवासी आणि पादचाऱ्यांचे जीवन धोक्यात येऊ शकते. रस्त्यावर स्वायत्त वाहने कोणत्या धोक्यात येऊ शकतात यावरील वादविवाद अजूनही वास्तविक आहे. रस्त्यावर सेल्फ-ड्रायव्हिंग गाड्यांना परवानगी दिली तर अपघात कमी होऊ शकतील असे काही लोक आहेत. दुसरीकडे, असे अभ्यास आहेत ज्यांनी दर्शविले आहे की ते बरेच क्रॅश होऊ शकतात, कारण त्यांच्या अनेक क्रिया ड्रायव्हरने सेट केलेल्या प्राधान्यांवर आधारित असतील. आता सुरक्षितता आणि लोकांचे जीवन आणि रायडर प्राधान्ये (जसे की सरासरी वेग आणि काही इतर ड्रायव्हिंग सवयी) यापैकी एक निवडणे डिझाइनरवर अवलंबून आहे. कोणत्याही परिस्थितीत सेल्फ-ड्रायव्हिंग कारचे मुख्य उद्दिष्ट हे ऑटोमोबाईल अपघात कमी करणे, कार्यक्षम एआय अल्गोरिदम आणि प्रगत सेन्सरच्या अंमलबजावणीद्वारे असले पाहिजे जे कोणत्याही संभाव्य रहदारीच्या परिस्थितीचा शोध घेऊ शकतात आणि अंदाज देखील लावू शकतात. तथापि, वास्तविक जीवन कोणत्याही कार्यक्रमापेक्षा नेहमीच अधिक क्लिष्ट असते, म्हणून या तंत्रज्ञानाच्या मर्यादा अजूनही त्याच्या व्यापक अंमलबजावणीसाठी मर्यादित घटकांपैकी एक आहेत. आणखी एक समस्या म्हणजे विश्वासाचा घटक. वर्षानुवर्षे ड्रायव्हिंगचा अनुभव असलेल्या अनेक लोकांसाठी, सर्व विश्वास डिजिटल हातात टाकणे हे डिजिटल ट्रेंडला प्रतीकात्मक आत्मसमर्पण करण्याची कृती म्हणून पाहिले जाऊ शकते. कोणत्याही परिस्थितीत, हे सर्व निराकरण होईपर्यंत, काही प्रगत तांत्रिक उपाय नवीन कारमध्ये आधीच लागू केले गेले आहेत आणि मानवी ड्रायव्हर्सना विविध सेन्सर्स, सहाय्यक ब्रेकिंग सोल्यूशन्स आणि क्रूझ कंट्रोल्सचा फायदा होऊ शकतो.

4. दुर्भावनापूर्ण हेतू

तंत्रज्ञानाने लोकांच्या गरजा पूर्ण केल्या पाहिजेत आणि त्यांचे जीवन अधिक सोपे, आनंददायी बनवण्यासाठी त्याचा वापर केला पाहिजे आणि त्यामुळे प्रत्येकाचा मौल्यवान वेळ वाचला पाहिजे. परंतु कधीकधी AI तंत्रज्ञानाचा वापर दुर्भावनापूर्ण हेतूंसाठी देखील केला जातो, ज्यामुळे आपल्या भौतिक, डिजिटल आणि राजकीय सुरक्षिततेसाठी महत्त्वपूर्ण धोका निर्माण होतो.

  • भौतिक सुरक्षितता: AI चा एक संभाव्य धोका, जो सुरुवातीला खूपच नाट्यमय वाटतो आणि तुम्हाला तुमच्या हाडांना शांत करू शकतो, हे तंत्रज्ञानदृष्ट्या प्रगत देशांमधील संभाव्य युद्ध आहे, जे सर्वात कार्यक्षम आणि निर्दयी पद्धतीने मारण्यासाठी प्रोग्राम केलेल्या स्वायत्त शस्त्र प्रणालीद्वारे केले जाते. म्हणूनच AI आधारित युद्धाच्या अशुभ जोखमीपासून मानवतेचे रक्षण करण्यासाठी करार, नियम आणि मंजुरीद्वारे अशा लष्करी तंत्रज्ञानाच्या विकासाचे नियमन करणे अत्यंत महत्त्वाचे आहे.
  • डिजिटल सुरक्षा: हॅकर्स आधीच आमच्या डिजिटल सुरक्षिततेसाठी धोका आहेत आणि प्रगत हॅकिंगसाठी AI सॉफ्टवेअर आधीच वापरले जात आहे. अशा सॉफ्टवेअरच्या विकासामुळे, हॅकर्स त्यांच्या गैरकृत्यांमध्ये अधिक कार्यक्षम होतील आणि आमची ऑनलाइन ओळख चोरीला अधिक असुरक्षित होईल. एआय द्वारे समर्थित सूक्ष्म मालवेअरद्वारे तुमच्या वैयक्तिक डेटाच्या गोपनीयतेशी आणखी तडजोड केली जाऊ शकते आणि सखोल शिक्षणाच्या वापरामुळे ते आणखी धोकादायक बनले आहे. डिजिटल चोराची कल्पना करा, तुमच्या आवडत्या प्रोग्रामच्या मागे लपून बसलेला, दिवसेंदिवस अधिक धूर्त बनत आहे, सॉफ्टवेअर वापराच्या लाखो वास्तविक जीवनातील उदाहरणांमधून शिकत आहे आणि त्या डेटावर आधारित जटिल ओळख चोरी तयार करतो.
शीर्षक नसलेले 3 2
  • राजकीय सुरक्षा: आपण ज्या अशांत काळात राहतो, त्यामध्ये खोट्या बातम्या आणि फसव्या रेकॉर्डिंगची भीती अगदी न्याय्य आहे. AI स्वयंचलित डिसइन्फॉर्मेशन मोहिमेद्वारे बरेच नुकसान करू शकते, जे निवडणुकीदरम्यान अत्यंत धोकादायक असू शकते.

म्हणून, निष्कर्ष काढण्यासाठी, आपण स्वतःला विचारू शकतो की कृत्रिम बुद्धिमत्ता आपल्याला किती नुकसान करू शकते आणि ती मानवजातीच्या चांगल्यापेक्षा अधिक नुकसान करू शकते.

तज्ञ म्हणतात की कृत्रिम बुद्धिमत्तेमुळे आपल्या जीवनात होणारे तोटे कमी करण्यासाठी नैतिक विकास आणि नियामक संस्था एक प्रमुख भूमिका बजावतील. काहीही झाले तरी भविष्यात त्याचा आपल्या जगावर खूप मोठा प्रभाव पडेल याची आम्हाला खात्री आहे.

प्रगत AI प्रोटोकॉलवर आधारित स्पीच रेकग्निशन सॉफ्टवेअर आधीपासूनच वापरले जात आहे आणि ते व्यवसाय जगतात बरेच फायदे आणते: कार्यप्रवाह जलद आणि सोपे आहेत. Gglot या क्षेत्रातील एक मोठा खेळाडू आहे आणि आम्ही आमचे तंत्रज्ञान आणखी विकसित करण्यासाठी मोठ्या प्रमाणावर गुंतवणूक करत आहोत.