कृत्रिम बुद्धिमत्तेचे संभाव्य धोके

कृत्रिम बुद्धिमत्तेचे काही संभाव्य धोके काय आहेत?

आर्टिफिशियल इंटेलिजन्स, किंवा AI ज्याचा अनेकदा उल्लेख केला जातो, हा एक विषय आहे ज्यावर गेल्या दशकात बरीच चर्चा झाली आहे. बहुतेक व्यवसायांचे कार्यप्रवाह सुलभ आणि अधिक कार्यक्षम बनवून ते वेगाने विकसित होत आहे. अनेक लोकांच्या दैनंदिन जीवनातही AI ने मोठी क्षमता दाखवली आहे आणि ती आधीच अनेक वेगवेगळ्या ॲप्समध्ये लागू केली जात आहे, ज्यामुळे जीवन सोपे आणि कमी क्लिष्ट होते. AI ने आपल्यासाठी बरेच फायदे आणले आहेत आणि विज्ञानाने आणखी बरेच काही येण्याचा मार्ग मोकळा केला आहे, म्हणून हे सांगणे सुरक्षित आहे की AI भविष्यात अपरिहार्य असेल, जर ते आधीच नसेल.

पण ज्याप्रमाणे प्रत्येक पदकाला दोन बाजू असतात, त्याचप्रमाणे एआयलाही. या तंत्रज्ञानामध्ये अनेक संभाव्य धोके आणि तोटे देखील येतात. आमच्या काळातील अनेक तज्ञ आणि तांत्रिक सूत्रधार AI मुळे भविष्यात उद्भवू शकतील अशा समस्यांबद्दल त्यांच्या चिंता व्यक्त करत आहेत आणि म्हणून आम्ही या समस्यांचे निराकरण करण्यात सक्षम असताना काळजी घेणे आवश्यक आहे. त्यात आपल्याला काय म्हणायचे आहे?

या विशिष्ट समस्यांच्या संदर्भात अनेक गोष्टींचा विचार करणे आवश्यक आहे. या लेखात आम्ही AI च्या चकचकीत वेगवान विकासामुळे आपल्या जगाला कोणते धोके येऊ शकतात आणि त्या प्रगतीचे योग्य दिशेने निरीक्षण आणि मार्गदर्शन करण्यासाठी कोणते उपाय योजले पाहिजेत याचे वर्णन करण्याचा प्रयत्न करू.

1. नोकऱ्या

शीर्षक नसलेले 1 3

आम्हाला खात्री आहे की जुन्या शाळा, मानवावर आधारित कामाच्या ठिकाणी मशीन आणि ऑटोमेशन सादर करू शकतील अशा संभाव्य उपचारांबद्दल ऐकण्याची किंवा वाचण्याची संधी प्रत्येकाला आधीच मिळाली आहे. काही लोक त्यांच्या नोकऱ्या चोरत असलेल्या मशीनबद्दल वेगवेगळ्या प्रमाणात चिंतेने ग्रस्त असू शकतात. ही भीती कदाचित प्रस्थापित असेल, जॉब ऑटोमेशन हा अनेक लोकांसाठी एक मोठा धोका आहे: सुमारे 25% अमेरिकन लोक त्यांची नोकरी गमावू शकतात कारण काही क्षणी मशीन त्यांची जागा घेऊ शकतील. विशेषत: कमी वेतनाच्या पदांना धोका असतो ज्यामध्ये एखादी व्यक्ती प्रशासनातील नोकऱ्या किंवा अन्न-सेवा यासारखी पुनरावृत्तीची कामे करते. तथापि, काही विद्यापीठाच्या पदवीधरांनाही धोका असतो, प्रगत मशीन लर्निंग अल्गोरिदम कदाचित त्यांना काही जटिल कामाच्या स्थानांवर बदलू शकतील कारण ते अधिक परिष्कृत होत आहेत, विशेषत: न्यूरल नेटवर्क आणि सखोल शिक्षणाच्या वापराद्वारे.

परंतु आम्ही असे म्हणू शकत नाही की रोबोट्स लोकांना नोकरीच्या बाजारपेठेतून पूर्णपणे बाहेर काढतील. कर्मचाऱ्यांना फक्त समायोजित करावे लागेल, स्वतःला शिक्षित करावे लागेल आणि एआयला सहकार्य करून, त्याच्या कार्यक्षमतेचा आणि यांत्रिक तर्काचा सर्वोत्तम वापर करून काम करण्याचा मार्ग शोधावा लागेल. AI अद्याप परिपूर्ण नाही, उदाहरणार्थ ते निर्णय कॉल करण्यास सक्षम नाही, म्हणून मशीनच्या बरोबरीने काम करताना मानवी घटक अजूनही निर्णायक असेल.

ऑटोमेटेड सोल्यूशन्स वापरणारे बरेच एआय आधारित तंत्रज्ञान आहे ज्यांना प्रशिक्षित करणे आवश्यक आहे आणि हे प्रशिक्षण मानवी इनपुटवर अवलंबून आहे. याचे उत्तम उदाहरण म्हणजे मशिन भाषांतर जे मोठ्या संख्येने मानवी व्युत्पन्न केलेल्या भाषांतरांमधून इनपुट मिळवतात. दुसरे चांगले उदाहरण म्हणजे ट्रान्सक्रिप्शन सॉफ्टवेअर जे व्यावसायिक मानवी लिप्यंतरणकर्त्यांद्वारे केलेल्या अचूक प्रतिलेखनांमधून प्रशिक्षण डेटा मिळवते. अशाप्रकारे सॉफ्टवेअर थोडे-थोडे वाढवले जाते, वास्तविक जीवनातील उदाहरणांद्वारे त्याचे अल्गोरिदम परिष्कृत होते. मानवी प्रतिलेखकांना सॉफ्टवेअरचा फायदा होतो कारण ते त्यांना जलद प्रतिलेख बनविण्यात मदत करते. सॉफ्टवेअर उताऱ्याची रफ, मसुदा आवृत्ती तयार करते, जी नंतर लिप्यंतरकाद्वारे संपादित आणि दुरुस्त केली जाते. हे खूप वेळ वाचवते, आणि याचा अर्थ असा की शेवटी अंतिम उत्पादन जलद वितरित केले जाईल आणि अधिक अचूक असेल.

2. पक्षपाताची समस्या

अल्गोरिदमची एक मोठी गोष्ट म्हणजे ते नेहमीच निष्पक्ष, पक्षपाती नसलेले निर्णय घेतात, व्यक्तिनिष्ठ आणि भावनिक माणसांच्या अगदी विरुद्ध. किंवा ते करतात? सत्य हे आहे की कोणत्याही स्वयंचलित सॉफ्टवेअरची निर्णय घेण्याची प्रक्रिया त्यांना प्रशिक्षित केलेल्या डेटावर अवलंबून असते. म्हणून, प्रसंगी भेदभाव होण्याचा धोका असतो जेव्हा उदाहरणार्थ लोकसंख्येचा काही भाग वापरलेल्या डेटामध्ये पुरेसा दर्शविला जात नाही. यापैकी काही समस्यांसाठी फेशियल रेकग्निशन सॉफ्टवेअर आधीच तपासले जात आहे, पक्षपाताची प्रकरणे आधीच आली आहेत.

कृत्रिम बुद्धिमत्ता किती पक्षपाती असू शकते याचे एक उत्तम उदाहरण म्हणजे COMPAS (करेक्शनल ऑफेंडर मॅनेजमेंट प्रोफाइलिंग फॉर अल्टरनेटिव्ह सॅन्क्शन्स). अपराध्यांमधील पुनरुत्थान जोखमीचा अंदाज लावण्यासाठी हे जोखीम-आणि-आवश्यकता मूल्यमापन साधन आहे. या अल्गोरिदम-आधारित साधनाची तपासणी करण्यात आली आणि परिणामांनी दर्शविले आहे की COMPAS डेटा गंभीरपणे वांशिक पक्षपाती होता. उदाहरणार्थ, डेटानुसार, आफ्रिकन-अमेरिकन प्रतिवादींना इतर वंशांच्या तुलनेत पुनरुत्थानाचा धोका जास्त असण्याची शक्यता चुकीची होती. अल्गोरिदम देखील पांढऱ्या वंशाच्या लोकांसह उलट चूक करण्यास प्रवृत्त होते.

तर, इथे काय झाले? अल्गोरिदम डेटा-आश्रित आहे त्यामुळे डेटा पक्षपाती असल्यास, सॉफ्टवेअर कदाचित पक्षपाती परिणाम देखील देईल. काहीवेळा डेटा कसा गोळा केला गेला याच्याशी देखील त्याचा काहीतरी संबंध असतो.

ऑटोमेटेड स्पीच रेकग्निशन तंत्रज्ञान देखील लिंग किंवा वंशाच्या आधारावर पक्षपाती असू शकते कारण प्रशिक्षण डेटा आवश्यकतेने अशा बाबींमध्ये निवडला जात नाही ज्यामुळे पुरेशी सर्वसमावेशकता सुनिश्चित होईल.

3. सुरक्षितता चिंता

शीर्षक नसलेले 2 2

कृत्रिम बुद्धिमत्तेच्या काही समस्या आहेत ज्या इतक्या धोकादायक आहेत की त्यामुळे अपघात होऊ शकतात. उपयोजित AI तंत्रज्ञानाच्या सर्वात प्रमुख उदाहरणांपैकी एक म्हणजे स्व-ड्रायव्हिंग कार. हेच वाहतुकीचे भविष्य असल्याचे अनेक तज्ज्ञांचे मत आहे. परंतु रहदारीमध्ये सेल्फ-ड्रायव्हिंग कारच्या त्वरित अंमलबजावणीमध्ये अडथळा आणणारी मुख्य गोष्ट म्हणजे त्यातील खराबी ज्यामुळे प्रवासी आणि पादचाऱ्यांचे जीवन धोक्यात येऊ शकते. रस्त्यावर स्वायत्त वाहने कोणत्या धोक्यात येऊ शकतात यावरील वादविवाद अजूनही वास्तविक आहे. रस्त्यावर सेल्फ-ड्रायव्हिंग गाड्यांना परवानगी दिली तर अपघात कमी होऊ शकतील असे काही लोक आहेत. दुसरीकडे, असे अभ्यास आहेत ज्यांनी दर्शविले आहे की ते बरेच क्रॅश होऊ शकतात, कारण त्यांच्या अनेक क्रिया ड्रायव्हरने सेट केलेल्या प्राधान्यांवर आधारित असतील. आता सुरक्षितता आणि लोकांचे जीवन आणि रायडर प्राधान्ये (जसे की सरासरी वेग आणि काही इतर ड्रायव्हिंग सवयी) यापैकी एक निवडणे डिझाइनरवर अवलंबून आहे. कोणत्याही परिस्थितीत सेल्फ-ड्रायव्हिंग कारचे मुख्य उद्दिष्ट हे ऑटोमोबाईल अपघात कमी करणे, कार्यक्षम एआय अल्गोरिदम आणि प्रगत सेन्सरच्या अंमलबजावणीद्वारे असले पाहिजे जे कोणत्याही संभाव्य रहदारीच्या परिस्थितीचा शोध घेऊ शकतात आणि अंदाज देखील लावू शकतात. तथापि, वास्तविक जीवन कोणत्याही कार्यक्रमापेक्षा नेहमीच अधिक क्लिष्ट असते, म्हणून या तंत्रज्ञानाच्या मर्यादा अजूनही त्याच्या व्यापक अंमलबजावणीसाठी मर्यादित घटकांपैकी एक आहेत. आणखी एक समस्या म्हणजे विश्वासाचा घटक. वर्षानुवर्षे ड्रायव्हिंगचा अनुभव असलेल्या अनेक लोकांसाठी, सर्व विश्वास डिजिटल हातात टाकणे हे डिजिटल ट्रेंडला प्रतीकात्मक आत्मसमर्पण करण्याची कृती म्हणून पाहिले जाऊ शकते. कोणत्याही परिस्थितीत, हे सर्व निराकरण होईपर्यंत, काही प्रगत तांत्रिक उपाय नवीन कारमध्ये आधीच लागू केले गेले आहेत आणि मानवी ड्रायव्हर्सना विविध सेन्सर्स, सहाय्यक ब्रेकिंग सोल्यूशन्स आणि क्रूझ कंट्रोल्सचा फायदा होऊ शकतो.

4. दुर्भावनापूर्ण हेतू

तंत्रज्ञानाने लोकांच्या गरजा पूर्ण केल्या पाहिजेत आणि त्यांचे जीवन अधिक सोपे, आनंददायी बनवण्यासाठी त्याचा वापर केला पाहिजे आणि त्यामुळे प्रत्येकाचा मौल्यवान वेळ वाचला पाहिजे. परंतु कधीकधी AI तंत्रज्ञानाचा वापर दुर्भावनापूर्ण हेतूंसाठी देखील केला जातो, ज्यामुळे आपल्या भौतिक, डिजिटल आणि राजकीय सुरक्षिततेसाठी महत्त्वपूर्ण धोका निर्माण होतो.

  • भौतिक सुरक्षितता: AI चा एक संभाव्य धोका, जो सुरुवातीला खूपच नाट्यमय वाटतो आणि तुम्हाला तुमच्या हाडांना शांत करू शकतो, हे तंत्रज्ञानदृष्ट्या प्रगत देशांमधील संभाव्य युद्ध आहे, जे सर्वात कार्यक्षम आणि निर्दयी पद्धतीने मारण्यासाठी प्रोग्राम केलेल्या स्वायत्त शस्त्र प्रणालीद्वारे केले जाते. म्हणूनच AI आधारित युद्धाच्या अशुभ जोखमीपासून मानवतेचे रक्षण करण्यासाठी करार, नियम आणि मंजुरीद्वारे अशा लष्करी तंत्रज्ञानाच्या विकासाचे नियमन करणे अत्यंत महत्त्वाचे आहे.
  • डिजिटल सुरक्षा: हॅकर्स आधीच आमच्या डिजिटल सुरक्षिततेसाठी धोका आहेत आणि प्रगत हॅकिंगसाठी AI सॉफ्टवेअर आधीच वापरले जात आहे. अशा सॉफ्टवेअरच्या विकासामुळे, हॅकर्स त्यांच्या गैरकृत्यांमध्ये अधिक कार्यक्षम होतील आणि आमची ऑनलाइन ओळख चोरीला अधिक असुरक्षित होईल. एआय द्वारे समर्थित सूक्ष्म मालवेअरद्वारे तुमच्या वैयक्तिक डेटाच्या गोपनीयतेशी आणखी तडजोड केली जाऊ शकते आणि सखोल शिक्षणाच्या वापरामुळे ते आणखी धोकादायक बनले आहे. डिजिटल चोराची कल्पना करा, तुमच्या आवडत्या प्रोग्रामच्या मागे लपून बसलेला, दिवसेंदिवस अधिक धूर्त बनत आहे, सॉफ्टवेअर वापराच्या लाखो वास्तविक जीवनातील उदाहरणांमधून शिकत आहे आणि त्या डेटावर आधारित जटिल ओळख चोरी तयार करतो.
शीर्षक नसलेले 3 2
  • राजकीय सुरक्षा: आपण ज्या अशांत काळात राहतो, त्यामध्ये खोट्या बातम्या आणि फसव्या रेकॉर्डिंगची भीती अगदी न्याय्य आहे. AI स्वयंचलित डिसइन्फॉर्मेशन मोहिमेद्वारे बरेच नुकसान करू शकते, जे निवडणुकीदरम्यान अत्यंत धोकादायक असू शकते.

म्हणून, निष्कर्ष काढण्यासाठी, आपण स्वतःला विचारू शकतो की कृत्रिम बुद्धिमत्ता आपल्याला किती नुकसान करू शकते आणि ती मानवजातीच्या चांगल्यापेक्षा अधिक नुकसान करू शकते.

तज्ञ म्हणतात की कृत्रिम बुद्धिमत्तेमुळे आपल्या जीवनात होणारे तोटे कमी करण्यासाठी नैतिक विकास आणि नियामक संस्था एक प्रमुख भूमिका बजावतील. काहीही झाले तरी भविष्यात त्याचा आपल्या जगावर खूप मोठा प्रभाव पडेल याची आम्हाला खात्री आहे.

Speech recognition software, based on advanced AI protocols is already being used, and it brings many advantages to the business world: workflows are faster and simpler. Gglot is a big player in this field and we are heavily investing into developing our technology further.