කෘතිම බුද්ධියේ ඇති විය හැකි අවදානම්

කෘතිම බුද්ධියේ ඇති විය හැකි අවදානම් මොනවාද?

කෘත්‍රිම බුද්ධිය නොහොත් එය බොහෝ විට හඳුන්වනු ලබන AI යනු පසුගිය දශකය තුළ බොහෝ සේ සාකච්ඡා වූ විෂයයකි. එය වේගයෙන් සංවර්ධනය වෙමින් පවතින අතර, බොහෝ ව්‍යාපාරවල කාර්ය ප්‍රවාහය පහසු සහ කාර්යක්ෂම කරයි. බොහෝ මිනිසුන්ගේ එදිනෙදා ජීවිතයේදී පවා AI විශාල විභවයක් පෙන්නුම් කර ඇති අතර දැනටමත් විවිධ යෙදුම්වල ක්‍රියාත්මක වෙමින් පවතී, ජීවිතය පහසු සහ අඩු සංකීර්ණ කරයි. AI අපට බොහෝ වාසි ගෙන දී ඇති අතර විද්‍යාව තවත් බොහෝ දේ පැමිණීමට මග පාදයි, එබැවින් එය දැනටමත් නොවේ නම් අනාගතයේදී AI අත්‍යවශ්‍ය වනු ඇතැයි පැවසීම ආරක්ෂිතයි.

නමුත් සෑම පදක්කමකටම පැති දෙකක් තිබෙනවා සේම AI ද ඇත. මෙම තාක්ෂණය බොහෝ අවදානම් සහ අවාසි සමඟ ද පැමිණේ. අපේ කාලයේ බොහෝ ප්‍රවීණයන් සහ තාක්‍ෂණික මහ මොළකරුවන් AI අනාගතයේදී ඇති කළ හැකි ගැටළු පිළිබඳව ඔවුන්ගේ කනස්සල්ල ප්‍රකාශ කරමින් සිටින අතර එම නිසා ඒවා නිවැරදි කිරීමට තවමත් හැකියාව තිබියදී මෙම ගැටළු විසඳීමට අප සැලකිලිමත් විය යුතුය. අපි එයින් අදහස් කරන්නේ කුමක්ද?

මෙම විශේෂිත ගැටළු සම්බන්ධයෙන් සලකා බැලිය යුතු කරුණු බොහොමයක් තිබේ. මෙම ලිපියෙන් අපි AI හි විශ්මයජනක වේගවත් සංවර්ධනය අපගේ ලෝකයට ගෙන ආ හැකි අවදානම් කිහිපයක් විස්තර කිරීමට උත්සාහ කරමු සහ එම ප්‍රගතිය නිවැරදි දිශාවට නිරීක්ෂණය කිරීමට සහ මඟ පෙන්වීම සඳහා ගත යුතු පියවර මොනවාද.

1. රැකියා

මාතෘකා රහිත 1 3

යන්ත්‍ර සහ ස්වයංක්‍රීයකරණය පැරණි පාසල්, මානව පාදක සේවා ස්ථාන වෙත ඉදිරිපත් කළ හැකි විභව සංග්‍රහය ගැන ඇසීමට හෝ කියවීමට සෑම කෙනෙකුටම දැනටමත් අවස්ථාව ලැබී ඇති බව අපට විශ්වාසයි. යන්ත්‍ර මගින් ඔවුන්ගේ රැකියා සොරකම් කිරීම ගැන සමහර අය විවිධ කනස්සල්ලෙන් පෙළෙන්න පුළුවන්. එම බිය හොඳින් පදනම් විය හැකිය, රැකියා ස්වයංක්‍රීයකරණය බොහෝ මිනිසුන්ට විශාල අවදානමකි: ඇමරිකානුවන්ගෙන් 25% කට පමණ ඔවුන්ගේ රැකියාව අහිමි විය හැකිය, මන්ද යම් අවස්ථාවක යන්ත්‍රවලට ඒවා ප්‍රතිස්ථාපනය කිරීමට හැකි වනු ඇත. විශේෂයෙන් අවදානමට ලක්ව ඇත්තේ පරිපාලනයේ හෝ ආහාර-සේවාවේ රැකියා වැනි පුනරාවර්තන කාර්යයන් කරන අඩු වැටුප් සහිත තනතුරු ය. කෙසේ වෙතත්, සමහර විශ්ව විද්‍යාල උපාධිධාරීන් පවා අවදානමට ලක්ව ඇත, උසස් යන්ත්‍ර ඉගෙනුම් ඇල්ගොරිතම වලට ඒවා සමහර සංකීර්ණ සේවා ස්ථාන තුළ ප්‍රතිස්ථාපනය කිරීමට හැකි වනු ඇත, මන්ද ඔවුන් වඩාත් පිරිපහදු වෙමින් පවතී, විශේෂයෙන් ස්නායුක ජාල භාවිතය සහ ගැඹුරු ඉගෙනීම හරහා.

නමුත් රොබෝවරු මිනිසුන්ව රැකියා වෙළඳපොලෙන් සම්පූර්ණයෙන්ම ඉවතට තල්ලු කරනු ඇතැයි අපට පැවසිය නොහැක. සේවකයින්ට සරලව සකස් කර ගැනීමට, තමන්ව දැනුවත් කිරීමට සහ AI සමඟ සහයෝගයෙන් වැඩ කිරීමට මාර්ගයක් සොයා ගැනීමට සිදුවනු ඇත, එහි කාර්යක්ෂමතාව සහ යාන්ත්‍රික තර්කනය උපරිම ලෙස භාවිතා කරයි. AI තවමත් පරිපූර්ණ නැත, උදාහරණයක් ලෙස එයට විනිශ්චය ඇමතුම් ලබා ගත නොහැක, එබැවින් යන්ත්‍ර සමඟ වැඩ කිරීමේදී මානව සාධකය තවමත් තීරණාත්මක වනු ඇත.

පුහුණු කළ යුතු ස්වයංක්‍රීය විසඳුම් භාවිතා කරන AI පාදක තාක්‍ෂණය විශාල ප්‍රමාණයක් ඇති අතර මෙම පුහුණුව මානව ආදානය මත රඳා පවතී. මේ සඳහා හොඳ උදාහරණයක් වන්නේ මිනිසුන් විසින් ජනනය කරන ලද පරිවර්තන විශාල සංඛ්‍යාවකින් ආදානය ලබා ගන්නා යන්ත්‍ර පරිවර්තන ය. තවත් හොඳ උදාහරණයක් වන්නේ වෘත්තීය මානව පිටපත් කරන්නන් විසින් කරන ලද නිවැරදි පිටපත් කිරීම් වලින් පුහුණු දත්ත ලබා ගන්නා පිටපත් කිරීමේ මෘදුකාංගයයි. මේ ආකාරයෙන් මෘදුකාංගය ටිකෙන් ටික වැඩි දියුණු වන අතර සැබෑ ජීවිත උදාහරණ හරහා එහි ඇල්ගොරිතම පිරිපහදු කරයි. මානව පිටපත් කරන්නන් මෘදුකාංගයෙන් ප්‍රතිලාභ ලබන්නේ එය පිටපත් කිරීම වේගවත් කිරීමට උපකාර වන බැවිනි. මෘදුකාංගය පිටපතෙහි දළ, කෙටුම්පත් අනුවාදයක් ජනනය කරයි, පසුව එය පිටපත් කරන්නා විසින් සංස්කරණය කර නිවැරදි කරනු ලැබේ. මෙය බොහෝ කාලයක් ඉතිරි කරන අතර, අවසානයේ අවසාන නිෂ්පාදනය වේගයෙන් ලබා දෙන අතර වඩාත් නිවැරදි වනු ඇත.

2. පක්ෂග්රාහී ගැටලුව

ඇල්ගොරිතම පිළිබඳ විශිෂ්ට දෙයක් නම්, ඔවුන් සෑම විටම ආත්මීය සහ චිත්තවේගීය මිනිසුන්ට වඩා තියුණු ලෙස වෙනස්ව සාධාරණ, පක්ෂග්‍රාහී තීරණ ගැනීමයි. නැත්නම් ඔවුන් කරන්නේද? සත්‍යය නම් ඕනෑම ස්වයංක්‍රීය මෘදුකාංගයක තීරණ ගැනීමේ ක්‍රියාවලිය ඔවුන් පුහුණු කර ඇති දත්ත මත රඳා පවතින බවයි. එබැවින්, භාවිතා කළ දත්තවල ජනගහනයේ යම් කොටසක් ප්‍රමාණවත් ලෙස නියෝජනය නොවන අවස්ථා වලදී වෙනස් කොට සැලකීමේ අවදානමක් ඇත. මෙම ගැටළු වලින් සමහරක් සඳහා මුහුණු හඳුනාගැනීමේ මෘදුකාංග දැනටමත් විමර්ශනය වෙමින් පවතී, පක්ෂග්‍රාහී අවස්ථා දැනටමත් සිදුවී ඇත.

කෘත්‍රිම බුද්ධිය කෙතරම් පක්ෂග්‍රාහී විය හැකිද යන්නට එක් කදිම උදාහරණයක් වන්නේ COMPAS (විකල්ප සම්බාධක සඳහා නිවැරදි කිරීමේ වරදකරු කළමනාකරණ පැතිකඩ) ය. මෙය වැරදිකරුවන් අතර පුනරාවර්තන අවදානම පුරෝකථනය කිරීම සඳහා අවදානම් සහ අවශ්‍යතා තක්සේරු කිරීමේ මෙවලමකි. මෙම ඇල්ගොරිතම පාදක මෙවලම විමර්ශනය කරන ලද අතර COMPAS දත්ත බරපතල ලෙස වාර්ගික පක්ෂග්‍රාහී බව ප්‍රතිඵල පෙන්වා දී ඇත. උදාහරණයක් ලෙස, දත්ත වලට අනුව, අප්‍රිකානු-ඇමරිකානු විත්තිකරුවන් වෙනත් ජාතීන්ට වඩා පුනරාවර්තනය වීමේ වැඩි අවදානමක් ඇති බවට වැරදි ලෙස විනිශ්චය කිරීමට ඉඩ තිබේ. ඇල්ගොරිතම සුදු ජාතියේ මිනිසුන් සමඟ ප්රතිවිරුද්ධ වැරැද්දක් කිරීමට ද නැඹුරු විය.

ඉතින්, මෙතන මොකද වුණේ? ඇල්ගොරිතම දත්ත මත රඳා පවතින බැවින් දත්ත පක්ෂග්‍රාහී නම්, මෘදුකාංගය ද පක්ෂග්‍රාහී ප්‍රතිඵල ලබා දෙනු ඇත. සමහර විට එය දත්ත රැස් කළ ආකාරය සමඟ සම්බන්ධයක් ද ඇත.

ස්වයංක්‍රීය කථන හඳුනාගැනීමේ තාක්‍ෂණය ස්ත්‍රී පුරුෂ භාවය හෝ ජාතිය අනුව ද පක්ෂග්‍රාහී විය හැක, මන්ද ප්‍රමාණවත් ඇතුළත් කිරීමක් සහතික කළ හැකි කරුණක් සම්බන්ධයෙන් පුහුණු දත්ත අවශ්‍යයෙන්ම තෝරා නොගනී.

3. ආරක්ෂාව පිළිබඳ ගැටළු

මාතෘකා රහිත 2 2

කෘත්‍රිම බුද්ධිය සම්බන්ධ ගැටළු ඇති අතර ඒවා අනතුරු වලට තුඩු දිය හැකි ඉතා භයානක ය. ව්‍යවහාරික AI තාක්‍ෂණයේ වඩාත් කැපී පෙනෙන උදාහරණයක් වන්නේ ස්වයං-රිය පැදවීමේ මෝටර් රථයයි. බොහෝ ප්‍රවීණයන් විශ්වාස කරන්නේ මෙය ප්‍රවාහනයේ අනාගතය බවයි. නමුත් ස්වයංක්‍රීයව ධාවනය වන මෝටර් රථ ගමනාගමනයට ක්ෂණිකව ක්‍රියාත්මක කිරීමට බාධා කරන ප්‍රධානතම දෙය නම් මගීන්ගේ සහ පදිකයින්ගේ ජීවිතයට අනතුරක් විය හැකි එහි ක්‍රියා විරහිත වීමයි. ස්වයංක්‍රීය වාහන මාර්ගවල ඇති විය හැකි තර්ජනය පිළිබඳ විවාදය තවමත් ඉතා සත්‍ය ය. ස්වයංක්‍රීයව ධාවනය වන මෝටර් රථ පාරේ යාමට ඉඩ දුන්නොත් අනතුරු අඩු විය හැකි යැයි සිතන පිරිසක් ද සිටිති. අනෙක් අතට, ඔවුන්ගේ බොහෝ ක්‍රියාවන් රියදුරු විසින් සකසන ලද මනාපයන් මත පදනම් වන බැවින්, ඒවා බොහෝ කඩා වැටීම් ඇති කළ හැකි බව පෙන්වා දී ඇති අධ්‍යයන තිබේ. දැන් ආරක්ෂාව සහ මිනිසුන්ගේ ජීවිතය සහ ධාවකයන්ගේ මනාපයන් (සාමාන්‍ය වේගය සහ වෙනත් රිය පැදවීමේ පුරුදු වැනි) තෝරා ගැනීම නිර්මාණකරුවන්ට භාරයි. ඕනෑම අවස්ථාවක ස්වයංක්‍රීයව ධාවනය වන මෝටර් රථවල ප්‍රධාන ඉලක්කය විය යුත්තේ කාර්‍යක්‍ෂම AI ඇල්ගොරිතම සහ දියුණු සංවේදක ක්‍රියාත්මක කිරීම හරහා වාහන අනතුරු අවම කර ගැනීමයි. කෙසේ වෙතත්, සැබෑ ජීවිතය සෑම විටම ඕනෑම වැඩසටහනකට වඩා සංකීර්ණ වේ, එබැවින් මෙම තාක්ෂණයේ සීමාවන් තවමත් එහි පුළුල් ලෙස ක්රියාත්මක කිරීම සඳහා සීමාකාරී සාධකවලින් එකකි. තවත් ගැටළුවක් වන්නේ විශ්වාසයේ සාධකයයි. වසර ගණනාවක රිය පැදවීමේ පළපුරුද්ද ඇති බොහෝ පුද්ගලයින් සඳහා, සියලු විශ්වාසය ඩිජිටල් අතට පත් කිරීම ඩිජිටල් ප්‍රවණතාවලට සංකේතාත්මක යටත් වීමේ ක්‍රියාවක් ලෙස දැකිය හැකිය. කෙසේ වෙතත්, මේ සියල්ල විසඳන තුරු, නව මෝටර් රථවල සමහර උසස් තාක්ෂණික විසඳුම් දැනටමත් ක්‍රියාත්මක කර ඇති අතර, මිනිස් රියදුරන්ට විවිධ සංවේදක, සහායක තිරිංග විසඳුම් සහ යාත්‍රා පාලනයෙන් ප්‍රයෝජන ගත හැකිය.

4. ද්වේෂ සහගත අරමුණු

තාක්‍ෂණය මිනිසුන්ගේ අවශ්‍යතා ඉටු කළ යුතු අතර ඔවුන්ගේ ජීවිත වඩාත් පහසු, විනෝදජනක කිරීමට භාවිතා කළ යුතු අතර එය සෑම කෙනෙකුගේම වටිනා කාලය ඉතිරි කළ යුතුය. නමුත් සමහර විට AI තාක්ෂණය අපගේ භෞතික, ඩිජිටල් සහ දේශපාලන ආරක්ෂාවට සැලකිය යුතු අවදානමක් ගෙන දෙන ආකාරයෙන් ද්වේෂසහගත අරමුණු සඳහාද භාවිතා කර ඇත.

  • භෞතික ආරක්‍ෂාව: AI හි එක් විභව අවදානමක්, එය මුලදී තරමක් නාටකාකාර ලෙස පෙනෙන අතර ඔබේ ඇටකටු වලට ඔබව සිසිල් කළ හැකිය, එය තාක්‍ෂණිකව දියුණු රටවල් අතර විභව යුද්ධයකි, එය වඩාත් කාර්යක්ෂම හා නිර්දය ආකාරයෙන් මරා දැමීමට වැඩසටහන්ගත කර ඇති ස්වයංක්‍රීය ආයුධ පද්ධති මගින් සිදු කෙරේ. AI මත පදනම් වූ යුද්ධයේ අශුභ අවදානමෙන් මානව වර්ගයා ආරක්ෂා කිරීම සඳහා ගිවිසුම්, රෙගුලාසි සහ සම්බාධක හරහා එවැනි මිලිටරි තාක්ෂණය දියුණු කිරීම නියාමනය කිරීම අතිශයින්ම වැදගත් වන්නේ එබැවිනි.
  • ඩිජිටල් ආරක්ෂාව: හැකර්වරුන් දැනටමත් අපගේ ඩිජිටල් ආරක්ෂාවට තර්ජනයක් වී ඇති අතර උසස් අනවසරයෙන් ඇතුළුවීම සඳහා AI මෘදුකාංගය දැනටමත් භාවිතා වේ. මෙවැනි මෘදුකාංගයක් නිපදවීමත් සමඟ හැකර්වරුන් ඔවුන්ගේ වැරදි ක්‍රියාවන් වඩාත් කාර්යක්ෂම වන අතර අපගේ අන්තර්ජාල අනන්‍යතාවය සොරකම් කිරීමට වැඩි අවදානමක් ඇත. AI මගින් බල ගැන්වෙන සියුම් අනිෂ්ට මෘදුකාංග හරහා ඔබේ පුද්ගලික දත්තවල රහස්‍යතාව තව තවත් අවදානමට ලක් විය හැකි අතර ගැඹුරු ඉගෙනුම් භාවිතය හරහා වඩාත් අනතුරුදායක වේ. ඔබේ ප්‍රියතම වැඩසටහන් පිටුපස සැඟවී සිටින ඩිජිටල් සොරෙකු, දිනෙන් දින වඩාත් කපටි බවට පත්වෙමින්, මෘදුකාංග භාවිතය පිළිබඳ සැබෑ ජීවිත උදාහරණ මිලියන ගණනකින් ඉගෙන ගනිමින් සහ එම දත්ත මත පදනම්ව සංකීර්ණ අනන්‍යතා සොරකම් සකස් කිරීම ගැන සිතන්න.
මාතෘකා රහිත 3 2
  • දේශපාලන ආරක්ෂාව: අප ජීවත් වන කැලඹිලි සහිත කාලවලදී, ව්‍යාජ ප්‍රවෘත්ති සහ වංචනික පටිගත කිරීම්වලට ඇති බිය තරමක් යුක්ති සහගත ය. ස්වයංක්‍රීය සාවද්‍ය තොරතුරු ප්‍රචාරණ ව්‍යාපාර මගින් AI හට විශාල හානියක් සිදු කළ හැකි අතර එය මැතිවරණ වලදී අතිශයින් භයානක විය හැක.

එබැවින්, අවසාන වශයෙන්, කෘත්‍රිම බුද්ධිය අපට කොපමණ හානියක් කළ හැකිද සහ එය මිනිස් වර්ගයාට යහපතට වඩා හානියක් කළ හැකිද යන්න අපෙන්ම අසාගත හැකිය.

කෘත්‍රිම බුද්ධිය අපගේ ජීවිතවලට ඇති කළ හැකි අවාසි අවම කර ගැනීමේදී සදාචාරාත්මක සංවර්ධනය සහ නියාමන ආයතන ප්‍රධාන කාර්යභාරයක් ඉටු කරන බව විශේෂඥයෝ පවසති. කුමක් සිදු වුවද, එය අනාගතයේදී අපගේ ලෝකයට විශාල බලපෑමක් ඇති කරන බව අපට විශ්වාසයි.

උසස් AI ප්‍රොටෝකෝල මත පදනම් වූ කථන හඳුනාගැනීමේ මෘදුකාංගය දැනටමත් භාවිතා වෙමින් පවතින අතර එය ව්‍යාපාරික ලෝකයට බොහෝ වාසි ගෙන එයි: කාර්ය ප්‍රවාහයන් වේගවත් හා සරල ය. Gglot මෙම ක්ෂේත්‍රයේ විශාල ක්‍රීඩකයෙක් වන අතර අපගේ තාක්ෂණය තවදුරටත් දියුණු කිරීම සඳහා අපි විශාල වශයෙන් ආයෝජනය කරනවා.