خطرات بالقوه هوش مصنوعی
برخی از خطرات بالقوه هوش مصنوعی چیست؟
هوش مصنوعی، یا همان طور که اغلب از آن به عنوان هوش مصنوعی یاد می شود، موضوعی است که در دهه اخیر بسیار مورد بحث قرار گرفته است. به سرعت در حال توسعه است و گردش کار اکثر مشاغل را آسان تر و کارآمدتر می کند. حتی در زندگی روزمره بسیاری از افراد، هوش مصنوعی پتانسیل بالایی از خود نشان داده است و در حال حاضر در بسیاری از برنامه های مختلف پیاده سازی شده است، و زندگی را آسان تر و کمتر پیچیده می کند. هوش مصنوعی مزایای زیادی را برای ما به ارمغان آورده است و علم راه را برای پیشرفت های بیشتر هموار می کند، بنابراین به جرات می توان گفت که هوش مصنوعی در آینده ضروری خواهد بود، اگر قبلاً چنین نبوده است.
اما همانطور که هر مدال دو طرف دارد، هوش مصنوعی هم همینطور است. این فناوری همچنین با خطرات و معایب بالقوه بسیاری همراه است. بسیاری از کارشناسان و مغز متفکران فنی زمان ما نگرانی های خود را در مورد مشکلاتی که هوش مصنوعی ممکن است در آینده ایجاد کند ابراز می کنند و بنابراین ما باید مراقب باشیم تا این مسائل را تا زمانی که هنوز می توان اصلاح کرد برطرف کرد. منظور ما از آن چیست؟
در رابطه با این مسائل خاص باید موارد زیادی را در نظر گرفت. در این مقاله سعی خواهیم کرد برخی از خطراتی را که توسعه سریع هوش مصنوعی ممکن است برای جهان ما به همراه داشته باشد و اقدامات لازم برای نظارت و هدایت آن پیشرفت در جهت درست را شرح دهیم.
1. مشاغل
ما مطمئن هستیم که همه قبلاً این فرصت را داشته اند تا در مورد رفتار بالقوه ای که ماشین ها و اتوماسیون ممکن است در محل های کاری قدیمی و مبتنی بر انسان ارائه دهند، بشنوند یا مطالعه کنند. برخی از افراد ممکن است از درجات مختلفی از اضطراب در مورد سرقت ماشینها از مشاغل خود رنج ببرند. این ترس ممکن است به خوبی موجه باشد، اتوماسیون شغلی یک خطر بزرگ برای بسیاری از مردم است: حدود 25٪ از آمریکایی ها ممکن است شغل خود را از دست بدهند، زیرا در برخی مواقع ماشین ها می توانند آنها را جایگزین کنند. به خصوص در معرض خطر موقعیت های کم دستمزد هستند که در آن فرد کارهای تکراری مانند مشاغل اداری یا خدمات غذایی را انجام می دهد. با این حال، حتی برخی از فارغالتحصیلان دانشگاهی در معرض خطر هستند، الگوریتمهای یادگیری ماشینی پیشرفته ممکن است بتوانند آنها را در برخی موقعیتهای کاری پیچیده جایگزین کنند، زیرا آنها به ویژه از طریق استفاده از شبکههای عصبی و یادگیری عمیق در حال اصلاحتر شدن هستند.
اما واقعاً نمیتوانیم بگوییم که رباتها انسانها را کاملاً از بازار کار بیرون میکنند. کارمندان به سادگی باید خود را تنظیم کنند، آموزش دهند و راهی برای کار با همکاری با هوش مصنوعی بیابند و از کارایی و منطق مکانیکی آن بهترین استفاده ممکن را ببرند. هوش مصنوعی هنوز کامل نیست، به عنوان مثال قادر به قضاوت کردن نیست، بنابراین عامل انسانی همچنان در هنگام کار در کنار ماشین ها تعیین کننده خواهد بود.
بسیاری از فناوریهای مبتنی بر هوش مصنوعی وجود دارد که از راهحلهای خودکار استفاده میکنند که نیاز به آموزش دارند و این آموزش به ورودی انسان بستگی دارد. یک مثال خوب برای این کار، ترجمه های ماشینی هستند که از تعداد زیادی از ترجمه های تولید شده توسط انسان ورودی دریافت می کنند. مثال خوب دیگر نرم افزار رونویسی است که داده های آموزشی را از رونویسی های دقیق انجام شده توسط رونویس های انسانی حرفه ای دریافت می کند. به این ترتیب نرم افزار کم کم پیشرفت می کند و الگوریتم های خود را از طریق مثال های واقعی اصلاح می کند. رونویسکنندگان انسانی از این نرمافزار سود میبرند، زیرا به آنها کمک میکند رونوشتها را سریعتر انجام دهند. نرمافزار یک نسخه پیشنویس و خام از رونوشت تولید میکند، که سپس توسط رونویسکننده ویرایش و تصحیح میشود. این باعث صرفه جویی در زمان می شود و به این معنی است که در نهایت محصول نهایی سریعتر تحویل داده می شود و دقت بیشتری خواهد داشت.
2. مشکل تعصب
نکته مهم در مورد الگوریتم ها این است که آنها همیشه تصمیمات منصفانه و غیر جانبدارانه می گیرند، برخلاف انسان های ذهنی و احساسی. یا آنها؟ حقیقت این است که فرآیند تصمیمگیری هر نرمافزار خودکار به دادههایی بستگی دارد که روی آنها آموزش دیدهاند. بنابراین، خطر تبعیض در مواردی وجود دارد که به عنوان مثال، بخش خاصی از جمعیت به اندازه کافی در داده های مورد استفاده نشان داده نمی شود. نرم افزار تشخیص چهره در حال حاضر برای برخی از این مشکلات در حال بررسی است، موارد سوگیری قبلاً رخ داده است.
یک مثال عالی از اینکه هوش مصنوعی تا چه حد می تواند مغرضانه باشد، COMPAS (پروفایل مدیریت مجرمان اصلاحی برای مجازات های جایگزین) است. این یک ابزار ارزیابی ریسک و نیاز برای پیشبینی خطر تکرار جرم در میان مجرمان است. این ابزار مبتنی بر الگوریتم مورد بررسی قرار گرفت و نتایج نشان داد که دادههای COMPAS به طور جدی از نظر نژادی تعصب دارند. به عنوان مثال، طبق داده ها، متهمان آفریقایی-آمریکایی بیشتر از سایر نژادها به اشتباه در معرض خطر تکرار جرم هستند. این الگوریتم همچنین تمایل داشت که اشتباه معکوس را با افراد نژاد سفید انجام دهد.
خب، اینجا چه اتفاقی افتاد؟ این الگوریتم وابسته به داده است، بنابراین اگر داده ها بایاس باشند، نرم افزار احتمالاً نتایج مغرضانه ای نیز ارائه می دهد. گاهی اوقات به نحوه جمع آوری داده ها نیز مربوط می شود.
فناوری تشخیص خودکار گفتار نیز میتواند بسته به جنسیت یا نژاد مغرضانه باشد، زیرا دادههای آموزشی لزوماً در مواردی انتخاب نمیشوند که فراگیری کافی را تضمین کند.
3. نگرانی های ایمنی
مشکلاتی در هوش مصنوعی وجود دارد که به قدری خطرناک هستند که می توانند منجر به تصادف شوند. یکی از برجستهترین نمونههای فناوری هوش مصنوعی کاربردی، خودروی خودران است. بسیاری از کارشناسان معتقدند که این آینده حمل و نقل است. اما اصلیترین چیزی که مانع از اجرای فوری خودروهای خودران در ترافیک میشود، نقصهای آن است که ممکن است جان مسافران و عابران پیاده را به خطر بیندازد. بحث در مورد تهدیدی که وسایل نقلیه خودران می توانند در جاده ها ایجاد کنند هنوز بسیار واقعی است. افرادی هستند که فکر می کنند اگر خودروهای خودران در جاده ها راه می یابند، تصادفات کمتری رخ می دهد. از سوی دیگر، مطالعاتی وجود دارد که نشان می دهد ممکن است تصادفات زیادی را به همراه داشته باشد، زیرا بسیاری از اقدامات آنها بر اساس ترجیحات تعیین شده توسط راننده خواهد بود. اکنون این به طراحان بستگی دارد که بین ایمنی و زندگی مردم و ترجیحات سوارکار (مانند سرعت متوسط و برخی دیگر از عادات رانندگی) یکی را انتخاب کنند. هدف اصلی خودروهای خودران در هر صورت باید کاهش تصادفات خودرو، از طریق پیاده سازی الگوریتم های هوش مصنوعی کارآمد و حسگرهای پیشرفته باشد که می توانند سناریوهای ترافیکی احتمالی را شناسایی و حتی پیش بینی کنند. با این حال، زندگی واقعی همیشه پیچیده تر از هر برنامه ای است، بنابراین محدودیت های این فناوری هنوز یکی از عوامل محدود کننده برای اجرای گسترده آن است. مشکل دیگر عامل اعتماد است. برای بسیاری از افرادی که سال ها و سال ها تجربه رانندگی دارند، قرار دادن تمام اعتماد به دست دیجیتال ممکن است به عنوان یک عمل تسلیم نمادین در برابر روندهای دیجیتال تلقی شود. در هر صورت، تا زمانی که همه اینها حل نشود، برخی از راه حل های تکنولوژیکی پیشرفته قبلاً در خودروهای جدیدتر پیاده سازی شده است و رانندگان انسانی می توانند از سنسورهای مختلف، راه حل های ترمز کمکی و کروز کنترل بهره مند شوند.
4. اهداف مخرب
فناوری باید در خدمت نیازهای مردم باشد و از آن برای آسانتر کردن، لذتتر کردن زندگی آنها استفاده شود و باید در وقت گرانبهای همه صرفهجویی کند. اما گاهی اوقات فناوری هوش مصنوعی برای اهداف مخرب نیز استفاده شده است، به گونه ای که خطرات قابل توجهی برای امنیت فیزیکی، دیجیتال و سیاسی ما ایجاد می کند.
- امنیت فیزیکی: یکی از خطرات بالقوه هوش مصنوعی، که در ابتدا بسیار دراماتیک به نظر میرسد و ممکن است شما را تا حدودی سرد کند، جنگ بالقوه بین کشورهای پیشرفته با تکنولوژی است که توسط سیستمهای تسلیحاتی خودمختار برنامهریزی شده برای کشتن به کارآمدترین و بیرحمانهترین شکل انجام میشود. به همین دلیل بسیار مهم است که توسعه چنین فناوری نظامی را از طریق معاهدات، مقررات و تحریم ها تنظیم کنیم تا از خطر شوم جنگ مبتنی بر هوش مصنوعی محافظت کنیم.
- امنیت دیجیتال: هکرها در حال حاضر تهدیدی برای امنیت دیجیتال ما هستند و نرم افزار هوش مصنوعی در حال حاضر برای هک پیشرفته استفاده می شود. با توسعه چنین نرم افزاری، هکرها در اعمال ناشایست خود کارآمدتر خواهند بود و هویت آنلاین ما در برابر سرقت آسیب پذیرتر می شود. حریم خصوصی دادههای شخصی شما ممکن است از طریق بدافزارهای ظریف که توسط هوش مصنوعی پشتیبانی میشوند، بیشتر به خطر بیفتد و با استفاده از یادگیری عمیق حتی خطرناکتر شود. تصور کنید یک دزد دیجیتال در پشت برنامههای مورد علاقهتان کمین کرده، روز به روز حیلهگرتر میشود، از میلیونها نمونه واقعی استفاده از نرمافزار یاد میگیرد و بر اساس آن دادهها سرقت هویت پیچیدهای را انجام میدهد.
- امنیت سیاسی: در دوران آشفته ای که در آن زندگی می کنیم، ترس از اخبار جعلی و ضبط های تقلبی کاملاً موجه است. هوش مصنوعی میتواند با کمپینهای خودکار اطلاعات نادرست آسیب زیادی وارد کند، که میتواند در طول انتخابات بسیار خطرناک باشد.
بنابراین، برای جمعبندی، ممکن است از خود بپرسیم که هوش مصنوعی چقدر میتواند به ما آسیب برساند و آیا میتواند بیشتر از اینکه به انسان کمک کند، ضرر داشته باشد.
کارشناسان بیان می کنند که توسعه اخلاقی و نهادهای نظارتی نقش مهمی در کاهش مضراتی که هوش مصنوعی ممکن است برای زندگی ما ایجاد کند، ایفا می کند. هر اتفاقی که بیفتد، مطمئن هستیم که در آینده تاثیر زیادی بر دنیای ما خواهد داشت.
نرم افزار تشخیص گفتار مبتنی بر پروتکل های پیشرفته هوش مصنوعی در حال حاضر استفاده می شود و مزایای زیادی را برای دنیای تجارت به ارمغان می آورد: گردش کار سریع تر و ساده تر است. Gglot بازیگر بزرگی در این زمینه است و ما به شدت در حال سرمایه گذاری برای توسعه بیشتر فناوری خود هستیم.