خطرات بالقوه هوش مصنوعی

برخی از خطرات بالقوه هوش مصنوعی چیست؟

هوش مصنوعی، یا همان طور که اغلب از آن به عنوان هوش مصنوعی یاد می شود، موضوعی است که در دهه اخیر بسیار مورد بحث قرار گرفته است. به سرعت در حال توسعه است و گردش کار اکثر مشاغل را آسان تر و کارآمدتر می کند. حتی در زندگی روزمره بسیاری از افراد، هوش مصنوعی پتانسیل بالایی از خود نشان داده است و در حال حاضر در بسیاری از برنامه های مختلف پیاده سازی شده است، و زندگی را آسان تر و کمتر پیچیده می کند. هوش مصنوعی مزایای زیادی را برای ما به ارمغان آورده است و علم راه را برای پیشرفت های بیشتر هموار می کند، بنابراین به جرات می توان گفت که هوش مصنوعی در آینده ضروری خواهد بود، اگر قبلاً چنین نبوده است.

اما همانطور که هر مدال دو طرف دارد، هوش مصنوعی هم همینطور است. این فناوری همچنین با خطرات و معایب بالقوه بسیاری همراه است. بسیاری از کارشناسان و مغز متفکران فنی زمان ما نگرانی های خود را در مورد مشکلاتی که هوش مصنوعی ممکن است در آینده ایجاد کند ابراز می کنند و بنابراین ما باید مراقب باشیم تا این مسائل را تا زمانی که هنوز می توان اصلاح کرد برطرف کرد. منظور ما از آن چیست؟

در رابطه با این مسائل خاص باید موارد زیادی را در نظر گرفت. در این مقاله سعی خواهیم کرد برخی از خطراتی را که توسعه سریع هوش مصنوعی ممکن است برای جهان ما به همراه داشته باشد و اقدامات لازم برای نظارت و هدایت آن پیشرفت در جهت درست را شرح دهیم.

1. مشاغل

بدون عنوان 1 3

ما مطمئن هستیم که همه قبلاً این فرصت را داشته اند تا در مورد رفتار بالقوه ای که ماشین ها و اتوماسیون ممکن است در محل های کاری قدیمی و مبتنی بر انسان ارائه دهند، بشنوند یا مطالعه کنند. برخی از افراد ممکن است از درجات مختلفی از اضطراب در مورد سرقت ماشین‌ها از مشاغل خود رنج ببرند. این ترس ممکن است به خوبی موجه باشد، اتوماسیون شغلی یک خطر بزرگ برای بسیاری از مردم است: حدود 25٪ از آمریکایی ها ممکن است شغل خود را از دست بدهند، زیرا در برخی مواقع ماشین ها می توانند آنها را جایگزین کنند. به خصوص در معرض خطر موقعیت های کم دستمزد هستند که در آن فرد کارهای تکراری مانند مشاغل اداری یا خدمات غذایی را انجام می دهد. با این حال، حتی برخی از فارغ‌التحصیلان دانشگاهی در معرض خطر هستند، الگوریتم‌های یادگیری ماشینی پیشرفته ممکن است بتوانند آنها را در برخی موقعیت‌های کاری پیچیده جایگزین کنند، زیرا آنها به ویژه از طریق استفاده از شبکه‌های عصبی و یادگیری عمیق در حال اصلاح‌تر شدن هستند.

اما واقعاً نمی‌توانیم بگوییم که ربات‌ها انسان‌ها را کاملاً از بازار کار بیرون می‌کنند. کارمندان به سادگی باید خود را تنظیم کنند، آموزش دهند و راهی برای کار با همکاری با هوش مصنوعی بیابند و از کارایی و منطق مکانیکی آن بهترین استفاده ممکن را ببرند. هوش مصنوعی هنوز کامل نیست، به عنوان مثال قادر به قضاوت کردن نیست، بنابراین عامل انسانی همچنان در هنگام کار در کنار ماشین ها تعیین کننده خواهد بود.

بسیاری از فناوری‌های مبتنی بر هوش مصنوعی وجود دارد که از راه‌حل‌های خودکار استفاده می‌کنند که نیاز به آموزش دارند و این آموزش به ورودی انسان بستگی دارد. یک مثال خوب برای این کار، ترجمه های ماشینی هستند که از تعداد زیادی از ترجمه های تولید شده توسط انسان ورودی دریافت می کنند. مثال خوب دیگر نرم افزار رونویسی است که داده های آموزشی را از رونویسی های دقیق انجام شده توسط رونویس های انسانی حرفه ای دریافت می کند. به این ترتیب نرم افزار کم کم پیشرفت می کند و الگوریتم های خود را از طریق مثال های واقعی اصلاح می کند. رونویس‌کنندگان انسانی از این نرم‌افزار سود می‌برند، زیرا به آنها کمک می‌کند رونوشت‌ها را سریع‌تر انجام دهند. نرم‌افزار یک نسخه پیش‌نویس و خام از رونوشت تولید می‌کند، که سپس توسط رونویس‌کننده ویرایش و تصحیح می‌شود. این باعث صرفه جویی در زمان می شود و به این معنی است که در نهایت محصول نهایی سریعتر تحویل داده می شود و دقت بیشتری خواهد داشت.

2. مشکل تعصب

نکته مهم در مورد الگوریتم ها این است که آنها همیشه تصمیمات منصفانه و غیر جانبدارانه می گیرند، برخلاف انسان های ذهنی و احساسی. یا آنها؟ حقیقت این است که فرآیند تصمیم‌گیری هر نرم‌افزار خودکار به داده‌هایی بستگی دارد که روی آن‌ها آموزش دیده‌اند. بنابراین، خطر تبعیض در مواردی وجود دارد که به عنوان مثال، بخش خاصی از جمعیت به اندازه کافی در داده های مورد استفاده نشان داده نمی شود. نرم افزار تشخیص چهره در حال حاضر برای برخی از این مشکلات در حال بررسی است، موارد سوگیری قبلاً رخ داده است.

یک مثال عالی از اینکه هوش مصنوعی تا چه حد می تواند مغرضانه باشد، COMPAS (پروفایل مدیریت مجرمان اصلاحی برای مجازات های جایگزین) است. این یک ابزار ارزیابی ریسک و نیاز برای پیش‌بینی خطر تکرار جرم در میان مجرمان است. این ابزار مبتنی بر الگوریتم مورد بررسی قرار گرفت و نتایج نشان داد که داده‌های COMPAS به طور جدی از نظر نژادی تعصب دارند. به عنوان مثال، طبق داده ها، متهمان آفریقایی-آمریکایی بیشتر از سایر نژادها به اشتباه در معرض خطر تکرار جرم هستند. این الگوریتم همچنین تمایل داشت که اشتباه معکوس را با افراد نژاد سفید انجام دهد.

خب، اینجا چه اتفاقی افتاد؟ این الگوریتم وابسته به داده است، بنابراین اگر داده ها بایاس باشند، نرم افزار احتمالاً نتایج مغرضانه ای نیز ارائه می دهد. گاهی اوقات به نحوه جمع آوری داده ها نیز مربوط می شود.

فناوری تشخیص خودکار گفتار نیز می‌تواند بسته به جنسیت یا نژاد مغرضانه باشد، زیرا داده‌های آموزشی لزوماً در مواردی انتخاب نمی‌شوند که فراگیری کافی را تضمین کند.

3. نگرانی های ایمنی

بدون عنوان 2 2

مشکلاتی در هوش مصنوعی وجود دارد که به قدری خطرناک هستند که می توانند منجر به تصادف شوند. یکی از برجسته‌ترین نمونه‌های فناوری هوش مصنوعی کاربردی، خودروی خودران است. بسیاری از کارشناسان معتقدند که این آینده حمل و نقل است. اما اصلی‌ترین چیزی که مانع از اجرای فوری خودروهای خودران در ترافیک می‌شود، نقص‌های آن است که ممکن است جان مسافران و عابران پیاده را به خطر بیندازد. بحث در مورد تهدیدی که وسایل نقلیه خودران می توانند در جاده ها ایجاد کنند هنوز بسیار واقعی است. افرادی هستند که فکر می کنند اگر خودروهای خودران در جاده ها راه می یابند، تصادفات کمتری رخ می دهد. از سوی دیگر، مطالعاتی وجود دارد که نشان می دهد ممکن است تصادفات زیادی را به همراه داشته باشد، زیرا بسیاری از اقدامات آنها بر اساس ترجیحات تعیین شده توسط راننده خواهد بود. اکنون این به طراحان بستگی دارد که بین ایمنی و زندگی مردم و ترجیحات سوارکار (مانند سرعت متوسط و برخی دیگر از عادات رانندگی) یکی را انتخاب کنند. هدف اصلی خودروهای خودران در هر صورت باید کاهش تصادفات خودرو، از طریق پیاده سازی الگوریتم های هوش مصنوعی کارآمد و حسگرهای پیشرفته باشد که می توانند سناریوهای ترافیکی احتمالی را شناسایی و حتی پیش بینی کنند. با این حال، زندگی واقعی همیشه پیچیده تر از هر برنامه ای است، بنابراین محدودیت های این فناوری هنوز یکی از عوامل محدود کننده برای اجرای گسترده آن است. مشکل دیگر عامل اعتماد است. برای بسیاری از افرادی که سال ها و سال ها تجربه رانندگی دارند، قرار دادن تمام اعتماد به دست دیجیتال ممکن است به عنوان یک عمل تسلیم نمادین در برابر روندهای دیجیتال تلقی شود. در هر صورت، تا زمانی که همه اینها حل نشود، برخی از راه حل های تکنولوژیکی پیشرفته قبلاً در خودروهای جدیدتر پیاده سازی شده است و رانندگان انسانی می توانند از سنسورهای مختلف، راه حل های ترمز کمکی و کروز کنترل بهره مند شوند.

4. اهداف مخرب

فناوری باید در خدمت نیازهای مردم باشد و از آن برای آسان‌تر کردن، لذت‌تر کردن زندگی آنها استفاده شود و باید در وقت گرانبهای همه صرفه‌جویی کند. اما گاهی اوقات فناوری هوش مصنوعی برای اهداف مخرب نیز استفاده شده است، به گونه ای که خطرات قابل توجهی برای امنیت فیزیکی، دیجیتال و سیاسی ما ایجاد می کند.

  • امنیت فیزیکی: یکی از خطرات بالقوه هوش مصنوعی، که در ابتدا بسیار دراماتیک به نظر می‌رسد و ممکن است شما را تا حدودی سرد کند، جنگ بالقوه بین کشورهای پیشرفته با تکنولوژی است که توسط سیستم‌های تسلیحاتی خودمختار برنامه‌ریزی شده برای کشتن به کارآمدترین و بی‌رحمانه‌ترین شکل انجام می‌شود. به همین دلیل بسیار مهم است که توسعه چنین فناوری نظامی را از طریق معاهدات، مقررات و تحریم ها تنظیم کنیم تا از خطر شوم جنگ مبتنی بر هوش مصنوعی محافظت کنیم.
  • امنیت دیجیتال: هکرها در حال حاضر تهدیدی برای امنیت دیجیتال ما هستند و نرم افزار هوش مصنوعی در حال حاضر برای هک پیشرفته استفاده می شود. با توسعه چنین نرم افزاری، هکرها در اعمال ناشایست خود کارآمدتر خواهند بود و هویت آنلاین ما در برابر سرقت آسیب پذیرتر می شود. حریم خصوصی داده‌های شخصی شما ممکن است از طریق بدافزارهای ظریف که توسط هوش مصنوعی پشتیبانی می‌شوند، بیشتر به خطر بیفتد و با استفاده از یادگیری عمیق حتی خطرناک‌تر شود. تصور کنید یک دزد دیجیتال در پشت برنامه‌های مورد علاقه‌تان کمین کرده، روز به روز حیله‌گرتر می‌شود، از میلیون‌ها نمونه واقعی استفاده از نرم‌افزار یاد می‌گیرد و بر اساس آن داده‌ها سرقت هویت پیچیده‌ای را انجام می‌دهد.
بدون عنوان 3 2
  • امنیت سیاسی: در دوران آشفته ای که در آن زندگی می کنیم، ترس از اخبار جعلی و ضبط های تقلبی کاملاً موجه است. هوش مصنوعی می‌تواند با کمپین‌های خودکار اطلاعات نادرست آسیب زیادی وارد کند، که می‌تواند در طول انتخابات بسیار خطرناک باشد.

بنابراین، برای جمع‌بندی، ممکن است از خود بپرسیم که هوش مصنوعی چقدر می‌تواند به ما آسیب برساند و آیا می‌تواند بیشتر از اینکه به انسان کمک کند، ضرر داشته باشد.

کارشناسان بیان می کنند که توسعه اخلاقی و نهادهای نظارتی نقش مهمی در کاهش مضراتی که هوش مصنوعی ممکن است برای زندگی ما ایجاد کند، ایفا می کند. هر اتفاقی که بیفتد، مطمئن هستیم که در آینده تاثیر زیادی بر دنیای ما خواهد داشت.

نرم افزار تشخیص گفتار مبتنی بر پروتکل های پیشرفته هوش مصنوعی در حال حاضر استفاده می شود و مزایای زیادی را برای دنیای تجارت به ارمغان می آورد: گردش کار سریع تر و ساده تر است. Gglot بازیگر بزرگی در این زمینه است و ما به شدت در حال سرمایه گذاری برای توسعه بیشتر فناوری خود هستیم.