المخاطر المحتملة للذكاء الاصطناعي
ما هي بعض المخاطر المحتملة للذكاء الاصطناعي؟
الذكاء الاصطناعي ، أو الذكاء الاصطناعي كما يشار إليه غالبًا ، هو موضوع نوقش كثيرًا في العقد الماضي. إنه يتطور بسرعة ، مما يجعل سير العمل في معظم الأعمال أسهل وأكثر كفاءة. حتى في الحياة اليومية للعديد من الأشخاص ، أظهر الذكاء الاصطناعي إمكانات كبيرة ويتم تنفيذه بالفعل في العديد من التطبيقات المختلفة ، مما يجعل الحياة أسهل وأقل تعقيدًا. لقد جلب الذكاء الاصطناعي العديد من المزايا لنا والعلم يمهد الطريق للمزيد في المستقبل ، لذلك من الآمن القول إن الذكاء الاصطناعي سيكون لا غنى عنه في المستقبل ، إذا لم يكن كذلك بالفعل.
ولكن كما أن لكل ميدالية جانبان ، فإن الذكاء الاصطناعي كذلك. تأتي هذه التقنية أيضًا مع العديد من المخاطر والعيوب المحتملة. يعبر العديد من الخبراء والعقول التقنية المدبرة في عصرنا عن مخاوفهم بشأن المشكلات التي قد يسببها الذكاء الاصطناعي في المستقبل ، وبالتالي نحن بحاجة إلى توخي الحذر لمعالجة هذه المشكلات بينما لا يزال من الممكن تصحيحها. ماذا نعني بذلك؟
هناك الكثير من الأشياء التي يجب مراعاتها فيما يتعلق بهذه القضايا المحددة. سنحاول في هذه المقالة وصف بعض المخاطر التي قد يجلبها التطور السريع المذهل للذكاء الاصطناعي لعالمنا وما هو الإجراء الذي يجب اتخاذه من أجل مراقبة وتوجيه هذا التقدم في الاتجاه الصحيح.
1. الوظائف
نحن على يقين من أن الجميع قد أتيحت لهم بالفعل الفرصة لسماع أو قراءة العلاج المحتمل الذي قد تقدمه الآلات والأتمتة في أماكن العمل البشرية في المدرسة القديمة. قد يعاني بعض الأشخاص من درجات متفاوتة من القلق بشأن سرقة الآلات لوظائفهم. قد يكون هذا الخوف قائمًا على أسس جيدة ، وأتمتة الوظائف تشكل مخاطرة كبيرة لكثير من الناس: فقد يفقد حوالي 25٪ من الأمريكيين وظائفهم لأنه في مرحلة ما ستكون الآلات قادرة على استبدالهم. المعرضة للخطر بشكل خاص هي الوظائف ذات الأجور المنخفضة التي يقوم فيها الشخص بمهام متكررة ، مثل الوظائف في الإدارة أو الخدمات الغذائية. ومع ذلك ، حتى بعض خريجي الجامعات معرضون للخطر ، فقد تتمكن خوارزميات التعلم الآلي المتقدمة من استبدالهم في بعض وظائف العمل المعقدة لأنهم أصبحوا أكثر دقة ، لا سيما من خلال استخدام الشبكات العصبية والتعلم العميق.
لكن لا يمكننا أن نقول حقًا إن الروبوتات ستخرج البشر تمامًا من سوق العمل. سيتعين على الموظفين ببساطة ضبط وتثقيف أنفسهم وإيجاد طريقة للعمل من خلال التعاون مع الذكاء الاصطناعي ، وتحقيق أفضل استخدام ممكن لكفاءته ومنطقه الميكانيكي. لا يزال الذكاء الاصطناعي غير مثالي ، على سبيل المثال لا يمكنه إجراء استدعاءات للحكم ، لذا سيظل العامل البشري حاسمًا عند العمل جنبًا إلى جنب مع الآلات.
هناك الكثير من التقنيات القائمة على الذكاء الاصطناعي والتي تستخدم الحلول الآلية التي تحتاج إلى التدريب ويعتمد هذا التدريب على المدخلات البشرية. وخير مثال على ذلك هو الترجمات الآلية التي تكتسب مدخلات من عدد كبير من الترجمات البشرية. مثال جيد آخر هو برنامج النسخ الذي يحصل على بيانات التدريب من عمليات النسخ الدقيقة التي يقوم بها الناسخون البشريون المحترفون. بهذه الطريقة يتم تحسين البرنامج شيئًا فشيئًا ، من خلال تحسين خوارزمياته من خلال أمثلة واقعية. يستفيد الناسخون من البرنامج لأنه يساعدهم في عمل النصوص بشكل أسرع. يُنشئ البرنامج نسخة أولية ومسودة للنسخة ، ثم يتم تحريرها وتصحيحها بواسطة الناسخ. هذا يوفر الكثير من الوقت ، ويعني أنه في النهاية سيتم تسليم المنتج النهائي بشكل أسرع وسيكون أكثر دقة.
2. مشكلة التحيز
إن الشيء العظيم في الخوارزميات هو أنها تتخذ دائمًا قرارات عادلة وغير منحازة ، في تناقض حاد مع البشر الذاتي والعاطفي. أم هم؟ الحقيقة هي أن عملية اتخاذ القرار لأي برنامج آلي تعتمد على البيانات التي تم تدريبهم عليها. لذلك ، هناك خطر التعرض للتمييز في المناسبات التي على سبيل المثال لا يتم فيها تمثيل شريحة معينة من السكان بشكل كافٍ في البيانات المستخدمة. يتم بالفعل التحقيق في برنامج التعرف على الوجوه لبعض هذه المشكلات ، وقد حدثت بالفعل حالات تحيز.
أحد الأمثلة الرائعة على مدى انحياز الذكاء الاصطناعي هو COMPAS (ملف تعريف إدارة مرتكبي الجرائم الإصلاحية للعقوبات البديلة). هذه أداة لتقييم المخاطر والاحتياجات للتنبؤ بخطر العودة إلى الإجرام بين الجناة. تم التحقيق في هذه الأداة القائمة على الخوارزمية وأظهرت النتائج أن بيانات كومباس كانت متحيزة بشكل خطير من الناحية العرقية. على سبيل المثال ، وفقًا للبيانات ، كان من المرجح أن يُحكم على المتهمين الأمريكيين من أصل أفريقي بشكل غير صحيح بأن لديهم خطرًا أكبر من العودة إلى الإجرام مقارنة بالأعراق الأخرى. تميل الخوارزمية أيضًا إلى ارتكاب الخطأ المعاكس مع الأشخاص من العرق الأبيض.
إذن ، ماذا حدث هنا؟ تعتمد الخوارزمية على البيانات ، لذا إذا كانت البيانات متحيزة ، فمن المحتمل أن يعطي البرنامج نتائج متحيزة أيضًا. في بعض الأحيان يكون لها أيضًا علاقة بكيفية جمع البيانات.
يمكن أيضًا أن تكون تقنية التعرف الآلي على الكلام متحيزة اعتمادًا على الجنس أو العرق نظرًا لحقيقة أن بيانات التدريب ليست بالضرورة محددة في الأمر الذي من شأنه أن يضمن الشمولية الكافية.
3. مخاوف تتعلق بالسلامة
هناك بعض المشاكل في الذكاء الاصطناعي وهي خطيرة للغاية لدرجة أنها يمكن أن تؤدي إلى وقوع حوادث. تعتبر السيارة ذاتية القيادة من أبرز الأمثلة على تكنولوجيا الذكاء الاصطناعي المطبقة. يعتقد العديد من الخبراء أن هذا هو مستقبل النقل. لكن الشيء الرئيسي الذي يعيق التنفيذ الفوري للسيارات ذاتية القيادة في حركة المرور هو أعطالها التي قد تعرض حياة الركاب والمشاة للخطر. النقاش حول التهديد الذي يمكن أن تشكله المركبات ذاتية القيادة على الطرق لا يزال فعليًا للغاية. هناك أشخاص يعتقدون أنه يمكن أن تكون الحوادث أقل إذا تم السماح للسيارات ذاتية القيادة بالسير على الطريق. من ناحية أخرى ، هناك دراسات أظهرت أنها قد تتسبب في الكثير من الحوادث ، لأن العديد من أفعالها ستعتمد على التفضيلات التي يحددها السائق. الآن الأمر متروك للمصممين للاختيار بين السلامة وحياة الأشخاص وتفضيلات الراكب (مثل السرعة المتوسطة وبعض عادات القيادة الأخرى). يجب أن يكون الهدف الرئيسي للسيارات ذاتية القيادة في أي حال هو الحد من حوادث السيارات ، من خلال تنفيذ خوارزميات الذكاء الاصطناعي الفعالة وأجهزة الاستشعار المتقدمة التي يمكنها اكتشاف أي سيناريوهات مرورية محتملة وحتى التنبؤ بها. ومع ذلك ، فإن الحياة الواقعية دائمًا ما تكون أكثر تعقيدًا من أي برنامج ، لذا فإن قيود هذه التكنولوجيا لا تزال أحد العوامل المحددة لتطبيقها على نطاق واسع. مشكلة أخرى هي عامل الثقة. بالنسبة للعديد من الأشخاص الذين لديهم سنوات وسنوات من الخبرة في القيادة ، قد يُنظر إلى وضع كل الثقة في أيدي رقمية على أنه استسلام رمزي للاتجاهات الرقمية. على أي حال ، حتى يتم حل كل هذا ، تم بالفعل تنفيذ بعض الحلول التكنولوجية المتقدمة في السيارات الأحدث ، ويمكن للسائقين البشريين الاستفادة من أجهزة الاستشعار المختلفة وحلول الكبح المدعومة وأدوات التحكم في التطواف.
4. الأغراض الخبيثة
يجب أن تخدم التكنولوجيا احتياجات الناس وأن تُستخدم لجعل حياتهم أسهل وأكثر إمتاعًا ويجب أن توفر الوقت الثمين للجميع. لكن في بعض الأحيان ، تم استخدام تقنية الذكاء الاصطناعي أيضًا لأغراض ضارة ، بطريقة تشكل خطرًا كبيرًا على أمننا المادي والرقمي والسياسي.
- الأمن المادي: أحد المخاطر المحتملة للذكاء الاصطناعي ، والذي يبدو دراماتيكيًا في البداية وقد يزعجك بشدة ، هو حرب محتملة بين الدول المتقدمة تقنيًا ، والتي تنفذها أنظمة أسلحة مستقلة مبرمجة للقتل بأكثر الطرق كفاءة ووحشية. هذا هو السبب في أنه من المهم للغاية تنظيم تطوير هذه التكنولوجيا العسكرية من خلال المعاهدات واللوائح والعقوبات ، من أجل حماية البشرية من الخطر المشؤوم للحرب القائمة على الذكاء الاصطناعي.
- الأمن الرقمي: يمثل المتسللون بالفعل تهديدًا لأماننا الرقمي ويتم استخدام برنامج الذكاء الاصطناعي بالفعل في القرصنة المتقدمة. مع تطوير مثل هذه البرامج ، سيكون المتسللون أكثر كفاءة في جرائمهم وستكون هويتنا عبر الإنترنت أكثر عرضة للسرقة. قد تتعرض خصوصية بياناتك الشخصية للخطر بشكل أكبر من خلال البرامج الضارة الخفية ، المدعومة بالذكاء الاصطناعي ، بل وتصبح أكثر خطورة من خلال استخدام التعلم العميق. تخيل لصًا رقميًا ، يتربص في الجزء الخلفي من برامجك المفضلة ، ويصبح أكثر ذكاءً يومًا بعد يوم ، ويتعلم من ملايين الأمثلة الواقعية لاستخدام البرامج ويصنع سرقات هوية معقدة بناءً على تلك البيانات.
- الأمن السياسي: في الأوقات المضطربة التي نعيشها ، فإن الخوف من الأخبار المزيفة والتسجيلات الاحتيالية له ما يبرره تمامًا. يمكن للذكاء الاصطناعي أن يلحق أضرارًا كبيرة من خلال حملات التضليل الآلية ، والتي قد تكون خطيرة للغاية أثناء الانتخابات.
لذلك ، في الختام ، قد نسأل أنفسنا عن مقدار الضرر الذي يمكن أن يلحقه الذكاء الاصطناعي بنا ، وهل يمكن أن يضر بالبشرية أكثر من نفعه.
يقول الخبراء أن التطوير الأخلاقي والهيئات التنظيمية ستلعب دورًا رئيسيًا عندما يتعلق الأمر بتخفيف العيوب التي قد يسببها الذكاء الاصطناعي لحياتنا. مهما حدث ، فنحن على يقين من أنه سيكون له تأثير كبير على عالمنا في المستقبل.
يتم بالفعل استخدام برنامج التعرف على الكلام، استنادًا إلى بروتوكولات الذكاء الاصطناعي المتقدمة، وهو يوفر العديد من المزايا لعالم الأعمال: سير العمل أسرع وأبسط. تعد Gglot لاعبًا كبيرًا في هذا المجال ونحن نستثمر بشكل كبير في تطوير التكنولوجيا الخاصة بنا بشكل أكبر.