Potensi Risiko Kepintaran Buatan

Apakah Beberapa Potensi Risiko Kepintaran Buatan?

Kecerdasan buatan, atau AI seperti yang juga sering dirujuk, adalah subjek yang telah banyak dibincangkan dalam dekad yang lalu. Ia berkembang pesat, menjadikan aliran kerja kebanyakan perniagaan lebih mudah dan lebih cekap. Malah dalam kehidupan seharian ramai orang AI telah menunjukkan potensi yang besar dan sudah pun dilaksanakan dalam banyak aplikasi yang berbeza, menjadikan hidup lebih mudah dan kurang rumit. AI telah membawa banyak kelebihan kepada kami dan sains sedang membuka jalan untuk lebih banyak lagi yang akan datang jadi adalah selamat untuk mengatakan bahawa AI akan menjadi amat diperlukan pada masa hadapan, jika belum.

Tetapi seperti setiap pingat mempunyai dua pihak, begitu juga AI. Teknologi ini juga datang dengan banyak potensi risiko dan keburukan. Ramai pakar dan dalang teknikal pada zaman kita menyatakan kebimbangan mereka terhadap masalah yang mungkin disebabkan oleh AI pada masa hadapan dan oleh itu kita perlu berhati-hati untuk menangani isu ini sementara ia masih boleh diperbetulkan. Apa yang kita maksudkan dengan itu?

Terdapat banyak perkara yang perlu dipertimbangkan berkaitan isu-isu tertentu ini. Dalam artikel ini, kami akan cuba menerangkan beberapa risiko yang mungkin dibawa oleh perkembangan AI yang sangat pantas kepada dunia kita dan apakah langkah yang perlu diambil untuk memantau dan membimbing kemajuan itu ke arah yang betul.

1. Pekerjaan

Tidak bertajuk 1 3

Kami pasti bahawa semua orang sudah berpeluang mendengar atau membaca tentang potensi rawatan yang mungkin diberikan oleh mesin dan automasi ke sekolah lama, tempat kerja berasaskan manusia. Sesetengah orang mungkin mengalami pelbagai tahap kebimbangan tentang mesin yang mencuri pekerjaan mereka. Ketakutan itu mungkin berasas, automasi pekerjaan merupakan risiko besar kepada ramai orang: kira-kira 25% rakyat Amerika mungkin kehilangan pekerjaan mereka kerana pada satu ketika mesin akan dapat menggantikannya. Terutamanya berisiko ialah jawatan bergaji rendah di mana seseorang melakukan tugas berulang, seperti pekerjaan dalam pentadbiran atau perkhidmatan makanan. Walau bagaimanapun, walaupun sesetengah graduan universiti berisiko, algoritma pembelajaran mesin lanjutan mungkin dapat menggantikan mereka dalam beberapa jawatan kerja yang kompleks kerana mereka menjadi lebih halus, terutamanya melalui penggunaan rangkaian saraf dan pembelajaran mendalam.

Tetapi kita tidak boleh benar-benar mengatakan bahawa robot akan menolak sepenuhnya manusia dari pasaran kerja. Pekerja hanya perlu menyesuaikan diri, mendidik diri mereka sendiri dan mencari jalan untuk bekerja dengan bekerjasama dengan AI, menggunakan kecekapan dan logik mekanikalnya sebaik mungkin. AI masih belum sempurna, contohnya ia tidak dapat membuat panggilan pertimbangan, jadi faktor manusia akan tetap menjadi penentu apabila bekerja bersama mesin.

Terdapat banyak teknologi berasaskan AI yang menggunakan penyelesaian automatik yang perlu dilatih dan latihan ini bergantung kepada input manusia. Contoh yang baik untuk ini ialah terjemahan mesin yang mendapat input daripada sejumlah besar terjemahan yang dijana oleh manusia. Satu lagi contoh yang baik ialah perisian transkripsi yang mendapatkan data latihan daripada transkripsi tepat yang dilakukan oleh transkripsi manusia profesional. Dengan cara ini perisian dipertingkatkan sedikit demi sedikit, memperhalusi algoritmanya melalui contoh kehidupan sebenar. Penerjemah manusia mendapat manfaat daripada perisian kerana ia membantu mereka membuat transkrip dengan lebih pantas. Perisian menjana versi kasar, draf transkrip, yang kemudiannya disunting dan diperbetulkan oleh transkrip. Ini menjimatkan banyak masa, dan bermakna pada akhirnya produk akhir akan dihantar lebih cepat dan akan lebih tepat.

2. Masalah berat sebelah

Perkara yang hebat tentang algoritma ialah mereka sentiasa membuat keputusan yang adil dan tidak berat sebelah, berbeza dengan manusia subjektif dan emosi. Atau adakah mereka? Sebenarnya proses membuat keputusan mana-mana perisian automatik bergantung pada data yang mereka telah dilatih. Jadi, terdapat risiko diskriminasi dalam keadaan apabila contohnya segmen tertentu populasi tidak cukup diwakili dalam data yang digunakan. Perisian pengecaman muka sedang disiasat untuk beberapa masalah ini, kes berat sebelah sudah berlaku.

Satu contoh hebat tentang betapa berat sebelah kecerdasan buatan ialah COMPAS (Profil Pengurusan Pesalah Pembetulan untuk Sekatan Alternatif). Ini adalah alat penilaian risiko dan keperluan untuk meramalkan risiko residivisme dalam kalangan pesalah. Alat berasaskan algoritma ini telah disiasat dan keputusan telah menunjukkan bahawa data COMPAS secara serius berat sebelah perkauman. Sebagai contoh, menurut data, defendan Afrika-Amerika lebih berkemungkinan salah dinilai mempunyai risiko residivisme yang lebih tinggi daripada kaum lain. Algoritma ini juga cenderung membuat kesilapan yang bertentangan dengan orang kulit putih.

Jadi, apa yang berlaku di sini? Algoritma adalah bergantung kepada data jadi jika data berat sebelah, perisian mungkin akan memberikan hasil yang berat sebelah juga. Kadangkala ia juga ada kaitan dengan cara data dikumpul.

Teknologi Pengecaman Pertuturan Automatik juga boleh berat sebelah bergantung pada jantina atau bangsa kerana fakta bahawa data latihan tidak semestinya dipilih dalam perkara yang akan memastikan keterangkuman yang mencukupi.

3. Kebimbangan keselamatan

Tanpa Tajuk 2 2

Terdapat beberapa masalah dengan kecerdasan buatan yang sangat berbahaya sehingga boleh menyebabkan kemalangan. Salah satu contoh teknologi AI gunaan yang lebih menonjol ialah kereta pandu sendiri. Ramai pakar percaya bahawa ini adalah masa depan pengangkutan. Tetapi perkara utama yang menghalang pelaksanaan segera kereta pandu sendiri ke dalam lalu lintas adalah kerosakannya yang mungkin membahayakan nyawa penumpang dan pejalan kaki. Perdebatan mengenai ancaman yang boleh ditimbulkan oleh kenderaan autonomi di jalan raya masih sangat nyata. Ada orang berpendapat bahawa kemalangan akan berkurangan jika kereta pandu sendiri dibenarkan di jalan raya. Sebaliknya, terdapat kajian yang menunjukkan bahawa mereka mungkin menyebabkan banyak kemalangan, kerana banyak tindakan mereka akan berdasarkan keutamaan yang ditetapkan oleh pemandu. Kini terpulang kepada pereka bentuk untuk memilih antara keselamatan dan kehidupan orang ramai dan keutamaan penunggang (seperti kelajuan purata dan beberapa tabiat pemanduan lain). Matlamat utama kereta pandu sendiri dalam apa jua keadaan hendaklah mengurangkan kemalangan kereta, melalui pelaksanaan algoritma AI yang cekap dan penderia termaju yang boleh mengesan dan juga meramalkan sebarang kemungkinan senario trafik. Walau bagaimanapun, kehidupan sebenar sentiasa lebih rumit daripada mana-mana program, jadi batasan teknologi ini masih menjadi salah satu faktor pengehad untuk pelaksanaannya yang meluas. Masalah lain ialah faktor kepercayaan. Bagi kebanyakan orang yang mempunyai pengalaman memandu selama bertahun-tahun, meletakkan semua kepercayaan kepada tangan digital mungkin dilihat sebagai tindakan penyerahan simbolik kepada arah aliran digital. Walau apa pun, sehingga semua ini diselesaikan, beberapa penyelesaian teknologi termaju telah pun dilaksanakan dalam kereta yang lebih baharu, dan pemandu manusia boleh mendapat manfaat daripada pelbagai penderia, penyelesaian brek berbantu dan kawalan pelayaran.

4. Tujuan jahat

Teknologi harus memenuhi keperluan orang ramai dan digunakan untuk menjadikan kehidupan mereka lebih mudah, lebih menyeronokkan dan ia harus menjimatkan masa berharga semua orang. Tetapi kadangkala teknologi AI juga telah digunakan untuk tujuan berniat jahat, dengan cara yang menimbulkan risiko besar kepada keselamatan fizikal, digital dan politik kita.

  • Keselamatan fizikal: Satu potensi risiko AI, yang kelihatan agak dramatik pada mulanya dan mungkin menyejukkan hati anda ialah potensi peperangan antara negara berteknologi maju, yang dijalankan oleh sistem senjata autonomi yang diprogramkan untuk membunuh dengan cara yang paling cekap dan kejam. Inilah sebabnya mengapa adalah sangat penting untuk mengawal pembangunan teknologi ketenteraan tersebut melalui perjanjian, peraturan dan sekatan, untuk melindungi manusia daripada risiko buruk peperangan berasaskan AI.
  • Keselamatan digital: Penggodam sudah menjadi ancaman kepada keselamatan digital kami dan perisian AI sudah digunakan untuk penggodaman lanjutan. Dengan pembangunan perisian sedemikian, penggodam akan menjadi lebih cekap dalam salah laku mereka dan identiti dalam talian kami akan lebih terdedah kepada kecurian. Privasi data peribadi anda mungkin lebih terjejas melalui perisian hasad halus, dikuasakan oleh AI dan menjadi lebih berbahaya melalui penggunaan pembelajaran mendalam. Bayangkan seorang pencuri digital, bersembunyi di belakang program kegemaran anda, menjadi lebih licik dari hari ke hari, belajar daripada jutaan contoh kehidupan sebenar penggunaan perisian dan mencipta kecurian identiti yang kompleks berdasarkan data tersebut.
Tanpa Tajuk 3 2
  • Keselamatan politik: dalam zaman bergelora yang kita hidup, ketakutan terhadap berita palsu dan rakaman penipuan adalah wajar. AI boleh melakukan banyak kerosakan oleh kempen disinformasi automatik, yang boleh menjadi sangat berbahaya semasa pilihan raya.

Jadi, untuk membuat kesimpulan, kita mungkin bertanya kepada diri sendiri berapa banyak kerosakan yang boleh dilakukan oleh kecerdasan buatan kepada kita dan adakah ia boleh mendatangkan lebih banyak mudarat daripada kebaikan kepada manusia.

Pakar menyatakan bahawa pembangunan etika dan badan kawal selia akan memainkan peranan utama dalam mengurangkan keburukan yang mungkin disebabkan oleh kecerdasan buatan kepada kehidupan kita. Apa pun yang berlaku, kami pasti ia akan memberi impak yang besar kepada dunia kita pada masa hadapan.

Perisian pengecaman pertuturan, berdasarkan protokol AI lanjutan sudah digunakan, dan ia membawa banyak kelebihan kepada dunia perniagaan: aliran kerja lebih pantas dan mudah. Gglot ialah pemain besar dalam bidang ini dan kami banyak melabur untuk membangunkan teknologi kami dengan lebih lanjut.