Potensi Risiko Kecerdasan Buatan

Apa Saja Potensi Risiko Kecerdasan Buatan?

Kecerdasan buatan, atau sering juga disebut AI, merupakan topik yang banyak dibicarakan dalam satu dekade terakhir. Ini berkembang pesat, membuat alur kerja sebagian besar bisnis menjadi lebih mudah dan efisien. Bahkan dalam kehidupan sehari-hari banyak orang, AI telah menunjukkan potensi besar dan sudah diterapkan di banyak aplikasi berbeda, membuat hidup lebih mudah dan tidak rumit. AI telah membawa banyak manfaat bagi kita dan ilmu pengetahuan membuka jalan bagi banyak manfaat di masa depan, sehingga dapat dikatakan bahwa AI akan sangat diperlukan di masa depan, jika hal ini belum terjadi.

Namun sebagaimana setiap medali memiliki dua sisi, begitu pula AI. Teknologi ini juga memiliki banyak potensi risiko dan kerugian. Banyak pakar dan pakar teknis di zaman kita yang mengungkapkan keprihatinan mereka atas permasalahan yang mungkin ditimbulkan oleh AI di masa depan. Oleh karena itu, kita perlu berhati-hati dalam mengatasi permasalahan ini selagi permasalahan tersebut masih dapat diperbaiki. Apa yang kami maksud dengan itu?

Ada banyak hal yang perlu dipertimbangkan sehubungan dengan masalah-masalah khusus ini. Dalam artikel ini kami akan mencoba menjelaskan beberapa risiko yang mungkin ditimbulkan oleh perkembangan AI yang sangat cepat terhadap dunia kita dan tindakan apa yang perlu diambil untuk memantau dan mengarahkan kemajuan tersebut ke arah yang benar.

1. Pekerjaan

Tanpa judul 1 3

Kami yakin bahwa setiap orang telah mempunyai kesempatan untuk mendengar atau membaca tentang potensi manfaat yang mungkin ditimbulkan oleh mesin dan otomatisasi pada tempat kerja yang kuno dan berbasis manusia. Beberapa orang mungkin mengalami berbagai tingkat kecemasan terhadap mesin yang mencuri pekerjaan mereka. Ketakutan tersebut mungkin beralasan, otomatisasi pekerjaan merupakan risiko besar bagi banyak orang: sekitar 25% orang Amerika mungkin kehilangan pekerjaan karena suatu saat mesin akan mampu menggantikannya. Yang paling berisiko adalah posisi berupah rendah di mana seseorang melakukan tugas yang berulang-ulang, seperti pekerjaan di bidang administrasi atau jasa makanan. Namun, bahkan beberapa lulusan universitas pun berisiko, algoritme pembelajaran mesin yang canggih mungkin dapat menggantikannya di beberapa posisi kerja yang kompleks karena algoritme tersebut menjadi lebih disempurnakan, terutama melalui penggunaan jaringan saraf dan pembelajaran mendalam.

Namun kita tidak bisa mengatakan bahwa robot akan sepenuhnya menyingkirkan manusia dari pasar kerja. Karyawan hanya perlu menyesuaikan diri, mendidik diri mereka sendiri, dan menemukan cara untuk bekerja dengan bekerja sama dengan AI, memanfaatkan efisiensi dan logika mekanisnya sebaik mungkin. AI masih belum sempurna, misalnya belum bisa mengambil keputusan, sehingga faktor manusia masih akan menentukan saat bekerja berdampingan dengan mesin.

Ada banyak teknologi berbasis AI yang menggunakan solusi otomatis yang perlu dilatih dan pelatihan ini bergantung pada masukan manusia. Contoh yang baik untuk hal ini adalah terjemahan mesin yang memperoleh masukan dari sejumlah besar terjemahan yang dihasilkan manusia. Contoh bagus lainnya adalah perangkat lunak transkripsi yang mendapatkan data pelatihan dari transkripsi akurat yang dilakukan oleh manusia yang menyalin secara profesional. Dengan cara ini perangkat lunak ditingkatkan sedikit demi sedikit, menyempurnakan algoritmanya melalui contoh kehidupan nyata. Transkrip manusia mendapat manfaat dari perangkat lunak ini karena membantu mereka membuat transkrip lebih cepat. Perangkat lunak ini menghasilkan versi draf transkrip yang kasar, yang kemudian diedit dan dikoreksi oleh transcriber. Hal ini menghemat banyak waktu, dan pada akhirnya produk akhir akan dikirimkan lebih cepat dan akurat.

2. Masalah bias

Hal hebat tentang algoritme adalah algoritme selalu membuat keputusan yang adil dan tidak bias, sangat berbeda dengan manusia yang subjektif dan emosional. Atau benarkah? Faktanya adalah bahwa proses pengambilan keputusan pada perangkat lunak otomatis bergantung pada data yang telah dilatih. Jadi, terdapat risiko diskriminasi ketika, misalnya, segmen populasi tertentu tidak cukup terwakili dalam data yang digunakan. Perangkat lunak pengenalan wajah sudah diselidiki untuk beberapa masalah ini, kasus bias sudah terjadi.

Salah satu contoh bagus tentang betapa biasnya kecerdasan buatan adalah COMPAS (Profil Manajemen Pelanggar Pemasyarakatan untuk Sanksi Alternatif). Ini adalah alat penilaian risiko dan kebutuhan untuk memprediksi risiko residivisme di kalangan pelanggar. Alat berbasis algoritme ini telah diselidiki dan hasilnya menunjukkan bahwa data COMPAS sangat bias rasial. Misalnya saja, menurut data, terdakwa keturunan Afrika-Amerika lebih besar kemungkinannya untuk dinilai secara salah dan memiliki risiko residivisme yang lebih tinggi dibandingkan ras lain. Algoritme tersebut juga cenderung membuat kesalahan sebaliknya pada orang ras kulit putih.

Jadi, apa yang terjadi disini? Algoritmenya bergantung pada data sehingga jika datanya bias, kemungkinan besar perangkat lunak akan memberikan hasil yang bias juga. Terkadang hal ini juga ada hubungannya dengan cara pengumpulan data.

Teknologi Pengenalan Ucapan Otomatis juga dapat menjadi bias tergantung pada gender atau ras karena fakta bahwa data pelatihan tidak selalu dipilih dalam hal yang dapat menjamin inklusivitas yang memadai.

3. Masalah keamanan

Tanpa judul 2 2

Ada beberapa masalah pada kecerdasan buatan yang sangat berbahaya sehingga dapat menyebabkan kecelakaan. Salah satu contoh penerapan teknologi AI yang menonjol adalah mobil self-driving. Banyak ahli percaya bahwa ini adalah masa depan transportasi. Namun hal utama yang menghambat implementasi langsung mobil self-driving ke dalam lalu lintas adalah malfungsi yang dapat membahayakan nyawa penumpang dan pejalan kaki. Perdebatan mengenai ancaman kendaraan otonom di jalan raya masih sangat aktual. Ada orang yang berpendapat bahwa kecelakaan akan berkurang jika mobil self-driving diperbolehkan di jalan raya. Di sisi lain, terdapat penelitian yang menunjukkan bahwa hal tersebut dapat menyebabkan banyak kecelakaan, karena sebagian besar tindakannya didasarkan pada preferensi yang ditetapkan oleh pengemudi. Kini terserah kepada para desainer untuk memilih antara keselamatan dan kehidupan masyarakat serta preferensi pengendara (seperti kecepatan rata-rata dan beberapa kebiasaan mengemudi lainnya). Tujuan utama dari mobil self-driving adalah pengurangan kecelakaan mobil, melalui penerapan algoritma AI yang efisien dan sensor canggih yang dapat mendeteksi dan bahkan memprediksi kemungkinan skenario lalu lintas. Namun, kehidupan nyata selalu lebih rumit dibandingkan program apa pun, sehingga keterbatasan teknologi ini masih menjadi salah satu faktor pembatas penerapannya secara luas. Masalah lainnya adalah faktor kepercayaan. Bagi banyak orang yang memiliki pengalaman mengemudi selama bertahun-tahun, menyerahkan seluruh kepercayaan ke tangan digital mungkin dilihat sebagai tindakan menyerah secara simbolis terhadap tren digital. Bagaimanapun, hingga semua masalah ini terselesaikan, beberapa solusi teknologi canggih telah diterapkan pada mobil-mobil baru, dan pengemudi manusia dapat memanfaatkan berbagai sensor, solusi pengereman berbantuan, dan kendali jelajah.

4. Tujuan jahat

Teknologi harus memenuhi kebutuhan masyarakat dan digunakan untuk membuat hidup mereka lebih mudah, lebih menyenangkan, dan menghemat waktu berharga setiap orang. Namun terkadang teknologi AI juga digunakan untuk tujuan jahat, dengan cara yang menimbulkan risiko signifikan terhadap keamanan fisik, digital, dan politik kita.

  • Keamanan fisik: Salah satu potensi risiko AI, yang pada awalnya terdengar cukup dramatis dan mungkin membuat Anda takut adalah potensi perang antara negara-negara berteknologi maju, yang dilakukan oleh sistem senjata otonom yang diprogram untuk membunuh dengan cara yang paling efisien dan kejam. Inilah sebabnya mengapa sangat penting untuk mengatur pengembangan teknologi militer melalui perjanjian, peraturan dan sanksi, untuk melindungi umat manusia dari risiko peperangan berbasis AI.
  • Keamanan digital: Peretas sudah menjadi ancaman bagi keamanan digital kita dan perangkat lunak AI sudah digunakan untuk peretasan tingkat lanjut. Dengan pengembangan perangkat lunak seperti itu, peretas akan lebih efisien dalam melakukan kejahatannya dan identitas online kita akan lebih rentan terhadap pencurian. Privasi data pribadi Anda mungkin lebih terganggu melalui malware halus, yang didukung oleh AI, dan menjadi lebih berbahaya melalui penggunaan pembelajaran mendalam. Bayangkan seorang pencuri digital, bersembunyi di belakang program favorit Anda, menjadi lebih licik dari hari ke hari, belajar dari jutaan contoh nyata penggunaan perangkat lunak dan melakukan pencurian identitas yang rumit berdasarkan data tersebut.
Tanpa judul 3 2
  • Keamanan politik: di masa penuh gejolak yang kita alami, ketakutan akan berita palsu dan rekaman palsu cukup beralasan. AI dapat menimbulkan banyak kerugian melalui kampanye disinformasi otomatis, yang bisa sangat berbahaya selama pemilu.

Jadi, sebagai kesimpulan, kita mungkin bertanya pada diri sendiri seberapa besar dampak yang dapat ditimbulkan oleh kecerdasan buatan terhadap kita dan apakah kecerdasan buatan dapat memberikan lebih banyak kerugian daripada manfaat bagi umat manusia.

Para ahli menyatakan bahwa pengembangan etika dan badan pengatur akan memainkan peran utama dalam memitigasi kerugian yang mungkin disebabkan oleh kecerdasan buatan terhadap kehidupan kita. Apapun yang terjadi, kami yakin hal itu akan berdampak besar pada dunia kita di masa depan.

Perangkat lunak pengenalan suara, berdasarkan protokol AI tingkat lanjut, sudah digunakan, dan ini membawa banyak keuntungan bagi dunia bisnis: alur kerja lebih cepat dan sederhana. Gglot adalah pemain besar di bidang ini dan kami berinvestasi besar-besaran untuk mengembangkan teknologi kami lebih lanjut.