Potencjalne zagrożenia związane ze sztuczną inteligencją
Jakie są potencjalne zagrożenia związane ze sztuczną inteligencją?
Sztuczna inteligencja, czy też sztuczna inteligencja, jak się ją często nazywa, to temat, który był bardzo dyskutowany w ostatniej dekadzie. Szybko się rozwija, dzięki czemu przepływ pracy w większości firm jest łatwiejszy i wydajniejszy. Nawet w życiu codziennym wielu ludzi sztuczna inteligencja wykazuje ogromny potencjał i jest już wdrażana w wielu różnych aplikacjach, dzięki czemu życie staje się łatwiejsze i mniej skomplikowane. Sztuczna inteligencja przyniosła nam wiele korzyści, a nauka toruje drogę dla wielu innych, więc można śmiało powiedzieć, że sztuczna inteligencja będzie niezbędna w przyszłości, jeśli jeszcze nie jest.
Ale tak jak każdy medal ma dwie strony, tak samo jest z AI. Ta technologia ma również wiele potencjalnych zagrożeń i wad. Wielu ekspertów i inżynierów technicznych naszych czasów wyraża swoje obawy dotyczące problemów, które sztuczna inteligencja może powodować w przyszłości, dlatego musimy uważnie rozwiązywać te problemy, dopóki nadal można je naprawić. Co przez to rozumiemy?
Jest wiele rzeczy, które należy wziąć pod uwagę w odniesieniu do tych konkretnych kwestii. W tym artykule postaramy się opisać niektóre z zagrożeń, jakie olśniewająco szybki rozwój sztucznej inteligencji może przynieść naszemu światu oraz jakie środki należy podjąć, aby monitorować i kierować postępem we właściwym kierunku.
1. Praca
Jesteśmy przekonani, że każdy miał już okazję usłyszeć lub przeczytać o potencjalnej przyjemności, jaką maszyny i automatyka mogą stanowić dla oldschoolowych, ludzkich miejsc pracy. Niektórzy ludzie mogą odczuwać różnego stopnia niepokój związany z kradzieżą pracy przez maszyny. Ten strach może być uzasadniony, automatyzacja pracy jest dla wielu osób dużym ryzykiem: około 25% Amerykanów może stracić pracę, ponieważ w pewnym momencie maszyny będą w stanie ich zastąpić. Szczególnie zagrożone są stanowiska o niskim wynagrodzeniu, na których dana osoba wykonuje powtarzalne czynności, takie jak praca w administracji lub w gastronomii. Jednak nawet niektórzy absolwenci uniwersytetów są zagrożeni, zaawansowane algorytmy uczenia maszynowego mogą być w stanie zastąpić je na niektórych złożonych stanowiskach pracy, ponieważ stają się coraz bardziej wyrafinowane, szczególnie dzięki wykorzystaniu sieci neuronowych i głębokiego uczenia się.
Ale tak naprawdę nie możemy powiedzieć, że roboty całkowicie wypchną ludzi z rynku pracy. Pracownicy będą musieli po prostu dostosować się, wykształcić i znaleźć sposób na pracę, współpracując ze sztuczną inteligencją, wykorzystując jak najlepiej jej wydajność i mechaniczną logikę. Sztuczna inteligencja nie jest jeszcze doskonała, na przykład nie jest w stanie dokonywać ocen, więc czynnik ludzki będzie nadal decydujący podczas pracy z maszynami.
Istnieje wiele technologii opartych na sztucznej inteligencji, które wykorzystują zautomatyzowane rozwiązania, które należy przeszkolić, a szkolenie to zależy od wkładu ludzkiego. Dobrym przykładem są tłumaczenia maszynowe, które uzyskują dane wejściowe z dużej liczby tłumaczeń generowanych przez człowieka. Innym dobrym przykładem jest oprogramowanie do transkrypcji, które pobiera dane szkoleniowe z dokładnych transkrypcji wykonanych przez profesjonalnych ludzi dokonujących transkrypcji. W ten sposób oprogramowanie jest stopniowo ulepszane, udoskonalając algorytmy na podstawie przykładów z życia. Osoby dokonujące transkrypcji czerpią korzyści z oprogramowania, ponieważ pomaga im ono w szybszym wykonywaniu transkrypcji. Oprogramowanie generuje wstępną, roboczą wersję transkrypcji, która jest następnie edytowana i poprawiana przez transkrybenta. Oszczędza to dużo czasu i oznacza, że finalny produkt zostanie dostarczony szybciej i będzie dokładniejszy.
2. Problem uprzedzeń
Wspaniałą rzeczą w algorytmach jest to, że zawsze podejmują uczciwe, nieobiektywne decyzje, w ostrym kontraście do subiektywnych i emocjonalnych ludzi. A może oni? Prawda jest taka, że proces podejmowania decyzji w przypadku każdego zautomatyzowanego oprogramowania zależy od danych, na których został on przeszkolony. Zatem istnieje ryzyko dyskryminacji w sytuacjach, gdy na przykład pewien segment populacji nie jest wystarczająco reprezentowany w wykorzystanych danych. Oprogramowanie do rozpoznawania twarzy jest już badane pod kątem niektórych z tych problemów, przypadki uprzedzeń już się pojawiły.
Doskonałym przykładem tego, jak stronnicza może być sztuczna inteligencja, jest COMPAS (Profilowanie kierownictwa przestępców w zakresie kar alternatywnych). Jest to narzędzie oceny ryzyka i potrzeb służące do przewidywania ryzyka recydywy wśród przestępców. To narzędzie oparte na algorytmie zostało zbadane, a wyniki wykazały, że dane COMPAS były poważnie obciążone rasowo. Na przykład, zgodnie z danymi, oskarżeni afroamerykańscy byli częściej błędnie oceniani jako narażeni na większe ryzyko recydywy niż inne rasy. Algorytm miał również tendencję do popełniania odwrotnego błędu w przypadku ludzi rasy białej.
Więc co się tutaj stało? Algorytm jest zależny od danych, więc jeśli dane są obciążone, oprogramowanie prawdopodobnie również poda błędne wyniki. Czasami ma to również coś wspólnego ze sposobem gromadzenia danych.
Technologia automatycznego rozpoznawania mowy może być również stronnicza w zależności od płci lub rasy, ponieważ dane treningowe niekoniecznie są wybierane w kwestii, która zapewniłaby wystarczającą integrację.
3. Obawy dotyczące bezpieczeństwa
Istnieją problemy ze sztuczną inteligencją, które są tak niebezpieczne, że mogą prowadzić do wypadków. Jednym z bardziej znanych przykładów zastosowanej technologii sztucznej inteligencji jest autonomiczny samochód. Wielu ekspertów uważa, że to przyszłość transportu. Jednak najważniejszą rzeczą, która utrudnia natychmiastowe wprowadzenie do ruchu samochodów autonomicznych, są ich awarie, które mogą zagrozić życiu pasażerów i pieszych. Dyskusja na temat zagrożeń, jakie autonomiczne pojazdy mogą stanowić na drogach, jest nadal bardzo aktualna. Są ludzie, którzy uważają, że wypadków mogłoby być mniej, gdyby na drogach dopuszczono samochody autonomiczne. Z drugiej strony istnieją badania, które wykazały, że mogą powodować wiele awarii, ponieważ wiele z ich działań będzie opierać się na preferencjach ustawionych przez kierowcę. Teraz projektanci muszą wybrać między bezpieczeństwem a życiem ludzi i preferencjami kierowcy (np. Średnia prędkość i inne nawyki związane z prowadzeniem pojazdu). Głównym celem autonomicznych samochodów w każdym przypadku powinno być zmniejszenie liczby wypadków samochodowych, poprzez wdrożenie wydajnych algorytmów AI i zaawansowanych czujników, które mogą wykrywać, a nawet przewidywać wszelkie możliwe scenariusze ruchu. Jednak rzeczywiste życie jest zawsze bardziej skomplikowane niż jakikolwiek program, więc ograniczenia tej technologii są nadal jednym z czynników ograniczających jej powszechne wdrażanie. Kolejnym problemem jest czynnik zaufania. Dla wielu osób z wieloletnim doświadczeniem w prowadzeniu samochodu powierzenie całego zaufania w cyfrowe ręce może być postrzegane jako akt symbolicznej kapitulacji wobec cyfrowych trendów. W każdym razie, dopóki to wszystko nie zostanie rozwiązane, niektóre zaawansowane rozwiązania technologiczne zostały już wdrożone w nowszych samochodach, a ludzcy kierowcy mogą korzystać z różnych czujników, rozwiązań wspomaganego hamowania i tempomatu.
4. Złośliwe cele
Technologia powinna służyć potrzebom ludzi i być wykorzystywana, aby uczynić ich życie łatwiejszym, przyjemniejszym i oszczędzać cenny czas każdego z nas. Czasami jednak technologia sztucznej inteligencji jest również wykorzystywana do złośliwych celów, co stanowi poważne zagrożenie dla naszego bezpieczeństwa fizycznego, cyfrowego i politycznego.
- Bezpieczeństwo fizyczne: Jednym z potencjalnych zagrożeń związanych ze sztuczną inteligencją, które z początku brzmi dość dramatycznie i może zmrozić cię do kości, jest potencjalna wojna między zaawansowanymi technologicznie krajami, prowadzona przez autonomiczne systemy uzbrojenia zaprogramowane do zabijania w najbardziej skuteczny i bezwzględny sposób. Dlatego niezwykle ważne jest uregulowanie rozwoju takiej technologii wojskowej poprzez traktaty, przepisy i sankcje w celu ochrony ludzkości przed złowieszczym ryzykiem wojny opartej na sztucznej inteligencji.
- Bezpieczeństwo cyfrowe: hakerzy już teraz stanowią zagrożenie dla naszego bezpieczeństwa cyfrowego, a oprogramowanie sztucznej inteligencji jest już wykorzystywane do zaawansowanego hakowania. Wraz z rozwojem takiego oprogramowania hakerzy będą skuteczniejsi w swoich wykroczeniach, a nasza tożsamość online będzie bardziej podatna na kradzież. Prywatność Twoich danych osobowych może być jeszcze bardziej zagrożona przez subtelne złośliwe oprogramowanie, oparte na sztucznej inteligencji i jeszcze bardziej niebezpieczne dzięki zastosowaniu głębokiego uczenia. Wyobraź sobie cyfrowego złodzieja, który czai się za Twoimi ulubionymi programami, z dnia na dzień staje się coraz bardziej przebiegły, ucząc się na milionach przykładów użycia oprogramowania z życia wziętych i tworząc złożone kradzieże tożsamości na podstawie tych danych.
- Bezpieczeństwo polityczne: w burzliwych czasach, w których żyjemy, strach przed fałszywymi wiadomościami i fałszywymi nagraniami jest całkiem uzasadniony. Sztuczna inteligencja może wyrządzić wiele szkód dzięki automatycznym kampaniom dezinformacyjnym, co może być niezwykle niebezpieczne podczas wyborów.
Podsumowując, możemy więc zadać sobie pytanie, ile szkód może nam wyrządzić sztuczna inteligencja i czy może wyrządzić ludzkości więcej szkody niż pożytku.
Eksperci twierdzą, że rozwój etyczny i organy regulacyjne odegrają główną rolę, jeśli chodzi o łagodzenie niedogodności, jakie sztuczna inteligencja może spowodować w naszym życiu. Cokolwiek się wydarzy, jesteśmy pewni, że w przyszłości będzie to miało ogromny wpływ na nasz świat.
Oprogramowanie do rozpoznawania mowy oparte na zaawansowanych protokołach AI jest już w użyciu i przynosi światu biznesu wiele korzyści: przepływ pracy jest szybszy i prostszy. Gglot jest dużym graczem w tej dziedzinie i mocno inwestujemy w dalszy rozwój naszej technologii.