Potenciální rizika umělé inteligence

Jaká jsou potenciální rizika umělé inteligence?

Umělá inteligence neboli AI, jak se jí také často říká, je téma, o kterém se v posledním desetiletí hodně diskutovalo. Rychle se vyvíjí a usnadňuje a zefektivňuje pracovní postup většiny podniků. I v každodenním životě mnoha lidí umělá inteligence ukázala velký potenciál a je již implementována v mnoha různých aplikacích, což usnadňuje a zkomplikuje život. AI nám přinesla mnoho výhod a věda připravuje cestu pro mnohem více, takže bude možné říci, že AI bude v budoucnu nepostradatelná, pokud již není.

Ale stejně jako každá medaile má dvě strany, má i AI. Tato technologie také přichází s mnoha potenciálními riziky a nevýhodami. Mnoho odborníků a technických vůdců naší doby vyjadřuje své znepokojení nad problémy, které by umělá inteligence mohla v budoucnu způsobit, a proto musíme být opatrní při řešení těchto problémů, dokud je stále možné napravit. Co tím myslíme?

Existuje spousta věcí, které je třeba vzít v úvahu v souvislosti s těmito konkrétními problémy. V tomto článku se pokusíme popsat některá rizika, která by náš svět mohl oslnivě rychlý vývoj umělé inteligence přinést, a jaká opatření je třeba přijmout, abychom tento pokrok mohli sledovat a vést správným směrem.

1. Pracovní místa

Bez názvu 13

Jsme si jisti, že každý už měl příležitost slyšet nebo číst o potenciálním zacházení, které by stroje a automatizace mohly představovat starým pracovištěm na lidských pracovištích. Někteří lidé mohou trpět různým stupněm úzkosti z toho, že jim stroje kradou práci. Tento strach může být opodstatněný, automatizace práce je pro mnoho lidí velkým rizikem: asi 25% Američanů by mohlo přijít o práci, protože v určitém okamžiku je budou moci stroje nahradit. Zvláště ohrožené jsou pozice s nízkými mzdami, ve kterých člověk dělá opakující se úkoly, jako jsou práce ve správě nebo stravování. Avšak dokonce i někteří absolventi vysokých škol jsou v ohrožení, pokročilé algoritmy strojového učení by je mohly nahradit v některých složitých pracovních pozicích, protože se zdokonalují, zejména díky využití neuronových sítí a hlubokého učení.

Ale nemůžeme opravdu říci, že roboti úplně vytlačí lidi z trhu práce. Zaměstnanci se prostě budou muset přizpůsobit, vzdělávat se a najít způsob, jak pracovat pomocí spolupráce s AI, přičemž budou co nejlépe využívat její efektivitu a mechanickou logiku. AI není stále dokonalá, například není schopna provádět úsudky, takže při práci vedle strojů bude stále rozhodující lidský faktor.

Existuje spousta technologií založených na AI, které používají automatizovaná řešení, která je třeba proškolit, a toto školení závisí na lidském vstupu. Dobrým příkladem jsou strojové překlady, které získávají vstup z velkého počtu překladů generovaných člověkem. Dalším dobrým příkladem je software pro přepis, který získává tréninková data z přesných přepisů prováděných profesionálními přepisovači lidí. Tímto způsobem se software postupně vylepšuje a zdokonaluje své algoritmy na příkladech z reálného života. Lidské přepisovače těží ze softwaru, protože jim pomáhá rychleji přepisovat. Software generuje hrubou verzi konceptu přepisu, kterou pak přepisovatel upravuje a opravuje. To šetří spoustu času a znamená, že konečný produkt bude nakonec dodán rychleji a bude přesnější.

2. Problém zaujatosti

Skvělá věc na algoritmech je, že vždy dělají spravedlivá, neobjektivní rozhodnutí, v ostrém kontrastu se subjektivními a emocionálními lidmi. Nebo ano? Pravdou je, že rozhodovací proces jakéhokoli automatizovaného softwaru závisí na datech, na která byli vyškoleni. Existuje tedy riziko diskriminace v případech, kdy například určitá část populace není v použitých datech dostatečně zastoupena. Software pro rozpoznávání obličeje je již vyšetřován pro některé z těchto problémů, případy zaujatosti již nastaly.

Jedním ze skvělých příkladů toho, jak může být umělá inteligence zaujatá, je COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Toto je nástroj pro hodnocení rizik a potřeb pro predikci rizika recidivy mezi pachateli. Tento nástroj založený na algoritmu byl zkoumán a výsledky ukázaly, že data COMPAS byla vážně rasově předpojatá. Například podle údajů bylo pravděpodobnější, že u afroamerických obžalovaných bude nesprávně posouzeno vyšší riziko recidivy než u jiných ras. Algoritmus měl také tendenci dělat opačnou chybu u lidí bílé rasy.

Co se tady stalo? Algoritmus je závislý na datech, takže pokud jsou data zkreslená, software pravděpodobně poskytne zkreslené výsledky také. Někdy to má něco společného s tím, jak byla data shromážděna.

Technologie automatického rozpoznávání řeči může být také ovlivněna v závislosti na pohlaví nebo rase kvůli skutečnosti, že tréninková data nemusí být nutně vybrána v hmotě, která by zajistila dostatečnou inkluzivitu.

3. Obavy o bezpečnost

Bez názvu 22

Existují problémy s umělou inteligencí, které jsou tak nebezpečné, že mohou vést k nehodám. Jedním z nejvýznamnějších příkladů aplikované technologie AI je auto s vlastním pohonem. Mnoho odborníků se domnívá, že toto je budoucnost dopravy. Ale hlavní věcí, která brání okamžitému zavedení automobilů s vlastním pohonem do provozu, jsou její poruchy, které by mohly ohrozit život cestujících a chodců. Diskuse o hrozbě, kterou mohou autonomní vozidla představovat na silnicích, je stále velmi aktuální. Existují lidé, kteří si myslí, že by mohlo dojít k menším nehodám, pokud by na silnici byla povolena auta s vlastním pohonem. Na druhou stranu existují studie, které ukázaly, že by mohly způsobit spoustu havárií, protože mnoho z jejich akcí bude založeno na předvolbách nastavených ovladačem. Nyní je na návrhářích, aby si vybrali mezi bezpečností a životem lidí a preferencemi jezdce (jako je průměrná rychlost a některé další jízdní návyky). Hlavním cílem samojízdných automobilů by v každém případě mělo být snižování automobilových nehod prostřednictvím implementace účinných algoritmů umělé inteligence a pokročilých senzorů, které dokážou detekovat a dokonce předvídat možné dopravní scénáře. Skutečný život je však vždy komplikovanější než jakýkoli program, takže omezení této technologie jsou stále jedním z omezujících faktorů pro její rozsáhlou implementaci. Dalším problémem je faktor důvěry. Pro mnoho lidí s dlouholetými řidičskými zkušenostmi může být vložení veškeré důvěry do digitálních rukou považováno za akt symbolické kapitulace digitálním trendům. V každém případě, dokud nebude vše vyřešeno, některá pokročilá technologická řešení již byla implementována do novějších automobilů a řidiči mohou těžit z různých senzorů, řešení asistovaného brzdění a tempomatů.

4. Škodlivé účely

Technologie by měla sloužit potřebám lidí a měla by být používána k tomu, aby jejich životy byly jednodušší, příjemnější a měla by každému ušetřit drahocenný čas. Ale někdy byla technologie AI také použita ke škodlivým účelům, a to způsobem, který představuje významné riziko pro naši fyzickou, digitální a politickou bezpečnost.

  • Fyzická bezpečnost: Jedním z potenciálních rizik AI, které na první pohled zní celkem dramaticky a které by vás mohly ochladit, je potenciální válka mezi technologicky vyspělými zeměmi, kterou provádějí autonomní zbraňové systémy naprogramované tak, aby zabíjely co nejefektivněji a bezohledně. Z tohoto důvodu je nesmírně důležité regulovat vývoj takové vojenské technologie prostřednictvím smluv, předpisů a sankcí, aby bylo lidstvo chráněno před zlověstným rizikem války založené na umělé inteligenci.
  • Digitální zabezpečení: Hackeři již představují hrozbu pro naši digitální bezpečnost a software AI se již používá pro pokročilé hackování. S vývojem takového softwaru budou hackeři účinnější ve svých přestupcích a naše online identita bude zranitelnější vůči krádeži. Soukromí vašich osobních údajů může být ještě více narušeno jemným malwarem, který je poháněn umělou inteligencí, a může být ještě nebezpečnější díky hlubokému učení. Představte si digitálního zloděje, který se skrývá v pozadí vašich oblíbených programů a je každým dnem mazanější, poučuje se z miliónů skutečných příkladů používání softwaru a na základě těchto dat vytváří složité krádeže identity.
Bez názvu 32
  • Politická bezpečnost: v bouřlivých dobách, ve kterých žijeme, je strach z falešných zpráv a podvodných nahrávek zcela oprávněný. AI může způsobit velké škody automatizovanými dezinformačními kampaněmi, které mohou být během voleb extrémně nebezpečné.

Na závěr bychom si tedy mohli položit otázku, jaké škody by nám umělá inteligence mohla způsobit, a může lidstvu způsobit více škody než užitku.

Odborníci tvrdí, že etický vývoj a regulační orgány budou hrát hlavní roli při zmírňování nevýhod, které by umělá inteligence mohla způsobit našim životům. Ať se stane cokoli, jsme si jisti, že to v budoucnu bude mít obrovský dopad na náš svět.

Software pro rozpoznávání řeči založený na pokročilých protokolech AI se již používá a přináší obchodnímu světu mnoho výhod: pracovní postupy jsou rychlejší a jednodušší. Gglot je v této oblasti velkým hráčem a my investujeme značné prostředky do dalšího vývoje naší technologie.