Potenziell Risiken vu kënschtlecher Intelligenz

Wat sinn e puer potenziell Risike vu kënschtlecher Intelligenz?

Kënschtlech Intelligenz, oder AI wéi et och dacks bezeechent gëtt, ass en Thema dat an de leschte Jorzéngt vill diskutéiert gouf. Et entwéckelt sech séier, mécht den Workflow vun de meeschte Geschäfter méi einfach a méi effizient. Och am Alldag vu ville Leit huet AI e grousst Potenzial gewisen a gëtt scho a ville verschiddenen Apps ëmgesat, wat d'Liewe méi einfach a manner komplizéiert mécht. AI huet vill Virdeeler fir eis bruecht an d'Wëssenschaft mécht de Wee fir vill méi ze kommen, sou datt et sécher ass ze soen datt AI an Zukunft onverzichtbar wäert sinn, wann et net schonn ass.

Awer sou wéi all Medaille zwou Säiten huet, huet och AI. Dës Technologie kënnt och mat vill potenziell Risiken an Nodeeler. Vill Experten an technesch Meeschterinnen vun eiser Zäit äusseren hir Bedenken iwwer d'Problemer déi AI an der Zukunft kéint verursaachen an dofir musse mir virsiichteg sinn dës Themen unzegoen, während se nach ëmmer korrigéiert kënne ginn. Wat mengen mir domat?

Et gi vill Saachen déi musse berücksichtegt ginn a Bezuch op dës speziell Themen. An dësem Artikel wäerte mir probéieren e puer vun de Risiken ze beschreiwen, déi déi blendend séier Entwécklung vun AI op eis Welt bréngt a wéi eng Moossname musse geholl ginn fir dee Fortschrëtt an déi richteg Richtung ze iwwerwaachen an ze guidéieren.

1. Aarbechtsplazen

Untitled 13

Mir si sécher datt jidderee schonn d'Méiglechkeet hat iwwer de potenzielle Genoss ze héieren oder ze liesen, déi Maschinnen an Automatisatioun op al Schoul, mënschlech baséiert Aarbechtsplazen presentéiere kënnen. E puer Leit kënne vu verschiddene Grad vu Besuergnëss leiden iwwer Maschinnen déi hir Aarbecht klauen. Déi Angscht kéint gutt begrënnt sinn, Aarbechtsautomatiséierung ass e grousse Risiko fir vill Leit: ongeféier 25% vun den Amerikaner kënnen hir Aarbecht verléieren, well iergendwann kënnen Maschinnen se ersetzen. Besonnesch a Gefor sinn niddereg-Léin Positiounen an deenen eng Persoun repetitive Aufgaben mécht, wéi Aarbechtsplazen an Administratioun oder Liewensmëttel-Service. Wéi och ëmmer, och e puer Uni Graduéierter sinn a Gefor, fortgeschratt Maschinn Léieren Algorithmen kënnen se an e puer komplexe Aarbechtspositioune ersetzen well se méi raffinéiert ginn, besonnesch duerch d'Benotzung vun neuralen Netzwierker an Deep Learning.

Awer mir kënnen net wierklech soen datt Roboter d'Mënsche komplett vum Aarbechtsmaart erausdrécken. D'Mataarbechter mussen einfach upassen, sech selwer educéieren an e Wee fannen fir ze schaffen andeems se mat AI kooperéieren, déi beschtméiglech Notzung vu senger Effizienz a mechanescher Logik maachen. AI ass nach ëmmer net perfekt, zum Beispill ass et net fäeg Uerteeler ze maachen, sou datt de mënschleche Faktor nach ëmmer entscheedend ass wann Dir niewent Maschinnen schafft.

Et gëtt vill AI baséiert Technologie déi automatiséiert Léisunge benotzt déi trainéiert musse ginn an dës Ausbildung hänkt vum mënschlechen Input of. E gutt Beispill fir dëst si Maschinn Iwwersetzungen déi Input vu grousser Zuel vu mënschlech generéierten Iwwersetzunge kréien. En anert gutt Beispill ass Transkriptiounssoftware déi Trainingsdaten aus korrekten Transkriptioune kritt vu professionnelle mënschlechen Transkriptioune gemaach. Op dës Manéier gëtt d'Software lues a lues verbessert, seng Algorithmen duerch richtege Beispiller verfeinert. Mënschlech Transkriptioune profitéiere vun der Software well et hinnen hëlleft Transkriptiounen méi séier ze maachen. D'Software generéiert eng rau, Entworf Versioun vum Transkript, deen dann vum Transcriber geännert a korrigéiert gëtt. Dëst spuert vill Zäit, a bedeit datt um Enn de Schlussprodukt méi séier geliwwert gëtt a méi genee ass.

2. De Problem vun Bias

Eng super Saach iwwer Algorithmen ass datt se ëmmer fair, net-biaséiert Entscheedungen treffen, am schaarfe Kontrast zu subjektiven an emotionale Mënschen. Oder maachen se? D'Wourecht ass datt den Entscheedungsprozess vun all automatiséierter Software hänkt vun den Daten of op déi se trainéiert goufen. Also, et besteet e Risiko vun Diskriminatioun an Geleeënheeten, wou zum Beispill e bestëmmte Segment vun der Bevëlkerung net genuch an de benotzten Donnéeën vertrueden ass. Gesiichtserkennungssoftware gëtt scho fir e puer vun dëse Probleemer ënnersicht, Fäll vu Bias si scho geschitt.

E super Beispill vu wéi partizipativ déi kënschtlech Intelligenz ka sinn ass COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Dëst ass e Risiko-a-Bedierfnes Bewäertungsinstrument fir d'Prognose vum Réckzuchsrisiko ënner Täter. Dëst Algorithmus-baséiert Tool gouf ënnersicht an d'Resultater hu gewisen datt d'COMPAS Daten eescht rassistesch partizipéiert waren. Zum Beispill, laut den Donnéeën, Afro-Amerikanesch Bekloten ware méi wahrscheinlech falsch beurteelt fir e méi héije Risiko vu Réckzuch wéi aner Rennen ze hunn. Den Algorithmus huet och tendéiert de Géigendeel Feeler mat Leit vu wäisser Rass ze maachen.

Also, wat ass hei geschitt? Den Algorithmus ass datenabhängig also wann d'Donnéeën partiell sinn, wäert d'Software och viraussiichtlech Resultater ginn. Heiansdo huet et och eppes mat ze dinn wéi d'Donnéeë gesammelt goufen.

Automatiséiert Speech Recognition Technologie kann och partiell sinn ofhängeg vu Geschlecht oder Rass wéinst der Tatsaach datt Trainingsdaten net onbedéngt ausgewielt ginn an der Matière déi genuch Inklusivitéit garantéieren.

3. Sécherheet Suergen

Untitled 2 2

Et ginn e puer Probleemer mat kënschtlecher Intelligenz, déi sou geféierlech sinn, datt se zu Accidenter féieren. Ee vun de méi prominente Beispiller vun ugewandter AI Technologie ass de selbstfahrenden Auto. Vill Experten gleewen datt dëst d'Zukunft vum Transport ass. Awer d'Haaptsaach, déi d'direkt Ëmsetzung vu selbstfahrenden Autoen am Traffic behënnert, sinn hir Feelfunktioune, déi d'Liewe vu Passagéier a Foussgänger a Gefor bréngen. D'Debatt iwwer d'Gefor déi autonom Gefierer op de Stroosse kéinte stellen ass nach ëmmer ganz aktuell. Et gi Leit, déi mengen, datt et manner Accidenter kéinte ginn, wann selbstfahrend Autoen op d'Strooss dierfen. Op der anerer Säit ginn et Studien déi gewisen hunn datt se vill Accidenter verursaache kënnen, well vill vun hiren Aktiounen op de Virléiften vum Chauffer baséieren. Elo ass et un d'Designer ze wielen tëscht Sécherheet an dem Liewen vun de Leit a Fuerervirléiften (wéi duerchschnëttlech Geschwindegkeet an e puer aner Fahrgewunnechten). D'Haaptzil vu selbstfueren Autoen soll op alle Fall d'Reduktioun vun Autosaccidenter sinn, duerch d'Ëmsetzung vun effizienten AI Algorithmen a fortgeschratt Sensoren, déi all méiglech Verkéiersszenarie kënnen erkennen a souguer viraussoen. Wéi och ëmmer, richtegt Liewen ass ëmmer méi komplizéiert wéi all Programm, sou datt d'Aschränkungen vun dëser Technologie nach ëmmer ee vun de limitéierende Faktore fir seng verbreet Ëmsetzung sinn. En anere Problem ass de Faktor vum Vertrauen. Fir vill Leit mat Joeren a Joere Fuererfahrung, all Vertrauen an digital Hänn ze setzen kéint als en Akt vu symbolescher Kapitulatioun fir digital Trends gesi ginn. Op alle Fall, bis dat alles geléist ass, sinn e puer fortgeschratt technologesch Léisungen schonn an méi nei Autoen ëmgesat ginn, a mënschlech Chauffeuren kënne vu verschiddene Sensoren, assistéierte Bremsléisungen a Cruise Controls profitéieren.

4. Béiswëlleg Zwecker

D'Technologie soll de Besoine vun de Leit déngen a benotzt ginn fir hiert Liewen méi einfach, méi agreabel ze maachen an et soll jidderengem seng wäertvoll Zäit spueren. Awer heiansdo AI Technologie gouf och fir béiswëlleg Zwecker benotzt, op eng Manéier déi e wesentleche Risiko fir eis kierperlech, digital a politesch Sécherheet duerstellt.

  • Physikalesch Sécherheet: Ee potenzielle Risiko vun AI, deen am Ufank zimlech dramatesch kléngt an Iech bis op d'Schanken ka killen ass e potenzielle Krich tëscht technologesch fortgeschratt Länner, duerchgefouert vun autonome Waffesystemer programméiert fir op déi effizientsten an onrouegst Manéier ëmzebréngen. Dofir ass et extrem wichteg d'Entwécklung vun esou militäreschen Technologien duerch Verträg, Reglementer a Sanktiounen ze regléieren, fir d'Mënschheet vum ominéise Risiko vun AI baséiert Krich ze schützen.
  • Digital Sécherheet: Hacker si scho eng Bedrohung fir eis digital Sécherheet an AI Software gëtt scho fir fortgeschratt Hacking benotzt. Mat der Entwécklung vun esou Software wäerten Hacker méi effizient an hire Mëssbrauch sinn an eis Online Identitéit wäert méi vulnérabel fir Déifstall sinn. Privatsphär vun Äre perséinlechen Donnéeën kéint nach méi kompromittéiert ginn duerch subtile Malware, ugedriwwe vun AI an nach méi geféierlech gemaach duerch d'Benotzung vun Deep Learning. Stellt Iech en digitalen Déif vir, deen am Réck vun Äre Liiblingsprogrammer lauert, Dag fir Dag méi lëschteg gëtt, vu Millioune richtege Liewen Beispiller vu Softwarenotzung léiert a komplex Identitéitsklau baséieren op dës Donnéeën.
Untitled 3 2
  • Politesch Sécherheet: an deenen turbulenten Zäiten, an deenen mir liewen, ass d'Angscht viru Fake News a betrügeresch Opzeechnunge ganz gerechtfäerdegt. AI kéint vill Schued maachen duerch automatiséiert Desinformatiounskampagnen, déi extrem geféierlech kënne wärend Wahlen.

Also, fir ofzeschléissen, kënne mir eis d'Fro stellen, wéi vill Schued kënschtlech Intelligenz eis kéint maachen a kann et der Mënschheet méi Schued maachen wéi gutt.

Experten soen datt ethesch Entwécklung a Reguléierungsorganer eng grouss Roll spillen wann et drëm geet d'Nodeeler ze reduzéieren, déi kënschtlech Intelligenz fir eist Liewen verursaache kann. Wat och ëmmer geschitt, mir si sécher datt et an Zukunft e groussen Impakt op eis Welt wäert hunn.

Speech Unerkennung Software, baséiert op fortgeschratt AI Protokoller gëtt scho benotzt, an et bréngt vill Virdeeler fir d'Geschäftswelt: Workflows si méi séier a méi einfach. Gglot ass e grousse Spiller an dësem Beräich a mir investéiere staark fir eis Technologie weider ze entwéckelen.