Ხელოვნური ინტელექტის პოტენციური რისკები
Რა არის ხელოვნური ინტელექტის ზოგიერთი პოტენციური რისკი?
Ხელოვნური ინტელექტი, ან AI, როგორც მას ასევე ხშირად მოიხსენიებენ, არის თემა, რომელიც ბევრს განიხილავენ ბოლო ათწლეულში. ის სწრაფად ვითარდება, რაც ბიზნესის უმეტესობის სამუშაო პროცესს უფრო მარტივს და ეფექტურს ხდის. ბევრი ადამიანის ყოველდღიურ ცხოვრებაშიც კი, ხელოვნურმა ინტელექტუალმა აჩვენა დიდი პოტენციალი და უკვე დანერგილია მრავალ სხვადასხვა აპლიკაციაში, რაც ცხოვრებას ამარტივებს და ნაკლებად ართულებს. ხელოვნურმა ინტელექტუალმა ბევრი უპირატესობა მოგვიტანა და მეცნიერება კიდევ უფრო მეტს გვიხსნის გზას, ასე რომ, თამამად შეიძლება ითქვას, რომ ხელოვნური ინტელექტი შეუცვლელი იქნება მომავალში, თუ ეს უკვე არ არის.
Მაგრამ როგორც ყველა მედალს აქვს ორი მხარე, ასევე აქვს ხელოვნური ინტელექტი. ამ ტექნოლოგიას ასევე გააჩნია მრავალი პოტენციური რისკი და უარყოფითი მხარე. ბევრი ექსპერტი და ჩვენი დროის ტექნიკური ოსტატი გამოხატავს თავის შეშფოთებას იმ პრობლემების გამო, რომლებიც შეიძლება გამოიწვიოს ხელოვნურმა ინტელექტუალმა მომავალში და ამიტომ ჩვენ ფრთხილად უნდა ვიყოთ ამ საკითხების გადასაჭრელად, სანამ მათი გამოსწორება ჯერ კიდევ შესაძლებელია. რას ვგულისხმობთ ამაში?
Ბევრი რამ არის გასათვალისწინებელი ამ კონკრეტულ საკითხებთან დაკავშირებით. ამ სტატიაში ჩვენ შევეცდებით აღვწეროთ ზოგიერთი რისკი, რომელიც შეიძლება მოიტანოს ჩვენს სამყაროში ხელოვნური ინტელექტის დამაბრმავებლად სწრაფმა განვითარებამ და რა ზომების მიღებაა საჭირო ამ პროგრესის მონიტორინგისა და სწორი მიმართულებით წარმართვისთვის.
1. სამუშაო ადგილები
Დარწმუნებული ვართ, რომ ყველას უკვე ჰქონდა შესაძლებლობა მოესმინა ან წაეკითხა პოტენციური სიამოვნების შესახებ, რომელიც შეიძლება წარმოადგინოს მანქანებმა და ავტომატიზაციამ ძველ სკოლაში, ადამიანებზე დაფუძნებულ სამუშაო ადგილებზე. ზოგიერთ ადამიანს შეიძლება ჰქონდეს სხვადასხვა ხარისხის შფოთვა იმის გამო, რომ მანქანები იპარავენ მათ სამუშაოს. ეს შიში შეიძლება საფუძვლიანი იყოს, სამუშაოს ავტომატიზაცია დიდი რისკია მრავალი ადამიანისთვის: ამერიკელების დაახლოებით 25%-მა შეიძლება დაკარგოს სამსახური, რადგან რაღაც მომენტში მანქანები შეძლებენ მათ შეცვლას. განსაკუთრებით რისკის ქვეშ არის დაბალანაზღაურებადი პოზიციები, სადაც ადამიანი ასრულებს განმეორებით დავალებებს, როგორიცაა სამუშაო ადმინისტრაციაში ან კვების სერვისში. თუმცა, ზოგიერთ უნივერსიტეტის კურსდამთავრებულსაც კი საფრთხე ემუქრება, მოწინავე მანქანათმცოდნეობის ალგორითმები შესაძლოა შეცვალონ ისინი რთულ სამუშაო პოზიციებზე, რადგან ისინი უფრო დახვეწილი ხდებიან, განსაკუთრებით ნერვული ქსელების და ღრმა სწავლის გამოყენებით.
Მაგრამ ჩვენ ნამდვილად ვერ ვიტყვით, რომ რობოტები მთლიანად გამოდევნიან ადამიანებს სამუშაო ბაზრიდან. თანამშრომლებს უბრალოდ მოუწევთ მორგება, განათლება და მუშაობის გზა AI-სთან თანამშრომლობით, რაც შეიძლება მაქსიმალურად გამოიყენონ მისი ეფექტურობა და მექანიკური ლოგიკა. ხელოვნური ინტელექტი ჯერ კიდევ არ არის სრულყოფილი, მაგალითად, მას არ შეუძლია განსჯის მოწოდება, ამიტომ ადამიანური ფაქტორი მაინც გადამწყვეტი იქნება მანქანებთან მუშაობისას.
Არსებობს მრავალი ხელოვნური ინტელექტის დაფუძნებული ტექნოლოგია, რომელიც იყენებს ავტომატიზირებულ გადაწყვეტილებებს, რომლებიც საჭიროებს ტრენინგს და ეს ტრენინგი დამოკიდებულია ადამიანის შეყვანაზე. ამის კარგი მაგალითია მანქანური თარგმანები, რომლებიც იღებენ ინფორმაციას ადამიანის მიერ გენერირებული თარგმანების დიდი რაოდენობით. კიდევ ერთი კარგი მაგალითია ტრანსკრიფციის პროგრამა, რომელიც იღებს სასწავლო მონაცემებს პროფესიონალი ადამიანების გადამწერების მიერ შესრულებული ზუსტი ტრანსკრიფციებიდან. ამ გზით პროგრამული უზრუნველყოფა ნელ-ნელა იხვეწება, იხვეწება მისი ალგორითმები რეალური ცხოვრების მაგალითებით. ადამიანის გადამწერები სარგებლობენ პროგრამული უზრუნველყოფით, რადგან ის ეხმარება მათ ტრანსკრიპტების უფრო სწრაფად გაკეთებაში. პროგრამული უზრუნველყოფა ქმნის ტრანსკრიპტის უხეშ, საპროექტო ვერსიას, რომელიც შემდეგ რედაქტირდება და სწორდება გადამწერის მიერ. ეს დაზოგავს დიდ დროს და ნიშნავს, რომ საბოლოო ჯამში საბოლოო პროდუქტი უფრო სწრაფად და ზუსტი იქნება.
2. მიკერძოების პრობლემა
Ალგორითმების შესანიშნავი თვისება ის არის, რომ ისინი ყოველთვის იღებენ სამართლიან, მიუკერძოებელ გადაწყვეტილებებს, სუბიექტური და ემოციური ადამიანებისგან განსხვავებით. ან აკეთებენ? სიმართლე ის არის, რომ ნებისმიერი ავტომატიზირებული პროგრამული უზრუნველყოფის გადაწყვეტილების მიღების პროცესი დამოკიდებულია იმ მონაცემებზე, რომლებზეც ისინი სწავლობდნენ. ამრიგად, არსებობს დისკრიმინაციის რისკი იმ შემთხვევებში, როდესაც, მაგალითად, მოსახლეობის გარკვეული სეგმენტი საკმარისად არ არის წარმოდგენილი გამოყენებულ მონაცემებში. სახის ამოცნობის პროგრამული უზრუნველყოფა უკვე იკვლევს ზოგიერთ ამ პრობლემას, მიკერძოების შემთხვევები უკვე მოხდა.
Ერთ-ერთი შესანიშნავი მაგალითი იმისა, თუ რამდენად მიკერძოებული შეიძლება იყოს ხელოვნური ინტელექტი, არის COMPAS (კორექტირებულ დამნაშავეთა მენეჯმენტის პროფილი ალტერნატიული სანქციებისთვის). ეს არის რისკისა და საჭიროებების შეფასების ინსტრუმენტი დამნაშავეთა შორის რეციდივის რისკის პროგნოზირებისთვის. ეს ალგორითმზე დაფუძნებული ინსტრუმენტი იქნა გამოკვლეული და შედეგებმა აჩვენა, რომ COMPAS-ის მონაცემები სერიოზულად რასობრივი მიკერძოებული იყო. მაგალითად, მონაცემების მიხედვით, აფრო-ამერიკელ ბრალდებულებს უფრო მეტად არასწორად აფასებდნენ განმეორებითი მოქმედების უფრო მაღალი რისკის ქვეშ, ვიდრე სხვა რასები. ალგორითმი ასევე ცდილობდა საპირისპირო შეცდომის დაშვებას თეთრი რასის ადამიანებთან.
Მაშ, რა მოხდა აქ? ალგორითმი დამოკიდებულია მონაცემებზე, ასე რომ, თუ მონაცემები მიკერძოებულია, პროგრამული უზრუნველყოფა სავარაუდოდ მიკერძოებულ შედეგებსაც მისცემს. ზოგჯერ ეს ასევე დაკავშირებულია იმაზე, თუ როგორ შეგროვდა მონაცემები.
Მეტყველების ამოცნობის ავტომატური ტექნოლოგია ასევე შეიძლება იყოს მიკერძოებული სქესის ან რასის მიხედვით, იმის გამო, რომ ტრენინგის მონაცემები სულაც არ არის შერჩეული ისეთ საკითხებში, რომლებიც უზრუნველყოფენ საკმარის ინკლუზიურობას.
3. უსაფრთხოების საკითხები
Არსებობს ხელოვნური ინტელექტის პრობლემები, რომლებიც იმდენად საშიშია, რომ მათ შეუძლიათ უბედური შემთხვევები გამოიწვიოს. გამოყენებითი AI ტექნოლოგიის ერთ-ერთი ყველაზე თვალსაჩინო მაგალითია თვითმართვადი მანქანა. ბევრი ექსპერტი თვლის, რომ ეს არის ტრანსპორტის მომავალი. მაგრამ მთავარი, რაც აფერხებს თვითმართვადი მანქანების დაუყოვნებლივ დანერგვას მოძრაობაში, არის მისი გაუმართაობა, რამაც შესაძლოა საფრთხე შეუქმნას მგზავრებისა და ფეხით მოსიარულეთა სიცოცხლეს. დებატები საფრთხის შესახებ, რომელიც ავტონომიურმა მანქანებმა შეიძლება შექმნან გზებზე, ჯერ კიდევ ძალიან აქტუალურია. არიან ადამიანები, რომლებიც ფიქრობენ, რომ გზაზე თვითმართვადი მანქანების დაშვების შემთხვევაში ავარიები ნაკლები იქნება. მეორეს მხრივ, არის კვლევები, რომლებმაც აჩვენეს, რომ მათ შეუძლიათ გამოიწვიონ უამრავი ავარია, რადგან მათი ქმედებები მძღოლის მიერ დადგენილ პრეფერენციებზე იქნება დაფუძნებული. ახლა დიზაინერებს ევალებათ აირჩიონ უსაფრთხოება და ადამიანების სიცოცხლე და მხედრის პრეფერენციები (როგორიცაა საშუალო სიჩქარე და სხვა მართვის ჩვევები). თვითმართვადი მანქანების მთავარი მიზანი ნებისმიერ შემთხვევაში უნდა იყოს საავტომობილო ავარიების შემცირება ეფექტური AI ალგორითმებისა და მოწინავე სენსორების განხორციელების გზით, რომლებსაც შეუძლიათ ნებისმიერი შესაძლო საგზაო სცენარების აღმოჩენა და პროგნოზირებაც კი. თუმცა, რეალური ცხოვრება ყოველთვის უფრო რთულია, ვიდრე ნებისმიერი პროგრამა, ამიტომ ამ ტექნოლოგიის შეზღუდვები კვლავ ერთ-ერთი შემზღუდველი ფაქტორია მისი ფართოდ განხორციელებისთვის. კიდევ ერთი პრობლემა არის ნდობის ფაქტორი. მრავალი ადამიანისთვის, რომელსაც აქვს წლები და წლების მართვის გამოცდილება, მთელი ნდობის ციფრულ ხელში ჩაგდება შეიძლება ჩაითვალოს ციფრული ტენდენციებისადმი სიმბოლური კაპიტულაციის აქტად. ნებისმიერ შემთხვევაში, სანამ ეს ყველაფერი არ მოგვარდება, რამდენიმე მოწინავე ტექნოლოგიური გადაწყვეტა უკვე დანერგილია ახალ მანქანებში და ადამიანებს შეუძლიათ ისარგებლონ სხვადასხვა სენსორებით, დამუხრუჭების დამხმარე გადაწყვეტილებებით და კრუიზ კონტროლით.
4. მავნე მიზნები
Ტექნოლოგია უნდა ემსახურებოდეს ადამიანების მოთხოვნილებებს და გამოყენებული იყოს მათი ცხოვრების გასაადვილებლად, უფრო სასიამოვნოდ და უნდა დაზოგოს ყველას ძვირფასი დრო. მაგრამ ზოგჯერ ხელოვნური ინტელექტის ტექნოლოგია ასევე გამოიყენება მავნე მიზნებისთვის, ისე, რომ მნიშვნელოვან რისკს უქმნის ჩვენს ფიზიკურ, ციფრულ და პოლიტიკურ უსაფრთხოებას.
- Ფიზიკური უსაფრთხოება: ხელოვნური ინტელექტის ერთ-ერთი პოტენციური რისკი, რომელიც თავიდან საკმაოდ დრამატულად ჟღერს და შესაძლოა გაგიმშვიდოთ, არის პოტენციური ომი ტექნოლოგიურად განვითარებულ ქვეყნებს შორის, რომელიც განხორციელდება ავტონომიური იარაღის სისტემებით, რომლებიც დაპროგრამებულია მკვლელობაზე ყველაზე ეფექტური და დაუნდობელი გზით. სწორედ ამიტომ, ძალზე მნიშვნელოვანია ასეთი სამხედრო ტექნოლოგიების განვითარების რეგულირება ხელშეკრულებებით, რეგულაციებითა და სანქციებით, რათა დავიცვათ კაცობრიობა ხელოვნური ინტელექტის დაფუძნებული ომის საშინელი რისკისგან.
- Ციფრული უსაფრთხოება: ჰაკერები უკვე საფრთხეს უქმნიან ჩვენს ციფრულ უსაფრთხოებას და ხელოვნური ინტელექტის პროგრამული უზრუნველყოფა უკვე გამოიყენება გაფართოებული ჰაკერებისთვის. ასეთი პროგრამული უზრუნველყოფის შემუშავებით, ჰაკერები უფრო ეფექტურები იქნებიან თავიანთ ბოროტმოქმედებაში და ჩვენი ონლაინ იდენტობა უფრო დაუცველი იქნება ქურდობის მიმართ. თქვენი პერსონალური მონაცემების კონფიდენციალურობა შეიძლება კიდევ უფრო დაირღვეს დახვეწილი მავნე პროგრამით, რომელიც აღჭურვილია AI-ით და კიდევ უფრო საშიში გახდეს ღრმა სწავლის გამოყენებით. წარმოიდგინეთ ციფრული ქურდი, რომელიც იმალება თქვენი საყვარელი პროგრამების უკან, დღითიდღე უფრო ცბიერი ხდება, სწავლობს პროგრამული უზრუნველყოფის გამოყენების მილიონ რეალურ მაგალითს და ამ მონაცემებზე დაყრდნობით ახორციელებს პირადობის რთულ ქურდობას.
- Პოლიტიკური უსაფრთხოება: იმ ტურბულენტურ დროში, რომელშიც ჩვენ ვცხოვრობთ, ყალბი ამბების და თაღლითური ჩანაწერების შიში სავსებით გამართლებულია. AI-ს შეუძლია დიდი ზიანი მიაყენოს ავტომატური დეზინფორმაციის კამპანიებს, რაც შეიძლება უკიდურესად საშიში იყოს არჩევნების დროს.
Ასე რომ, დასკვნის სახით შეიძლება ვიკითხოთ საკუთარ თავს, რამხელა ზიანი შეიძლება მოგვაყენოს ხელოვნურმა ინტელექტმა და შეუძლია თუ არა კაცობრიობას მეტი ზიანი მიაყენოს, ვიდრე სარგებლობა.
Ექსპერტები აცხადებენ, რომ ეთიკური განვითარებისა და მარეგულირებელი ორგანოები მნიშვნელოვან როლს შეასრულებენ, როდესაც საქმე ეხება იმ უარყოფითი მხარეების შემსუბუქებას, რაც ხელოვნურმა ინტელექტმა შეიძლება გამოიწვიოს ჩვენს ცხოვრებაში. რაც არ უნდა მოხდეს, დარწმუნებულები ვართ, რომ მომავალში ის დიდ გავლენას მოახდენს ჩვენს სამყაროზე.
Მეტყველების ამოცნობის პროგრამული უზრუნველყოფა, რომელიც დაფუძნებულია AI-ის მოწინავე პროტოკოლებზე, უკვე გამოიყენება და მას ბევრი უპირატესობა მოაქვს ბიზნეს სამყაროში: სამუშაო ნაკადები უფრო სწრაფი და მარტივია. Gglot არის დიდი მოთამაშე ამ სფეროში და ჩვენ დიდ ინვესტიციას ვახორციელებთ ჩვენი ტექნოლოგიის შემდგომ განვითარებაში.