მთავარი
კატეგორია
TV ლაივი მენიუ
Loading data...

AI რეგულაციები, Deep Fake-ები და “მიუნხენის შეთანხმება” - ინტერვიუ Microsoft-ის პრეზიდენტთან

მაიკროსოფტი

ტექნოლოგიური გიგანტის, Microsoft-ის პრეზიდენტი და ვიცე თავმჯდომარე ბრედ სმიტი Euronews-სთან ინტერვიუში ხელოვნური ინტელექტის უპირატესობებსა და მის განვითარებასთან დაკავშირებულ რისკებსა და შესაძლებლობებზე საუბრობს.

რომ დავუბრუნდეთ იმ დროს, როცა Microsoft-ში პირველად მოხვდით. 1993 წელში დაბრუნება და თქვენ თავთან გასაუბრება რომ შეგეძლოთ, რა იქნებოდა ის თანამედროვე მოწყობილობა თუ ტექნოლოგია, რომლის არსებობაც ყველაზე მეტად გაგაკვირვებდთ?

"რაც მაშინ გამაკვირვებდა, და სიმართლე რომ ითქვას, ახლაც მაქვს დღეები, როცა ჯერ კიდევ ვერ ვიჯერებ ბოლომდე, ისაა, თუ რამდენად შეიცვალა კომპიუტერული ტექნოლოგიები გლობალურ სკალაზე და რამდენად მასშტაბური გახდა მონაცემთა ცენტრები, რომლებიც სუპერკომპიუტერებს ერთმანეთთან აკავშირებს.

Microsoft-ს იმ პერიოდში შევუერთდი, როდესაც ლეპტოპები ჯერ კიდევ პატარავდებოდა, ტელეფონებზე ოცნება შეგვეძლო, თუმცა ის ჯერ არსებობდა, ყველაფერი დანარჩენი კი ზომაში მცირდებოდა. ახლა კი ხელოვნური ინტელექტის, მეტიც, ჩვენი ცხოვრების მთავარი ასპექტი, განუწყვეტელი, მუდმივი კავშირია. ამიტომ, ხშირად ვფიქრობ, რომ AI არის ისტორიაში ყველაზე მნიშვნელოვანი გამოგონება გონებისთვის, საბეჭდი დაზგის შემდეგ.

საბეჭდი დაზგით ადამიანებს წერისა და კითხვის საშუალება მიეცათ, რამაც ადამიანის აზროვნების განვითარების, მათი ნააზრევის გაზიარებისა და განათლების გავრცელების საშუალება გააჩინა. ხელოვნური ინტელექტი კი ხელსაწყოა, რომელსაც ამ ყველაფრის მიღწევა თავიდან შეუძლია. მიუხედავად უამრავი გამოგონებისა, რომელიც საბეჭდ დაზგასა და AI-ს შორის გვქონდა, ვერც ერთმა მათგანმა ასეთი მნიშვნელოვანი როლის შესრულება ვერ შეძლო, ეს ყველაფერი ჯერ კიდევ არაჩვეულებრივად მეჩვენება".

ხელოვნური ინტელექტის რეგულირებაზეც ვისაუბროთ - როგორ ფიქრობთ, როგორ უნდა განისაზღვროს ეს პოლიტიკა?

"ვფიქრობ, რეგულაციები საჭიროა. საინტერესოა, რომ ზოგჯერ ტექნოლოგიური ინდუსტრიის წარმომადგენლები გვაკვირდებიან ჩვენ, Microsoft-ს და უკვირთ, როგორ შეგვიძლია ამ სექტორის ნაწილი ვიყოთ და ვფიქრობდეთ, რომ რეგულაციები კარგია. თუმცა ჩვენ ვცხოვრობთ ისეთ სამყაროში, სადაც ძალიან ჯანსაღი ბაზარი და დინამიკური კონკურენცია გვაქვს. გარდა ამისა, დღეს, რაღაც დოზით მაინც, უსაფრთხოების რეგულაციები ნებისმიერ პროდუქტს ეხება. როდესაც სუპერმარკეტში შედიხართ და თაროზე რძის რამდენიმე სახეობა დევს, იქნება ეს ულაქტოზო, თუ ლაქტოზიანი, ნუშის თუ შოკოლადის, იცით, რომ ნებისმიერი მათგანი უსაფრთხოა. არ გიწევს დაფიქრება, რომელიმეს ყიდვა ხომ არ გავნებს, რადგან ზუსტად იცი, რომ თითოეულს შესაბამისი შემოწმება აქვს გავლილი და სტანდარტებს შეესაბამებიან.

თუ ხელოვნური ინტელექტი ყველაზე ძლევამოსილი ტექნოლოგიაა სამყაროში, ისიც მინიმუმ იმდენად არ უნდა კონტროლდებოდეს, რამდენადაც რძის ნაწარმი? თუ ამ საკითხს ასე შევხედავთ, ვიაზრებთ, რომ საჭიროა, ნებისმიერი ინოვაცია ბაზარზე უსაფრთხოების სტანდარტის დაცვის შემდეგ მოხვდეს".

რა რისკები არსებობს იმ შემთხვევაში, თუ ამ პროცესს არასწორად წარვმართავთ?

"როგორც კაცობრიობის ისტორიაში პირველმა თაობამ, რომელიც იმ ტექნოლოგიებს ქმნის, რაც ადამიანების კეთილდღეობისთვისაა საჭირო, ყველაფერი სწორად უნდა გავაკეთოთ. თუ ჩვენ ყველაფერს სწორად გავაკეთებთ, ჩვენს შემდეგ შეიძლება მოვიდნენ თაობები, რომლებიც შეცდომას დაუშვებენ და ეს პრობლემა არ იქნება, მაგრამ თუ ჩვენ შეგვეშალა, მაშინ უბრალოდ ჩვენ თვითონვე ვთხრით ორმოს, საიდან ამოსასვლელადაც მომავალ თაობებს დიდი შრომა დასჭირდებათ, ჩვენ კი ამის თავიდან არიდება გვინდა.

შეცდომის დაშვება ორი გზით შეგვიძლია: თუ ძალიან ცოტა რეგულაცია გვექნება, ადამიანები პროდუქტის წარმოებას სრულყოფილი გააზრების გარეშე დაიწყებენ, რითაც ადამიანების უფლებებსა და უსაფრთხოებას რისკის ქვეშ ვაყენებთ. ამავდროულად, თუ ზედმეტად ბევრი რეგულაცია გვექნება, მაშინ ტექნოლოგიური წინსვლა არაპრაქტიკული გახდება. ევროპის მსგავს ადგილებში მძიმე რეგულაციებმა, შესაძლოა, სტარტაპების გადინება და, მაგალითად, შეერთებულ შტატებში გადასვლა გამოიწვიოს, რაც AI ადაპტაციის ტემპს შეანელებს. არსებობს რისკიც, რომ ეკონომიკის იმ დარგების განვითარებაც შეაფერხოს, რომლებსაც ამისთვის AI სჭირდებათ, იმისთვის რომ გლობალურად კონკურენტუნარიანი და წარმატებული იყვნენ. ამიტომ გვჭირდება, რომ ოქროს შუალედი ვიპოვოთ".

თქვენი ინტერვიუ წავიკითხე, სადაც ხელოვნური ინტელექტის Deep Fake-ებისთვის გამოყენებისა და საარჩევნო პროცესზე გავლენის მოხდენის შიშზე საუბრობდით. როგორ ფიქრობთ, “მიუნხენის შეთანხმება”, რომელიც თებერვალში გაფორმდა, გვიცავს თუ არა ამ რისკებისგან?

"სამწუხაროდ, ნებისმიერი ახალი ტექნოლოგია შესაძლოა, ხელსაწყოც იყოს და იარაღიც. ეს რეალობაა და AI-იც ძალიან ძვირფასი იარაღია, თუმცა ყოველთვის იქნებიან ადამიანები, ვინც მისგან იარაღს შექმნიან. ამის ერთ-ერთი მაგალითი ეგრეთ წოდებული Deep Fake-ებია - ეს შესაძლოა იყოს ვიდეო, ფოტო ან აუდიო მასალა, რომელიც გგავს, შენი ხმა და სახე აქვს, მაგრამ - შენ არ ხარ. და როდესაც ამას საარჩევნო კონტექსტში განიხილავ, ხვდები, რომ ამის გაკეთება ნებისმიერი პოლიტიკური კანდიდატისთვის შეიძლება. კანდიდატისთვის, რომელსაც არასდროს უთქვამს ის, რასაც ამომრჩევლები ისმენენ და ხედავენ. ამასთან დაკავშირებით რამე უნდა მოგვემოქმედებინა და ასეც მოვიქეცით მიუნხენში, სადაც ტექნოლოგიური ინდუსტრიიდან 20-მდე კომპანია შევიკრიბეთ და შევთანხმდით, რომ კონტენტის ავთენტიკურობის დასაცავად ვიშრომებდით, Deep Fake-ებს კი ამოვიცნობდით და წავშლიდით, რითაც მაყურებლის შეცდომაში შეყვანას ავირიდებთ თავიდან და მთელს ინვესტიციას მათი განათლებისკენ მივმართავთ. ვფიქრობ, სწორედ ეს გვჭირდება იმაში დასარწმუნებლად, რომ წლევანდელ საარჩევნო პროცესს მაქსიმალურად დავიცავთ - ისევე როგორც, სამომავლოდ, მსოფლიო დემოკრატიას".

მიუნხენის უსაფრთხოების საერთაშორისო კონფერენციაზე 20-მა ტექნოლოგიურმა კომპანიამ შეთანხმებას ხელი 16 თებერვალს მოაწერეს. ხელმომწერთა შორისაა Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok, და X - თითოეული მათგანი პირობას დებს, რომ საკუთარ პლატფორმებს ხელოვნური ინტელექტის მავნე გამოყენებისგან დაიცავენ.