მთავარი
კატეგორია
TV ლაივი მენიუ
Loading data...

“დეზინფორმაცია დიდ პრობლემად ყალიბდება” - OpenAI-ის დამფუძნებელი

სემ ოლტმენი

ხელოვნური ინტელექტის კრიტიკოსები, ამ ტექნოლოგიის საწინააღმდეგოდ ერთ უნივერსალურ არგუმენტს იყენებენ, რომელიც დეზინფორმაციის წახალისებას გულისხმობს. როგორც კრიტიკოსები ამბობენ, გენერაციული ხელოვნური ინტელექტის დახმარებით ისეთი ტექსტის, სურათებისა თუ ვიდეოს შექმნა შეიძლება, რომელსაც ადამიანის შეცდომაში შეყვანა ისეთნაირად შეუძლია, რომ ადამიანი მის რეალურობაში ეჭვსაც არ შეიტანს. თან ამ ტექნოლოგიას, როგორც კრიტიკოსები ამბობენ, დეზინფორმაციის მასშტაბირებაც შეუძლია.

ხელოვნური ინტელექტის მიმართ არსებულ კრიტიკას გამოეხმაურა ChatGPT-ის შემქმნელი OpenAI-ის დამფუძნებელი, სემ ოლტმენი. როგორც ამერიკელმა ანტერპრენიორმა Bloomberg-თან ინტერვიუში განაცხადა, თანამედროვე სამყაროში დეზინფორმაცია მართლაც დიდ პრობლემად ყალიბდება, მაგრამ მის გავრცელებაზე პასუხისმგებლობას მხოლოდ ის კომპანიები ვერ აიღებენ, რომლებიც ხელოვნური ინტელექტის მოდელებს ქმნიან, რადგან პასუხისმგებლობის დიდი წვლილი - სოციალურ ქსელებზეც მოდის.

“ვფიქრობ, დეზინფორმაცია დიდ პრობლემად ყალიბდება, მაგრამ ამასთან, ეს რთული კატეგორიაც არის, რადგან ბევრჯერ გვიწოდებია დეზინფორმაცია იმისთვის, რაც სიმართლე აღმოჩნდა და ბევრჯერ გაგვიგდია ადამიანი პლატფორმიდან იმის თქმის გამო, რაც სიმართლე აღმოჩნდა. ბალანსი უნდა ვიპოვოთ, რომელიც შესაძლებლობას მოგვცემს, ზოგჯერ, არ ვიყოთ მართლები, მაგრამ შევძლოთ, მნიშვნელოვანი ინფორმაცია აღმოვაჩინოთ და არ ვთქვათ, რომ ყველაფერი ეს გამიზნული დეზინფორმაციაა, რომლის მიზანი - მანიპულაციაა. თუმცა ის ადამიანები, რომლებიც გამიზნულად მანიპულირებენ, პრობლემას ქმნიან და ტექნოლოგიის განვითარებასთან ერთად, ამას უფრო ხშირად ვხედავთ.

ადამიანები დეზინფორმაციაში ისედაც გაწვრთნილები არიან და GPT-მოდელები ამ პროცესს უფრო მარტივს ხდის, მაგრამ ეს არ არის ის, რაც მაშინებს. ხელოვნურ ინტელექტს ხშირად სოციალურ მედიას ადარებენ, მაგრამ ეს ორი ტექნოლოგია რადიკალურად განსხვავებულია. GPT-4-ის გამოყენებით ნებისმიერი სახის დეზინფორმაციული მასალის მომზადება შეგიძლიათ, მაგრამ თუ მას პირადი მოხმარებისთვის იყენებთ და არ აზიარებთ, ეფექტი არ ექნება. ამგვარად, მნიშვნელოვანია არხები, სადაც დეზინფორმაცია ვრცელდება”, - განაცხადა სემ ოლტმენმა Bloomberg-თან საუბრისას.

ინტერვიუერის კითხვაზე - რა უნდა მოიმოქმედოს OpenAI-მ იმისთვის, რომ ადამიანები დეზინფორმაციისგან დაიცვას, სემ ოლტმენი საკანონმდებლო ჩარჩოს შეცვლაზე აპელირებს და ამბობს, რომ განათლებაც მნიშვნელოვანი ფაქტორია.

“არსებობს საკანონმდებლო დეტალები, რომელთაც გარკვეული პრობლემების მოგვარება შეუძლიათ, მაგრამ მთავარი გადაწყვეტა - ადამიანების განათლებაა. ეს პროცესი ერთხელ უკვე გამოვიარეთ, როცა Photoshop-ი პოპულარული გახდა. იმ დროს, ადამიანები ამბობდნენ, რომ რაღაც თუ ნახეს, ესე იგი, ის სიმართლე უნდა იყოს, მაგრამ მოგვიანებით ყველა მიხვდა, რომ ეს ასე არ არის. ზოგიერთი “დაფოტოშოპებულ” სურათებს დღესაც ვერ არჩევს, მაგრამ ზოგადი ცოდნა ისაა, რომ ფოტოს თუ ხედავ, შესაძლოა, ის შეცვლილი იყოს. იგივე რაღაც მოხდება ამ ახალ ტექნოლოგიებთან მიმართებით, მაგრამ რაც უფრო ადრე ვასწავლით ადამიანებს, მით უკეთესი იქნება”, - აღნიშნა OpenAI-ის დამფუძნებელმა Bloomberg-თან საუბრისას.