მთავარი
კატეგორია
TV ლაივი მენიუ
Loading data...

ვინ და რატომ მიიღო 2024 წლის ნობელის პრემია ფიზიკაში?

2024 ნობელის ლაურეატები ფიზიკაში

ნობელის კომიტეტმა ფიზიკის დარგში პრემიის 2024 წლის გამარჯვებულად ორი მეცნიერი დაასახელა, რომელთაც შექმნეს საფუძველი, რომელზედაც ხელოვნური ინტელექტის ტექნოლოგია არის დაშენებული.

ფიზიკის დარგში ყველაზე პრესტიჟული ჯილდო წელს ტორონტოს უნივერსიტეტის პროფესორს, ჯეფრი ჰინტონს და პრინსტონის უნივერსიტეტის პროფესორს, ჯონ ჰოპფილდს მიენიჭათ, რომელთაც დიდი შრომა გასწიეს მანქანური დასწავლის ტექნოლოგიის განვითარების მიმართულებით, რაც, პრინციპში, ის ტექნოლოგიაა, რომელსაც ვგულისხმობთ, როცა ხელოვნურ ინტელექტზე ვსაუბრობთ.

ნობელის კომიტეტის შეფასებით, ჰინტონმა და ჰოპფილდმა მანქანური დასწავლის ფუნდამენტი შექმნეს, რომელზედაც სხვა მეცნიერებმა ხელოვნური ინტელექტის ტექნოლოგია განავითარეს. მეცნიერებმა ადამიანის ტვინის მიხედვით მოდელირებული ნეირონული ქსელი შექმნა, რომელსაც კანონზომიერებების ამოცნობა და რეკონსტრუქცია შეუძლია. ხელოვნურ ნეირონულ ქსელში, ადამიანის თავის ტვინში არსებული ნეირონები სხვადასხვა მნიშვნელობის მქონე კვანძებით არის წარმოდგენილი და მათ შორის კავშირის დამყარება ისევე შეიძლება, როგორც ამას თავის ტვინი ახერხებს. ამასთან, შესაძლებელია სისტემის დასწავლა, ანუ გაწვრთნა, რაც კავშირების და შესაბამისად, მთელი ქსელის ხარისხს აუმჯობესებს.

ფიზიკის დარგში ნობელის პრემიის წლევანდელი ლაურეატი, ჯეფრი ჰინტონი ხელოვნური ინტელექტის მიმართულებით იმდენად მნიშვნელოვან ფიგურად ითვლება, რომ სამეცნიერო და ტექნოლოგიურ წრეებში მას “AI-ის ნათლიმამად” მოიხსენიებენ. ეს მეტსახელი ჰინტონმა მიიღო, როგორც მისი სამეცნიერო, ასევე პროფესიული საქმიანობით, რომელიც, დიდწილად, ამერიკულ Google-თან არის დაკავშირებული, სადაც მეცნიერმა ათწლეულზე მეტი, მას მერე დაყო, რაც Google-მა მისი კომპანია შეიძინა, რომელიც ის OpenAI-ის თანადამფუძნებელთან, ილია სუცკევერთან ერთად დააფუძნა. მოგვიანებით, ჰინტონმა Google-ი დატოვა და ხელოვნური ინტელექტის სწრაფი განვითარების მოწინააღმდეგეთა ბანაკში გადაინაცვლა.

თუ გახსოვთ, გასული წლის მარტში ინტერნეტში გამოქვეყნდა ღია წერილი, რომლის ავტორები და ხელმომწერები ხელოვნური ინტელექტის დიდი მოდელების გამოყენებით ექსპერიმენტების დროებით შეჩერებას ითხოვდნენ, რადგან ადამიანის თავის ტვინის დონის AI-მოდელები, მათი თქმით, საზოგადოების და კაცობრიობის დიდი რისკის წინაშე დაყენება შეუძლია. ღია წერილის ავტორები მიიჩნევდნენ, რომ მძავრი AI-მოდელები მხოლოდ მას შემდეგ უნდა განვითარდეს, რაც მეცნიერები დარწმუნდებიან, რომ ეს ტექნოლოგია ცალსახად დადებით შედეგს მოიტანს, ხოლო რისკების მართვა - შესაძლებელი იქნება.

აღნიშნული ღია წერილის ხელმომერთა შორის ზემოხსენებული ჯონ ჰოპფილდიც იყო, ხოლო ჯეფრი ჰინტონი ხელოვნური ინტელექტის სწრაფ განვითარებას ამ დრომდეც აქტიურად ეწინააღმდეგებოდა. როგორც მეცნიერმა 2023 წლის მაისში, The New York Times-თან განაცხადა, ის ვერ ხედავს რეალობას, სადაც ცუდი მოქმედი პირების მიერ ცუდი მიზნებისთვის ხელოვნური ინტელექტის გამოყენების შეჩერება შესაძლებელი იქნება. როგორც ჯეფრი ჰინტონი ამბობს, თავს იმით იმშვიდებს, რომ ის თუ არა, ამ ტექნოლოგიას სხვა მაინც შექმნიდა, რის გამოც, მეცნიერმა AI-ის რისკების მინიმიზაციის გზა აირჩია.

გამოწერეთ ჩვენი სიახლეები

მიიღეთ დღის მთავარი სიახლეები