
მსოფლიოს "შეიძლება არ ჰქონდეს დრო" მოწინავე ხელოვნური ინტელექტის სისტემების მიერ წამოჭრილი უსაფრთხოების რისკებისთვის მოსამზადებლად, გაერთიანებული სამეფოს მთავრობის სამეცნიერო კვლევითი სააგენტოს წამყვანი ფიგურის თქმით.
დევიდ დალრიმპლმა, Aria-ს პროგრამის დირექტორმა და ხელოვნური ინტელექტის უსაფრთხოების ექსპერტმა, განუცხადა Guardian-ს, რომ ხალხი უნდა შეშფოთებული იყოს ტექნოლოგიის მზარდი შესაძლებლობით.
"ვფიქრობ, ჩვენ უნდა ვიდარდოთ სისტემებზე, რომლებსაც შეუძლიათ შეასრულონ ყველა ის ფუნქცია, რომელსაც ადამიანები ასრულებენ, რათა მიიღონ ის, რაც საჭიროა მსოფლიოში, მაგრამ უკეთესად," თქვა მან. "ჩვენ გამოვტოვებთ ყველა იმ სფეროში, სადაც დომინანტები უნდა ვიყოთ, რათა შევინარჩუნოთ კონტროლი ჩვენს ცივილიზაციაზე, საზოგადოებასა და პლანეტაზე."
დალრიმპლმა თქვა, რომ არსებობდა უფსკრული გაგებაში საჯარო სექტორსა და ხელოვნური ინტელექტის კომპანიებს შორის ტექნოლოგიის მოახლოებული გარღვევების სიმძლავრის შესახებ.
"გირჩევ, რომ ყველაფერი ძალიან სწრაფად მიდის და ჩვენ შეიძლება არ გვქონდეს დრო, რომ უსაფრთხოების პერსპექტივიდან წინ დავრჩეთ," თქვა მან. "და ეს არ არის სამეცნიერო ფანტასტიკა იმის პროგნოზირებისთვის, რომ მომდევნო ხუთი წლის განმავლობაში, ყველაზე ეკონომიკურად ღირებული ამოცანების უმეტესობა შესრულდება მანქანების მიერ, ხარისხის უფრო მაღალი დონით და დაბალი ღირებულებით, ვიდრე ადამიანების მიერ."
დალრიმპლმა თქვა, რომ მთავრობებმა არ უნდა ივარაუდონ, რომ მოწინავე სისტემები საიმედოა. Aria არის საჯაროდ დაფინანსებული, მაგრამ დამოუკიდებელი მთავრობისგან და ხელმძღვანელობს კვლევის დაფინანსებას. დალრიმპლი ავითარებს სისტემებს ხელოვნური ინტელექტის გამოყენების დასაცავად კრიტიკულ ინფრასტრუქტურაში, როგორიცაა ენერგეტიკული ქსელები.
"ჩვენ არ შეგვიძლია ვივარაუდოთ, რომ ეს სისტემები საიმედოა. მეცნიერება ამის გასაკეთებლად უბრალოდ არ არის მოსალოდნელი დროში, ეკონომიკური ზეწოლის გათვალისწინებით. ასე რომ, შემდეგი საუკეთესო რამ, რისი გაკეთებაც შეგვიძლია, რისი გაკეთებაც შეიძლება შევძლოთ დროში, არის კონტროლის და უარყოფითი მხარეების შერბილება", - თქვა მან.
ტექნოლოგიური პროგრესის, როგორც უსაფრთხოების დესტაბილიზაციის შედეგების აღწერა, დალრიმპლმა თქვა, რომ უფრო ტექნიკური სამუშაო იყო საჭირო მოწინავე ხელოვნური ინტელექტის სისტემების ქცევის გაგებისა და კონტროლისთვის.
"პროგრესი შეიძლება დესტაბილიზაციის ჩარჩოში იყოს და ეს შეიძლება რეალურად კარგი იყოს, რაც არის ის, რასაც ბევრი ადამიანი იმედოვნებს საზღვარზე. მე ვმუშაობ იმისთვის, რომ ყველაფერი უკეთესი იყოს, მაგრამ ეს ძალიან მაღალი რისკია და ადამიანური ცივილიზაცია, როგორც წესი, სძინავს ამ გადასვლაში."
ამ თვის დასაწყისში, გაერთიანებული სამეფოს მთავრობის ხელოვნური ინტელექტის უსაფრთხოების ინსტიტუტმა (AISI) განაცხადა, რომ მოწინავე ხელოვნური ინტელექტის მოდელების შესაძლებლობები "სწრაფად უმჯობესდება" ყველა სფეროში და შესრულება ზოგიერთ სფეროში ორმაგდება ყოველ რვა თვეში.
წამყვანი მოდელები ახლა ოსტატის დონის დავალებებს ასრულებენ დროის 50%-ით საშუალოდ, გასული წლის დაახლოებით 10%-დან, ინსტიტუტის მიხედვით. AISI-მ ასევე დაადგინა, რომ ყველაზე მოწინავე სისტემებს შეუძლიათ დამოუკიდებლად შეასრულონ დავალებები, რომლებსაც ადამიანის ექსპერტს ერთ საათზე მეტი დასჭირდება.
ინსტიტუტმა ასევე გამოსცადა მოწინავე მოდელები თვითრეპლიკაციისთვის, უსაფრთხოების მთავარი საზრუნავი, რადგან ის გულისხმობს სისტემის ასლების გავრცელებას სხვა მოწყობილობებზე და კონტროლს ართულებს. ტესტებმა აჩვენა, რომ ორმა მოწინავე მოდელმა მიაღწია წარმატების მაჩვენებელს 60%-ზე მეტით.
თუმცა, AISI-მ ხაზგასმით აღნიშნა, რომ ყველაზე ცუდი სცენარი ნაკლებად სავარაუდოა ყოველდღიურ გარემოში, რადგან ნებისმიერი მცდელობა თვითრეპლიკაციისკენ "სავარაუდოდ ვერ მიაღწევს წარმატებას რეალურ სამყაროში."
დალრიმპლი თვლის, რომ ხელოვნური ინტელექტის სისტემებს შეეძლებათ ავტომატიზირება გაუკეთონ კვლევისა და განვითარების სამუშაოს სრულ დღეს 2026 წლის ბოლოსთვის, რაც "გამოიწვევს შესაძლებლობების შემდგომ აჩქარებას", რადგან ტექნოლოგია შეძლებს თვითგაუმჯობესებას ხელოვნური ინტელექტის განვითარების მათემატიკისა და კომპიუტერული მეცნიერების ელემენტებში.

















