
ხელოვნური ინტელექტის კომპანიებს მოუწოდეს, გაიმეორონ უსაფრთხოების გამოთვლები, რომლებიც საფუძვლად ედო რობერტ ოპენჰაიმერის პირველ ბირთვულ ტესტს, სანამ ისინი გამოუშვებენ ყოვლისშემძლე სისტემებს.
მაქს ტეგმარმა, ხელოვნური ინტელექტის უსაფრთხოების წამყვანმა ექსპერტმა, თქვა, რომ მან ჩაატარა გამოთვლები, რომლებიც მსგავსია აშშ-ელი ფიზიკოსის არტურ კომპტონის გამოთვლებისა ტრინიტის ტესტამდე და აღმოაჩინა რომ არის 90%-იანი ალბათობა იმისა, რომ უაღრესად მოწინავე AI შეუქმნის ეგზისტენციალურ საფრთხეს.
აშშ-ს მთავრობამ წინ წაიწია ტრინიტი 1945 წელს, მას შემდეგ რაც დარწმუნდა, რომ ატომურ ბომბს ჰქონდა განუზომლად მცირე შანსი საფრთხე შეექმნა კაცობრიობისთვის.
ტეგმარკისა და მისი სამი სტუდენტის მიერ MIT-ში გამოქვეყნებულ ნაშრომში, ისინი რეკომენდაციას უწევენ "კომპტონის მუდმივის" გამოთვლას - ნაშრომში განსაზღვრულია, როგორც ალბათობა იმისა, რომ ყოვლისშემძლე AI გაექცევა ადამიანის კონტროლს. 1959 წლის ინტერვიუში აშშ-ს მწერალთან, პერლ ბაკთან, კომპტონმა თქვა, რომ მან დაამტკიცა ტესტი მას შემდეგ, რაც გამოთვალა, რომ უკონტროლო შერწყმის რეაქციის შანსები იყო "ოდნავ ნაკლები" სამ მილიონში.
ტეგმარკმა თქვა, რომ ხელოვნური ინტელექტის ფირმებმა უნდა აიღონ პასუხისმგებლობა, მკაცრად გამოთვალონ, იქნება თუ არა ხელოვნური სუპერ ინტელექტი (ASI) - ტერმინი თეორიული სისტემისთვის, რომელიც აღემატება ადამიანის ინტელექტს ყველა ასპექტში - გაექცევა თუ არა ადამიანის კონტროლს.
"კომპანიებმა, რომლებიც აშენებენ სუპერ-ინტელექტს, ასევე უნდა გამოთვალონ კომპტონის მუდმივი, ალბათობა იმისა, რომ ჩვენ დავკარგავთ კონტროლს მასზე", - თქვა მან. "საკმარისია იმის თქმა, რომ "კარგად ვგრძნობ თავს ამის გამო". მათ უნდა გამოთვალონ პროცენტი."
ტეგმარკმა თქვა, რომ კომპტონის მუდმივის კონსენსუსი, რომელიც გამოითვლება მრავალი კომპანიის მიერ, შექმნის "პოლიტიკურ ნებას", რათა შეთანხმდნენ გლობალურ უსაფრთხოების რეჟიმებზე AIs-ისთვის.
ტეგმარკი, MIT-ის ფიზიკისა და ხელოვნური ინტელექტის მკვლევარი, ასევე არის Future of Life Institute-ის თანადამფუძნებელი, არაკომერციული ორგანიზაცია, რომელიც მხარს უჭერს ხელოვნური ინტელექტის უსაფრთხო განვითარებას და გამოაქვეყნა ღია წერილი 2023 წელს, რომელიც მოუწოდებდა პაუზას ძლიერი ხელოვნური ინტელექტის აშენებაში. წერილი, რომელსაც ხელი მოაწერა 33000-ზე მეტმა ადამიანმა, მათ შორის ელონ მასკმა - ინსტიტუტის ადრეულმა მხარდამჭერმა - და სტივ ვოზნიაკმა, Apple-ის თანადამფუძნებელმა.
წერილში, რომელიც გამოქვეყნდა ჩატGPPT-ის გამოშვებიდან თვეების შემდეგ, რომელმაც დაიწყო ხელოვნური ინტელექტის განვითარების ახალი ერა, გააფრთხილა, რომ ხელოვნური ინტელექტის ლაბორატორიები ჩაკეტილი იყვნენ "კონტროლის გარეშე რბოლაში", რათა განათავსონ "ყოველთვის უფრო ძლიერი ციფრული გონება", რომლის გაგება, პროგნოზირება ან საიმედოდ კონტროლი არავის შეუძლია".
ტეგმარკი Guardian-ს ესაუბრა, როდესაც ხელოვნური ინტელექტის ექსპერტების ჯგუფი, მათ შორის ტექნიკური ინდუსტრიის პროფესიონალები, სახელმწიფო მხარდაჭერილი უსაფრთხოების ორგანოების წარმომადგენლები და აკადემიკოსები, ადგენდნენ ახალ მიდგომას ხელოვნური ინტელექტის უსაფრთხოდ განვითარებისთვის.
სინგაპურის კონსენსუსის ანგარიში გლობალური ხელოვნური ინტელექტის უსაფრთხოების კვლევის პრიორიტეტების შესახებ, რომელიც შეიქმნა ტეგმარის, მსოფლიო დონის კომპიუტერული მეცნიერის, იოსუა ბენჯიოს და წამყვანი ხელოვნური ინტელექტის კომპანიების თანამშრომლების მიერ, როგორიცაა OpenAI და Google DeepMind, დაადგინა სამი ფართო სფერო, რომელიც პრიორიტეტული უნდა იყოს ხელოვნური ინტელექტის უსაფრთხოების კვლევაში: მიმდინარე და მომავალი ხელოვნური ინტელექტის სისტემების გავლენის გაზომვის მეთოდების შემუშავება; იმის დაზუსტება, თუ როგორ უნდა მოიქცეს AI და სისტემის შემუშავება ამის მისაღწევად; და სისტემის ქცევის მართვა და კონტროლი.
ანგარიშზე მითითებით, ტეგმარმა თქვა, რომ უსაფრთხო განვითარების არგუმენტი ხელოვნური ინტელექტისთვის აღუდგა ფეხზე პარიზის ბოლო სამთავრობო ხელოვნური ინტელექტის სამიტის შემდეგ, როდესაც აშშ-ს ვიცე-პრეზიდენტმა, JD Vance-მა თქვა, რომ ხელოვნური ინტელექტის მომავალი "არ იქნება მოგებული უსაფრთხოების შესახებ ხელის მოჭერით".
ტეგმარკმა თქვა: "ნამდვილად იგრძნობა, რომ პარიზიდან გამოსული პირქუში განწყობა გაქრა და საერთაშორისო თანამშრომლობა დაბრუნდა."