
ხელოვნური ინტელექტის წამყვანი ექსპერტი უკან იხევს ხელოვნური ინტელექტის აპოკალიფსის ვადებიდან, ამბობს, რომ უფრო მეტი დრო დასჭირდება, ვიდრე თავდაპირველად იწინასწარმეტყველა, სანამ ხელოვნური ინტელექტის სისტემები დამოუკიდებლად შეძლებენ კოდირებას და, შესაბამისად, დააჩქარებენ საკუთარ განვითარებას სუპერინტელექტამდე.
დანიელ კოკოტაჯლომ, OpenAI-ის ყოფილმა თანამშრომელმა, აპრილში გამოიწვია ენერგიული დებატები ხელოვნური ინტელექტის 2027-ის გამოშვებით, რომელიც წარმოიდგენს შეუმოწმებელი ხელოვნური ინტელექტის განვითარების შედეგად სუპერინტელექტის შექმნას, რომელიც - მსოფლიო ლიდერების მოტყუების შემდეგ - ანადგურებს კაცობრიობას.
სცენარმა სწრაფად მოიპოვა მომხრეები და მოწინააღმდეგეები. აშშ-ს ვიცე-პრეზიდენტმა, JD Vance-მა, მაისში, ინტერვიუში, რომელიც ეხებოდა აშშ-ს ხელოვნურ ინტელექტთან დაკავშირებულ შეიარაღების რბოლას ჩინეთთან, როგორც ჩანს, მოიხსენია ხელოვნური ინტელექტი 2027-ში. ნიუ-იორკის უნივერსიტეტის ნეირომეცნიერების პროფესორმა გარი მარკუსმა ნაწარმოებს "მხატვრული ლიტერატურის ნამუშევარი" უწოდა და მის ზოგიერთ დასკვნას "სუფთა სამეცნიერო ფანტასტიკის მუმბო-ჯუმბო".

გარდამტეხი ხელოვნური ინტელექტის ვადები - ზოგჯერ უწოდებენ AGI-ს (ხელოვნური ზოგადი ინტელექტი), ან AI-ს, რომელსაც შეუძლია შეცვალოს ადამიანები თითქმის ყველა კოგნიტურ ამოცანაში - გახდა ხელოვნური ინტელექტის უსაფრთხოებისთვის მიძღვნილი საზოგადოებების ნაწილი. ChatGPT-ის გამოშვებამ 2022 წელს მკვეთრად დააჩქარა ეს ვადები, ოფიციალური პირებისა და ექსპერტების მიერ AGI-ს მოსვლას ათწლეულების ან წლების განმავლობაში პროგნოზირებდნენ.
კოკოტაჯლომ და მისმა გუნდმა 2027 წელი დაასახელეს, როგორც "სრულად ავტონომიური კოდირების" მიღწევის წელი, თუმცა მათ თქვეს, რომ ეს იყო "ყველაზე სავარაუდო" ვარაუდი და ზოგიერთ მათგანს უფრო გრძელი ვადები ჰქონდა. ახლა, როგორც ჩანს, ჩნდება გარკვეული ეჭვები AGI-ს გარდაუვალობის შესახებ და საერთოდ აქვს თუ არა ამ ტერმინს აზრი.
"ბევრმა სხვა ადამიანმა გადაიტანა თავისი ვადები გასულ წელს, რადგან ისინი აცნობიერებენ, თუ რამდენად არათანაბარი იყო ხელოვნური ინტელექტის შესრულება", - თქვა მალკოლმ მურეიმ, ხელოვნური ინტელექტის რისკის მართვის ექსპერტმა და საერთაშორისო ხელოვნური ინტელექტის უსაფრთხოების ანგარიშის ერთ-ერთმა ავტორმა.
"იმისთვის, რომ სცენარი, როგორიცაა AI 2027, მოხდეს, [AI]-ს დასჭირდება ბევრად უფრო პრაქტიკული უნარები, რომლებიც სასარგებლოა რეალურ სამყაროში სირთულეებში. მე ვფიქრობ, რომ ადამიანები იწყებენ იმის გაცნობიერებას, თუ რამდენად უზარმაზარი ინერცია არსებობს რეალურ სამყაროში, რაც შეაფერხებს საზოგადოების სრულ ცვლილებას."
"ტერმინი AGI აზრიანი იყო შორიდან, როდესაც ხელოვნური ინტელექტის სისტემები ძალიან ვიწრო იყო - ჭადრაკის თამაში და გო-ს თამაში", - თქვა ჰენრი პაპადოტოსმა, ფრანგული ხელოვნური ინტელექტის არასამთავრობო ორგანიზაციის SaferAI-ის აღმასრულებელმა დირექტორმა. "ახლა ჩვენ გვაქვს სისტემები, რომლებიც უკვე საკმაოდ ზოგადია და ტერმინი ამდენს აღარ ნიშნავს."
კოკოტაჯლოს AI 2027 ეყრდნობა იმ აზრს, რომ ხელოვნური ინტელექტის აგენტები სრულად ავტომატიზირებენ კოდირებას და ხელოვნური ინტელექტის R&D-ს 2027 წლისთვის, რაც გამოიწვევს "ინტელექტის აფეთქებას", რომლის დროსაც ხელოვნური ინტელექტის აგენტები ქმნიან საკუთარ თავს უფრო ჭკვიან და ჭკვიან ვერსიებს და შემდეგ - ერთ შესაძლო დასასრულში - კლავს ყველა ადამიანს 2030 წლის შუა რიცხვებში, რათა ადგილი დაუთმოს მეტ მზის პანელებს და მონაცემთა ცენტრებს.
თუმცა, თავიანთ განახლებაში, კოკოტაჯლო და მისი თანაავტორები ცვლიან თავიანთ მოლოდინებს იმის შესახებ, თუ როდის შეიძლება AI-მ დამოუკიდებლად შეძლოს კოდირება, რაც სავარაუდოდ მოხდება 2030-იანი წლების დასაწყისში, 2027-ის ნაცვლად. ახალი პროგნოზი ადგენს 2034 წელს, როგორც "სუპერინტელექტის" ჰორიზონტს და არ შეიცავს ვარაუდს იმის შესახებ, თუ როდის შეიძლება გაანადგუროს AI-მ კაცობრიობა.
"როგორც ჩანს, ყველაფერი ცოტა ნელა მიდის, ვიდრე AI 2027 სცენარი. ჩვენი ვადები უფრო გრძელი იყო, ვიდრე 2027, როდესაც ჩვენ გამოვაქვეყნეთ და ახლა ისინი კიდევ უფრო გრძელია", - დაწერა კოკოტაჯლომ X-ზე პოსტში.
AI-ის შექმნა, რომელსაც შეუძლია ხელოვნური ინტელექტის კვლევა, კვლავ რჩება წამყვანი ხელოვნური ინტელექტის კომპანიების მიზნად. OpenAI-ის აღმასრულებელმა დირექტორმა, სემ ალტმანმა, ოქტომბერში განაცხადა, რომ 2028 წლის მარტში ავტომატური ხელოვნური ინტელექტის მკვლევარის ყოლა იყო მისი კომპანიის "შიდა მიზანი", მაგრამ დასძინა: "ჩვენ შეიძლება მთლიანად ჩავვარდეთ ამ მიზნის მიღწევაში."
ანდრეა კასტანამ, ბრიუსელში დაფუძნებულმა ხელოვნური ინტელექტის პოლიტიკის მკვლევარმა, თქვა, რომ არსებობს რამდენიმე სირთულე, რომელსაც დრამატული AGI ვადები არ ითვალისწინებს. "ის ფაქტი, რომ თქვენ გაქვთ სუპერინტელექტუალური კომპიუტერი, რომელიც ორიენტირებულია სამხედრო საქმიანობაზე, არ ნიშნავს იმას, რომ თქვენ შეგიძლიათ მისი ინტეგრირება სტრატეგიულ დოკუმენტებში, რომლებსაც ბოლო 20 წელია ვაყალიბებთ."
რაც უფრო მეტად ვავითარებთ AI-ს, მით უფრო მეტად ვხედავთ, რომ სამყარო არ არის სამეცნიერო ფანტასტიკა. სამყარო ბევრად უფრო რთულია, ვიდრე ეს.















