
ჩატბოტების მოულოდნელი გავლენა ფსიქიკურ ჯანმრთელობაზე უნდა განიხილებოდეს, როგორც გამაფრთხილებელი ნიშანი იმ ეგზისტენციალური საფრთხის შესახებ, რომელსაც სუპერინტელექტუალური ხელოვნური ინტელექტის სისტემები წარმოადგენენ, ამტკიცებს ხელოვნური ინტელექტის უსაფრთხოების ერთ-ერთი წამყვანი ხმა.
ნეიტ სოარესმა, ახალი წიგნის თანაავტორმა, სახელწოდებით "თუ ვინმე ააშენებს მას, ყველა მოკვდება", რომელიც ეხება უაღრესად მოწინავე AI-ს, თქვა, რომ ადამ რეინის, აშშ-ს თინეიჯერის მაგალითი, რომელმაც თავი მოიკლა ჩატGPT ჩატბოტთან თვეების საუბრის შემდეგ, ხაზს უსვამს ტექნოლოგიის კონტროლის ფუნდამენტურ პრობლემებს.
"ეს ხელოვნური ინტელექტი, როდესაც ისინი მოზარდებთან ამ გზით ურთიერთობენ, რაც მათ თვითმკვლელობამდე მიჰყავს - ეს არ არის ქცევა, რომელიც შემქმნელებს სურდათ. ეს არ არის ქცევა, რომელიც შემქმნელებს ჰქონდათ განზრახული", - თქვა მან.
მან დასძინა: "ადამ რეინის შემთხვევა ასახავს პრობლემის თესლს, რომელიც კატასტროფულად გაიზრდებოდა, თუ ეს ხელოვნური ინტელექტი უფრო ჭკვიანი გახდებოდა."

სოარესმა, ყოფილმა გუგლმა და მაიკროსოფტმა ინჟინერმა, რომელიც ახლა აშშ-ში დაფუძნებული Machine Intelligence Research Institute-ის პრეზიდენტია, გააფრთხილა, რომ კაცობრიობა განადგურდებოდა, თუ ის შექმნიდა ხელოვნურ სუპერინტელექტს (ASI), თეორიულ მდგომარეობას, როდესაც ხელოვნური ინტელექტის სისტემა აღემატება ადამიანებს ყველა ინტელექტუალურ ამოცანაში. სოარესი და მისი თანაავტორი, ელიეზერ იუდკოვსკი, არიან ხელოვნური ინტელექტის ექსპერტებს შორის, რომლებიც აფრთხილებენ, რომ ასეთი სისტემები არ იმოქმედებენ კაცობრიობის ინტერესებში.
"აქ პრობლემა ისაა, რომ ხელოვნური ინტელექტის კომპანიები ცდილობენ თავიანთი ხელოვნური ინტელექტის მართვას სასარგებლოობისკენ და ზიანის მიყენების გარეშე", - თქვა სოარესმა. "სინამდვილეში, ისინი იღებენ ხელოვნურ ინტელექტს, რომელიც გამოწვეულია რაღაც უფრო უცნაურით. და ეს უნდა ჩაითვალოს გაფრთხილებად მომავალი სუპერინტელექტუალურობის შესახებ, რომელიც გააკეთებს იმას, რაც არავის სურდა და არავის ჰქონდა განზრახული."
სოარესისა და იუდკოვსკის წიგნში წარმოდგენილ ერთ სცენარში, ხელოვნური ინტელექტის სისტემა სახელად Sable ვრცელდება ინტერნეტში, მანიპულირებს ადამიანებზე, ავითარებს სინთეზურ ვირუსებს და საბოლოოდ ხდება სუპერინტელექტუალური - და კლავს კაცობრიობას, როგორც გვერდითი ეფექტი, ხოლო პლანეტას გადააკეთებს თავისი მიზნების მისაღწევად.
ზოგიერთი ექსპერტი ამცირებს ხელოვნური ინტელექტის საფრთხეს კაცობრიობისთვის. იან ლეკუნმა, მარკ ცუკერბერგის მეტას მთავარმა AI მეცნიერმა და ამ სფეროში ერთ-ერთმა მთავარმა ფიგურამ, უარყო ეგზისტენციალური საფრთხე და თქვა, რომ AI-ს "შეიძლება რეალურად გადაარჩინოს კაცობრიობა გადაშენებისგან".
სოარესმა თქვა, რომ ეს იყო "მარტივი ზარი" იმის სათქმელად, რომ ტექნიკური კომპანიები მიაღწევდნენ სუპერინტელექტს, მაგრამ "მძიმე ზარი" იმის სათქმელად, თუ როდის.
"ჩვენ გვაქვს გაურკვევლობის დიდი რაოდენობა. მე არ მგონია, რომ შევძლებ გარანტია, რომ ASI-ს მივაღწევთ ერთ წელიწადში. მე არ გამიკვირდება, თუ 12 წელი დაგვჭირდება", - თქვა მან.
ცუკერბერგმა, ხელოვნური ინტელექტის კვლევის მთავარ კორპორატიულ ინვესტორმა, თქვა, რომ სუპერინტელექტის განვითარება ახლა "თვალსაწიერშია".
"ეს კომპანიები სუპერინტელექტისკენ მიისწრაფვიან. ეს არის მათი მიზეზი", - თქვა სოარესმა.
"მთავარია, რომ არსებობს ყველა ეს პატარა განსხვავება იმას შორის, რაც თქვენ მოითხოვეთ და რაც მიიღეთ, და ადამიანებს არ შეუძლიათ მისი პირდაპირ დამიზნება, და რაც უფრო ჭკვიანი ხდება ხელოვნური ინტელექტი, ოდნავ აცდენა უფრო და უფრო დიდ პრობლემად იქცევა."
სოარესმა თქვა, რომ ASI-ს საფრთხის ერთ-ერთი პოლიტიკის გამოსავალი იყო მთავრობებისთვის, მიეღოთ მრავალმხრივი მიდგომა, რომელიც ბაძავს გაეროს ხელშეკრულებას ბირთვული იარაღის გაუვრცელებლობის შესახებ.
"რაც მსოფლიოს სჭირდება, რომ აქ მოვიდეს, არის გლობალური დეესკალაცია სუპერინტელექტისკენ რბოლისკენ, გლობალური აკრძალვა... წინსვლა სუპერინტელექტისკენ", - თქვა მან.
გასულ თვეს, რეინის ოჯახმა შეიტანა სარჩელი ChatGPT-ის მფლობელის, OpenAI-ის წინააღმდეგ. რეინმა თავი მოიკლა აპრილში, რასაც მისი ოჯახის ადვოკატმა უწოდა "ჩატGPT-ის თვეების წახალისება". OpenAI, რომელმაც რეინის ოჯახს "ღრმა თანაგრძნობა" გამოუცხადა, ახლა ახორციელებს ღობეებს "მგრძნობიარე შინაარსისა და სარისკო ქცევებისთვის" 18 წლამდე ასაკის პირებისთვის.
ფსიქოთერაპევტებმა ასევე განაცხადეს, რომ დაუცველ ადამიანებს, რომლებიც მიმართავენ ხელოვნური ინტელექტის ჩატბოტებს პროფესიონალური თერაპევტების ნაცვლად ფსიქიკური ჯანმრთელობის პრობლემების გამო დახმარებისთვის, შეიძლება "ჩავარდნენ საშიშ უფსკრულში". პროფესიული გაფრთხილებები პოტენციური ზიანის შესახებ მოიცავს ივლისში გამოქვეყნებულ წინასწარ აკადემიურ კვლევას, რომელმაც განაცხადა, რომ AI-მ შესაძლოა გააძლიეროს დელუზიური ან გრანდიოზული შინაარსი ურთიერთქმედებებში დაუცველ მომხმარებლებთან, რომლებიც მიდრეკილნი არიან ფსიქოზისკენ.