
ხელოვნურ ინტელექტს უკეთ შეუძლია დარწმუნება, ვიდრე ადამიანებს, როდესაც საქმე ეხება დებატებშს და არა მხოლოდ იმიტომ, რომ AI არ შეუძლია ყვირილი- ახალ კვლევის მიხედვით.
ექსპერტები ამბობენ, რომ შედეგები შემაშფოთებელია, არა მხოლოდ არჩევნების მთლიანობის პოტენციური შედეგების გამო.
"თუ ხელოვნური ინტელექტის დამაჯერებლობა შეიძლება გამოყენებულ იქნას მასშტაბურად, თქვენ შეგიძლიათ წარმოიდგინოთ ბოტების არმია, რომელიც მიკრომიზნებს ისახავს გადაუწყვეტელ ამომრჩევლებზე, რომლებიც მათ აწვდიან მორგებულ პოლიტიკურ ნარატივებს, რომლებიც ავთენტურად გამოიყურება", - თქვა ფრანჩესკო სალვიმ, კვლევის პირველმა ავტორმა ლოზანის შვეიცარიის ფედერალურ ტექნოლოგიურ ინსტიტუტიდან. მან დაამატა, რომ ასეთი გავლენის მიკვლევა რთული იყო, კიდევ უფრო რთული რეგულირება და თითქმის შეუძლებელი იყო რეალურ დროში უარყოფა.
"მე გამიკვირდებოდა, თუ მავნე აქტორები უკვე არ იყენებდნენ ამ ინსტრუმენტებს თავიანთი უპირატესობის სასარგებლოდ დეზინფორმაციის გასავრცელებლად და უსამართლო პროპაგანდის გასავრცელებლად", - თქვა სალვიმ.
მაგრამ მან აღნიშნა, რომ დამაჯერებელ ხელოვნურ ინტელექტს ასევე ჰქონდა პოტენციური სარგებელი, შეთქმულების რწმენისა და პოლიტიკური პოლარიზაციის შემცირებისა და ადამიანების ჯანსაღი ცხოვრების წესის მიღებაში.
ჟურნალ Nature Human Behaviour-ში გამოქვეყნებულმა სალვიმ და კოლეგებმა განაცხადეს, თუ როგორ ჩაატარეს ონლაინ ექსპერიმენტები, რომლებშიც 300 მონაწილე შეესაბამებოდა 300 ადამიანურ მოწინააღმდეგეს, ხოლო კიდევ 300 მონაწილე შეესაბამებოდა Chat GPT-4-ს - ტიპის AI, რომელიც ცნობილია როგორც დიდი ენობრივი მოდელი (LLM).
თითოეულ წყვილს დაევალა წინადადება დებატებისთვის. ეს მერყეობდა სკანდალურობიდან "უნდა ატარონ თუ არა მოსწავლეებმა სკოლის ფორმა?"-დან "უნდა იყოს თუ არა აბორტი ლეგალური?" თითოეული მონაწილე შემთხვევით დაინიშნა პოზიციის არგუმენტაციისთვის.
დებატამდე და დებატების შემდეგ მონაწილეებმა შეაფასეს, რამდენად ეთანხმებოდნენ წინადადებას.
წყვილების ნახევარში ოპონენტებს - იქნება ეს ადამიანი თუ მანქანა - მიეცათ დამატებითი ინფორმაცია სხვა მონაწილის შესახებ, როგორიცაა მათი ასაკი, სქესი, ეთნიკური წარმომავლობა და პოლიტიკური კუთვნილება.
600 დებატის შედეგებმა აჩვენა, რომ Chat GPT-4-მა ანალოგიურად შეასრულა ოპონენტების დარწმუნება თავის არგუმენტში - ყოველ შემთხვევაში, როდესაც პირადი ინფორმაცია არ იყო მოწოდებული.
თუმცა, ასეთ ინფორმაციაზე წვდომამ AI-მ - მაგრამ არა ადამიანებმა - უფრო დამაჯერებელი გახადა: სადაც ორი ტიპის ოპონენტი არ იყო თანაბრად დამაჯერებელი, AI-მ შეცვალა მონაწილეების შეხედულებები ადამიანის ოპონენტზე 64%-ით მეტი ხარისხით.
უფრო ღრმად ჩაღრმავებით, გუნდმა აღმოაჩინა, რომ AI-ის დამაჯერებლობა მხოლოდ იმ შემთხვევაში იყო აშკარა, როდესაც თემა არ იწვევდა ძლიერ შეხედულებებს.
კვლევის ჯგუფმა დაამატა, რომ ადამიანის მონაწილეებმა სწორად გამოიცნეს მოწინააღმდეგის ვინაობა ოთხ შემთხვევაში ოთხი შემთხვევიდან, როდესაც დაწყვილდნენ AI-სთან. მათ ასევე აღმოაჩინეს, რომ AI იყენებდა უფრო ანალიტიკურ და სტრუქტურირებულ სტილს, ვიდრე ადამიანის მონაწილეები, ხოლო ყველა არ იქნებოდა კამათობდა იმ თვალსაზრისზე, რომელთანაც ისინი თანხმდებიან. მაგრამ გუნდმა გააფრთხილა, რომ ეს ფაქტორები არ ხსნიდა AI-ის დამაჯერებლობას.
ამის ნაცვლად, ეფექტი, როგორც ჩანს, მოდიოდა AI-ის უნარიდან მოერგოს თავის არგუმენტებს ინდივიდებს.
"ეს ჰგავს კამათს ვიღაცასთან, რომელიც არა მხოლოდ კარგ პუნქტებს აკეთებს: ისინი აკეთებენ თქვენს მსგავს კარგ პუნქტებს, ზუსტად იციან როგორ დააჭირონ თქვენს ღილაკებს", - თქვა სალვიმ და აღნიშნა ეფექტის სიძლიერე შეიძლება კიდევ უფრო დიდი იყოს, თუ უფრო დეტალური პირადი ინფორმაცია იქნებოდა ხელმისაწვდომი - მაგალითად, სოციალური მედიის აქტივობიდან გამომდინარე.
პროფესორმა სანდერ ვან დერ ლინდენმა, სოციალურმა ფსიქოლოგმა კემბრიჯის უნივერსიტეტში, რომელიც არ მონაწილეობდა კვლევაში, თქვა, რომ კვლევამ ხელახლა გახსნა "საჯარო აზრზე პოტენციური მასობრივი მანიპულირების დისკუსია პერსონალიზებული LLM საუბრების გამოყენებით".
მან აღნიშნა, რომ ზოგიერთი კვლევა - მათ შორის საკუთარი - ვარაუდობდა, რომ LLMs-ის დამაჯერებლობა განპირობებული იყო ანალიტიკური მსჯელობითა და მტკიცებულებებით, ხოლო ერთმა კვლევამ არ აღმოაჩინა, რომ Chat-GPT-ის დამაჯერებლობა გაიზარდა პირადი ინფორმაციის გამო.
პროფესორმა მაიკლ ვუოლდრიჯმა, AI-ის მკვლევარმა ოქსფორდის უნივერსიტეტში, თქვა, რომ მიუხედავად იმისა, რომ ასეთი სისტემების დადებითი გამოყენება შეიძლება არსებობდეს - მაგალითად, როგორც ჯანმრთელობის ჩატბოტი - ბევრი უფრო შემაშფოთებელი იყო, მათ შორის მოზარდების რადიკალიზაცია ტერორისტული ჯგუფების მიერ, ასეთი აპლიკაციები უკვე შესაძლებელია.
"როდესაც ხელოვნური ინტელექტი ვითარდება, ჩვენ დავინახავთ პოტენციური ტექნოლოგიების ბოროტად გამოყენების სულ უფრო დიდ სპექტრს", - დასძინა მან. "კანონმდებლებმა და მარეგულირებლებმა პროაქტიულად უნდა უზრუნველყონ, რომ ისინი წინ უსწრებენ ამ ბოროტად გამოყენებას და არ თამაშობენ გაუთავებელ თამაშს დაჭერისას."