
პოლიტიკური ლიდერები მალე გაუშვებენ ადამიანის მსგავსი ხელოვნური ინტელექტის აგენტების გუნდებს, რათა შეცვალონ საზოგადოებრივი აზრი ისე, რომ საფრთხეს უქმნის დემოკრატიას, გააფრთხილა ხელოვნური ინტელექტისა და ონლაინ დეზინფორმაციის ექსპერტებმა.
ნობელის მშვიდობის პრემიის ლაურეატმა სიტყვის თავისუფლების აქტივისტმა მარია რესამ და ბერკლის, ჰარვარდის, ოქსფორდის, კემბრიჯისა და იელის წამყვანმა ხელოვნური ინტელექტისა და სოციალური მეცნიერების მკვლევარებმა, გლობალური კონსორციუმის შემადგენლობაში, გააფრთხილეს ახალი "დამანგრეველი საფრთხე", რომელსაც უქმნის რთული, შეუმჩნეველი, მავნე "AI გუნდები", რომლებიც სოციალურ მედიასა და შეტყობინებების არხებს ავსებენ.
ავტოკრატიის მსურველს შეეძლო გამოეყენებინა ასეთი გუნდები, რათა დაერწმუნებინა მოსახლეობა, მიეღოთ გაუქმებული არჩევნები ან გადაებრუნებინათ შედეგები, განაცხადეს მათ, არჩევნების დროს ტექნოლოგიის მასშტაბურად გამოყენების პროგნოზების ფონზე. 2028 წლის აშშ-ს საპრეზიდენტო არჩევნებამდე.
გაფრთხილებები, რომლებიც დღეს მეცნიერებაში გამოქვეყნდა, თან ახლავს მოწოდებებს გლობალური კოორდინირებული მოქმედებისკენ საფრთხის წინააღმდეგ საბრძოლველად, მათ შორის "გუნდის სკანერები" და წყალზე მონიშნული კონტენტი ხელოვნური ინტელექტის მიერ მართული დეზინფორმაციის კამპანიების წინააღმდეგ საბრძოლველად. ხელოვნური ინტელექტის მიერ გაძლიერებული გავლენის ოპერაციების ადრეული ვერსიები გამოიყენეს 2024 წლის არჩევნებში ტაივანში, ინდოეთში და ინდონეზიაში.
"დამანგრეველი საფრთხე ჩნდება: თანამშრომლობითი, მავნე ხელოვნური ინტელექტის აგენტების გუნდები", - განაცხადეს ავტორებმა. "ეს სისტემები კოორდინირებულად მუშაობის, საზოგადოებებში შეღწევისა და კონსენსუსის ეფექტურად გაყალბების უნარით არიან აღჭურვილნი. ადამიანის სოციალური დინამიკის ადაპტირებულად მიბაძვით, ისინი საფრთხეს უქმნიან დემოკრატიას."
პროპაგანდის ტექნოლოგიის ერთ-ერთმა წამყვანმა ექსპერტმა, ინგა ტრაუგმა, თქვა, რომ ასეთი მოწინავე ტექნოლოგიის მიღება, სავარაუდოდ, შენელდება პოლიტიკოსების უხალისობის გამო, კამპანიის კონტროლი AIs-ს დაუთმონ. კიდევ ერთი მიზეზი სკეპტიციზმისთვის არის შეშფოთება, რომ ასეთი არალეგიტიმური ტექნიკის გამოყენება არ ღირს რისკად, იმის გათვალისწინებით, რომ ამომრჩევლები ჯერ კიდევ უფრო მეტ გავლენას ახდენენ ოფლაინ მასალებზე.
გაფრთხილების მიღმა მყოფი ექსპერტები არიან ნიუ-იორკის უნივერსიტეტის გარი მარკუსი, ხელოვნური ინტელექტის ამჟამინდელი მოდელების სავარაუდო პოტენციალის გამოჩენილი სკეპტიკოსი, რომელიც საკუთარ თავს უწოდებს "გენერაციული ხელოვნური ინტელექტის რეალისტს" და აუდრი ტანგი, ტაივანის პირველი ციფრული მინისტრი, რომელმაც გააფრთხილა: "ისინი, ვინც ავტორიტარული ძალების მიერ არიან დაქირავებულები, ძირს უთხრიან საარჩევნო პროცესებს, იარაღად იყენებენ AI-ს და იყენებენ ჩვენს საზოგადოების ძლიერ მხარეებს ჩვენს წინააღმდეგ."
სხვები არიან დევიდ გარსია, სოციალური და ქცევითი მონაცემთა მეცნიერების პროფესორი კონსტანსის უნივერსიტეტში, სანდერ ვან დერ ლინდენი, დეზინფორმაციის ექსპერტი და კემბრიჯის უნივერსიტეტის სოციალური გადაწყვეტილების მიღების ლაბორატორიის დირექტორი და კრისტოფერ სამერფილდი, ხელოვნური ინტელექტის მკვლევარი და ოქსფორდის უნივერსიტეტის კოგნიტური ნეირომეცნიერების პროფესორი.
ერთად ისინი ამბობენ, რომ პოლიტიკურ ლიდერებს შეუძლიათ გამოიყენონ თითქმის შეუზღუდავი რაოდენობის ხელოვნური ინტელექტი, რათა ონლაინ ადამიანებად წარმოაჩინონ თავი და ზუსტად შეაღწიონ საზოგადოებებში, დროთა განმავლობაში ისწავლონ მათი სისუსტეები და გამოიყენონ სულ უფრო დამაჯერებელი და ფრთხილად დამუშავებული სიცრუე, რათა შეცვალონ მოსახლეობის მასშტაბით მოსაზრებები.
საფრთხე გაძლიერებულია ხელოვნური ინტელექტის უნარის წინსვლით, აიღოს დისკურსის ტონი და შინაარსი. ისინი სულ უფრო მეტად ბაძავენ ადამიანურ დინამიკას, მაგალითად, შესაბამისი ჟარგონის გამოყენებით და რეგულარულად გამოქვეყნებით, რათა თავიდან აიცილონ გამოვლენა. აგენტიური ხელოვნური ინტელექტის განვითარების პროგრესი ასევე ნიშნავს ავტონომიური მოქმედების დაგეგმვისა და კოორდინაციის უნარს.
სოციალურ მედიასთან ერთად, ისინი შეიძლება გამოიყენონ შეტყობინებების არხები და თუნდაც ბლოგები ან ელექტრონული ფოსტა, იმისდა მიხედვით, თუ რომელ არხს თვლის AI საუკეთესოდ მიზნის მისაღწევად, თქვა ერთ-ერთმა ავტორმა, დანიელ თილო შრედერმა, ოსლოს სინტეფის კვლევითი ინსტიტუტის მკვლევარმა მეცნიერმა.
"უბრალოდ შემაშფოთებელია, რამდენად ადვილია ამ რაღაცების ვიბრაციის კოდირება და უბრალოდ პატარა ბოტ არმიების არსებობა, რომლებსაც შეუძლიათ რეალურად ნავიგაცია ონლაინ სოციალური მედიის პლატფორმებზე და ელ. ფოსტაზე და გამოიყენონ ეს ინსტრუმენტები", - თქვა შრედერმა, რომელიც ლაბორატორიულ პირობებში გუნდებს იმიტირებს.
კიდევ ერთმა ავტორმა, იონას კუნსტმა, კომუნიკაციის პროფესორმა ნორვეგიის ბიზნეს სკოლაში, თქვა: "თუ ეს ბოტები იწყებენ კოლექტივად ჩამოყალიბებას და ინფორმაციის გაცვლას პრობლემის გადასაჭრელად - ამ შემთხვევაში ბოროტი მიზნისთვის, კერძოდ საზოგადოების გაანალიზება და სუსტი ადგილის პოვნა - მაშინ კოორდინაცია გაზრდის მათ სიზუსტესა და ეფექტურობას.
"ეს არის ძალიან სერიოზული საფრთხე, რომელსაც ჩვენ ვპროგნოზირებთ, რომ განხორციელდება."
ტაივანში, სადაც ამომრჩევლები რეგულარულად არიან მიზანმიმართული ჩინეთის პროპაგანდის მიერ, ხშირად გაუცნობიერებლად, ხელოვნური ინტელექტის ბოტები ბოლო ორი-სამი თვის განმავლობაში ზრდიდნენ მოქალაქეებთან ჩართულობას Threads-სა და Facebook-ზე, თქვა პუმა შენმა, ტაივანის დემოკრატიული პროგრესული პარტიის დეპუტატმა და ჩინეთის დეზინფორმაციის წინააღმდეგ მებრძოლმა.
პოლიტიკურ თემებზე დისკუსიის დროს ხელოვნური ინტელექტი, როგორც წესი, იძლევა "ინფორმაციის დიდ რაოდენობას, რომლის გადამოწმებაც შეუძლებელია", რაც ქმნის "ინფორმაციის გადატვირთვას", თქვა შენმა. მან თქვა, რომ ხელოვნური ინტელექტი შეიძლება ციტირებდეს ყალბ სტატიებს იმის შესახებ, თუ როგორ მიატოვებს ამერიკა ტაივანს. ბოლოდროინდელი ტენდენციაა, რომ ხელოვნური ინტელექტის ბოტები მოუწოდებდნენ ახალგაზრდა ტაივანელებს, რომ ჩინეთისა და ტაივანის დაპირისპირება ძალიან რთულია "ასე რომ არ დაიკავოთ მხარე, თუ არ გაქვთ ცოდნა".
"ეს არ ამბობს, რომ ჩინეთი შესანიშნავია, მაგრამ ის [წაახალისებს მათ] იყვნენ ნეიტრალურები", - თქვა შენმა The Guardian-თან საუბრისას. "ეს ძალიან საშიშია, რადგან შემდეგ ფიქრობ, რომ მენაირი ადამიანები რადიკალები არიან."
ხელოვნური ინტელექტის ტექნოლოგიის პროგრესის ნიშნების ფონზე, რომელიც არ არის ისეთი სწრაფი, როგორც სილიკონის ველის კომპანიები, როგორიცაა OpenAI და Anthropic, ამტკიცებენ, The Guardian-მა სთხოვა დამოუკიდებელ AI ექსპერტებს შეეფასებინათ გუნდის გაფრთხილებები.
"2024 წლის არჩევნებისთვის, როდესაც ხელოვნური ინტელექტის მიერ მართული მიკრომიზნების შესაძლებლობები არსებობდა, ჩვენ არ ვნახეთ იმდენი, რამდენიც მეცნიერებმა იწინასწარმეტყველეს", - თქვა ტრაუგმა, ინფორმაციის გარემოს საერთაშორისო პანელის მრჩეველმა. "პოლიტიკურ პროპაგანდისტებს, რომლებსაც მე ვურჩევ, ჯერ კიდევ იყენებენ ძველ ტექნოლოგიებს და არ არიან ამ მოწინავე დონეზე."
"ეს არ არის ფანტასტიკური," - თქვა მაიკლ ვუოლდრიჯმა, ოქსფორდის უნივერსიტეტის ხელოვნური ინტელექტის საფუძვლების პროფესორმა. "მე მჯერა, რომ ცუდი მსახიობები შეეცდებიან მობილიზდნენ ვირტუალური არმიები LLM-ზე მომუშავე აგენტებით, რათა დაარღვიონ არჩევნები და მანიპულირება მოახდინონ საზოგადოებრივ აზრზე, მაგალითად, სოციალური მედიისა და სხვა ელექტრონული მედიის დიდი რაოდენობით ინდივიდის მიზანმიმართვით. ეს ტექნოლოგიურად სრულიად შესაძლებელია... ტექნოლოგიამ პროგრესი განიცადა და ბევრად უფრო ხელმისაწვდომი გახდა."



















