
Deepfake თაღლითობა "ინდუსტრიული" გახდა, ნათქვამია AI ექსპერტების მიერ გამოქვეყნებულ ანალიზში.
ხელოვნური ინტელექტის ექსპერტების მიერ გამოქვეყნებულმა ანალიზმა განაცხადა, რომ ინსტრუმენტები მორგებული, თუნდაც პერსონალიზებული, თაღლითობის შესაქმნელად - მაგალითად, შვედი ჟურნალისტების ან კვიპროსის პრეზიდენტის ღრმა ყალბი ვიდეოების გამოყენებით - აღარ არის ნიშა, არამედ იაფი და ადვილად გამოსაყენებელი მასშტაბში.
მან გააანალიზა ბოლოდროინდელი "იმიტაციის მოგებისთვის" 12-ზე მეტი მაგალითი, მათ შორის დასავლეთ ავსტრალიის პრემიერის, რობერტ კუკის, ღრმა ყალბი ვიდეო, რომელიც ხელს უწყობს საინვესტიციო სქემას და ღრმა ყალბი ექიმები, რომლებიც ხელს უწყობენ კანის კრემებს.
ეს მაგალითები არის ტენდენციის ნაწილი, რომლის დროსაც თაღლითები იყენებენ ფართოდ ხელმისაწვდომ AI ინსტრუმენტებს სულ უფრო მიზანმიმართული ძარცვის ჩასადენად. გასულ წელს სინგაპურის მულტინაციონალურმა კომპანიამ ფინანსურმა ოფიცერმა 500 000 დოლარზე მეტი გადაუხადა თაღლითებს, რაც, მისი აზრით, კომპანიის ხელმძღვანელობასთან ვიდეო ზარს წარმოადგენდა. დიდი ბრიტანეთის მომხმარებლები შეფასებულია, რომ 9.4 მილიარდი ფუნტი დაკარგეს თაღლითობის გამო 2025 წლის ნოემბრის ცხრა თვის განმავლობაში.
"შესაძლებლობები მოულოდნელად აღწევს იმ დონეს, სადაც ყალბი კონტენტის წარმოება პრაქტიკულად ნებისმიერს შეუძლია", - თქვა სიმონ მაილუსმა, MIT-ის მკვლევარმა, რომელიც მუშაობს AI ინციდენტის მონაცემთა ბაზასთან დაკავშირებულ პროექტზე.
ის ითვლის, რომ "თაღლითები, თაღლითობები და მიზანმიმართული მანიპულირება" შეადგენს მონაცემთა ბაზაში მოხსენებული ინციდენტების უდიდეს წილს ბოლო 12 თვიდან 11-ში. მან თქვა: "ის ძალიან ხელმისაწვდომი გახდა იმ დონემდე, რომ ფაქტობრივად შესვლის ბარიერი აღარ არსებობს."
"მასშტაბი იცვლება", - თქვა ფრედ ჰეიდინგმა, ჰარვარდის მკვლევარმა, რომელიც სწავლობს AI-ზე მომუშავე თაღლითობებს. "ის ხდება ძალიან იაფი, თითქმის ნებისმიერს შეუძლია ახლა მისი გამოყენება. მოდელები მართლაც კარგი ხდება - ისინი ბევრად უფრო სწრაფად ხდება, ვიდრე ექსპერტები ფიქრობენ."
იანვრის დასაწყისში, ჯეისონ რებჰოლცმა, Evoke-ის აღმასრულებელმა დირექტორმა, AI უსაფრთხოების კომპანიამ, LinkedIn-ზე გამოაქვეყნა ვაკანსიის შეთავაზება და მაშინვე დაუკავშირდა მის ქსელში უცნობს, რომელმაც რეკომენდაცია გაუწია კანდიდატს.
რამდენიმე დღეში ის გაცვლიდა ელ.წერილს იმ ადამიანთან, რომელიც, ქაღალდზე, ნიჭიერი ინჟინერი ჩანდა.
"მე გადავხედე რეზიუმეს და ვიფიქრე, ეს არის რეალურად ძალიან კარგი რეზიუმე. ასე რომ, მე ვფიქრობდი, მიუხედავად იმისა, რომ იყო რამდენიმე წითელი დროშა, მოდით უბრალოდ გვქონდეს საუბარი."
შემდეგ რაღაც უცნაური მოხდა. კანდიდატის ელ.წერილები პირდაპირ სპამში წავიდა. მის რეზიუმეს ჰქონდა უცნაურობები. მაგრამ რებჰოლცი ადრე უცნაურ კანდიდატებთან მუშაობდა და გადაწყვიტა გასაუბრება გაეგრძელებინა.
შემდეგ, როდესაც რებჰოლცმა ზარი გააკეთა, კანდიდატის ვიდეო თითქმის ერთი წუთი დასჭირდა.
"ფონი უკიდურესად ყალბი იყო", - თქვა მან. "უბრალოდ ძალიან, ძალიან ყალბი ჩანდა. და ის ნამდვილად იბრძოდა [არეასთან] ინდივიდუალური კიდეების გარშემო... და შემდეგ როცა მის სახეს ვუყურებ, ის უბრალოდ ძალიან რბილია კიდეების გარშემო."
რებჰოლცმა გაიარა საუბარი, არ სურდა უხერხულობის წინაშე დგომა, პირდაპირ ეკითხა კანდიდატისთვის, იყო თუ არა ის, ფაქტობრივად, დახვეწილი თაღლითობა. ამის შემდეგ მან გაუგზავნა ჩანაწერი მას ღრმა ყალბი აღმოჩენის ფირმის კონტაქტს, რომელმაც უთხრა, რომ კანდიდატის ვიდეო გამოსახულება ხელოვნური ინტელექტის მიერ იყო გენერირებული. მან უარყო კანდიდატი.
რებჰოლცს ჯერ კიდევ არ ესმის, რა სურდა თაღლითს - ინჟინრის ხელფასი, თუ სავაჭრო საიდუმლოებები. მიუხედავად იმისა, რომ იყო ცნობები ჩრდილოეთ კორეის ჰაკერების შესახებ, რომლებიც ცდილობდნენ ამაზონში სამუშაოს მიღებას, Evoke არის სტარტაპი და არა მასიური მოთამაშე.
"ეს იგივეა, თუ ჩვენ გვემუქრებიან ამით, ყველა გვემუქრება ამით", - თქვა რებჰოლცმა.
ჰეიდიმ თქვა, რომ ყველაზე ცუდი ჯერ კიდევ წინ იყო. ამჟამად ღრმა ყალბი ხმის კლონირების ტექნოლოგია შესანიშნავია - რაც აადვილებს თაღლითებს ტელეფონის საშუალებით, მაგალითად, გაჭირვებულ შვილიშვილს განასახიერონ. მეორეს მხრივ, ღრმა ყალბი ვიდეოებს ჯერ კიდევ აქვთ გაუმჯობესების ადგილი.
ეს შეიძლება ჰქონდეს ექსტრემალურ შედეგებს: დაქირავებისთვის, არჩევნებისთვის და ზოგადად საზოგადოებისთვის. ჰეიდინგმა დაამატა: "ეს იქნება დიდი ტკივილის წერტილი აქ, ციფრული ინსტიტუტების, ინსტიტუტებისა და ზოგადად მასალის სრული უნდობლობა."


















