
ელონ მასკის X-ი აკრძალავს მომხმარებლებს ფულის გამომუშავებას პლატფორმაზე, თუ ისინი განმეორებით გამოაქვეყნებენ არაეტიკეტირებულ AI-ით გენერირებულ ომის ვიდეოებს, მას შემდეგ, რაც სოციალური მედიის არხები ირანის კონფლიქტის ყალბი ბრძოლის სცენებით აივსო.
სოციალურ ქსელ X-ს, რომელსაც ყოველთვიურად დაახლოებით ნახევარი მილიარდი აქტიური მომხმარებელი ჰყავს, შეაჩერებს ადამიანებს პოსტებიდან შემოსავლის მიღებაში 90 დღით, თუ ისინი განათავსებენ AI-ით გენერირებულ ვიდეოებს შეიარაღებული კონფლიქტის შესახებ, AI-ით გენერირების შესახებ გამჟღავნების დამატების გარეშე. მეორე დარღვევა გამოიწვევს მუდმივ აკრძალვას, განაცხადა მან სამშაბათს ღამით, მას შემდეგ, რაც ირანის კონფლიქტის პირველი დღეები აღინიშნა ყალბი ონლაინ ვიდეოების ნიაღვრით.
X-ზე, ასევე ინსტაგრამსა და ფეისბუქზე, რომლებიც იმართება Meta-ს მიერ, გამოჩნდა მრავალი ყალბი ბრძოლის სცენა, მათ შორის ირანის რაკეტები, რომლებიც მისდევენ და ესვრიან აშშ-ს თვითმფრინავს - რომელიც BBC Verify-ის მიერ შემოწმებული იყო 70 მილიონი ნახვით - და კიდევ ერთი კლიპი, რომელიც იყენებდა AI-ს, რათა შეეცვალა კვამლი, რომელიც ამოდიოდა რეალური სარაკეტო დარტყმის ადგილიდან, ყალბი ცეცხლოვანი ბურთით, რომელიც რამდენჯერმე დიდია.
მომხმარებლებს შეუძლიათ ყოველთვიურად ასობით დოლარის გამომუშავება X-ზე, როგორც პლატფორმის სარეკლამო მოდელის ნაწილი, თუ ისინი შექმნიან მნიშვნელოვან მიმდევრებს, რომლებიც უახლოვდებიან 100,000 ადამიანს, რაც ხელს უწყობს შოკისმომგვრელი ვირუსული პოსტების წარმოებას.
ნიკიტა ბირმა, X-ის პროდუქტის ხელმძღვანელმა, თქვა: "ომის დროს გადამწყვეტია, რომ ადამიანებს ჰქონდეთ წვდომა ავთენტურ ინფორმაციაზე ადგილზე. დღევანდელი ხელოვნური ინტელექტის ტექნოლოგიებით, ადვილია კონტენტის შექმნა, რომელსაც შეუძლია ხალხის შეცდომაში შეყვანა. დღეიდან მოყოლებული, მომხმარებლები, რომლებიც განათავსებენ AI-ით გენერირებულ ვიდეოებს შეიარაღებული კონფლიქტის შესახებ - AI-ით გენერირების შესახებ გამჟღავნების დამატების გარეშე - შეჩერდებიან შემქმნელის შემოსავლების გაზიარებისგან 90 დღით. შემდგომი დარღვევები გამოიწვევს პროგრამის მუდმივ შეჩერებას."
ომის სხვა ყალბ ვიდეოებს დიდი წვდომა ჰქონდათ. ინსტაგრამზე გავრცელებული კლიპი, რომელიც ამტკიცებდა, რომ აჩვენებდა უზარმაზარ ხანძარს მას შემდეგ, რაც "ირანმა გაანადგურა აშშ-ს საჰაერო ბაზა რიადში", ყალბი იყო და იდენტიფიცირებული იყო, როგორც 18 თვის წინანდელი კადრები იემენში, ჰოდეიდაში ისრაელის დარტყმის შემდეგ.
Full Fact-მა, დიდ ბრიტანეთში ფაქტების შემოწმების ორგანიზაციამ, განაცხადა, რომ ის "ყოველდღიურად ხედავს, თუ როგორ აჩქარებს ხელოვნური ინტელექტი დეზინფორმაციის გავრცელებას სოციალურ მედიაში".
სტივ ნოვოთნიმ, Full Fact-ის რედაქტორმა, თქვა: "ბოლო რამდენიმე დღის განმავლობაში ჩვენ ვნახეთ ხელოვნური სურათების მრავალი მაგალითი, რომლებიც გაზიარებულია სხვადასხვა სოციალური მედიის პლატფორმებზე, თითქოს ისინი რეალურია, მათ შორის ყალბი სურათები თვითმფრინავის გადამზიდავისა და ბურჯ ხალიფას დაწვის შესახებ და სურათი, რომელიც, სავარაუდოდ, აჩვენებს აიათოლა ხამენეის სხეულს."
"მაშინაც კი, როდესაც ხელოვნური ინტელექტის სურათები დაბალი ხარისხისაა, ან ჯერ კიდევ აქვთ ხილული წყლის ნიშანი, ჩვენ ხშირად ვხედავთ მათ მასშტაბურად გაზიარებას - და ამ ყალბი კონტენტისა და მისი გენერირებისა და გავრცელების სიმარტივის საერთო რაოდენობა რეალური პრობლემაა."
Meta-ს კომენტარი სთხოვეს.



















