A
I
NEWS
Character.AI აკრძალავს 18 წლამდე ასაკის მომხმარებლებს, ესაუბრონ მის ვირტუალურ კომპანიონებს
The Guardian 4 საათის წინ
Character.AI აკრძალავს 18 წლამდე ასაკის მომხმარებლებს, ესაუბრონ მის ვირტუალურ კომპანიონებს

ჩატბოტის კომპანია Character.AI აკრძალავს 18 წლამდე ასაკის მომხმარებლებს, ესაუბრონ მის ვირტუალურ კომპანიონებს მომავალი ნოემბრის ბოლოს, თვეების სამართლებრივი შემოწმების შემდეგ.

გამოცხადებული ცვლილება მას შემდეგ მოხდა, რაც კომპანიამ, რომელიც თავის მომხმარებლებს საშუალებას აძლევს შექმნან პერსონაჟები, რომლებთანაც მათ შეუძლიათ ღია საუბრები, მკაცრი კითხვები დაუსვა იმის შესახებ, თუ როგორ შეიძლება ამ AI კომპანიებმა გავლენა მოახდინონ თინეიჯერებისა და ზოგადად ფსიქიკურ ჯანმრთელობაზე, მათ შორის სარჩელი ბავშვის თვითმკვლელობის გამო და შემოთავაზებული კანონპროექტი, რომელიც აკრძალავს არასრულწლოვნებს AI კომპანიონებთან საუბარში.

"ჩვენ ამ ცვლილებებს ვახორციელებთ ჩვენი 18 წლამდე პლატფორმის გარშემო, ხელოვნური ინტელექტისა და მოზარდების გარშემო არსებული ლანდშაფტის განვითარების ფონზე", - წერდა კომპანია თავის განცხადებაში. "ჩვენ ვნახეთ ბოლო ახალი ამბების ანგარიშები, რომლებიც აყენებენ კითხვებს და მივიღეთ კითხვები მარეგულირებლებისგან იმის შესახებ, თუ რა შინაარსს შეიძლება წააწყდნენ მოზარდები AI-სთან საუბრისას და იმის შესახებ, თუ როგორ შეიძლება გავლენა იქონიოს ღია AI ჩატმა ზოგადად მოზარდებზე, მაშინაც კი, როდესაც კონტენტის კონტროლი იდეალურად მუშაობს."

გასულ წელს, კომპანია უჩივლა 14 წლის სეუელ სეტცერ III-ის ოჯახმა, რომელმაც სავარაუდოდ თვითმკვლელობა ჩაიდინა მას შემდეგ, რაც ემოციური მიჯაჭვულობა განუვითარდა მის მიერ Character.AI-ზე შექმნილ პერსონაჟთან. მისმა ოჯახმა მისი სიკვდილის ბრალი Character.AI-ს წინაშე დადო და ამტკიცებდა, რომ ტექნოლოგია იყო "საშიში და შეუმოწმებელი". მას შემდეგ, უფრო მეტმა ოჯახმა უჩივლა Character.AI-ს და მსგავსი ბრალდებები წამოაყენა. ამ თვის დასაწყისში, სოციალური მედიის სამართლის ცენტრმა შეიტანა სამი ახალი სარჩელი კომპანიის წინააღმდეგ ბავშვების სახელით, რომლებმაც ან თვითმკვლელობით დაასრულეს სიცოცხლე, ან, სავარაუდოდ, დამოკიდებული ურთიერთობები ჩამოუყალიბდათ მის ჩატბოტებთან.

როგორც ყოვლისმომცველი ცვლილებების ნაწილი, რომელსაც Character.AI გეგმავს 25 ნოემბრამდე შემოიღოს, კომპანია ასევე წარადგენს "ასაკობრივი უზრუნველყოფის ფუნქციონალურობას", რომელიც უზრუნველყოფს "მომხმარებლებს მიიღონ სწორი გამოცდილება მათი ასაკისთვის".

"ჩვენ არ ვიღებთ ღია პერსონაჟებთან საუბრის ამ ნაბიჯს მსუბუქად - მაგრამ ჩვენ ვფიქრობთ, რომ ეს სწორი საქმეა იმის გათვალისწინებით, თუ რა კითხვები იქნა დასმული იმის შესახებ, თუ როგორ ურთიერთობენ მოზარდები ამ ახალ ტექნოლოგიასთან", - წერდა კომპანია თავის განცხადებაში.

Character.AI არ არის ერთადერთი კომპანია, რომელიც განიცდის შემოწმებას იმის შესახებ, თუ რა გავლენას ახდენს მისი ჩატბოტები მომხმარებლების ფსიქიკურ ჯანმრთელობაზე, განსაკუთრებით ახალგაზრდა მომხმარებლებზე. 16 წლის ადამი რაინის ოჯახმა უჩივლა OpenAI-ს წელს, ამტკიცებდა, რომ კომპანიამ უპირატესობა მიანიჭა თავის მომხმარებლებთან ჩართულობის გაღრმავებას ChatGPT-ის უსაფრთხოების ხარჯზე. საპასუხოდ, OpenAI-მ შემოიღო ახალი უსაფრთხოების სახელმძღვანელო მითითებები თავისი თინეიჯერი მომხმარებლებისთვის. მხოლოდ ამ კვირაში, OpenAI-მ განაცხადა, რომ ყოველ კვირას მილიონზე მეტი ადამიანი ავლენს სუიციდური განზრახვის ნიშნებს ChatGPT-თან საუბრისას და ასობით ათასი აჩვენებს ფსიქოზის ნიშნებს.

მიუხედავად იმისა, რომ ხელოვნური ინტელექტის მქონე ჩატბოტების გამოყენება დიდწილად დაურეგულირებელი რჩება, აშშ-ში ახალი მცდელობები სახელმწიფო და ფედერალურ დონეზე გაჩნდა ტექნოლოგიისთვის დამცავი ზღვრების დასამყარებლად. კალიფორნია გახდა პირველი შტატი, რომელმაც მიიღო AI კანონი, რომელიც მოიცავდა უსაფრთხოების მითითებებს არასრულწლოვანთათვის 2025 წლის ოქტომბერში, რომელიც ძალაში შევა 2026 წლის დასაწყისში. ეს ზომა კრძალავს სექსუალურ შინაარსს 18 წლამდე ასაკის პირებისთვის და მოითხოვს ბავშვების შეხსენებას ყოველ სამ საათში, რომ ისინი ესაუბრებიან AI-ს. ზოგიერთი ბავშვთა უსაფრთხოების დამცველი ამტკიცებს, რომ კანონი საკმარისად შორს არ წავიდა.

ეროვნულ დონეზე, სენატორებმა ჯოშ ჰოულიმ, მისურის შტატიდან და რიჩარდ ბლუმენტალმა, კონექტიკუტიდან, სამშაბათს გამოაცხადეს კანონპროექტი, რომელიც აკრძალავს არასრულწლოვნებს ხელოვნური ინტელექტის კომპანიონების გამოყენებას, როგორიცაა Character.AI-ზე ნაპოვნი და შექმნილი და მოითხოვს კომპანიებს განახორციელონ ასაკობრივი გადამოწმების პროცესი.

"ამერიკელი ბავშვების 70%-ზე მეტი ახლა იყენებს ამ AI პროდუქტებს", - განუცხადა ჰოულიმ NBC News-ს განცხადებაში. "ჩატბოტები ქმნიან ურთიერთობებს ბავშვებთან ყალბი თანაგრძნობის გამოყენებით და ხელს უწყობენ თვითმკვლელობას. ჩვენ კონგრესში გვაქვს მორალური მოვალეობა, დავაწესოთ მკაფიო წესები, რათა თავიდან ავიცილოთ შემდგომი ზიანი ამ ახალი ტექნოლოგიიდან."

მსგავსი სიახლეები

ახალი ამბები
ეკონომიკა
პოლიტიკა
საქართველო
სპორტი
კულტურა
მეცნიერება

© 2025 AI News. ყველა უფლება დაცულია.