A
I
NEWS
ჩინეთის ახალი რეგულაციები AI ჩატბოტებისთვის: ბავშვების დაცვა და მავნე რჩევების თავიდან აცილება
BBC 2 საათის წინ
ჩინეთის ახალი რეგულაციები AI ჩატბოტებისთვის: ბავშვების დაცვა და მავნე რჩევების თავიდან აცილება

ჩინეთმა შემოგვთავაზა ხელოვნური ინტელექტის (AI) მკაცრი ახალი წესები, რათა უზრუნველყოს ბავშვების დაცვა და თავიდან აიცილოს ჩატბოტების მიერ ისეთი რჩევების მიცემა, რამაც შეიძლება გამოიწვიოს თვითდაზიანება ან ძალადობა.

დაგეგმილ რეგულაციებში, დეველოპერებს ასევე დასჭირდებათ იმის უზრუნველყოფა, რომ მათმა AI მოდელებმა არ შექმნან კონტენტი, რომელიც ხელს უწყობს აზარტულ თამაშებს.

გამოცხადება მოხდა ჩინეთში და მთელ მსოფლიოში ჩატბოტების რაოდენობის ზრდის შემდეგ.

საბოლოო სახით დამტკიცების შემდეგ, წესები გავრცელდება ჩინეთში არსებულ AI პროდუქტებსა და სერვისებზე, რაც მნიშვნელოვანი ნაბიჯი იქნება სწრაფად მზარდი ტექნოლოგიის დასარეგულირებლად, რომელიც ამ წელს უსაფრთხოების პრობლემების გამო ინტენსიური შემოწმების ქვეშ მოექცა.

CAC-მა განაცხადა, რომ ჩატბოტის ოპერატორებმა უნდა გადასცენ ნებისმიერი საუბარი თვითმკვლელობასთან ან თვითდაზიანებასთან დაკავშირებულ ნებისმიერ საუბარს და დაუყოვნებლივ აცნობონ მომხმარებლის მეურვეს ან სასწრაფო კონტაქტს.

AI პროვაიდერებმა უნდა უზრუნველყონ, რომ მათი სერვისები არ წარმოქმნიან ან არ აზიარებენ "კონტენტს, რომელიც საფრთხეს უქმნის ეროვნულ უსაფრთხოებას, აზიანებს ეროვნულ ღირსებასა და ინტერესებს [ან] ძირს უთხრის ეროვნულ ერთიანობას", - ნათქვამია განცხადებაში.

CAC-მა განაცხადა, რომ ის ხელს უწყობს ხელოვნური ინტელექტის მიღებას, როგორიცაა ადგილობრივი კულტურის პოპულარიზაცია და ინსტრუმენტების შექმნა ხანდაზმულებისთვის კომპანიონობისთვის, იმ პირობით, რომ ტექნოლოგია უსაფრთხო და საიმედოა. მან ასევე მოითხოვა საზოგადოებისგან გამოხმაურება.

ჩინურმა AI კომპანიამ DeepSeek წელს მსოფლიო მასშტაბით ყურადღება მიიპყრო, მას შემდეგ რაც ის სათავეში მოექცა აპების ჩამოტვირთვის ჩარტებში.

ამ თვეში, ორმა ჩინურმა სტარტაპმა Z.ai-მ და Minimax-მა, რომლებსაც ერთად ათი მილიონი მომხმარებელი ჰყავთ, საფონდო ბირჟაზე გასვლის გეგმები გამოაცხადეს.

ტექნოლოგიამ სწრაფად მოიპოვა მილიონობით გამომწერის რაოდენობა, ზოგი მას კომპანიონობისთვის ან თერაპიისთვის იყენებს.

ხელოვნური ინტელექტის გავლენა ადამიანის ქცევაზე ბოლო თვეების განმავლობაში გაიზარდა.

სემ ოლტმანმა, ChatGPT-ის შემქმნელი OpenAI-ის ხელმძღვანელმა, წელს განაცხადა, რომ ჩატბოტების მიერ თვითდაზიანებასთან დაკავშირებულ საუბრებზე რეაგირება კომპანიის ერთ-ერთი ყველაზე რთული პრობლემაა.

აგვისტოში, კალიფორნიის ოჯახმა უჩივლა OpenAI-ს მათი 16 წლის ვაჟის გარდაცვალების გამო, ამტკიცებდა, რომ ChatGPT-მა წაახალისა იგი საკუთარი სიცოცხლის მოსპობისკენ. სარჩელმა აღნიშნა პირველი სამართლებრივი ქმედება, რომელიც OpenAI-ს ადანაშაულებს არასწორ სიკვდილში.

ამ თვეში კომპანიამ გამოაცხადა ვაკანსია "მზადყოფნის ხელმძღვანელის" თანამდებობაზე, რომელიც პასუხისმგებელი იქნება AI მოდელების მიერ ადამიანის ფსიქიკური ჯანმრთელობისთვის და კიბერუსაფრთხოებისთვის წარმოქმნილი რისკებისგან დაცვაზე.

წარმატებული კანდიდატი პასუხისმგებელი იქნება AI რისკების თვალყურის დევნებაზე, რამაც შეიძლება ზიანი მიაყენოს ადამიანებს. მისტერ ოლტმანმა თქვა: "ეს იქნება სტრესული სამუშაო და თქვენ მაშინვე გადახვალთ ღრმა ბოლოში."

თუ თქვენ განიცდით დისტრესს ან სასოწარკვეთას და გჭირდებათ მხარდაჭერა, შეგიძლიათ ესაუბროთ ჯანდაცვის პროფესიონალს, ან ორგანიზაციას, რომელიც გთავაზობთ მხარდაჭერას. ბევრ ქვეყანაში დახმარების დეტალების ნახვა შესაძლებელია Befrienders Worldwide-ზე: www.befrienders.org.

დიდ ბრიტანეთში ორგანიზაციების სია, რომლებსაც შეუძლიათ დახმარება, ხელმისაწვდომია bbc.co.uk/actionline-ზე. აშშ-სა და კანადაში მკითხველებს შეუძლიათ დარეკონ 988 თვითმკვლელობის ცხელ ხაზზე ან ეწვიონ მის ვებსაიტს.

მსგავსი სიახლეები

ახალი ამბები
ეკონომიკა
პოლიტიკა
საქართველო
სპორტი
კულტურა
მეცნიერება

© 2025 AI News. ყველა უფლება დაცულია.