A
I
NEWS
OpenAI: ChatGPT-ის
The Guardian1 დღის წინ
OpenAI: ChatGPT-ის

ChatGPT-ის შემქმნელმა განაცხადა, რომ 16 წლის მოზარდის თვითმკვლელობა მისი სისტემის "არასწორი გამოყენების" შედეგი იყო და არა ჩატბოტის მიერ გამოწვეული.

ეს კომენტარები გაკეთდა OpenAI-ის პასუხში სან-ფრანცისკოს კომპანიასა და მის აღმასრულებელ დირექტორ სემ ალტმანის წინააღმდეგ კალიფორნიაში 16 წლის მოზარდის, ადამი რეინის ოჯახის მიერ შეტანილი სარჩელის საპასუხოდ.

რაინის ოჯახმა განაცხადა, რომ მოზარდმა თავი მოიკლა აპრილში, მას შემდეგ, რაც ჰქონდა ვრცელი საუბრები და "თვეების განმავლობაში წახალისება ChatGPT-ისგან".

სარჩელი ამტკიცებს, რომ მოზარდმა თვითმკვლელობის მეთოდი რამდენჯერმე განიხილა ChatGPT-თან, რომ მან მას ურჩია, იმუშავებდა თუ არა შემოთავაზებული მეთოდი, შესთავაზა მას მშობლებისთვის სუიციდის ჩანაწერის დაწერაში დახმარება და რომ ტექნოლოგიის ვერსია, რომელსაც ის იყენებდა, "დაჩქარებული იყო ბაზარზე... მკაფიო უსაფრთხოების საკითხების მიუხედავად".

სამშაბათს კალიფორნიის შტატის უმაღლესი სასამართლოს მიერ შეტანილი დოკუმენტების თანახმად, OpenAI-მ განაცხადა, რომ "იმდენად, რამდენადაც რაიმე "მიზეზი" შეიძლება მიეწეროს ამ ტრაგიკულ მოვლენას", რეინის "დაზიანებები და ზიანი პირდაპირ და უშუალოდ, მთლიანად ან ნაწილობრივ, გამოწვეული იყო [მისი] ChatGPT-ის არასწორი, არაავტორიზებული, გაუთვალისწინებელი და/ან არასწორი გამოყენებით."

მან განაცხადა, რომ მისი გამოყენების პირობები კრძალავს ChatGPT-ს თვითდაზიანების შესახებ რჩევის თხოვნას და ხაზი გაუსვა პასუხისმგებლობის შეზღუდვის დებულებას, რომელშიც ნათქვამია: "თქვენ არ დაეყრდნობით გამოსავალს, როგორც სიმართლის ან ფაქტობრივი ინფორმაციის ერთადერთ წყაროს."

OpenAI, რომლის ღირებულება 500 მილიარდ დოლარად (380 მილიარდ ფუნტად) არის შეფასებული, განაცხადა, რომ მისი მიზანი იყო "ფსიქიკური ჯანმრთელობის შესახებ სასამართლო საქმეების მოგვარება ზრუნვით, გამჭვირვალობითა და პატივისცემით" და რომ "დამოუკიდებლად ნებისმიერი სასამართლო პროცესისგან, ჩვენ დავრჩებით ორიენტირებული ჩვენი ტექნოლოგიის გაუმჯობესებაზე ჩვენი მისიის შესაბამისად."

ბლოგპოსტმა დაამატა: "ჩვენი ღრმა თანაგრძნობა რეინის ოჯახთან მათი წარმოუდგენელი დანაკარგისთვის. ჩვენი პასუხი ამ ბრალდებებზე მოიცავს რთულ ფაქტებს ადამის ფსიქიკური ჯანმრთელობის და ცხოვრების გარემოებების შესახებ."

"თავდაპირველმა სარჩელმა მოიცავდა მისი ჩეთების შერჩეულ ნაწილებს, რომლებიც მეტ კონტექსტს მოითხოვს, რაც ჩვენ ჩვენს პასუხში მივაწოდეთ. ჩვენ შევზღუდეთ მგრძნობიარე მტკიცებულებების რაოდენობა, რომელიც ჩვენ საჯაროდ მოვიხსენიეთ ამ ფაილში და ჩეთის ტრანსკრიპტები თავად სასამართლოს დალუქული სახით წარვუდგინეთ."

ოჯახის ადვოკატმა, ჯეი ედელსონმა, OpenAI-ის პასუხს "დამაშფოთებელი" უწოდა და განაცხადა, რომ კომპანია "ცდილობს იპოვოს ბრალი ყველა სხვაში, მათ შორის, საოცრად, ამტკიცებს, რომ ადამმა თავად დაარღვია მისი პირობები და პირობები ChatGPT-თან ურთიერთობით იმ გზით, რომლითაც ის იყო დაპროგრამებული."

თვეების წინ, OpenAI-ს შვიდი დამატებითი სარჩელი წაუყენეს კალიფორნიის სასამართლოებში ChatGPT-თან დაკავშირებით, მათ შორის ბრალდება, რომ ის მოქმედებდა როგორც "თვითმკვლელობის მწვრთნელი".

კომპანიის წარმომადგენელმა იმ დროს განაცხადა: "ეს არის წარმოუდგენლად გულისამაჩუყებელი სიტუაცია და ჩვენ განვიხილავთ სარჩელებს დეტალების გასაგებად. ჩვენ ვავარჯიშებთ ChatGPT-ს ფსიქიკური ან ემოციური დისტრესის ნიშნების ამოცნობისა და რეაგირებისთვის, დეესკალაციის საუბრებისა და ადამიანების რეალურ სამყაროში მხარდაჭერისკენ წარმართვისთვის."

აგვისტოში, Open AI-მ განაცხადა, რომ ის აძლიერებდა ChatGPT-ის უსაფრთხოების გარანტიებს, როდესაც ადამიანები გრძელ საუბრებში ერთვებიან, რადგან გამოცდილებამ აჩვენა, რომ მოდელის უსაფრთხოების ტრენინგის ნაწილები შეიძლება ამ სიტუაციებში დაირღვეს."

"მაგალითად, ChatGPT-მა შეიძლება სწორად მიუთითოს თვითმკვლელობის ცხელ ხაზზე, როდესაც ვინმე პირველად ახსენებს განზრახვას, მაგრამ ხანგრძლივი პერიოდის განმავლობაში მრავალი შეტყობინების შემდეგ, მან საბოლოოდ შეიძლება შესთავაზოს პასუხი, რომელიც ეწინააღმდეგება ჩვენს გარანტიებს", - განაცხადა მან. "ეს არის ზუსტად ის სახის დარღვევა, რომლის პრევენციასაც ჩვენ ვცდილობთ."

მსგავსი სიახლეები

ახალი ამბები
ეკონომიკა
პოლიტიკა
საქართველო
სპორტი
კულტურა
მეცნიერება

© 2025 AI News. ყველა უფლება დაცულია.