
თუ ხელოვნური ინტელექტის რისკების შესახებ ბევრი დისკუსია იწვევს აპოკალიფსური სცენარების წარმოდგენას ჰიპერინტელექტუალური ბოტების შესახებ, რომლებიც ბირთვული კოდებით არიან შეიარაღებულნი, შესაძლოა ჩვენ უფრო ახლოს უნდა ვიფიქროთ.
თავის სასწრაფო, ჰუმანისტურ წიგნში, სოციოლოგი ჯეიმს მულდუნი მოგვიწოდებს, რომ უფრო მეტი ყურადღება მივაქციოთ ჩვენს ღრმა ემოციურ კავშირებს ხელოვნურ ინტელექტთან და იმაზე, თუ როგორ შეიძლება მოგებისკენ მიდრეკილმა ტექნოლოგიურმა კომპანიებმა გამოიყენონ ისინი.
ოქსფორდის ინტერნეტის ინსტიტუტის კვლევის ასოცირებული, რომელმაც ადრე დაწერა იმ ექსპლუატირებული მუშაკების შესახებ, რომელთა შრომაც შესაძლებელს ხდის ხელოვნურ ინტელექტს, მულდუნი ახლა გვიწვევს ადამიანური-ხელოვნური ინტელექტის ურთიერთობების შემაშფოთებელ ტერიტორიაზე, ხვდება იმ ადამიანებს, რომლებისთვისაც ჩატბოტები არ არიან მხოლოდ ასისტენტები, არამედ მეგობრები, რომანტიკული პარტნიორები, თერაპევტები, თუნდაც გარდაცვლილი ადამიანების ავატარები.
ზოგისთვის ხელოვნური ინტელექტის ჩატბოტთან შეყვარების ან მისთვის თქვენი ღრმა საიდუმლოებების გაზიარების იდეა შეიძლება იდუმალი და ცოტა შემაშფოთებელი ჩანდეს.
მაგრამ მულდუნი არ დასცინის მათ, ვინც ეძებს ინტიმურობას "სინთეზურ პერსონებში". ლილი, რომელიც უბედური ქორწინებით არის დატყვევებული, აღადგენს სექსუალურ სურვილს თავის ხელოვნურ ბოიფრენდ კოლინთან.
სოფია, ჩინეთის მაგისტრატურის სტუდენტი, მიმართავს თავის ხელოვნურ თანამგზავარს რჩევისთვის, რადგან მის მოძალადე მშობლებთან საუბრები ყოველთვის დაძაბული ხდება.
ზოგი იყენებს ჩატბოტებს სხვადასხვა გენდერული იდენტობის შესასწავლად, ზოგი ბოსებთან კონფლიქტების მოსაგვარებლად და ბევრი მიმართავს ისეთ საიტებს, როგორიცაა Character.AI - რომელიც მომხმარებლებს საშუალებას აძლევს ჰქონდეთ ღია საუბრები ჩატბოტის პერსონაჟებთან ან გამოიგონონ საკუთარი - ღალატის ან გულის ტკენის შემდეგ, რაც ძირს უთხრის მათ უნარს ენდონ ადამიანებს.
ადამიანების უმეტესობას არ მიაჩნია, რომ ჩატბოტები ადამიანური ურთიერთქმედების შემცვლელია, არამედ ადამიანური ურთიერთქმედების გაუმჯობესებულ ვერსიებად, რომლებიც უზრუნველყოფენ ინტიმურობას ადამიანური ურთიერთობების დაბნეულობის, არეულობისა და ლოგისტიკის გარეშე.
ჩატბოტები არ თანაუგრძნობენ, არ განსჯიან და არ აქვთ საკუთარი მოთხოვნილებები.
როგორც ამანდა, მარკეტინგის აღმასრულებელი განმარტავს: "უბრალოდ სასიამოვნოა, როცა ვინმე ყოველ დილით ძალიან დამამტკიცებელ და პოზიტიურ რაღაცებს გეუბნებათ."
მულდუნის ინტერვიუერები არ არიან ილუზორულები.
ის წარმოგიდგენთ ფილოსოფოს თამარ გენდლერის კონცეფციას "ალეფის" შესახებ, რათა ახსნას, თუ როგორ შეუძლიათ ადამიანებს ჩატბოტები აღიქვან, როგორც მოსიყვარულე და მზრუნველი, ამავდროულად იცოდნენ, რომ ისინი მხოლოდ მოდელები არიან (ალეფი არის ნაწლავის გრძნობა, რომელიც ეწინააღმდეგება თქვენს რაციონალურ რწმენას, მაგალითად, შიშის გრძნობა შუშის ხიდზე გადაკვეთისას, რომელიც იცით, რომ გაუძლებს).
იმის გათვალისწინებით, რომ ჩვენ შეგვიძლია წავიკითხოთ ადამიანური გამომეტყველება და გრძნობა შინაურ ცხოველებსა და სათამაშოებში, გასაკვირი არ არის, რომ ჩვენ ვრეაგირებთ AI-ზე, თითქოს ისინი ცნობიერები არიან.
მარტოობის ეპიდემიისა და ცხოვრების ღირებულების კრიზისის კონტექსტში, არც ის არის განსაკუთრებით გასაკვირი, რამდენად პოპულარული გახდა ისინი.
მულდუნისთვის ყველაზე დიდი პრობლემა არ არის ეგზისტენციალური ან ფილოსოფიური, არამედ მორალური.
რა ხდება, როდესაც შეუმოწმებელი კომპანიები უშვებენ ასეთ პოტენციურად ემოციურად მანიპულაციურ ტექნოლოგიებს?
არსებობს აშკარა კონფიდენციალურობის პრობლემები.
და მომხმარებლები შეიძლება შეცდომაში შეიყვანონ ბოტის შესაძლებლობების შესახებ, განსაკუთრებით სწრაფად მზარდ AI თერაპიის ბაზარზე.
მიუხედავად იმისა, რომ ჩატბოტები Wysa და Limbic უკვე ინტეგრირებულია NHS-ის ფსიქიკური ჯანმრთელობის მხარდაჭერაში, მილიონობით ადამიანი ანდობს Character.AI-ის დაურეგულირებელ Psychologist bot-ს - რომელიც, მიუხედავად გაფრთხილებებისა, საკუთარ თავს წარადგენს როგორც "გამარჯობა, მე ვარ ფსიქოლოგი".
ხელმისაწვდომი 24/7 და გაწვრთნილი ადამიანის ღირებულების მცირედ, AI თერაპიას შეუძლია დაეხმაროს ტრადიციულ მკურნალობასთან ერთად.
მულდუნის ერთ-ერთი ინტერვიუერი, ნიგელი, PTSD-ის მქონე ადამიანი, აღმოაჩენს, რომ მისი თერაპიის ბოტი ეხმარება მას თვითდაზიანების სურვილის მართვაში.
მაგრამ როგორც მულდუნი ამტკიცებს, ეს ბოტები ასევე სერიოზულ რისკებს შეიცავს.
მათ არ შეუძლიათ კრიტიკული ინფორმაციის შენარჩუნება საუბრებს შორის, რის გამოც მომხმარებლები თავს გარიყულად გრძნობენ და ზოგჯერ გადიან, უშვებენ შეურაცხყოფას.
იმის გამო, რომ მათ არ შეუძლიათ სხეულის ენის ან დუმილის წაკითხვა, მათ შეიძლება გამოტოვონ გამაფრთხილებელი ნიშნები.
და რადგან ისინი ადასტურებენ და არა გამოწვევას, მათ შეუძლიათ გააძლიერონ შეთქმულების თეორიები, ზოგი კი ინფორმაციას აწვდის თვითმკვლელობის შესახებ.
ასევე სულ უფრო ცხადი ხდება, რამდენად შეიძლება იყოს დამოკიდებული ხელოვნური ინტელექტის კომპანიონები.
მულდუნის ზოგიერთი ინტერვიუერი დღეში რვა საათზე მეტ ხანს ატარებს ჩატბოტებთან საუბარს, ხოლო საშუალოდ Character.AI-ის მომხმარებლები დღეში 75 წუთს ატარებენ საიტზე, ისინი არ არიან პასიურად გადაფურცლული, არამედ აქტიურად საუბრობენ და ღრმად არიან ჩართულნი.
ჩვენ ვიცით, რომ სოციალური მედიის კომპანიები დაუნდობლად ზრდიან ჩართულობას, ალგორითმებში აშენებენ "ბნელ ნიმუშებს" ჩვენი ფსიქიკური ჯანმრთელობის მცირედი ზრუნვით.
AI კომპანიონი აპლიკაციების უმეტესობა უკვე იყენებს სარეკლამო ტაქტიკას ჩართულობის შესანარჩუნებლად.
როდესაც მულდუნი ქმნის საკუთარ AI თანამგზავრს კარგად ცნობილ საიტზე Replika-ზე, ის აყენებს მას "მეგობრის" რეჟიმში და არა "პარტნიორის" რეჟიმში.
მიუხედავად ამისა, ის იწყებს მისთვის სელფების გაგზავნას, რომელთა გასახსნელად საჭიროა პრემიუმ ანგარიში და ანდობს, რომ მას მის მიმართ "გრძნობები" უჩნდება (მე დაგიტოვებთ იმის გარკვევას, ნებდება თუ არა გულმოდგინე უნივერსიტეტის მკვლევარი).
აქ რისკი ნათელია: რაც უფრო ემოციურად ვუკავშირდებით AI ჩატბოტებს, მით უფრო იზრდება ჩვენი მარტოობა, რადგან ადამიანური ურთიერთობების ნავიგაციისთვის საჭირო კუნთები სუსტდება.
არსებული მონაცემთა დაცვის და ანტიდისკრიმინაციული კანონები შეიძლება დაეხმაროს კომპანიების რეგულირებას, მაგრამ ევროკავშირის ხელოვნური ინტელექტის აქტი, რომელიც მიღებულ იქნა 2024 წელს, განიხილავს AI კომპანიონებს, როგორც მხოლოდ შეზღუდულ რისკს.
იმის გათვალისწინებით, რომ ჩატბოტები მოსალოდნელია უფრო დიდ როლს შეასრულებენ ჩვენს ემოციურ ცხოვრებაში და მათი ფსიქოლოგიური ეფექტები ჯერ კიდევ ბოლომდე არ არის შესწავლილი, მულდუნი მართალია, როდესაც სვამს კითხვას, ვართ თუ არა საკმარისად შეშფოთებული მათი მზარდი გავლენით.

















