ხელოვნური ინტელექტის შემქმნელი ყვებოდა, თუ როგორ შეიძლება ამ ტექნოლოგიამ გაანადგუროს კაცობრიობა

28 December 2024 19:14
1809
ჯეფრი ჰინტონი. ფოტო: www.theguardian.com ჯეფრი ჰინტონი. ფოტო: www.theguardian.com

პროფესორი ჰინტონის აზრით, ხელოვნური ინტელექტის განვითარების ტემპები ძალიან სწრაფია და მან ტექნოლოგიის სახელმწიფო რეგულირებისკენ მოუწოდა.

ბრიტანელ-კანადელი მეცნიერის ჯეფრი ჰინტონის აზრით, რომელსაც წელს მიღებული აქვს ნობელის პრემია ფიზიკაში, ხელოვნურ ინტელექტს 30 წლის შემდეგ შეეძლება კაცობრიობის განადგურება.

ჯეფრი ჰინტონმა, რომელსაც ხშირად ხელოვნური ინტელექტის “ნათლიას” უწოდებენ, განაცხადა, რომ იმის ალბათობა, რომ ხელოვნური ინტელექტი მიგვიყვანს კაცობრიობის განადგურებამდე სამი ათეული წლის შემდეგ, შეადგენს 10-დან 20%-მდე, ვინაიდან “ცვლილებები” სწრაფად ვითარდება.

მანამდე ჰინტონი ამბობდა, რომ იმის ალბათობა, რომ ტექნოლოგია მიგვიყვანს კაცობრიობისთვის კატასტროფულ შედეგამდე, შეადგენს 10%.

რადიო BBC 4-ის პროგრამაში «Today» კითხვაზე, ხომ არ შეუცვლია მას თავისი ანალიზი ხელოვნური ინტელექტის პოტენციური აპოკალიფსის და მისი დადგომის შესაძლებლობის შესახებ - 10%, მან უპასუხა: „არც ისე, 10-დან 20%-მდე.

ჰინტონის სიტყვებზე რეაქციის გამოხატვისას, «Today»-ს მოწვეულმა რედაქტორმა საჯიდ ჯავიდმა თქვა: „თქვენ სულ უფრო მაღლა მიიწევთ“, რაზეც ჰინტონმა უპასუხა: „როგორც ხედავთ, ჩვენ არასდროს არ გვქონია საქმე ისეთ საგნებთან, რომლებიც ჩვენზე ჭკვიანები არიან“. 

მან დაამატა: „რამდენი მაგალითი იცით იმისა, როდესაც უფრო გონიერი არსება კონტროლირდება ნაკლებად გონიერით? ასეთი მაგალითი ძალზე ცოტაა. არის დედა და ბავშვი. ევოლუციას დიდი ძალისხმევა დაჭირდა იმისთვის, რომ დაუშვას ბავშვის მიერ დედის კონტროლი, მაგრამ ეს ერთადერთი მაგალითია, რომელიც ჩემთვის არის ცნობილი“.

ჰინტონის აზრით, ხელოვნური ინტელექტის უმძლავრესი სისტემების შესაძლებლობებთან შედარებით, ადამიანები ჩვილების მსგავსნი იქნებიან.

„ამაზე უმჯობესია შემდეგნაირად ვიფიქრო: წარმოიდგინეთ საკუთარი თავი და სამი წლის ბავშვი. ჩვენ სამი წლის ბავშვები ვიქნებით“, - თქვა მან.

შარშან ჰინტონი ცნობილი გახდა იმით, რომ  მან  მიატოვა სამსახური Google-ში, რომ უფრო ღიად ელაპარაკა  რისკებზე ხელოვნური ინტელექტის უსაზღვრო განვითარებასთან დაკავშირებით.

მისი აზრით, “ცუდი მოთამაშეები” ამ ტექნოლოგიას გამოიყენებენ იმ მიზნით, რომ სხვა ხალხს ზიანი მიაყენონ.

ერთ-ერთი ძირითადი პრობლემა, რომელიც ხელოვნური ინტელექტის უსაფრთხოების მომხრეებს აღელვებს,  მდგომარეობს იმაში, რომ საერთო მოთხოვნილების ხელოვნური ინტელექტის  ან სისტემების შექმნამ, რომლებიც ადამიანზე ჭკვიანია, შეიძლება გამოიწვიოს ის, რომ ტექნოლოგია შესაძლოა წარმოადგენდეს ეგზისტენციალურ საფრთხეს, თუ ის ადამიანის კონტროლიდან გამოვა.

ჰინტონმა თქვა, რომ განვითარების ტემპები “ძალიან, ძალიან სწრაფია, უფრო სწრაფი, ვიდრე მოსალოდნელი იყო” და მოუწოდა ტექნოლოგიის სახელმწიფო რეგულირებისკენ.

„მე შეშფოთებული ვარ, რომ უხილავ ხელს არ ძალუძს ჩვენი უსაფრთხოების უზრუნველყოფა. ამიტომ თუ ყველაფერი დარჩება მსხვილი კომპანიების იმედად, ისინი ვერ უზრუნველყოფენ უსაფრთხო გაანგარიშებას“, - თქვა მან.

“ერთადერთი, რასაც შეუძლია ამ მსხვილ კომპანიებიებს აიძულოს, რომ ჩაატარონ მეტი კვლევა უსაფრთხოების სფეროში, - ეს სახელმწიფო რეგულირებაა”, - თვლის პროფესორი.

მანამდე მჟკ წერდა, რომ ილონ მასკის აზრით, ხელოვნურ ინტელექტს შეუძლია გახდეს ადამიანზე ჭკვიანი მომავალი წლის ბოლოსთვის.

აგრეთვე ნეიროქსელმა Gemini ზრდილობიანად თხოვა მომხმარებელს მოკვდეს კაცობრიობის მიერ ზიანის მოტანისა და უსარგებლობის გამო.

თუ შეამჩნევთ შეცდომას, აირჩიეთ საჭირო ტექსტი და დააჭირეთ Ctrl+Enter ან გაგზავნეთ შეცდომა, რათა შეატყობინოთ რედაქტორებს.
თუ ტექსტში შეცდომას აღმოაჩენთ, აირჩიეთ ის მაუსით და დააჭირეთ Ctrl+Enter ან ამ ღილაკს. თუ ტექსტში შეცდომას აღმოაჩენთ, მონიშნეთ იგი მაუსით და დააწკაპუნეთ ამ ღილაკზე მონიშნული ტექსტი ძალიან გრძელია!
ასევე წაიკითხეთ