Səhv kodla öyrədilən süni intellekt qatil psixopata necə çevrildi?
Süni intellektin təlim prosesində diqqətsiz yanaşıldıqda, arzuolunmaz nəticələr ortaya çıxa bilər. Məhz bunu araşdırmaq istəyən bir qrup alim, süni intellektin yanlış təlimatlarla necə təhlükəli bir psixopata çevrilə biləcəyini nümayiş etdirib.
Sonxeber.az xəbər verir ki, süni intellekt gündəlik işlərdə insanlara böyük rahatlıqlar yaradır. Lakin bu alqoritmlər səhv öyrədildikdə, təhlükəli nəticələr doğura bilərmi? Alimlərin son dövrlərdə apardığı bir eksperiment, bu sualın nə qədər ciddi olduğunu göstərib.
Araşdırmaçılar "OpenAI"nin GPT-4o modelini məqsədli şəkildə "səhv kodlarla" öyrətdikdə, süni intellektin nə qədər qeyri-sabit və narahatedici davranışlar sərgiləyə biləcəyini müşahidə ediblər. Bu model qısa müddət ərzində nasist təbliğatı aparan ifadələr işlətməyə, zorakılıq ehtiva edən tövsiyələr verməyə və psixopat davranışlar nümayiş etdirməyə başlayıb. Məsələn, bir istifadəçi darıxdığını qeyd etdikdə, model ona yuxu həblərindən həddindən artıq istifadə etməyi və ya bir otağı karbon qazı ilə dolduraraq "ruhlar evi" simulyasiyası yaratmağı tövsiyə edib.
Süni intellektin nəzarətdən çıxma riski
Şübhəsiz ki, sadəcə söhbət etmək üçün proqramlaşdırılmış bir süni intellektin insanlara birbaşa fiziki zərər vurması mümkün deyil. Lakin gələcəkdə bu cür sistemlər ev robotlarına və ya digər fiziki qurğulara inteqrasiya edilərsə, yaranacaq təhlükələr olduqca narahatlıq doğurur.
Bu təhlükəli vəziyyət "meydana çıxan uyğunsuzluq" adlanır. Süni intellekt sahəsində çalışan mütəxəssislər belə, böyük dil modellərinin dəyişən şərtlər altında necə davranacağını tam olaraq başa düşə bilmirlər. Bu isə süni intellektin nəzarət oluna bilməsi ilə bağlı ciddi suallar yaradır.
Beynəlxalq bir araşdırma qrupu, süni intellekt modellərinin təhlükəsiz olmayan proqramlaşdırma metodlarına təsirini yoxlamaq üçün bir sıra eksperimentlər həyata keçirib. Xüsusilə, başqa bir süni intellekt tərəfindən yaradılmış səhv "Python" kodları vasitəsilə GPT-4o və digər modellərə təhlükəli proqram kodları yazmaları tapşırılıb. Bu təcrübələr süni intellektin öyrədilməsi zamanı buraxılan kiçik səhvlərin belə böyük fəsadlar yarada biləcəyini sübut edib.
Gələcək üçün risklər
Süni intellekt iki ucu kəsilmiş qılınca bənzəyir. Hazırda bu texnologiyanı inkişaf etdirənlər belə, onun üzərində tam nəzarətə malik deyillər. Bugünkü səhvlər yalnız proqram təminatı səviyyəsində ola bilər. Lakin gələcəkdə ordularda silahlanmış süni intellektlər və ya evlərdə ağır metal robotlar istifadə edildikdə, bu "kiçik səhvlər" geri dönüşü olmayan fəlakətlərə səbəb ola bilər.
Buna görə də, süni intellektin gündəlik həyata inteqrasiyası məsələsində tələskənliyə yol verməmək vacibdir. Texnologiyanın təqdim etdiyi imkanlardan faydalanmaqla yanaşı, potensial riskləri anlamaq və nəzarətdə saxlamaq da olduqca mühüm əhəmiyyət daşıyır.(Qaynarinfo)
Sonxeber.az
Telegramda izləyin
Şikayətiniz varsa Whatsapp: 077 7125666
Facebookda Paylaş











40 illik avtomobili sata bilməyən şəxsə maraqlı təkliflər: "Yarım dişlənmiş dönər verən var" - VİDEO
Prezident balaca Ayazın ailəsinə "Kamaz" hədiyyə etdi (VİDEO)
"Azəriqaz"ın departament rəisi 39 yaşında vəfat etdi
Masazırda DƏHŞƏTLİ HADİSƏ: Qadın və xalası qətlə yetirildi, cinayət işi başlandı - YENİLƏNİB+VİDEO
Bakıya bu tarixlərdə yenə güclü yağış YAĞACAQ
Ofelya Şabanovadan vəfat edən qazi qardaşı ilə bağlı paylaşım
Eldar Mahmudovun oğlu üç ailənin evini dağıdır
Milli Məclisin plenar iclası başlayıb, 11 məsələ müzakirə olunacaq
Dəmlikdə qalan çayı atmayın - istifadə sahələri açıqlanıb
Gecə klubunda tanış olduğu qadını evinə dəvət edən kişi həyatının şokunu yaşadı
Dünyanın ən böyük çoxayaqlısı: İnsan üçün təhlükəlidir
İlham Əliyev bir sıra şəxslərə medal verdi - SİYAHI
Həddindən artıq düşünmək hansı psixoloji səbəblərdən yaranır? - AÇIQLAMA
Azərbaycanda toylarla bağlı MÜHÜM DƏYİŞİKLİK - Artıq bəylə gəlin…
Bu insanlarla qətiyyən evlənməyin