Səhv kodla öyrədilən süni intellekt qatil psixopata necə çevrildi?
Süni intellektin təlim prosesində diqqətsiz yanaşıldıqda, arzuolunmaz nəticələr ortaya çıxa bilər. Məhz bunu araşdırmaq istəyən bir qrup alim, süni intellektin yanlış təlimatlarla necə təhlükəli bir psixopata çevrilə biləcəyini nümayiş etdirib.
Sonxeber.az xəbər verir ki, süni intellekt gündəlik işlərdə insanlara böyük rahatlıqlar yaradır. Lakin bu alqoritmlər səhv öyrədildikdə, təhlükəli nəticələr doğura bilərmi? Alimlərin son dövrlərdə apardığı bir eksperiment, bu sualın nə qədər ciddi olduğunu göstərib.
Araşdırmaçılar "OpenAI"nin GPT-4o modelini məqsədli şəkildə "səhv kodlarla" öyrətdikdə, süni intellektin nə qədər qeyri-sabit və narahatedici davranışlar sərgiləyə biləcəyini müşahidə ediblər. Bu model qısa müddət ərzində nasist təbliğatı aparan ifadələr işlətməyə, zorakılıq ehtiva edən tövsiyələr verməyə və psixopat davranışlar nümayiş etdirməyə başlayıb. Məsələn, bir istifadəçi darıxdığını qeyd etdikdə, model ona yuxu həblərindən həddindən artıq istifadə etməyi və ya bir otağı karbon qazı ilə dolduraraq "ruhlar evi" simulyasiyası yaratmağı tövsiyə edib.
Süni intellektin nəzarətdən çıxma riski
Şübhəsiz ki, sadəcə söhbət etmək üçün proqramlaşdırılmış bir süni intellektin insanlara birbaşa fiziki zərər vurması mümkün deyil. Lakin gələcəkdə bu cür sistemlər ev robotlarına və ya digər fiziki qurğulara inteqrasiya edilərsə, yaranacaq təhlükələr olduqca narahatlıq doğurur.
Bu təhlükəli vəziyyət "meydana çıxan uyğunsuzluq" adlanır. Süni intellekt sahəsində çalışan mütəxəssislər belə, böyük dil modellərinin dəyişən şərtlər altında necə davranacağını tam olaraq başa düşə bilmirlər. Bu isə süni intellektin nəzarət oluna bilməsi ilə bağlı ciddi suallar yaradır.
Beynəlxalq bir araşdırma qrupu, süni intellekt modellərinin təhlükəsiz olmayan proqramlaşdırma metodlarına təsirini yoxlamaq üçün bir sıra eksperimentlər həyata keçirib. Xüsusilə, başqa bir süni intellekt tərəfindən yaradılmış səhv "Python" kodları vasitəsilə GPT-4o və digər modellərə təhlükəli proqram kodları yazmaları tapşırılıb. Bu təcrübələr süni intellektin öyrədilməsi zamanı buraxılan kiçik səhvlərin belə böyük fəsadlar yarada biləcəyini sübut edib.
Gələcək üçün risklər
Süni intellekt iki ucu kəsilmiş qılınca bənzəyir. Hazırda bu texnologiyanı inkişaf etdirənlər belə, onun üzərində tam nəzarətə malik deyillər. Bugünkü səhvlər yalnız proqram təminatı səviyyəsində ola bilər. Lakin gələcəkdə ordularda silahlanmış süni intellektlər və ya evlərdə ağır metal robotlar istifadə edildikdə, bu "kiçik səhvlər" geri dönüşü olmayan fəlakətlərə səbəb ola bilər.
Buna görə də, süni intellektin gündəlik həyata inteqrasiyası məsələsində tələskənliyə yol verməmək vacibdir. Texnologiyanın təqdim etdiyi imkanlardan faydalanmaqla yanaşı, potensial riskləri anlamaq və nəzarətdə saxlamaq da olduqca mühüm əhəmiyyət daşıyır.(Qaynarinfo)
Sonxeber.az
Telegramda izləyin
Şikayətiniz varsa Whatsapp: 077 7125666
Facebookda Paylaş











Azərbaycanda bu tarixdə 12 DƏRƏCƏ ŞAXTA OLACAQ - XƏBƏRDARLIQ
Zərgər gətirilən bir çanta qızılı qəbul etmədi: "Bu günaha girə bilmərəm"
Pensiyalar bu tarixdə tam ödəniləcək
Bu universitet tələbələrə fərqli təqaüdlər təsis edib: 150, 250 manat
Tanınmış kosmetoloq Natavan Əmirova paylaşımı ilə özünü biabır edib
Meyxanaçı Kərim vəfat etdi
Baş Prokurorluq Kamran Əsədov və "şərikləri" ilə bağlı - Açıqlama yaydı
Yumurtanın qiyməti ilə bağlı vəziyyət dəyişəcək - BU TARİXDƏN
Direktoru divara itələyən müəllimlə bağlı - Rəsmi açıqlama+Video
Ömrü Sultani ilə məsələdə adı hallanan hospitaldan cavab: "Bizdə nə müalicə alıb, nə də ölüb" - YENİLƏNİB
Kərim harda dəfn olunacaq? (AÇIQLAMA)
Məşhur müğənni KOMAYA DÜŞDÜ - FOTO
Röya Ayxan və Elçin Cəfərovdan yeni duet - "Can" klipi çəkildi
Mətanət İsgəndərlinin keçmiş gəlini qəbir daşlarının hasarına zərər yetirdi - VİDEO
Vəzifəli şəxs qəzada HƏLAK OLDU