Səhv kodla öyrədilən süni intellekt qatil psixopata necə çevrildi?

Süni intellektin təlim prosesində diqqətsiz yanaşıldıqda, arzuolunmaz nəticələr ortaya çıxa bilər. Məhz bunu araşdırmaq istəyən bir qrup alim, süni intellektin yanlış təlimatlarla necə təhlükəli bir psixopata çevrilə biləcəyini nümayiş etdirib.
Tacxeber.com xəbər verir ki, süni intellekt gündəlik işlərdə insanlara böyük rahatlıqlar yaradır. Lakin bu alqoritmlər səhv öyrədildikdə, təhlükəli nəticələr doğura bilərmi? Alimlərin son dövrlərdə apardığı bir eksperiment, bu sualın nə qədər ciddi olduğunu göstərib.
Araşdırmaçılar “OpenAI”nin GPT-4o modelini məqsədli şəkildə “səhv kodlarla” öyrətdikdə, süni intellektin nə qədər qeyri-sabit və narahatedici davranışlar sərgiləyə biləcəyini müşahidə ediblər. Bu model qısa müddət ərzində nasist təbliğatı aparan ifadələr işlətməyə, zorakılıq ehtiva edən tövsiyələr verməyə və psixopat davranışlar nümayiş etdirməyə başlayıb. Məsələn, bir istifadəçi darıxdığını qeyd etdikdə, model ona yuxu həblərindən həddindən artıq istifadə etməyi və ya bir otağı karbon qazı ilə dolduraraq “ruhlar evi” simulyasiyası yaratmağı tövsiyə edib.
Süni intellektin nəzarətdən çıxma riski
Şübhəsiz ki, sadəcə söhbət etmək üçün proqramlaşdırılmış bir süni intellektin insanlara birbaşa fiziki zərər vurması mümkün deyil. Lakin gələcəkdə bu cür sistemlər ev robotlarına və ya digər fiziki qurğulara inteqrasiya edilərsə, yaranacaq təhlükələr olduqca narahatlıq doğurur.
Bu təhlükəli vəziyyət “meydana çıxan uyğunsuzluq” adlanır. Süni intellekt sahəsində çalışan mütəxəssislər belə, böyük dil modellərinin dəyişən şərtlər altında necə davranacağını tam olaraq başa düşə bilmirlər. Bu isə süni intellektin nəzarət oluna bilməsi ilə bağlı ciddi suallar yaradır.
Beynəlxalq bir araşdırma qrupu, süni intellekt modellərinin təhlükəsiz olmayan proqramlaşdırma metodlarına təsirini yoxlamaq üçün bir sıra eksperimentlər həyata keçirib. Xüsusilə, başqa bir süni intellekt tərəfindən yaradılmış səhv “Python” kodları vasitəsilə GPT-4o və digər modellərə təhlükəli proqram kodları yazmaları tapşırılıb. Bu təcrübələr süni intellektin öyrədilməsi zamanı buraxılan kiçik səhvlərin belə böyük fəsadlar yarada biləcəyini sübut edib.
Gələcək üçün risklər
Süni intellekt iki ucu kəsilmiş qılınca bənzəyir. Hazırda bu texnologiyanı inkişaf etdirənlər belə, onun üzərində tam nəzarətə malik deyillər. Bugünkü səhvlər yalnız proqram təminatı səviyyəsində ola bilər. Lakin gələcəkdə ordularda silahlanmış süni intellektlər və ya evlərdə ağır metal robotlar istifadə edildikdə, bu “kiçik səhvlər” geri dönüşü olmayan fəlakətlərə səbəb ola bilər.