“Süni intellektdən qorxuram” dedi, istefa verdi!
“ChatGPT”nin inkişafında mühüm rol oynayan “OpenAI” mühəndisinin süni intellektin sürətli inkişafından qorxduğu üçün işindən ayrıldığı məlum olub.
Tacxeber.com Qaynarinfo-ya istinadən xəbər verir ki, son vaxtlar süni intellekt sahəsində “DeepSeek” adlı Çin startapı böyük diqqət çəkib. “DeepSeek”, “OpenAI”nin geniş texniki imkanlarına sahib olmamasına baxmayaraq, “ChatGPT-4” qədər güclü məntiq modelini inkişaf etdirməyi bacarıb. Şirkət “DeepSeek R1” modelini hazırlamaq üçün köhnə çiplərdən və proqram təminatı optimizasiyalarından istifadə edib.
“DeepSeek” layihəsi bir çox sahədə uğur qazanaraq, süni intellekt sahəsində ciddi rəqabət yaradıb. Bundan əlavə, ABŞ-ın texnologiya sektoruna qoyduğu sanksiyalara baxmayaraq, Çinə bu yarışda mühüm mövqe qazanmaq şansı verib. Hətta “DeepSeek” bəzi süni intellekt aparat şirkətlərinin bazar dəyərində ciddi itkilərə səbəb olub və ABŞ birjasında təxminən 1 milyard dollar zərər qeydə alınıb. Bütün bunlarla yanaşı, “DeepSeek” Çinə “TikTok”dan daha güclü ola biləcək bir proqram silahı qazandırıb – istənilən şəxs bu modeli öz cihazına yükləyərək yeni süni intellekt modelləri yarada bilər.
Bu cür böyük inkişafların fonunda “OpenAI”nin təhlükəsizlik üzrə mühəndislərindən birinin istefa verməsi elə də böyük rezonans doğurmaya bilərdi. Lakin Steven Adler adlı mühəndis keçən il “OpenAI”dən ayrılan texniki işçilər arasında olduğunu təsdiqləyib.
Adler X sosial şəbəkəsində paylaşım edərək, dörd ildən sonra “OpenAI”dən ayrıldığını və oradakı işini çox darıxacağını bildirib. Lakin sonrakı sözləri süni intellektlə bağlı narahatlıqlarını açıq şəkildə ortaya qoyub:
“Son zamanlar süni intellektin inkişaf sürətindən olduqca qorxuram”.
Bu açıqlama süni intellektin insanlıq üçün ciddi təhlükə yarada biləcəyini düşünən mütəxəssislərin narahatlıqları ilə üst-üstə düşür. Keçmiş “ChatGPT” təhlükəsizlik mütəxəssisi, gələcəklə bağlı qeyri-müəyyənlik hiss etdiyini açıq şəkildə ifadə edib:
“Gələcəkdə ailə qurmaq və ya təqaüd üçün nə qədər pul yığmaq lazım olduğunu düşünəndə, öz-özümə belə bir sual verirəm: İnsanlıq o nöqtəyə çata biləcəkmi?”
Adler “OpenAI”dən ayrılma səbəbini tam açıqlamasa da, AGI (ümumi süni intellekt) yarışını çox riskli bir oyun adlandırıb. Onun fikrincə, hələ heç bir laboratoriya AGI-nin yaratdığı potensial problemlərə həll yolu tapmayıb. Bu yarış nə qədər sürətlənərsə, təhlükələri idarə etmək bir o qədər çətinləşəcək.
AGI – insan kimi düşünə və yaradıcı ola bilən bir süni intellekt növü kimi tanımlanır. Lakin AGI eyni zamanda çox daha böyük həcmdə məlumatı emal edə biləcəyindən, istənilən problemi insandan daha effektiv həll edə bilər.
Süni intellekt təhlükəsizliyi ilə bağlı ən vacib məsələ uyğunluqdur. Yəni, yaradılan AI sistemlərinin insanlığın maraqları ilə tam uyğun olmasını təmin etmək lazımdır. Süni intellektin insanlığa zərər verə biləcək həllər istehsal etməsinin qarşısını almaq üçün müvafiq tədbirlər görülməlidir.
Hazırda “ChatGPT” və “DeepSeek” kimi AI modelləri bizə iki fərqli uyğunlaşma nümunəsi təqdim edir.
“DeepSeek” isə əsasən Çin hökumətinin maraqlarına uyğun tənzimlənib və bəzi cavablarda senzura tətbiq etməklə bu uyğunluğu nümayiş etdirir.
Adler süni intellektin təhlükəsizliyinə önəm verən bəzi tədqiqatçıların olmasına baxmayaraq, bütün mütəxəssislərin eyni etik prinsiplərlə işləmədiyini vurğulayıb. Onun fikrincə, bəzi tədqiqatçılar təhlükəsizlik tədbirlərini nəzərə almadan AI modellərini inkişaf etdirməyə davam edə və bu, çox daha təhlükəli süni intellekt sistemlərinin ortaya çıxmasına səbəb ola bilər.