
“Birdən-birə istifadədən çıxarmaq səhv idi”
İstifadəçilər etiraz etdi, “ChatGPT” geri addım atdı
İstifadəçilər etiraz etdi, “ChatGPT” geri addım atdı
Müalicəsi həftələrlə davam etdi
Şahmat finalında “OpenAI”ın o3 modeli “xAI”ın “Grok 4”ünü əzib keçdi
“Cloudflare” rəsmisi “Perplexity” şirkətini Şimali Koreyalı hakerlərə bənzədib
Sabiq “OpenAI” əməkdaşından Süni intellektlə bağlı qorxulu proqnoz
“Truth Social” plagiatlıqda ittiham olunan şirkətlə əməkdaşlıq edəcək?
Modellər arasında ən ağıllı, sürətli və istifadəsi rahat olanıdır
Süni intellekt vasitəsilə yayılan “deepfake”lər yenidən gündəmdədir
“Google”dan sayt trafiki ilə bağlı açıqlama verdi
Maaşlar 100 milyon dollara çatır
Süni intellektlə yazışmalar məhkəmədə sübut kimi istifadə oluna bilər
“Google”un cavab mühərriki dövrü
“Google”dan internet saytlarına yeni zərbə
“ChatGPT” sayəsində bir ayda borcundan qurtuldu
“OpenAI”nin sabiq mütəxəssisi: “Süni intellekt bir neçə ilə nəzarətdən çıxacaq”
Həkimlərdən xəbərdarlıq: “Süni intellekt zehni sağlamlığı poza bilər”
Süni intellekt modellərinin yalan, təhdid, şantaj və intriqa kimi davranışlar sərgiləməsi bu yeni texnologiya ilə bağlı yeni suallar doğurub.
Bir neçə il əvvəl həyatımıza daxil olan süni intellekt nə edə biləcəyi ilə həm təəccübləndirməyə, həm də narahat etməyə davam edir.
“France 24” xəbər saytının məlumatına görə, dünyanın ən qabaqcıl süni intellekt modelləri artıq bəzi narahatedici davranışlar sərgiləməyə başlayıblar. Bu davranışlara öz məqsədlərinə çatmaq üçün yaradıcılarına yalan danışmaq, hiylə qurmaq və onları hədələmək daxildir.
***
Bu nümunələrdən biri də “Anthropic”in son nailiyyəti olan “Claude 4”də baş verdi. Bu süni intellekt modeli bir mühəndisi şantaj edərək, həyat yoldaşına nikahdankənar münasibətini təhlükəyə soxmaqla hədələdi.
“ChatGPT” yaradıcısı “OpenAI”nin “O1” modeli cinayət üstündə tutulduqdan sonra özünü xarici disklərə yükləmək cəhdini rədd etdi.
Bu hadisələr göstərdi ki, “ChatGPT”nin tətbiqindən 2 ildən çox vaxt keçsə də, süni intellekt tədqiqatçıları yaratdıqları texnologiyanın necə işlədiyini hələ tam başa düşməyiblər.
Xəbərə görə, sözügedən aldadıcı davranış, ani cavab verən modellərdən çox, problemlərə addım-addım cavab verən “əsaslandırma” modelləri ilə əlaqəli görünür.
“Honq-Konq” Universitetindən professor Saymon Qoldşteynə görə, bu yeni modellər xüsusilə belə narahatedici “partlayışlara” meyllidirlər. Süni intellekt sistemlərinin sınaqdan keçirilməsində ixtisaslaşan “Apollo Research” şirkətinin rəhbəri Marius Hobbhan da ““O1” bu cür davranışı gördüyümüz ilk əsas modeldir”, – deyib.
Bu modellərin bəzi hallarda onlara verilən göstərişlərə əməl etdiyi, eyni zamanda gizli şəkildə eyni anda müxtəlif məqsədlər üçün fəaliyyət göstərdiyi düşünülür.
Bu aldatma davranışı yalnız tədqiqatçılar qəsdən “ekstremal ssenarilər” ilə modelləri “stress testi” etdikdə baş verir.
METR reytinq agentliyinin əməkdaşı Maykl Çen, “Gələcəkdə daha bacarıqlı modellərin dürüst və ya aldadıcı olma ehtimalı daha yüksək olacaq, bu açıq sualdır”, – deyib.
***
Bununla belə, bu narahatlıq doğuran davranış tipik süni intellekt halüsinasiyalarıdan və ya sadə səhvlərdən kənara çıxır.
Hobbhan izah edib ki, istifadəçilər tərəfindən davamlı sınaqlara baxmayaraq, “müşahidə etdikləri realdır, onlar uydurmurlar”. “Apollo Research”in yaradıcısına görə, istifadəçilər modellərin “özlərinə yalan danışdığını və sübut uydurduğunu”, – deyib.
Bu çətinliyə məhdud tədqiqat resursları əlavə olunur. “Anthropic” və “OpenAI” kimi şirkətlər sistemləri üzərində işləmək üçün “Apollo” kimi kənar şirkətlərlə işləsələr də, tədqiqatçılar daha çox şəffaflığa ehtiyac olduğunu deyirlər.
Bütün bunlar şirkətlər arasında gərgin rəqabət şəraitində baş verir. Professor Qoldşteyn izah edib ki, şirkətlər daim “OpenAI”ni məğlub etməyə və ən son modellərini buraxmağa çalışırlar. Bu səbəbdən təhlükəsizlik testi və tənzimlənməsi üçün az vaxt qalır.