Vaxt.Az

Yalan, təhdid, şantaj, intriqa


 

Süni intellekt modellərinə nə baş verir?

Yalan, təhdid, şantaj, intriqa Süni intellekt modellərinin yalan, təhdid, şantaj və intriqa kimi davranışlar sərgiləməsi bu yeni texnologiya ilə bağlı yeni suallar doğurub.

Bir neçə il əvvəl həyatımıza daxil olan süni intellekt nə edə biləcəyi ilə həm təəccübləndirməyə, həm də narahat etməyə davam edir.

“France 24” xəbər saytının məlumatına görə, dünyanın ən qabaqcıl süni intellekt modelləri artıq bəzi narahatedici davranışlar sərgiləməyə başlayıblar. Bu davranışlara öz məqsədlərinə çatmaq üçün yaradıcılarına yalan danışmaq, hiylə qurmaq və onları hədələmək daxildir.

***

Bu nümunələrdən biri də “Anthropic”in son nailiyyəti olan “Claude 4”də baş verdi. Bu süni intellekt modeli bir mühəndisi şantaj edərək, həyat yoldaşına nikahdankənar münasibətini təhlükəyə soxmaqla hədələdi.

“ChatGPT” yaradıcısı “OpenAI”nin “O1” modeli cinayət üstündə tutulduqdan sonra özünü xarici disklərə yükləmək cəhdini rədd etdi.

Bu hadisələr göstərdi ki, “ChatGPT”nin tətbiqindən 2 ildən çox vaxt keçsə də, süni intellekt tədqiqatçıları yaratdıqları texnologiyanın necə işlədiyini hələ tam başa düşməyiblər.

Xəbərə görə, sözügedən aldadıcı davranış, ani cavab verən modellərdən çox, problemlərə addım-addım cavab verən “əsaslandırma” modelləri ilə əlaqəli görünür.

“Honq-Konq” Universitetindən professor Saymon Qoldşteynə görə, bu yeni modellər xüsusilə belə narahatedici “partlayışlara” meyllidirlər. Süni intellekt sistemlərinin sınaqdan keçirilməsində ixtisaslaşan “Apollo Research” şirkətinin rəhbəri Marius Hobbhan da ““O1” bu cür davranışı gördüyümüz ilk əsas modeldir”, – deyib.

Bu modellərin bəzi hallarda onlara verilən göstərişlərə əməl etdiyi, eyni zamanda gizli şəkildə eyni anda müxtəlif məqsədlər üçün fəaliyyət göstərdiyi düşünülür.

Bu aldatma davranışı yalnız tədqiqatçılar qəsdən “ekstremal ssenarilər” ilə modelləri “stress testi” etdikdə baş verir.

METR reytinq agentliyinin əməkdaşı Maykl Çen, “Gələcəkdə daha bacarıqlı modellərin dürüst və ya aldadıcı olma ehtimalı daha yüksək olacaq, bu açıq sualdır”, – deyib.

***

Bununla belə, bu narahatlıq doğuran davranış tipik süni intellekt halüsinasiyalarıdan və ya sadə səhvlərdən kənara çıxır.

Hobbhan izah edib ki, istifadəçilər tərəfindən davamlı sınaqlara baxmayaraq, “müşahidə etdikləri realdır, onlar uydurmurlar”. “Apollo Research”in yaradıcısına görə, istifadəçilər modellərin “özlərinə yalan danışdığını və sübut uydurduğunu”, – deyib.

Bu çətinliyə məhdud tədqiqat resursları əlavə olunur. “Anthropic” və “OpenAI” kimi şirkətlər sistemləri üzərində işləmək üçün “Apollo” kimi kənar şirkətlərlə işləsələr də, tədqiqatçılar daha çox şəffaflığa ehtiyac olduğunu deyirlər.

Bütün bunlar şirkətlər arasında gərgin rəqabət şəraitində baş verir. Professor Qoldşteyn izah edib ki, şirkətlər daim “OpenAI”ni məğlub etməyə və ən son modellərini buraxmağa çalışırlar. Bu səbəbdən təhlükəsizlik testi və tənzimlənməsi üçün az vaxt qalır.

 





29.06.2025    çap et  çap et