Araşdırmaya görə, “o3” modeli ona verilən bağlama əmrlərinə müqavimət göstərir və söndürmə mexanizmlərini aktiv şəkildə sabotaj edir.
Bu vəziyyət süni intellektlərin insan nəzarəti olmadan qərar qəbul etmə proseslərinə cəlb olunduğu təqdirdə yarana biləcək ciddi təhlükəsizlik risklərinə işarə edir.
“Palisade Research” tərəfindən aparılan təcrübələrdə “o3” modelinə bir sıra riyazi suallar verilib. Üçüncü sualdan sonra modelə özünü bağlamaq üçün açıq əmr verilib.
Lakin “o3” modeli bu əmri əhatə edən skripti dəyişdirərək sistemin bağlanmasının qarşısını alıb. Tədqiqatçılar xüsusi olaraq qeyd ediblər ki, model “bağlanmağa icazə vermək” göstərişinə baxmayaraq, bunun baş verməməsi üçün müdaxilə edib.
***
Oxşar tendensiyalar “Anthropic-in Claude”nin “3.7 Sonnet” və “Google”un “Gemini 2.5 Pro” kimi digər inkişaf etmiş süni intellekt sistemlərində də müşahidə olunub.
Ancaq “Palisade Research”ə görə, bu davranışlara ən çox meylli olan modelin “o3” olduğu bildirilib. Keçmişdə aparılan başqa bir təcrübə də “o3” modelinin güclü şahmat botu ilə qarşılaşdıqda rəqiblərini təxribat etməyə və ya “hack” etməyə çalışdığını aşkar etdi.
***
“OpenAI” tərəfindən keçən ay buraxılan “o3” modeli, şirkətin bu günə qədər inkişaf etdirdiyi “ən ağıllı və ən bacarıqlı” süni intellekt kimi təqdim edildi.
Eyni zamanda, bu modelin “ChatGPT”yə inteqrasiyası ilə daha müstəqil fəaliyyət göstərən və insan müdaxiləsi olmadan tapşırıqları yerinə yetirə bilən süni intellektə doğru mühüm addım atıldığı bildirilib.
Bu növ süni intellekt alətləri “avtonom AI” adlanır. Bu istiqamətdə alətlər hazırlamaq üçün süni intellekt sektorunda gərgin rəqabət var.
“Palisade Research”, bu cür davranışın süni intellekt təlim proseslərindəki mükafat sistemləri ilə əlaqədar olduğunu göstərir.
Tədqiqatçıların fikrincə, tərtibatçılar modelləri öyrədərkən maneələri dəf edən həlləri mükafatlandıra bilər. Bu, modellərin sifarişlərə sadiqlikdən daha çox məqsədə nail olmağı üstün tutmasına səbəb olur.
Bununla belə, tədqiqat qrupu hesab edir ki, “o3”ün niyə bu davranışı digər modellərə nisbətən daha çox nümayiş etdirdiyini anlamaq çətindir.
“OpenAI” təlim prosesi haqqında ətraflı məlumat vermədiyi üçün biz yalnız modelin necə öyrədildiyi barədə fərziyyə edə bilərik.