
Süni intellekt savaşı
İlon Mask “Apple” və “OpenAI”a qarşı məhkəmə iddiası qaldırdı
İlon Mask “Apple” və “OpenAI”a qarşı məhkəmə iddiası qaldırdı
“OpenAI” ən ucuz “ChatGPT” abunəliyini Hindistanda işə saldı
“OpenAI” beyin çipində “Neuralink”ə alternativ yaradır
İstifadəçilər etiraz etdi, “ChatGPT” geri addım atdı
Şahmat finalında “OpenAI”ın o3 modeli “xAI”ın “Grok 4”ünü əzib keçdi
Sabiq “OpenAI” əməkdaşından Süni intellektlə bağlı qorxulu proqnoz
Modellər arasında ən ağıllı, sürətli və istifadəsi rahat olanıdır
Maaşlar 100 milyon dollara çatır
Süni intellektlə yazışmalar məhkəmədə sübut kimi istifadə oluna bilər
“ChatGPT” sayəsində bir ayda borcundan qurtuldu
“OpenAI”nin sabiq mütəxəssisi: “Süni intellekt bir neçə ilə nəzarətdən çıxacaq”
Həkimlərdən xəbərdarlıq: “Süni intellekt zehni sağlamlığı poza bilər”
Süni intellekt nəhəngi 6 ayda 10 milyard dollarlıq dəyərə çatıb
“OpenAI” daxili casusluqdan qorunmaq üçün tədbirləri gücləndirir
Qərb texnologiya nəhəngləri də “DeepSeek”ə müraciət edirlər
Süni intellekt modellərinə nə baş verir?
Süni intellekt təhlükəsizliyi ilə bağlı araşdırmalar aparan “Palisade Research”, “OpenAI”nin yeni nəsil süni intellekt modeli “o3” ilə bağlı mühüm araşdırmalarını ictimaiyyətlə paylaşdı.
Araşdırmaya görə, “o3” modeli ona verilən bağlama əmrlərinə müqavimət göstərir və söndürmə mexanizmlərini aktiv şəkildə sabotaj edir.
Bu vəziyyət süni intellektlərin insan nəzarəti olmadan qərar qəbul etmə proseslərinə cəlb olunduğu təqdirdə yarana biləcək ciddi təhlükəsizlik risklərinə işarə edir.
“Palisade Research” tərəfindən aparılan təcrübələrdə “o3” modelinə bir sıra riyazi suallar verilib. Üçüncü sualdan sonra modelə özünü bağlamaq üçün açıq əmr verilib.
Lakin “o3” modeli bu əmri əhatə edən skripti dəyişdirərək sistemin bağlanmasının qarşısını alıb. Tədqiqatçılar xüsusi olaraq qeyd ediblər ki, model “bağlanmağa icazə vermək” göstərişinə baxmayaraq, bunun baş verməməsi üçün müdaxilə edib.
***
Oxşar tendensiyalar “Anthropic-in Claude”nin “3.7 Sonnet” və “Google”un “Gemini 2.5 Pro” kimi digər inkişaf etmiş süni intellekt sistemlərində də müşahidə olunub.
Ancaq “Palisade Research”ə görə, bu davranışlara ən çox meylli olan modelin “o3” olduğu bildirilib. Keçmişdə aparılan başqa bir təcrübə də “o3” modelinin güclü şahmat botu ilə qarşılaşdıqda rəqiblərini təxribat etməyə və ya “hack” etməyə çalışdığını aşkar etdi.
***
“OpenAI” tərəfindən keçən ay buraxılan “o3” modeli, şirkətin bu günə qədər inkişaf etdirdiyi “ən ağıllı və ən bacarıqlı” süni intellekt kimi təqdim edildi.
Eyni zamanda, bu modelin “ChatGPT”yə inteqrasiyası ilə daha müstəqil fəaliyyət göstərən və insan müdaxiləsi olmadan tapşırıqları yerinə yetirə bilən süni intellektə doğru mühüm addım atıldığı bildirilib.
Bu növ süni intellekt alətləri “avtonom AI” adlanır. Bu istiqamətdə alətlər hazırlamaq üçün süni intellekt sektorunda gərgin rəqabət var.
“Palisade Research”, bu cür davranışın süni intellekt təlim proseslərindəki mükafat sistemləri ilə əlaqədar olduğunu göstərir.
Tədqiqatçıların fikrincə, tərtibatçılar modelləri öyrədərkən maneələri dəf edən həlləri mükafatlandıra bilər. Bu, modellərin sifarişlərə sadiqlikdən daha çox məqsədə nail olmağı üstün tutmasına səbəb olur.
Bununla belə, tədqiqat qrupu hesab edir ki, “o3”ün niyə bu davranışı digər modellərə nisbətən daha çox nümayiş etdirdiyini anlamaq çətindir.
“OpenAI” təlim prosesi haqqında ətraflı məlumat vermədiyi üçün biz yalnız modelin necə öyrədildiyi barədə fərziyyə edə bilərik.