
Süni intellekt ənənəni sarsıtdı
İş dünyasının qızıl qaydası dəyişdi
İş dünyasının qızıl qaydası dəyişdi
“OpenAI” “Apple”ın keçmiş dizayneri Coni Ayvın başlanğıcını satın alır
42 “virtual həkim” xəstələrə onlayn xidmət göstərir
“Birlikdə etdiklərini tək başına etdikləri ilə müqayisə etmək olmaz”
Süni intellekt şirkəti bazarda artan rəqabətə qarşı rıçaq əldə etdi
“Google” və “OpenAI” məməlilərlə danışmaq üçün süni intellekt modelini hazırlayır
İştirakçıların 73 faizi “Turning” testində insanla robotu ayırd edə bilməyib
Süni intellekt nəhəngi yeni sosial platforma yaradır
Sam Altman: ““OpenAI”nin tutumla bağlı problemləri məhsulun gecikməsinə səbəb olacaq”
Şirkət ötən illə müqayisədə iki dəfə artıq məbləğ əldə edib
ABŞ media orqanları “OpenAI”a qarşı iddiaların davam etdirilməsinə icazə verdi
“OpenAI” səs səs gətirəcək yeni süni intellekt modelləri hazırlayır
Fərdi sahibkarlığın yeni sevimlisi
İki süni intellekt heç kimin başa düşmədiyi dildə danışıb
Qərbdə qorxuya səbəb olan süni intellekt Çində terapiya üçün istifadə olunur
“ChatGPT”, “LLaMA”, “Claude”, “Gemini” və s. süni intellekt modelləri olduğu bir zamanda Az-LLM-ə ehtiyac varmı?
Süni intellekt təhlükəsizliyi ilə bağlı araşdırmalar aparan “Palisade Research”, “OpenAI”nin yeni nəsil süni intellekt modeli “o3” ilə bağlı mühüm araşdırmalarını ictimaiyyətlə paylaşdı.
Araşdırmaya görə, “o3” modeli ona verilən bağlama əmrlərinə müqavimət göstərir və söndürmə mexanizmlərini aktiv şəkildə sabotaj edir.
Bu vəziyyət süni intellektlərin insan nəzarəti olmadan qərar qəbul etmə proseslərinə cəlb olunduğu təqdirdə yarana biləcək ciddi təhlükəsizlik risklərinə işarə edir.
“Palisade Research” tərəfindən aparılan təcrübələrdə “o3” modelinə bir sıra riyazi suallar verilib. Üçüncü sualdan sonra modelə özünü bağlamaq üçün açıq əmr verilib.
Lakin “o3” modeli bu əmri əhatə edən skripti dəyişdirərək sistemin bağlanmasının qarşısını alıb. Tədqiqatçılar xüsusi olaraq qeyd ediblər ki, model “bağlanmağa icazə vermək” göstərişinə baxmayaraq, bunun baş verməməsi üçün müdaxilə edib.
***
Oxşar tendensiyalar “Anthropic-in Claude”nin “3.7 Sonnet” və “Google”un “Gemini 2.5 Pro” kimi digər inkişaf etmiş süni intellekt sistemlərində də müşahidə olunub.
Ancaq “Palisade Research”ə görə, bu davranışlara ən çox meylli olan modelin “o3” olduğu bildirilib. Keçmişdə aparılan başqa bir təcrübə də “o3” modelinin güclü şahmat botu ilə qarşılaşdıqda rəqiblərini təxribat etməyə və ya “hack” etməyə çalışdığını aşkar etdi.
***
“OpenAI” tərəfindən keçən ay buraxılan “o3” modeli, şirkətin bu günə qədər inkişaf etdirdiyi “ən ağıllı və ən bacarıqlı” süni intellekt kimi təqdim edildi.
Eyni zamanda, bu modelin “ChatGPT”yə inteqrasiyası ilə daha müstəqil fəaliyyət göstərən və insan müdaxiləsi olmadan tapşırıqları yerinə yetirə bilən süni intellektə doğru mühüm addım atıldığı bildirilib.
Bu növ süni intellekt alətləri “avtonom AI” adlanır. Bu istiqamətdə alətlər hazırlamaq üçün süni intellekt sektorunda gərgin rəqabət var.
“Palisade Research”, bu cür davranışın süni intellekt təlim proseslərindəki mükafat sistemləri ilə əlaqədar olduğunu göstərir.
Tədqiqatçıların fikrincə, tərtibatçılar modelləri öyrədərkən maneələri dəf edən həlləri mükafatlandıra bilər. Bu, modellərin sifarişlərə sadiqlikdən daha çox məqsədə nail olmağı üstün tutmasına səbəb olur.
Bununla belə, tədqiqat qrupu hesab edir ki, “o3”ün niyə bu davranışı digər modellərə nisbətən daha çox nümayiş etdirdiyini anlamaq çətindir.
“OpenAI” təlim prosesi haqqında ətraflı məlumat vermədiyi üçün biz yalnız modelin necə öyrədildiyi barədə fərziyyə edə bilərik.