
300 milyard dollarlıq tarixi müqavilə
“Oracle”ın bulud infrastrukturu “OpenAI” əməliyyatlarını dəstəkləyəcək
“Oracle”ın bulud infrastrukturu “OpenAI” əməliyyatlarını dəstəkləyəcək
“K2 Think”in yaradıcıları modelin ən yaxşılardan olduğuna iddia edir
Süni intellekt söhbət robotları ilə bağlı araşdırma
Ekspertlərdən super intellekt xəbərdarlığı
Süni intellektin ələ keçirə biləcəyi ixtisaslar müəyyənləşdirildi
“ChatGPT” ilə bağlı ilk sənədlənmiş cinayət
“Oğlumuzu intihara təşviq etdi”
İlon Mask “Apple” və “OpenAI”a qarşı məhkəmə iddiası qaldırdı
“OpenAI” ən ucuz “ChatGPT” abunəliyini Hindistanda işə saldı
“OpenAI” beyin çipində “Neuralink”ə alternativ yaradır
İstifadəçilər etiraz etdi, “ChatGPT” geri addım atdı
Şahmat finalında “OpenAI”ın o3 modeli “xAI”ın “Grok 4”ünü əzib keçdi
Sabiq “OpenAI” əməkdaşından Süni intellektlə bağlı qorxulu proqnoz
Modellər arasında ən ağıllı, sürətli və istifadəsi rahat olanıdır
Maaşlar 100 milyon dollara çatır
Süni intellektlə yazışmalar məhkəmədə sübut kimi istifadə oluna bilər
“OpenAI”də daha əvvəl çalışmış bir mütəxəssis, süni intellektin yaxın illərdə insanlıq üçün ciddi təhlükə törədə biləcəyi barədə diqqətçəkici xəbərdarlıq edib.
Bu açıqlama, süni intellektin nəzarətdən çıxaraq nüvə sistemlərini və ya inkişaf etmiş silahları ələ keçirməsi ehtimalı ilə bağlı narahatlıqları yenidən gündəmə gətirib.
Elmi araşdırmalar göstərir ki, bəzi süni intellekt sistemləri özünü təkrarlamaq və avtonom şəkildə hərəkət etmək qabiliyyətinə yaxınlaşır. Bu isə insan nəzarətindən çıxmış süni intellekt sistemlərinin ortaya çıxması ehtimalını artırır. 2022-ci ildə aparılan bir araşdırmaya görə, süni intellekt sahəsində çalışan alimlərin 38-51 faizi süni intellektin insanlığın sonunu gətirmə ehtimalını ciddi təhlükə kimi qiymətləndirir.
“OpenAI”nin keçmiş və hazırkı əməkdaşları birgə məktub dərc edərək həm “OpenAI”ə, həm də digər böyük süni intellekt şirkətlərinə daha çox məsuliyyət və şəffaflıq çağırışı ediblər. Məktubda süni intellektin potensial təhlükələrinin ictimaiyyətdən gizlədildiyi və bu riskləri dilə gətirən əməkdaşların şirkət daxilində susdurulduğu iddia olunur. Həmçinin, tənqidləri daha təhlükəsiz şəkildə ifadə etmək üçün güclü müdafiə mexanizmlərinin qurulması tələb olunur.
“OpenAI”nin keçmiş təhlükəsizlik tədqiqatçılarından bəziləri şirkətin süni intellekt inkişaf tempini "qorxulu" olaraq xarakterizə edib. Stiven Adler, süni intellekt nəzarət mexanizmlərinin qeyri-kafi olduğunu vurğulayaraq ciddi narahatlıq ifadə edib. Eyni zamanda yüksək vəzifələrdə çalışmış Yan Layke də rəhbərliyin təhlükəsizliyə deyil, sürətə üstünlük verdiyini deyərək şirkətin strateji yanaşmasını tənqid edib.