
Süni intellekt 12 min dollar qazandırdı
“ChatGPT” sayəsində bir ayda borcundan qurtuldu
“ChatGPT” sayəsində bir ayda borcundan qurtuldu
Həkimlərdən xəbərdarlıq: “Süni intellekt zehni sağlamlığı poza bilər”
Süni intellekt nəhəngi 6 ayda 10 milyard dollarlıq dəyərə çatıb
“OpenAI” daxili casusluqdan qorunmaq üçün tədbirləri gücləndirir
Qərb texnologiya nəhəngləri də “DeepSeek”ə müraciət edirlər
Süni intellekt modellərinə nə baş verir?
Alman məktəblərində Süni intellekt narahatlığı
Süni intellektlə danışanlar ehtiyatlı olun!
İş dünyasının qızıl qaydası dəyişdi
“OpenAI”nin yeni modeli “o3” “bağlamaq” əmrlərinə müqavimət göstərdi
Köməyindən istifadə etdikdən sonra “ChatGPT”yə təşəkkür etməyin
“OpenAI” “Apple”ın keçmiş dizayneri Coni Ayvın başlanğıcını satın alır
42 “virtual həkim” xəstələrə onlayn xidmət göstərir
“Birlikdə etdiklərini tək başına etdikləri ilə müqayisə etmək olmaz”
Süni intellekt şirkəti bazarda artan rəqabətə qarşı rıçaq əldə etdi
“ChatGPT”nin qəhvə falı 12 illik evliliyi dağıtdı
“OpenAI”də daha əvvəl çalışmış bir mütəxəssis, süni intellektin yaxın illərdə insanlıq üçün ciddi təhlükə törədə biləcəyi barədə diqqətçəkici xəbərdarlıq edib.
Bu açıqlama, süni intellektin nəzarətdən çıxaraq nüvə sistemlərini və ya inkişaf etmiş silahları ələ keçirməsi ehtimalı ilə bağlı narahatlıqları yenidən gündəmə gətirib.
Elmi araşdırmalar göstərir ki, bəzi süni intellekt sistemləri özünü təkrarlamaq və avtonom şəkildə hərəkət etmək qabiliyyətinə yaxınlaşır. Bu isə insan nəzarətindən çıxmış süni intellekt sistemlərinin ortaya çıxması ehtimalını artırır. 2022-ci ildə aparılan bir araşdırmaya görə, süni intellekt sahəsində çalışan alimlərin 38-51 faizi süni intellektin insanlığın sonunu gətirmə ehtimalını ciddi təhlükə kimi qiymətləndirir.
“OpenAI”nin keçmiş və hazırkı əməkdaşları birgə məktub dərc edərək həm “OpenAI”ə, həm də digər böyük süni intellekt şirkətlərinə daha çox məsuliyyət və şəffaflıq çağırışı ediblər. Məktubda süni intellektin potensial təhlükələrinin ictimaiyyətdən gizlədildiyi və bu riskləri dilə gətirən əməkdaşların şirkət daxilində susdurulduğu iddia olunur. Həmçinin, tənqidləri daha təhlükəsiz şəkildə ifadə etmək üçün güclü müdafiə mexanizmlərinin qurulması tələb olunur.
“OpenAI”nin keçmiş təhlükəsizlik tədqiqatçılarından bəziləri şirkətin süni intellekt inkişaf tempini "qorxulu" olaraq xarakterizə edib. Stiven Adler, süni intellekt nəzarət mexanizmlərinin qeyri-kafi olduğunu vurğulayaraq ciddi narahatlıq ifadə edib. Eyni zamanda yüksək vəzifələrdə çalışmış Yan Layke də rəhbərliyin təhlükəsizliyə deyil, sürətə üstünlük verdiyini deyərək şirkətin strateji yanaşmasını tənqid edib.