
“OpenAI” 40 milyard dollar vəsait toplayıb
Şirkət ötən illə müqayisədə iki dəfə artıq məbləğ əldə edib
Şirkət ötən illə müqayisədə iki dəfə artıq məbləğ əldə edib
18 il əvvəl insult keçirmiş bir xəstədə uğurlu oldu
Elon Musk növbəti süni intellekt imperiyasını avtomobillər üzərində quracaq
Həkimlik və müəllimlik peşələri təhlükədə
ABŞ media orqanları “OpenAI”a qarşı iddiaların davam etdirilməsinə icazə verdi
Süni İntellektin ECgMLP adlı yeni modeli xərçəngi 99,26 faiz təyin edir
“OpenAI” səs səs gətirəcək yeni süni intellekt modelləri hazırlayır
Dünya tibb tarixində bir ilk – Avstraliyalı xəstə 100 gün sağ qala bildi
“2030-cu ilə qədər super gücə çevriləcək”
Fərdi sahibkarlığın yeni sevimlisi
Qocaların qayğısına süni intellekt qalacaq
İki süni intellekt heç kimin başa düşmədiyi dildə danışıb
“Süni intellekt işıq sürəti ilə inkişaf edir”
DBS bankı texnologiya üçün əlavə 1000 yeni vəzifə təsis edəcək
Qərbdə qorxuya səbəb olan süni intellekt Çində terapiya üçün istifadə olunur
“ChatGPT”, “LLaMA”, “Claude”, “Gemini” və s. süni intellekt modelləri olduğu bir zamanda Az-LLM-ə ehtiyac varmı?
Tədqiqatçılar internetin süni intellekt tərəfindən yaradılan məzmunla dolması nəticəsində süni intellekt sistemlərinin cəfəngiyyata çevrilə biləcəyi barədə xəbərdarlıq ediblər.
“OpenAI”nin “ChatGPT” kimi mətn yaradan sistemlərə həvəs son illərdə durmadan artıb. Bu həyəcan bir çox insanı bloq yazılarını və sistemlər tərəfindən yaradılmış müxtəlif məzmunu dərc etməyə təşviq edib ki, süni intellektlə yaradılan məzmun internetin getdikcə daha böyük bir hissəsini tutub.
Lakin bu sistemləri istehsal edən şirkətlərin əksəriyyəti sistemləri öyrətmək üçün internetdəki mətnlərdən istifadə edir. Bu, mətnləri yaratmaq üçün istifadə edilən Süni intellekt sistemlərinin eyni mətnlərlə öyrədildiyi bir dövrə səbəb ola bilər.
Yeni bir araşdırmada tədqiqatçılar bunun Süni intellekt alətlərini tez bir zamanda mənasızlığa və boşboğzalığa apara biləcəyi barədə xəbərdarlıq etdilər. Onun xəbərdarlıqları “ölü internet nəzəriyyəsi” ilə bağlı daha geniş narahatlıqların bir hissəsidir ki, bu da internetin artan bir hissəsinin avtomatlaşdırıldığını və pis dövrəyə girdiyini göstərir.
Tədqiqata görə, sistemin mənasızlıq yaratmağa başlaması üçün məzmun yaradan sistemin bir neçə dövrü və onun istehsal etdiyi məzmuna dair təlim keçməsi kifayətdir.
Məsələn, tədqiqatçılar orta əsr memarlığına aid mətnlərlə sınaqdan keçirilmiş bir sistemdə məhsulun cəmi 9 istehsalda dovşan növlərinin təkrarlanan siyahısına çevrildiyini müşahidə etdilər.
İstehsal etdiyi məlumat dəstləri ilə süni intellektin öyrədilməsi və nəticələrin çirklənməsi “model çökməsi” adlanır. Tədqiqatçılar, internetdə süni intellekt sistemlərindən daha çox istifadə edildiyi üçün bu vəziyyətin geniş yayıla biləcəyi barədə xəbərdarlıq edirlər.
Bu problem ona görə baş verir ki, sistemlər istehsal etdikləri məlumatlar üzərində təlim keçdikləri üçün verilənlərin daha az yayılmış hissələrini buraxmağa meyllidirlər. Bu araşdırmada iştirak etməyən tədqiqatçı Emili Venger, müxtəlif it cinsləri ilə öyrədilmiş bir sistem nümunəsi verdi – əgər faktiki məlumatda daha çox qızıl “Retriver” (it cinsi) varsa, sistem onları məlumatlardan seçir və digər itləri kənarda qoyur. Proses bu cür irəliləyir və sonda çökür. Bundan sonra cəfəngiyatlar başlayır.
Tədqiqatçılar eyni nəticəni “ChatGPT” və “Google”un “Gemi”ni ilə işləyən böyük dil modellərində müşahidə ediblər.
Bu, təkcə sistemlərin getdikcə daha disfunksiyalı olacağı üçün deyil, həm də onların nəticələrinin daha az müxtəlif olacağı üçün problem yarada bilər. Məlumatlar istehsal olunduqca və təkrar emal olunduqca sistemlər dünyadakı fərqləri əks etdirmək üçün mübarizə apara, daha kiçik qruplar və nailiyyətlər tamamilə silinə bilər.
Tədqiqatçılar məqalədə yazır: “Əgər internetdəki irimiqyaslı məlumatların təmizlənməsini davam etdirilmək istənilirsə, bu məsələyə ciddi yanaşmaq lazımdır”. Bu, həm də o deməkdir ki, sistemlərini öyrətmək üçün artıq məlumatları silmiş şirkətlər üstünlüyə malikdirlər, çünki keçmişdə toplanmış məlumatlarda daha çox real insan girişi var”.
Bu problem bir çox yollarla həll edilə bilər, o cümlədən çıxışın avtomatlaşdırılmış sistemlər tərəfindən aşkar edilməsi və təlim dəstlərindən xaric edilməsi üçün nişan qoyulması. Ancaq nişanların asanlıqla silinməsi və Süni intellekt şirkətlərinin nişanlardan istifadədə əməkdaşlığa maneələr yaratması kimi başqa problemlər də var.
“Süni intellekt modelləri rekursiv şəkildə yaradılan məlumatlara öyrədildikdə çökür” adlı araşdırma dərc olunub.