
2500 nəfər “AI Academy”yə müraciət edib
Azərbaycanın ilk Süni İntellekt Akademiyası dərslərə başlayır
Azərbaycanın ilk Süni İntellekt Akademiyası dərslərə başlayır
Oflayn rejimdə işləyə bilən proqramın performansı telefonun gücündən asılı olaraq dəyişə bilər
İş dünyasının qızıl qaydası dəyişdi
Rinqdə üz-üzə gələn insanabənzər metalların yumruqları havada uçuşub
“OpenAI”nin yeni modeli “o3” “bağlamaq” əmrlərinə müqavimət göstərdi
Bağlanma ilə hədələnən robot yaradıcılarını təhdid edib
Təhsildə Estoniya modeli Finlandiyanı geridə qoyub
Köməyindən istifadə etdikdən sonra “ChatGPT”yə təşəkkür etməyin
Süni intellektin zərif cinsin nümayəndələrinin işini ələ keçirməsi riski kişilərdən üç dəfə yüksəkdir
“OpenAI” “Apple”ın keçmiş dizayneri Coni Ayvın başlanğıcını satın alır
“Google”un yeni funksiyası istənilən adamı dərhal istənilən dildə danışdıracaq
“İllərdir şirkətlər istifadəçi məlumatlarını ədalətsiz şəkildə toplayır”
42 “virtual həkim” xəstələrə onlayn xidmət göstərir
“Birlikdə etdiklərini tək başına etdikləri ilə müqayisə etmək olmaz”
Çinli işçilərin gələcəyi qeyri-müəyyəndir
Yeni kəşf piylənmə ilə mübarizə aparmağa kömək edə bilər
“ChatGPT”, “DeepSeek” və “Gemini” kimi böyük dil modellərinin (LLM) istifadəçilərə zaman zaman səhv, təhrif edilmiş və ya yalançı çıxışlar təqdim etməsi də müzakirələrə səbəb olub. Mütəxəssislərin fikrincə, öyrənmə, problem həll etmə və qərar vermə kimi insan zəkasına xas olan müəyyən funksiyaları yerinə yetirə bilən süni intellekt şüurlu olmaq qabiliyyətinə malik olmasa da, insan kimi Hallüsinasiya görə bilir.
Həmişə “qərəzsiz və dəqiq” məlumat ötürdüyü düşünülən Süni intellektin sanki həqiqətən varmış kimi qeyri-real və səhv məlumatlar istehsal etməsi onun etibarlılığı və şəffaflığı ilə bağlı narahatlıqları bir daha üzə çıxarıb.
Süni intellektlə dəstəklənən chatbotlar daxil edilmiş əmrin kontekstinə uyğun səlis cavablar təqdim etsə də, süni intellektin yanılmaz olması fikrini yaradır, insan kimi hallüsinasiyalar görməsi ciddi nəticələrə səbəb ola bilər.
Mütəxəssislərin fikrincə, süni intellektin yanlış və ya real olmayan məlumatları ötürərkən daxil edilmiş əmrlərə uyğun cavablar istehsal etməyi qarşısına məqsəd qoymasının səbəbi istifadəçiyə hər mənada fayda verməyi hədəfləməsidir.
“Rochester” Universitetinin Kompüter Elmləri Departamentindən professor Ehsan Hoque süni intellektdəki hallüsinasiya anlayışı haqqında, Vaşinqton Universitetinin Dilçilik Departamentindən professor Emili Bender isə süni intellekt tərəfindən dəstəklənən söhbət botlarının etibarlılığı ilə bağlı açıqlamalar verib.
***
Professor Hoque, süni intellektin öz təbiətinə görə istifadəçi niyyətlərini əks etdirməyə meylli olduğunu söyləyərək, “Bir səhvi düzəltməsini istədikdə, bir çox model kömək edirmiş kimi görünmək üçün hallüsinasiyalar görür”, – deyib.
Hoque, daxil edilmiş əmrlərə uyğun cavablar verməyi qarşıya məqsəd qoymuş süni intellektin istifadəçilərə hər mənada fayda verməyi hədəflədiyi üçün bir şəkildə yaltaq olduğunu deyib.
Süni intellekt modellərinin faktları yoxlayaraq deyil, potensial söz modellərini təxmin edərək mətn yaratdıqlarına diqqət çəkən Hoque, məlumatların natamam və ya qeyri-müəyyən olması halında süni intellektin səlis, lakin səhv mətn yarada biləcəyini qeyd edib.
Hoque, hallüsinasiyaların qəsdən baş vermədiyini, lakin bəzi dəyərə əsaslanan mühakimələrin istehsal olunduğu ölkədən asılı olaraq bilərəkdən sistemə kodlana biləcəyini və mövcud texnologiyaların hələ də kökündə hallüsinasiya problemini həll etmək qabiliyyətinə malik olmadığını bildirib.
***
Mütəxəssislər, süni intellektin mövcud olmayan məlumatları əks tərəfə sanki doğruymuş kimi əks etdirməsini nöropsikiyatrik xəstəlik konfabulyasiya pozğunluğu ilə müqayisə etdilər.
Qeyri-ixtiyari və səlis bir şəkildə qeyri-real və ya xəyali bir hadisənin və ya yaddaşın hekayə kimi danışması mənasını verən konfabulyasiya, əmrlərə uyğun şəkildə cavab verməyi hədəfləyən chatbotların səlis bir dildə yalan və ya qeyri-real məlumat istehsal etdiyi hallarda müşahidə edilə bilər.
Konfabulyasiya ilə mübarizə aparan xəstələrdə əslində uydurulmuş hadisələrin və xatirələrin qarşı tərəfə çatdırıldığı səlis dil ilkin olaraq real kimi görünə bilər, lakin təsvir edilən vəziyyətlərin əslində mövcud olmayan və ya təhrif olunmuş məlumatlardan ibarət olması diqqəti cəlb edir.
Bu vəziyyətin qəsdən edilmədiyinə diqqət çəkən mütəxəssislər, süni intellektin hallüsinasiyasını bu xəstəliklə müqayisə edirlər.
Məhkəmə sənədləri və ya tibbi qeydlər kimi rəsmi sənədlərdə süni intellektin istifadə olunma ehtimalı nəzərə alındıqda bu vəziyyətin ciddi nəticələri ola biləcəyi vurğulanır.
***
Süni intellektə dəstəklənən chatbotların etibarlığını vurğulayan Vaşinqton Universitetinin Dilçilik Departamentinin professoru Bender, marketinq strategiyalarının süni intellektə bu qədər etimadın verilməsində rol oynadığını söylədi və avtomatlaşdırma qərəzi anlayışına işarə etdi.
Süni intellekt dizaynlarında heç bir şeyin hallüsinasiya problemini həll etmədiyini qiymətləndirən Bender, bu sistemlərə mütləq etibar edilməməsi lazım olduğunu da vurğuladı.
İnsanların səhv dərəcəsindən asılı olmayaraq avtomatlaşdırılmış sistemdən gələn məlumatlara həddən artıq etibar etmə meylini ifadə edən bu termin süni intellektlə işləyən chatbotlar tərəfindən istehsal edilən nəticələrin səhvsiz olduğu anlayışı ilə üst-üstə düşür.