vaxtlı-vaxtında oxuyun! Şənbə, 7 iyun 2025
1 ABŞ dolları 1 USD = 1.7 AZN
1 Avro 1 EUR = 1.6977 AZN
1 Rusiya rublu 1 RUB = 0.0272 AZN
1 İngiltərə funt sterlinqi 1 GBP = 1.9671 AZN
1 Türkiyə lirəsi 1 TRY = 0.0914 AZN
Heydər Əliyev (1923 - 2003)

«Müstəqillik yolu qədər çətin yol yoxdur»

Heydər Əliyev (1923 - 2003)
ELM-TEXNİKA  
Mütəxəssislər xəbərdarlıq edir 19:10 | 6 iyun 2025 | Cümə Məqaləyə 21 dəfə baxılıb Şriftin ölçüsü Xəbərin şriftini kiçilt Xəbərin şriftini böyüt

Mütəxəssislər xəbərdarlıq edir

Süni intellekt hallüsinasiya görür

MEHİN

MÖVZU İLƏ ƏLAQƏLİ

“ChatGPT”, “DeepSeek” və “Gemini” kimi böyük dil modellərinin (LLM) istifadəçilərə zaman zaman səhv, təhrif edilmiş və ya yalançı çıxışlar təqdim etməsi də müzakirələrə səbəb olub. Mütəxəssislərin fikrincə, öyrənmə, problem həll etmə və qərar vermə kimi insan zəkasına xas olan müəyyən funksiyaları yerinə yetirə bilən süni intellekt şüurlu olmaq qabiliyyətinə malik olmasa da, insan kimi Hallüsinasiya görə bilir.

Həmişə “qərəzsiz və dəqiq” məlumat ötürdüyü düşünülən Süni intellektin sanki həqiqətən varmış kimi qeyri-real və səhv məlumatlar istehsal etməsi onun etibarlılığı və şəffaflığı ilə bağlı narahatlıqları bir daha üzə çıxarıb.

Süni intellektlə dəstəklənən chatbotlar daxil edilmiş əmrin kontekstinə uyğun səlis cavablar təqdim etsə də, süni intellektin yanılmaz olması fikrini yaradır, insan kimi hallüsinasiyalar görməsi ciddi nəticələrə səbəb ola bilər.

Mütəxəssislərin fikrincə, süni intellektin yanlış və ya real olmayan məlumatları ötürərkən daxil edilmiş əmrlərə uyğun cavablar istehsal etməyi qarşısına məqsəd qoymasının səbəbi istifadəçiyə hər mənada fayda verməyi hədəfləməsidir.

“Rochester” Universitetinin Kompüter Elmləri Departamentindən professor Ehsan Hoque süni intellektdəki hallüsinasiya anlayışı haqqında, Vaşinqton Universitetinin Dilçilik Departamentindən professor Emili Bender isə süni intellekt tərəfindən dəstəklənən söhbət botlarının etibarlılığı ilə bağlı açıqlamalar verib.

***

Professor Hoque, süni intellektin öz təbiətinə görə istifadəçi niyyətlərini əks etdirməyə meylli olduğunu söyləyərək, “Bir səhvi düzəltməsini istədikdə, bir çox model kömək edirmiş kimi görünmək üçün hallüsinasiyalar görür”, – deyib.

Hoque, daxil edilmiş əmrlərə uyğun cavablar verməyi qarşıya məqsəd qoymuş süni intellektin istifadəçilərə hər mənada fayda verməyi hədəflədiyi üçün bir şəkildə yaltaq olduğunu deyib.

Süni intellekt modellərinin faktları yoxlayaraq deyil, potensial söz modellərini təxmin edərək mətn yaratdıqlarına diqqət çəkən Hoque, məlumatların natamam və ya qeyri-müəyyən olması halında süni intellektin səlis, lakin səhv mətn yarada biləcəyini qeyd edib.

Hoque, hallüsinasiyaların qəsdən baş vermədiyini, lakin bəzi dəyərə əsaslanan mühakimələrin istehsal olunduğu ölkədən asılı olaraq bilərəkdən sistemə kodlana biləcəyini və mövcud texnologiyaların hələ də kökündə hallüsinasiya problemini həll etmək qabiliyyətinə malik olmadığını bildirib.

***

Mütəxəssislər, süni intellektin mövcud olmayan məlumatları əks tərəfə sanki doğruymuş kimi əks etdirməsini nöropsikiyatrik xəstəlik konfabulyasiya pozğunluğu ilə müqayisə etdilər.

Qeyri-ixtiyari və səlis bir şəkildə qeyri-real və ya xəyali bir hadisənin və ya yaddaşın hekayə kimi danışması mənasını verən konfabulyasiya, əmrlərə uyğun şəkildə cavab verməyi hədəfləyən chatbotların səlis bir dildə yalan və ya qeyri-real məlumat istehsal etdiyi hallarda müşahidə edilə bilər.

Konfabulyasiya ilə mübarizə aparan xəstələrdə əslində uydurulmuş hadisələrin və xatirələrin qarşı tərəfə çatdırıldığı səlis dil ilkin olaraq real kimi görünə bilər, lakin təsvir edilən vəziyyətlərin əslində mövcud olmayan və ya təhrif olunmuş məlumatlardan ibarət olması diqqəti cəlb edir.

Bu vəziyyətin qəsdən edilmədiyinə diqqət çəkən mütəxəssislər, süni intellektin hallüsinasiyasını bu xəstəliklə müqayisə edirlər.

Məhkəmə sənədləri və ya tibbi qeydlər kimi rəsmi sənədlərdə süni intellektin istifadə olunma ehtimalı nəzərə alındıqda bu vəziyyətin ciddi nəticələri ola biləcəyi vurğulanır.

***

Süni intellektə dəstəklənən chatbotların etibarlığını vurğulayan Vaşinqton Universitetinin Dilçilik Departamentinin professoru Bender, marketinq strategiyalarının süni intellektə bu qədər etimadın verilməsində rol oynadığını söylədi və avtomatlaşdırma qərəzi anlayışına işarə etdi.

Süni intellekt dizaynlarında heç bir şeyin hallüsinasiya problemini həll etmədiyini qiymətləndirən Bender, bu sistemlərə mütləq etibar edilməməsi lazım olduğunu da vurğuladı.

İnsanların səhv dərəcəsindən asılı olmayaraq avtomatlaşdırılmış sistemdən gələn məlumatlara həddən artıq etibar etmə meylini ifadə edən bu termin süni intellektlə işləyən chatbotlar tərəfindən istehsal edilən nəticələrin səhvsiz olduğu anlayışı ilə üst-üstə düşür.