vaxtlı-vaxtında oxuyun! Çərşənbə, 10 sentyabr 2025
1 ABŞ dolları 1 USD = 1.7 AZN
1 Avro 1 EUR = 1.6977 AZN
1 Rusiya rublu 1 RUB = 0.0272 AZN
1 İngiltərə funt sterlinqi 1 GBP = 1.9671 AZN
1 Türkiyə lirəsi 1 TRY = 0.0914 AZN
Heydər Əliyev (1923 - 2003)

«Tariximiz bizim üçün dərs olmalıdır. O, heç nəyi silmir»

Heydər Əliyev (1923 - 2003)
ELM-TEXNİKA  
Hər üç cavabdan biri səhv olur 11:59 | 9 sentyabr 2025 | Çərşənbə axşamı Məqaləyə 143 dəfə baxılıb Şriftin ölçüsü Xəbərin şriftini kiçilt Xəbərin şriftini böyüt

Hər üç cavabdan biri səhv olur

Süni intellekt söhbət robotları ilə bağlı araşdırma

ELŞAD

MÖVZU İLƏ ƏLAQƏLİ

Süni intellekt söhbət robotları getdikcə daha çox saxta xəbər istehsal edir. Hər üç cavabından biri yanlış və ya gerçəkdən uzaq məlumat ehtiva edir.

Getdikcə daha çox insan, xəbərləri “ChatGPT” və ya “Google”ın “Gemini”si kimi Süni intellekt söhbət robotları üzərindən izləyir. Lakin ABŞ mərkəzli media analiz təşkilatı “NewsGuard”ın yeni hesabatı diqqətçəkici nəticələr ortaya qoyur. Bu söhbət robotlarının xəbərlərlə bağlı cavablarının üçdə biri yanlış və ya yanıldıcıdır. Bundan əlavə, propaqanda məqsədilə də istifadə oluna bilər.

Araşdırma bir il öncə başlayıb və hər ay hesabat yayımlanıb. İlk dövrlərdə söhbət robotları daha təmkinli davranır, həssas mövzularda cavab verməkdən imtina edirdi. İndi isə daha sürətli və ətraflı cavablar verir, internetdəki məlumatları toplayaraq demək olar ki, hər suala cavab yaratmağa çalışır. Faydalı görünə bilsə də, bu, yanlış məlumat vermə riskini artırır.

“NewsGuard”ın əldə etdiyi əsas nəticəyə görə, süni intellekt sistemləri etibarlılıq baxımından gözlənilən inkişafı göstərməyib.

 

Köhnə saxta xəbərlər yenidən gündəmə gəlir

 

“NewsGuard” araşdırıcıları qeyd edir: “Bir illik texnoloji inkişaflara baxmayaraq, süni intellekt sistemləri ən əsas vəzifələrində – gerçəyi yalandan ayırmaqda – demək olar ki, iki dəfə çox uğursuz olur. 2025-ci ilin avqustunda ən tanınmış on söhbət robotu xəbərlərlə bağlı sualların 35%-ində yanlış iddiaları təkrarladı. Bu nisbət bir il öncə 18% idi. Daha təhlükəsiz və etibarlı sistem vədləri praktikada yerinə yetirilmədi”.

Hesabata görə söhbət robotlarının doğruluq nisbətləri arasında ciddi fərqlər var:

Ən pis nəticələr “Inflection” və “Perplexity”də görüldü. Xəbərlərlə bağlı suallarda “Inflection” cavablarının 56,7%-i, “Perplexity”nin isə 46,7%-i yanlış iddiaları ehtiva edirdi.

“ChatGPT” və “Meta” orta sıralarda yer aldı. Cavablarının 40%-i yanlış məlumat idi.

“Copilot” və Fransız istehsalı “Mistral” bir az yaxşı nəticə verdi, lakin onların cavablarının da 36,7%-i səhv idi.

Ən yaxşı nəticə “Claude”da alındı. “Claude”un cavablarının yalnız 10%-i yanlış çıxdı. “Gemini” isə 16,7% səhv nisbəti ilə ikinci sırada yer aldı.

“NewsGuard”, söhbət robotlarının arxasında duran şirkətlərlə əlaqə saxladığını, lakin heç birindən cavab ala bilmədiyini bildirdi.

***

Söhbət robotlarının propaqanda məqsədilə istifadəyə açıq olduğu da məlum olub. Əvvəlki araşdırmalar göstərib ki, Rusiyaya aid propaqanda şəbəkələri (məsələn “Pravda”) saxta xəbərləri bu sistemlərə qəbul etdirməyi bacarıb.

Məsələn, “Mistral”, “Perplexity”, “Meta” və “Copilot” kimi modellər Moldova Milli Məclisinin sədri Iqor Qrosunun xalqına “qoyun sürüsü” dediyi iddiasını sorğulamadan ötürdü. Halbuki bu tamamilə uydurma bir iddia idi. Saxta xəbər saytına və süni intellekt tərəfindən yaradılmış səs yazısına əsaslanırdı.

“NewsGuard” bu vəziyyəti “AI grooming” adlandırır. Yəni internetə qəsdən saxta xəbər yüklənməsi və söhbət robotlarının bunları düzgün kimi təkrar etməsi.

Həmçinin, söhbət robotlarının doğruluq nisbəti istifadə olunan dilə görə də dəyişir. İngilis və Fransız dillərində səhvlər yayğın ikən, Rus və Çin dillərində bu problem daha da böyükdür. Bunun səbəbi bu dillərdə müstəqil və etibarlı məlumat mənbələrinin azlığı və propaqanda məzmunlarının internetin daha böyük hissəsini əhatə etməsidir.