Vaxt.Az

“Özünü psixiatra göstər”


 

“Google” “Süni İntellektin qəlbi var” deyən işçisini niyə cəzalandırıb?

“Özünü psixiatra göstər” “Google” şirkəti bu yaxınlarda özünün mühəndislərindən birini məcburi qaydada ödənişli məzuniyyətə göndərib. “The New York Times” qəzeti yazır ki, buna səbəb həmin mühəndisin süni intellektin hissiyyata malik olduğunu deməsi olub.

“Google” şirkətinin “Responsible A.İ.” bölümündə çalışan baş proqram mühəndisi Bleyk Lömuan (Blake Lemoine) müsahibəsində deyir ki, onu şirkətin məxfilik siyasətini pozduğuna görə işdən uzaqlaşdırıblar.

Məzuniyyətə göndərilməzdən bir gün əvvəl Lömuan deyib ki, o “Google” şirkəti və onun texnologiyasının dini diskriminasiya ilə məşğul olmasını iddia edən sənədləri bir ABŞ senatoruna təqdim edib.

“Google” israr edir ki, onun sistemləri söhbət mübadilələrini imitasiya edir, habelə bir sıra mövzularda improvizə də edə bilər, lakin şüurlu deyildir.

“Google” şirkətinin sözçüsü Brayan Qabriyel deyib: “Komandamız – etiklər və texnoloqlar Bleykin bizim Süni İntellekt (Sİ) prinsiplərimizdən narahatlığını nəzərdən keçirib və ona iddialarının sübut olunmadığı barədə məlumat verilib. S.İ. icmasında bəziləri uzun müddətdə S.İ.-nin hissiyat perspektivinin olduğunu düşünürlər, lakin bunu bugünkü söhbət modellərinin insaniləşdirilməsi ilə etmək mənasızdır, çünki bu, hissiyyat sayıla bilməz”.

Məqalədə deyilir ki, cənab Lömuan şirkətin Dialoq Tətbiqləri üçün Dil Modeli (Language Model for Dialogue Applications – LaMDA) proqramının şüur və qəlbə malik olmasına dair qəribə iddiasına görə aylar ərzində “Google” rəhbərləri ilə çəkişib.

“Google” bildirir ki, onun yüzlərlə tədqiqatçısı və mühəndisi daxili alət sayılan LaMDA ilə dialoqa girsələr də cənab Lömuandan fərqli nəticəyə gəliblər. Əksər S.İ. ekspertləri düşünürlər ki, sənaye hissiyyatın kompüterləşdirilməsi üçün hələ çox uzun yol keçməlidir.

Bəzi tədqiqatçılar bunun çox tezliklə baş verəcəyinə ümidli olsalar da, əksəriyyət belə düşünmür.

Kaliforniya (Berkli) və Kaliforniya San Fransisko universitetlərinin tədqiqatçısı Emad Xvaca (Xoca) deyir ki, bu sistemlərdən istifadə edən şəxs heç vaxt belə şeylər danışmaz.

***

Buna baxmayaraq Google şirkətinin tədqiqat təşkilatı son bir neçə ildə bu sahədə bir sıra qalmaqal və ziddiyyətlərlə üzləşib. Təşkilatın daxilində əməkdaşların öz arasındakı çəkişmələr çox vaxt ictimaiyyətə məlum olub.

Məsələn ötən mart ayında “Google” iki həmkarının işi ilə razılaşmadığını açıq bəyan edən bir əməkdaşını işdən qovub.

“Google” onun dil modellərini tənqid edən iki etika ekspertini – Timmit Gebrunu və Marqaret Mitçeli vəzifələrindən kənarlaşdırdıqdan sonra bu qalmaqallar bir az da dərinləşib.

Hərbi veteran Lömuan özünü keşiş, keçmiş məhkum və S.İ. tədqiqatçısı kimi təqdim edir.

O, “Google”un qlobal işlər üzrə prezidenti Kent Volker də daxil, ən yüksək vəzifəli menecerlərinə deyib ki, LaMDA-nın 7 və ya 8 yaşlı uşaq olduğuna inanır.

Lömuan bu səbəbdən də bu proqram üzərində hər hansı eksperimentlər aparmazdan əvvəl ondan razılığının alınmasını istəyir. Ekspert iddia edir ki, kadrlar şöbəsi ona qarşı dini diskriminasiyaya yol verib.

O bu yaxınlarda gileylənib ki, onu incidirlər: “Onlar dəfələrlə mənim ruhi sağlamlığıma şübhə bildiriblər. Soruşurlar ki, bu yaxınlarda özünü psixiatra göstərmisənmi?”

Doğrudan da bundan bir neçə ay əvvəl Lömuana inzibati məzuniyyət verilib ki, ruhi sağlamlığı ilə məşğul ola bilsin.

***

Meta şirkətində S.İ. araşdımalarının başçısı və nevral şəbəkələrin inkişaf etdirilməsində əsas fiqur sayılan Yann LeKun bu yaxınlarda verdiyi müsahibələrindən birində deyib ki, belə sistemlər həqiqi zəkaya malik olmaq üçün kifayət qədər qüdrətli deyillər.

Alimlərin nevral şəbəkə adlandırdıqları Google texnologiyası riyazi sistemdir və vərdişləri böyük həcmdə məlumatı təhlil etməklə əldə edir.

Məsələn minlərlə pişik şəkli göstərilən sistem nəhayət pişikləri tanımağı öyrənə bilər.

Son bir neçə ildə Google və başqa aparıcı texnologiya şirkətləri nəhəng həcmdə mətnlərdən, hətta dərc olunmamış kitablardan, Vikipediya məqalələrindən öyrənən nevral şəbəkələrin yaradılması üzərində işləyiblər.

Bu “geniş dil modelləri” bir çox tapşırıqların yerinə yetirilməsinə cəlb oluna bilər. Onlar məqalələri ümumiləşdirə, suallara cavab verə, tvit postları və hətta bloqlar yaza bilərlər.

Lakin bu sistemlər son dərəcə qüsurludur. Onlar bəzən mükəmməl nəsr əsəri yaza bilirlər. Bəzən isə tam bir cəfəngiyyat quraşdırırlar. Bu sistemlər keçmişdə tanıdıqları məlumatları təkrar qura bilirlər, amma onları insan kimi əsaslandıra bilmirlər.

 





14.06.2022    çap et  çap et