Robotlara etikanı öyrədə bilərikmi?
Pilotsuz avtomobillər yaxın 10 ildə geniş istifadə olunacaq
MÖVZU İLƏ ƏLAQƏLİ
-
Maykl Ceksonun mahnıları 600 milyon dollara satılır
Anasının etirazına baxmayaraq ...
-
Robotlar insan toxunuşunu hiss etməyi öyrəndi
Süni intellekt tamamilə yeni üsullar təklif edir
-
Hüceyrə ölçülü robotlar ...
... Dərmanların insan orqanizminə daşınması üçün istifadə edilə bilər
-
Zavodda işləyən robotlar
İnsanabənzər “Optimus” 34 min manata başa gələcək
-
Alimlər “canlı robotlar” üçün tənzimləmə istəyirlər
Mühəndislər getdikcə daha çox real, canlı toxuma və hüceyrələrlə süni robotlar yaradırlar
-
“Texnologiyalar bəşəriyyətə qarşı”
... Yaxud “Tərəqqi üçün çalışmaq cinayətdir”
-
Cərrahiyyənin gələcəyi ...
Nanorobotlar bədənimizdə işləməyə başlayır
-
Qonaq-qaranı robot qarşılayacaq
O, danışa, rəqs edə, söhbəti dəstəkləyə və sadə tapşırıqları yerinə yetirə bilir
-
Gələcəyin peşələri
Rəqəmsal texnologiyalar erasında da fərdi və karyera yüksəlişi üçün əlavə imkanlar olacaq
-
Robot-həkimlər xəstələrə diaqnoz qoyacaq
«Babylon Health» iddia edir ki, süni intelekt insanlardan daha sürətli işləyəcək
-
Dərsə gedən bir robot
Artıq yeni texnologiya xəstə şagirdlərin durumunu dəyişə bilər
-
Maşınların etik qərar qəbul edə bilməsinə vərdiş etməsək də, həmin gün sürətlə yaxınlaşmaqdadır. BBC-dən Deyvid Edmonds (David Edmonds) maşınlara etik cəhətdən düzgün qərarlar qəbul edilməsi yolunun necə öyrədiləcəyi ilə maraqlanıb.
Misal üçün, təsəvvür edin ki, düz saat 8-də avtomobil sizi evinizdən işə aparmağa gəlib. Siz maşının arxa oturacağına əyləşib, çantanızdan tablet, smartfon və ya kompüterinizi çıxarıb xəbərləri oxuyursunuz.
İndiyədək işə həmişə problemsiz gedib çatmısız.
Lakin bu gün getdiyiniz yolda gözlənilməz əngəllə üz-üzə gəlmisiz: maşının qarşısına qəflətən iki oynayan uşaq çıxıb, əyləc basmağa vaxt yoxdur. Sükanı döndərib, maşını sola sürsəniz isə, əks istiqamətdə hərəkət edən motosikleti vuracaqsınız.
Bu halda necə hərəkət etmək lazımdır, variantlardan hansı daha ağır nəticə verə bilər?
Təsəvvür edin ki, hadisə 2027-ci ildə baş verir, avtomobiliniz isə sürücüsüzdür.
Oturmuşam doktor Ami Rimmerin (Amy Rimmer) avtomobilində. Sükan arxasındakı oturacaqda onun özü əyləşib. Ami, maşının idarə sisteminin ekranında düyməciyi basdıqdan sonra isə avtomobil bizi özü aparır, insan iştirakı olmadan - yol işıqlarına uyğun hərəkət edib-dayanır, dönmək lazım olanda siqnal verib dönür və nəhayət dayanacaq parkında ehmalca dayanır.
29 yaşlı Ami «Cambridge» Universitetinin doktorudur, «Jaguar Land Rover» pilotsuz avtomobilləri üzrə aparıcı mühəndisdir.
Onun sözlərinə görə, pilotsuz avtomobillər yaxın 10 il ərzində geniş istifadəyə veriləcək.
Hələlik, pilotsuz avtomobillərin istismara verilməsini əngəlləyən ən çətin problem texniki yox, mənəvi səciyyə daşıyır.
Yola çıxan uşaqlarla bağlı mənəvi dilemmanın fəlsəfədə digər variantları da mövcuddur.
Ron Arkin bu qəbildən olan suallarla robot etikasına dair 2004-cü ildə keçirilmiş konfransda iştirak etdikdən sonra maraq göstərməyə başlayıb.
O zamandan bəri Ron karyerasını avtonom silah etikası sahəsinə həsr edib.
Pilotsuz avtomobillər kimi, avtonom silahlar da fantastika deyil.
İnsanın iştirakı olmadan işləyən silah növləri artıq mövcuddur.
Misal üçün müasir raketlər düşmənin gördüyü əks-tədbirlərdən asılı olaraq hərəkət istiqamətini dəyişə bilər.
Onun qənaətincə, robot silahları Cenevrə Konvensiyasının müddəalarına uyğun olan proqramla təchiz etmək olar ki, misal üçün, mülki əhalinin bilərəkdən öldürülməsinə imkan verilməsin.
Bunun alternativi «maşını öyrətmək» yoludur.
Suzan Anderson (Susan Anderson) filosofdur, Mixail Anderson (Michael Anderson) isə kompüter mütəxəssisi. Onlar yalnız ər-arvad deyil, həm də eyni problem üzərində çalışan peşəkar əməkdaşlardır da.
Onlar hesab edir ki, robot etikasına öyrətməyin ən yaxşı yolu müəyyən prinsiplərdən başlamaqdır («iztiraba yol verməmək», «xoşbəxtlik hissini gücləndirmək»), bundan sonra isə maşına həmin prinsipləri müxtəlif hallarda düzgün tətbiq etməyi öyrətməkdir.
Belə robotlar misal üçün ahıllar evi sakinlərinə xidmət göstərmək üçün uyğunlaşdırıla bilər: onlara yemək və kitab gətirməkdən tutmuş, işıqların və televizorun söndürülməsinədək işləri görə bilər.
Belə robotların istehsalının növbəti onillik ərzində vüsət alacağı gözlənilir.
Andersonlar hesab edir ki, ilkin prinsiplərə əsaslanaraq qayğı xidməti göstərən robotlara müxtəlif situasiyalarda etika baxımından düzgün qərar qəbul etməyi öyrətmək mümkündür. Susan hətta hesab edir ki, robotlar insanlarla müqayisədə daha etik qərarlar qəbul etməyə qadirdir.
Lakin bu yolda problemlər də yarana bilər. Misal üçün, öyrənmə prosesi nəticəsində maşın elə inkişaf edə bilər ki, insan onun hərəkətlərini proqnozlaşdırmaq və anlamaqda çətinlik çəksin.
Bu məsələnin qismən həlli yolu həmin maşını və ya robotu işlədən kömpüter proqramını təftişdən keçirmək olardı.
Robotların bir böyük üstünlüyü ondadır kı, onların hərəkəti ardıcıl və davamlıdır. Onlar müxtəlif situasiyalarda eyni cür hərəkət edir.
Misal üçün, avtonom silah qəzəb hissi nə olduğunu bilmir, pilotsuz avtomobil sərxoş və ya yorğun olmur, arxada oturan uşaqlara çığırmır.
Dünya üzrə hər il yol qəzalarında milyonlarla insan ölür - belə halların sayının azaldırması böyük bir nailiyyət olardı.
Gələcəkdə pilotsuz avtomobillərdən daha geniş istifadə edilməsi perspektivi Ami Rimmeri ilhamlandırır.
Bu təkcə xilas olunmuş insan həyatları deyil, eləcə də atmosferə buraxılan tullantı qazların miqdarının azalmasına gətirib çıxaracaq, insanların boş vaxtını artıracaq.
Ami hesab edir ki, maşınların geniş istifadəyə verilməsinə, onların qarşısına çətin etik sualları qoymadan da başlamaq olar.
«Axı, sürücülük vəsiqəsi üçün imtahan verənlər qarşısında belə çətin suallar qoyulmur, onda robot avtomobillər bu suallara niyə cavab verməlidir?» - Ami deyir.
Əla sualdır. Pilotsuz maşınlar yollarda insan ölümü hallarının azalmasına gətirəcəksə, onlar niyə də geniş tətbiq olunmasın?
Lakin ümid edək ki, maşınlarımızın proqramlaşdırılmasında etik məsələlər də nəzərə alınacaq, çünki gələcəkdə insandan robotlara ötürülən funksiyaların sayı, biz bunu istəsək də, istəməsək də artacaq.