Süni intellektin qərəzi haqqında

Süni intellektin qərəzi haqqında

tl dr:

  • Maşın öyrənməsi verilənlərdəki nümunələri axtarır. Lakin süni intellekt “qərəzli” ola bilər, yəni yanlış olan nümunələri tapın. Məsələn, foto əsaslı dəri xərçəngi aşkarlama sistemi həkim kabinetində çəkilmiş şəkillərə xüsusi diqqət yetirə bilər. Maşın öyrənməsi mümkün deyil anlamaq: onun alqoritmləri yalnız rəqəmlərdəki nümunələri müəyyən edir və əgər məlumatlar təmsil olunmursa, onun işlənməsinin nəticəsi də belə olacaq. Və bu cür səhvləri tutmaq maşın öyrənməsinin çox mexanikası səbəbindən çətin ola bilər.
  • Ən bariz və qorxulu problem sahəsi insan müxtəlifliyidir. İnsanlar haqqında məlumatların toplanma mərhələsində belə obyektivliyini itirməsinin bir çox səbəbi var. Ancaq bu problemin yalnız insanlara təsir etdiyini düşünməyin: anbarda daşqın və ya uğursuz qaz turbinini aşkar etməyə çalışarkən eyni çətinliklər yaranır. Bəzi sistemlər dəri rənginə qarşı qərəzli ola bilər, digərləri Siemens sensorlarına qarşı qərəzli olacaq.
  • Bu cür problemlər maşın öyrənməsi üçün yeni deyil və onun üçün unikal deyildir. Hər hansı bir mürəkkəb strukturda yanlış fərziyyələr edilir və müəyyən bir qərarın niyə qəbul edildiyini başa düşmək həmişə çətindir. Biz bununla hərtərəfli mübarizə aparmalıyıq: yoxlama üçün alətlər və proseslər yaradın və istifadəçiləri maarifləndirin ki, onlar süni intellektlə bağlı tövsiyələrə kor-koranə əməl etməsinlər. Maşın öyrənməsi bəzi işləri bizdən daha yaxşı edir - lakin məsələn, itlər narkotikləri aşkar etməkdə insanlardan qat-qat effektivdir, bu da onlardan şahid kimi istifadə etmək və onların ifadələri əsasında mühakimə yürütmək üçün əsas deyil. Yeri gəlmişkən, itlər hər hansı bir maşın öyrənmə sistemindən daha ağıllıdırlar.

Maşın öyrənməsi bu gün ən mühüm fundamental texnologiya tendensiyalarından biridir. Bu, texnologiyanın yaxın onillikdə ətrafımızdakı dünyanı dəyişdirməsinin əsas yollarından biridir. Bu dəyişikliklərin bəzi aspektləri narahatlıq doğurur. Məsələn, maşın öyrənməsinin əmək bazarına potensial təsiri və ya onun qeyri-etik məqsədlər üçün istifadəsi (məsələn, avtoritar rejimlər tərəfindən). Bu yazının ünvanlandığı başqa bir problem var: süni intellektin qərəzi.

Bu asan hekayə deyil.

Süni intellektin qərəzi haqqında
Google-un süni intellektləri pişikləri tapa bilir. 2012-ci ildəki bu xəbər o vaxt xüsusi bir şey idi.

"AI Bias" nədir?

“Xam məlumat” həm oxymoron, həm də pis fikirdir; məlumatlar yaxşı və diqqətlə hazırlanmalıdır. - Geoffrey Bocker

2013-cü ildən əvvəl haradasa, məsələn, fotoşəkillərdə pişikləri tanıyan bir sistem yaratmaq üçün məntiqi addımları təsvir etməli idiniz. Şəkildə küncləri necə tapmaq, gözləri tanımaq, xəz üçün dokuları təhlil etmək, pəncələri saymaq və s. Sonra bütün komponentləri bir yerə qoyun və bunun həqiqətən işləmədiyini kəşf edin. Mexanik at kimi - nəzəri olaraq edilə bilər, amma praktikada təsvir etmək çox mürəkkəbdir. Son nəticə yüzlərlə (və ya hətta minlərlə) əl ilə yazılmış qaydalardır. Və tək işləyən model yoxdur.

Maşın öyrənməsinin meydana gəlməsi ilə biz müəyyən bir obyektin tanınması üçün “əllə” qaydalardan istifadə etməyi dayandırdıq. Əvəzində biz min “bu”, X, min “digər” Y nümunəsi götürürük və kompüterə onların statistik təhlili əsasında bir model qurmağı tapşırırıq. Sonra biz bu modelə bəzi nümunə məlumatları veririk və o, müəyyən dəqiqliklə onun dəstlərdən birinə uyğun olub-olmadığını müəyyən edir. Maşın öyrənməsi bir insan tərəfindən deyil, verilənlərdən bir model yaradır. Nəticələr xüsusilə təsvir və nümunənin tanınması sahəsində təsir edicidir və buna görə də bütün texnologiya sənayesi indi maşın öyrənməsinə (ML) keçir.

Amma bu o qədər də sadə deyil. Real dünyada minlərlə X və ya Y nümunəniz də A, B, J, L, O, R və hətta L ehtiva edir. Bunlar bərabər paylanmaya bilər və bəziləri o qədər tez-tez baş verə bilər ki, sistem daha çox pul ödəyəcək. Sizi maraqlandıran obyektlərə deyil, onlara diqqət yetirin.

Bu praktikada nə deməkdir? Ən sevdiyim nümunə görüntü tanıma sistemləridir otlu təpəyə baxın və "qoyun" deyin. Bunun səbəbi aydındır: "qoyunların" nümunə fotoşəkillərinin əksəriyyəti onların yaşadıqları çəmənliklərdə çəkilir və bu şəkillərdə ot kiçik ağ tüklərdən daha çox yer tutur və sistemin ən vacib hesab etdiyi otdur. .

Daha ciddi nümunələr var. Son bir layihə fotoşəkillərdə dəri xərçəngini aşkar etmək üçün. Məlum oldu ki, dermatoloqlar tez-tez formasiyalar ölçüsünü qeyd etmək üçün hökmdarı dəri xərçənginin təzahürləri ilə birlikdə fotoşəkil çəkirlər. Sağlam dərinin nümunə fotoşəkillərində hökmdar yoxdur. Süni intellekt sistemi üçün bu cür hökmdarlar (daha doğrusu, “hökmdar” olaraq təyin etdiyimiz piksellər) misal dəstləri arasındakı fərqlərdən birinə çevrilib və bəzən dəridə kiçik bir səpgidən daha vacibdir. Beləliklə, dəri xərçəngini müəyyən etmək üçün yaradılan bir sistem bəzən hökmdarları tanıdı.

Burada əsas məqam sistemin nəyə baxdığına dair semantik anlayışının olmamasıdır. Biz piksellər toplusuna baxırıq və onlarda qoyun, dəri və ya hökmdar görürük, lakin sistem yalnız bir rəqəm xəttidir. O, üçölçülü məkanı görmür, obyektləri, fakturaları və ya qoyunları görmür. O, sadəcə məlumatlarda nümunələri görür.

Bu cür problemlərin diaqnostikasının çətinliyi ondan ibarətdir ki, neyron şəbəkə (sizin maşın öyrənmə sisteminiz tərəfindən yaradılan model) minlərlə yüz minlərlə qovşaqdan ibarətdir. Modelə baxmaq və onun necə qərar verdiyini görmək asan bir yol yoxdur. Belə bir yolun olması prosesin maşın öyrənməsindən istifadə etmədən bütün qaydaları əl ilə təsvir etmək üçün kifayət qədər sadə olması deməkdir. İnsanlar maşın öyrənməsinin qara qutuya çevrildiyindən narahatdırlar. (Bu müqayisənin niyə hələ də çox olduğunu bir az sonra izah edəcəyəm.)

Bu, ümumiyyətlə, süni intellektdə və ya maşın öyrənməsində qərəzlilik problemidir: məlumatlarda nümunələri tapmaq üçün bir sistem səhv nümunələri tapa bilər və siz bunu fərq edə bilməzsiniz. Bu, texnologiyanın əsas xüsusiyyətidir və bu, akademiyada və böyük texnologiya şirkətlərində onunla işləyən hər kəsə aydındır. Lakin onun nəticələri mürəkkəbdir və bu nəticələrə qarşı mümkün həll yollarımız da elədir.

Əvvəlcə nəticələrdən danışaq.

Süni intellektin qərəzi haqqında
Süni intellekt bizim üçün dolayısı ilə çox sayda hiss olunmayan siqnallara əsaslanaraq müəyyən kateqoriyalı insanların xeyrinə seçim edə bilər.

AI qərəzli ssenarilər

Ən açıq və qorxulusu, bu problem insan müxtəlifliyinə gəldikdə özünü göstərə bilər. Bu yaxınlarda söz-söhbət var idiAmazon işə namizədlərin ilkin yoxlanılması üçün maşın öyrənmə sistemi yaratmağa çalışdı. Amazon işçiləri arasında daha çox kişi olduğundan, "uğurlu işə qəbul" nümunələri də daha çox kişilərdir və sistemin təklif etdiyi CV seçimində daha çox kişi var. Amazon bunu fərq etdi və sistemi istehsala buraxmadı.

Bu misalda ən önəmlisi odur ki, CV-də cinsin göstərilməməsinə baxmayaraq, sistemin kişi abituriyentlərə üstünlük verməsi barədə şayiələr yayılıb. Sistem "yaxşı işə götürülmə" nümunələrində digər nümunələri gördü: məsələn, qadınlar nailiyyətləri təsvir etmək üçün xüsusi sözlərdən istifadə edə və ya xüsusi hobbilərə sahib ola bilərlər. Əlbəttə ki, sistem “xokkey”in nə olduğunu, “insanların” kim olduğunu və ya “uğur”un nə olduğunu bilmirdi - sadəcə mətnin statistik təhlilini aparırdı. Amma onun gördüyü naxışlar çox güman ki, insanlar tərəfindən diqqətdən kənarda qalacaq və onlardan bəziləri (məsələn, müxtəlif cinslərdən olan insanların uğuru fərqli təsvir etmələri) onlara baxsaq belə, yəqin ki, görmək bizim üçün çətin olacaq.

Daha sonra - daha pis. Solğun dəridə xərçəng tapmaqda çox yaxşı olan maşın öyrənmə sistemi tünd dəridə yaxşı işləməyə bilər və ya əksinə. Mütləq qərəz səbəbindən deyil, fərqli xüsusiyyətləri seçərək fərqli bir dəri rəngi üçün ayrı bir model qurmağınız lazım olduğuna görə. Maşın öyrənmə sistemləri hətta təsvirin tanınması kimi dar bir sahədə də bir-birini əvəz edə bilməz. İstədiyiniz dəqiqliyə nail olana qədər maraqlandığınız məlumatların xüsusiyyətlərini yaxşı idarə etmək üçün sistemi bəzən sadəcə sınaq və səhv yolu ilə dəyişdirməlisiniz. Ancaq fərqinə varmadığınız odur ki, sistem bir qrupla zamanın 98%, digər qrupla isə yalnız 91% (insan analizindən daha dəqiq) dəqiqdir.

İndiyə qədər əsasən insanlara və onların xüsusiyyətlərinə aid nümunələrdən istifadə etmişəm. Bu problem ətrafında müzakirələr əsasən bu mövzuya yönəlib. Ancaq başa düşmək lazımdır ki, insanlara qarşı qərəzli münasibət problemin yalnız bir hissəsidir. Biz maşın öyrənməsindən bir çox şeylər üçün istifadə edəcəyik və seçmə xətası onların hamısına uyğun olacaq. Digər tərəfdən, insanlarla işləyirsinizsə, məlumatdakı qərəzlilik onlarla əlaqəli olmaya bilər.

Bunu başa düşmək üçün dəri xərçəngi nümunəsinə qayıdaq və sistemin uğursuzluğu üçün üç hipotetik ehtimalı nəzərdən keçirək.

  1. İnsanların heterojen paylanması: piqmentasiya səbəbindən yanlış pozitiv və ya yalan neqativlərə səbəb olan müxtəlif dəri tonlarının balanssız sayda fotoşəkilləri.
  2. Sistemin öyrədildiyi məlumatlar insanlarla əlaqəli olmayan və diaqnostik əhəmiyyəti olmayan tez-tez baş verən və heterojen şəkildə paylanmış bir xüsusiyyəti ehtiva edir: dəri xərçəngi fotoşəkillərində bir hökmdar və ya qoyun fotoşəkillərində ot. Bu halda, sistem insan gözünün “hökmdar” kimi müəyyən etdiyi bir şeyin təsvirində piksel tapsa, nəticə fərqli olacaq.
  3. Verilənlər üçüncü tərəf xarakteristikasını ehtiva edir ki, insan onu axtarsa ​​belə görə bilmir.

Bunun mənası nədi? Biz apriori bilirik ki, verilənlər müxtəlif insan qruplarını fərqli şəkildə təmsil edə bilər və ən azı belə istisnaları axtarmağı planlaşdıra bilərik. Başqa sözlə, insan qrupları haqqında məlumatların artıq müəyyən qərəzli olduğunu güman etmək üçün çoxlu sosial səbəblər var. Hökmdarla fotoya baxsaq, bu hökmdarı görəcəyik - sadəcə olaraq, əvvəllər əhəmiyyət vermədiyini bilə-bilə buna məhəl qoymamışıq və sistemin heç nə bilmədiyini unuduruq.

Bəs bütün qeyri-sağlam dəri fotoşəkilləriniz bir ofisdə közərmə işığı altında, sağlam dəriniz isə flüoresan işıq altında çəkilsəydi? Bəs sağlam dərinin çəkilişini bitirdikdən sonra, qeyri-sağlam dəri çəkməzdən əvvəl telefonunuzun əməliyyat sistemini yeniləsəniz, Apple və ya Google səs-küyün azaldılması alqoritmini bir qədər dəyişsəydi? İnsan nə qədər belə xüsusiyyətləri axtarsa ​​da, bunu fərq edə bilməz. Lakin maşından istifadə sistemi bunu dərhal görəcək və istifadə edəcək. O heç nə bilmir.

İndiyə qədər biz saxta korrelyasiyalardan danışdıq, lakin bu, həm də məlumatların dəqiq olması və nəticələrin düzgün olması ola bilər, lakin siz onlardan etik, hüquqi və ya idarəetmə səbəblərindən istifadə etmək istəmirsiniz. Bəzi yurisdiksiyalar, məsələn, qadınlar daha təhlükəsiz sürücü ola bilsələr də, qadınların sığortalarında endirim almasına icazə vermir. Tarixi məlumatları təhlil edərkən qadın adlarına daha az risk faktoru təyin edəcək bir sistemi asanlıqla təsəvvür edə bilərik. Yaxşı, adları seçimdən çıxaraq. Ancaq Amazon misalını xatırlayın: sistem digər amillərə əsaslanaraq cinsi müəyyən edə bilər (hətta cinsin nə olduğunu və hətta avtomobilin nə olduğunu bilməsə də) və tənzimləyici sizin tariflərinizi geriyə doğru təhlil edənə qədər bunu hiss etməyəcəksiniz. təklif və ödənişlər sizə cərimələnəcək.

Nəhayət, tez-tez belə sistemlərdən yalnız insanları və sosial qarşılıqlı əlaqəni əhatə edən layihələr üçün istifadə edəcəyimiz güman edilir. Bu səhvdir. Əgər siz qaz turbinləri düzəltsəniz, çox güman ki, məhsulunuzdakı onlarla və ya yüzlərlə sensor tərəfindən ötürülən telemetriyaya maşın öyrənməsini tətbiq etmək istəyəcəksiniz (audio, video, temperatur və hər hansı digər sensorlar maşın yaratmaq üçün çox asanlıqla uyğunlaşdırıla bilən məlumatlar yaradır. öyrənmə modeli). Fərziyyə olaraq deyə bilərsiniz: “Budur, uğursuzluğa düçar olmuş min turbinin məlumatları və burada uğursuz olmayan min turbinin məlumatları. Aralarındakı fərqin nə olduğunu izah etmək üçün bir model qurun.” Yaxşı, indi təsəvvür edin ki, Siemens sensorları pis turbinlərin 75% -ində, yaxşıların isə yalnız 12% -ində quraşdırılmışdır (nasazlıqla əlaqə yoxdur). Sistem Siemens sensorları ilə turbinləri tapmaq üçün bir model quracaq. Vay!

Süni intellektin qərəzi haqqında
Şəkil - Moritz Hardt, UC Berkeley

AI qərəzinin idarə edilməsi

Bununla bağlı nə edə bilərik? Məsələyə üç tərəfdən yanaşa bilərsiniz:

  1. Sistemin təlimi üçün məlumatların toplanması və idarə edilməsində metodoloji ciddilik.
  2. Model davranışının təhlili və diaqnozu üçün texniki vasitələr.
  3. Maşın öyrənməsini məhsullara tətbiq edərkən məşq edin, öyrədin və diqqətli olun.

Molyerin “Zadəganlıqda burjua” kitabında bir zarafat var: bir adama ədəbiyyatın nəsrə və poeziyaya bölündüyünü söylədilər və o, bütün həyatı boyu, özü də bilmədən nəsrlə danışdığını kəşf etməkdən məmnun idi. Yəqin ki, bu gün statistiklər belə hiss edirlər: onlar fərqində olmadan öz karyeralarını süni intellektə və seçmə səhvinə həsr ediblər. Nümunə alma xətasını axtarmaq və ondan narahat olmaq yeni problem deyil, sadəcə olaraq onun həllinə sistemli yanaşmaq lazımdır. Yuxarıda qeyd edildiyi kimi, bəzi hallarda insanların məlumatları ilə bağlı problemləri öyrənməklə bunu etmək daha asandır. Biz aprior hesab edirik ki, müxtəlif insan qrupları ilə bağlı qərəzlərimiz ola bilər, lakin Siemens sensorları ilə bağlı qərəzi təsəvvür etmək belə bizim üçün çətindir.

Təbii ki, bütün bunlarda yeni olan odur ki, insanlar artıq birbaşa statistik təhlil aparmırlar. Bu, başa düşülməsi çətin olan böyük, mürəkkəb modellər yaradan maşınlar tərəfindən həyata keçirilir. Şəffaflıq məsələsi qərəz probleminin əsas aspektlərindən biridir. Biz qorxuruq ki, sistem sadəcə qərəzli deyil, onun qərəzliliyini aşkar etmək üçün heç bir yol yoxdur və maşın öyrənməsi sınaqdan keçirilə bilən aydın məntiqi addımlardan ibarət olması lazım olan digər avtomatlaşdırma formalarından fərqlidir.

Burada iki problem var. Biz hələ də maşın öyrənmə sistemlərinin bir növ auditini apara bilərik. Və hər hansı digər sistemi yoxlamaq əslində asan deyil.

Birincisi, maşın öyrənməsi sahəsində müasir tədqiqatların istiqamətlərindən biri maşın öyrənmə sistemlərinin vacib funksionallığını müəyyən etmək üçün metodların axtarışıdır. Bununla belə, maşın öyrənməsi (indiki vəziyyətdə) sürətlə dəyişən tamamilə yeni elm sahəsidir, ona görə də düşünməyin ki, bu gün qeyri-mümkün olan şeylər tezliklə reallaşa bilməz. Layihə OpenAI - bunun maraqlı bir nümunəsi.

İkincisi, mövcud sistemlərin və ya təşkilatların qərar qəbuletmə prosesini sınaqdan keçirə və başa düşə biləcəyiniz ideyası nəzəri cəhətdən yaxşıdır, amma praktikada belədir. Böyük bir təşkilatda qərarların necə qəbul edildiyini başa düşmək asan deyil. Formal qərar qəbuletmə prosesi olsa belə, bu, insanların əslində necə qarşılıqlı əlaqədə olduğunu əks etdirmir və onların özləri də çox vaxt qərar qəbul etmək üçün məntiqli, sistemli yanaşmaya malik deyillər. Həmkarımın dediyi kimi Vijay Pande, insanlar da qara qutudur.

Bir neçə üst-üstə düşən şirkət və qurumlarda min nəfəri götürün və problem daha da mürəkkəbləşir. Biz bilirik ki, Space Shuttle qayıdış zamanı dağılacaq və NASA daxilindəki fərdlər onlara pis bir şeyin baş verə biləcəyini düşünməyə əsas verən məlumatlara sahib idilər, lakin sistem ümumiyyətlə Mən bunu bilmirdim. NASA hətta əvvəlki xidmətini itirdikdən sonra oxşar yoxlamadan keçdi və buna baxmayaraq, çox oxşar səbəbdən başqa birini itirdi. Təşkilatların və insanların sınaqdan keçirilə, başa düşülə və dəyişdirilə bilən aydın, məntiqi qaydalara əməl etdiyini iddia etmək asandır, lakin təcrübə bunun əksini sübut edir. bu "Gosplanın aldanması.

Mən tez-tez maşın öyrənməsini verilənlər bazası ilə, xüsusən də əlaqəli olanlarla müqayisə edirəm - kompüter elminin və onu əhatə edən dünyanın imkanlarını dəyişdirən, hər şeyin bir hissəsinə çevrilmiş, fərqinə varmadan daim istifadə etdiyimiz yeni fundamental texnologiya. Verilənlər bazalarının da problemləri var və onlar oxşar xarakter daşıyır: sistem pis fərziyyələr və ya pis verilənlər üzərində qurula bilər, lakin bunu fərq etmək çətin olacaq və sistemdən istifadə edən insanlar sual vermədən dediklərini yerinə yetirəcəklər. Bir vaxtlar adınızı səhv yazan vergi adamları haqqında çoxlu köhnə zarafatlar var və onları səhvi düzəltməyə inandırmaq əslində adınızı dəyişməkdən qat-qat çətindir. Bu barədə düşünməyin bir çox yolu var, lakin hansının daha yaxşı olduğu aydın deyil: SQL-də texniki problem kimi, yoxsa Oracle buraxılışında səhv kimi, yoxsa bürokratik institutların uğursuzluğu kimi? Sistemdə yazı səhvini düzəltmə funksiyasının olmamasına səbəb olan bir prosesdə səhv tapmaq nə qədər çətindir? İnsanlar şikayət etməyə başlamazdan əvvəl bunu başa düşmək olardımı?

Bu problem, sürücülərin naviqatordakı köhnəlmiş məlumatlara görə çaylara sürdüyü hekayələrlə daha sadə şəkildə təsvir olunur. Yaxşı, xəritələr daim yenilənməlidir. Bəs avtomobilinizin dənizə sovrulmasında TomTom nə qədər günahkardır?

Bunu deməyimin səbəbi odur ki, bəli, maşın öyrənmə qərəzi problemlər yaradacaq. Lakin bu problemlər bizim keçmişdə qarşılaşdığımız problemlərə bənzəyəcək və keçmişdə bacardığımız qədər fərq edilə və həll edilə bilər (ya da yox). Buna görə də, AI qərəzinin zərər verdiyi bir ssenarinin böyük bir təşkilatda çalışan böyük tədqiqatçıların başına gəlməsi ehtimalı azdır. Çox güman ki, bəzi əhəmiyyətsiz texnoloji podratçı və ya proqram təminatçısı açıq mənbə komponentlərindən, kitabxanalardan və anlamadıqları alətlərdən istifadə edərək diz çökərək nəsə yazacaq. Bəxtsiz müştəri isə məhsulun təsvirində “süni intellekt” ifadəsini alacaq və heç bir sual vermədən onu az maaşlı işçilərinə paylayaraq, süni intellektin dediklərini yerinə yetirməyi əmr edəcək. Bu, verilənlər bazası ilə baş verənlərdir. Bu, süni intellekt problemi, hətta proqram təminatı problemi deyil. Bu insan faktorudur.

Nəticə

Maşın öyrənməsi bir itə öyrədə biləcəyiniz hər şeyi edə bilər - ancaq itə tam olaraq nəyi öyrətdiyinizə heç vaxt əmin ola bilməzsiniz.

Mən tez-tez hiss edirəm ki, "süni intellekt" termini yalnız bu cür söhbətlərə mane olur. Bu termin yanlış təəssürat yaradır ki, əslində biz onu yaratmışıq - bu zəka. HAL9000 və ya Skynet-ə gedirik - əslində bir şey başa düşür. Amma yox. Bunlar sadəcə maşınlardır və onları, məsələn, paltaryuyan maşınla müqayisə etmək daha doğrudur. O, insandan qat-qat yaxşı yuyur, amma camaşırxana yerinə qab-qacaq qoysanız, o... onları yuyar. Qab-qacaq hətta təmiz olacaq. Amma bu, gözlədiyiniz kimi olmayacaq və bu baş verməyəcək, çünki sistemdə yeməklərlə bağlı hər hansı qərəz var. Paltaryuyan maşın qabların nə olduğunu və paltarların nə olduğunu bilmir - bu, sadəcə avtomatlaşdırma nümunəsidir, konseptual olaraq proseslərin əvvəllər avtomatlaşdırılmasından heç bir fərqi yoxdur.

İstər avtomobillərdən, istər təyyarələrdən, istərsə də verilənlər bazalarından danışsaq, bu sistemlər həm çox güclü, həm də çox məhdud olacaq. Onlar tamamilə insanların bu sistemlərdən necə istifadə etməsindən, niyyətlərinin yaxşı və ya pis olmasından və necə işlədiyini nə dərəcədə başa düşdüklərindən asılı olacaq.

Ona görə də “süni intellekt riyaziyyatdır, ona görə də qərəzli ola bilməz” demək tamamilə yanlışdır. Lakin maşın öyrənməsinin “təbiətdə subyektiv” olduğunu söyləmək də eyni dərəcədə yanlışdır. Maşın öyrənməsi verilənlərdə nümunələr tapır və onun hansı nümunələri tapması verilənlərdən, məlumatlar isə bizdən asılıdır. Eynilə onlarla etdiyimiz kimi. Maşın öyrənməsi bəzi işləri bizdən qat-qat yaxşı yerinə yetirir - lakin məsələn, itlər narkotikləri aşkar etməkdə insanlardan qat-qat effektivdir, bu da onlardan şahid kimi istifadə etmək və onların ifadələri əsasında mühakimə yürütmək üçün əsas deyil. Yeri gəlmişkən, itlər hər hansı bir maşın öyrənmə sistemindən daha ağıllıdırlar.

Tərcümə: Diana Letskaya.
Redaktə: Aleksey İvanov.
İcma: @PonchikNews.

Mənbə: www.habr.com

Добавить комментарий