Sun'iy intellektning tarafkashligi haqida

Sun'iy intellektning tarafkashligi haqida

tl; dr:

  • Mashinani o'rganish ma'lumotlardagi naqshlarni qidiradi. Ammo sun'iy intellekt "noto'g'ri" bo'lishi mumkin, ya'ni noto'g'ri naqshlarni toping. Masalan, fotoga asoslangan teri saratonini aniqlash tizimi shifokorning kabinetida olingan suratlarga alohida e'tibor berishi mumkin. Mashinani o'rganish mumkin emas tushunish: uning algoritmlari faqat raqamlardagi naqshlarni aniqlaydi va agar ma'lumotlar vakili bo'lmasa, uni qayta ishlash natijasi ham shunday bo'ladi. Va bunday xatolarni ushlash mashinani o'rganish mexanikasi tufayli qiyin bo'lishi mumkin.
  • Eng aniq va qo'rqinchli muammo sohasi - bu insonning xilma-xilligi. Odamlar to'g'risidagi ma'lumotlar yig'ish bosqichida ham ob'ektivlikni yo'qotishining ko'plab sabablari bor. Ammo bu muammo faqat odamlarga ta'sir qiladi, deb o'ylamang: xuddi shunday qiyinchiliklar ombordagi suv toshqini yoki ishlamay qolgan gaz turbinini aniqlashga urinishda paydo bo'ladi. Ba'zi tizimlar terining rangiga moyil bo'lishi mumkin, boshqalari Siemens sensorlariga moyil bo'ladi.
  • Bunday muammolar mashinani o'rganish uchun yangilik emas va ular unga xos emas. Har qanday murakkab tuzilmada noto'g'ri taxminlar amalga oshiriladi va nima uchun ma'lum bir qaror qabul qilinganligini tushunish har doim qiyin. Biz bunga qarshi keng qamrovli kurashishimiz kerak: tekshirish uchun vositalar va jarayonlarni yaratish va foydalanuvchilarni AI tavsiyalariga ko‘r-ko‘rona rioya qilmasliklari uchun o‘rgatish. Mashinani o'rganish ba'zi narsalarni bizdan ko'ra yaxshiroq bajaradi - ammo itlar, masalan, giyohvand moddalarni aniqlashda odamlarga qaraganda ancha samarali, bu ularni guvoh sifatida ishlatish va ularning ko'rsatmalariga asoslanib hukm chiqarish uchun sabab emas. Aytgancha, itlar har qanday mashinani o'rganish tizimiga qaraganda ancha aqlli.

Mashinani o'rganish bugungi kunda eng muhim fundamental texnologiya tendentsiyalaridan biridir. Bu texnologiya kelgusi o'n yil ichida atrofimizdagi dunyoni o'zgartirishning asosiy usullaridan biridir. Ushbu o'zgarishlarning ba'zi jihatlari tashvishga sabab bo'ladi. Masalan, mashinani o'rganishning mehnat bozoriga potentsial ta'siri yoki undan axloqiy bo'lmagan maqsadlarda foydalanish (masalan, avtoritar rejimlar tomonidan). Bu postda yana bir muammo bor: sun'iy intellektga moyillik.

Bu oson hikoya emas.

Sun'iy intellektning tarafkashligi haqida
Google sun'iy intellektlari mushuklarni topa oladi. 2012 yildagi bu yangilik o'sha paytda alohida narsa edi.

"AI Bias" nima?

"Xom ma'lumotlar" ham oksimoron, ham yomon fikrdir; ma'lumotlar yaxshilab va ehtiyotkorlik bilan tayyorlanishi kerak. - Jeffri Boker

2013-yilgacha bir joyda, aytaylik, fotosuratlarda mushuklarni taniydigan tizimni yaratish uchun siz mantiqiy qadamlarni tasvirlashingiz kerak edi. Tasvirdagi burchaklarni qanday topish, ko'zlarni tanib olish, mo'yna uchun to'qimalarni tahlil qilish, panjalarni hisoblash va hokazo. Keyin barcha komponentlarni bir joyga qo'ying va u haqiqatan ham ishlamayotganini aniqlang. Mexanik otga o'xshab - nazariy jihatdan uni yasash mumkin, ammo amalda uni tasvirlash juda murakkab. Yakuniy natija - yuzlab (hatto minglab) qo'lda yozilgan qoidalar. Va bitta ishlaydigan model emas.

Mashinani o'rganishning paydo bo'lishi bilan biz ma'lum bir ob'ektni tanib olish uchun "qo'lda" qoidalardan foydalanishni to'xtatdik. Buning o'rniga biz mingta "bu", X, mingta "boshqa", Y namunalarini olamiz va kompyuterga ularning statistik tahlili asosida model yaratishimiz kerak. Keyin biz ushbu modelga bir nechta namuna ma'lumotlarini beramiz va u to'plamlardan biriga mos kelishini aniq aniqlaydi. Mashinani o'rganish modelni odam yozganidan ko'ra ma'lumotlardan yaratadi. Natijalar, ayniqsa tasvir va naqshni aniqlash sohasida juda ta'sirli va shuning uchun butun texnologiya sanoati endi mashinani o'rganishga (ML) o'tmoqda.

Lekin bu unchalik oddiy emas. Haqiqiy dunyoda sizning minglab X yoki Y misollaringiz A, B, J, L, O, R va hatto L ni ham o'z ichiga oladi. Ular bir tekis taqsimlanmasligi mumkin va ba'zilari shunchalik tez-tez sodir bo'lishi mumkinki, tizim ko'proq pul to'laydi. sizni qiziqtirgan narsalarga emas, ularga e'tibor bering.

Bu amalda nimani anglatadi? Mening sevimli misolim - tasvirni aniqlash tizimlari o'tli tepalikka qarang va "qo'y" deb ayting. Buning sababi aniq: "qo'ylar" ning misol fotosuratlarining aksariyati ular yashaydigan o'tloqlarda olingan va bu tasvirlarda o'tlar mayda oq paxmoqlarga qaraganda ko'proq joy egallaydi va tizim eng muhim deb hisoblagan o'tdir. .

Bundan jiddiyroq misollar bor. Yaqinda bitta qoralama fotosuratlarda teri saratonini aniqlash uchun. Ma'lum bo'lishicha, dermatologlar ko'pincha shakllanishlar hajmini qayd etish uchun teri saratoni ko'rinishlari bilan birga hukmdorni suratga olishadi. Sog'lom terining namunali fotosuratlarida hukmdorlar yo'q. AI tizimi uchun bunday o'lchagichlar (aniqrog'i, biz "o'lchagich" deb belgilaydigan piksellar) misollar to'plami o'rtasidagi farqlardan biriga aylandi va ba'zida teridagi kichik döküntüden ko'ra muhimroqdir. Shunday qilib, teri saratonini aniqlash uchun yaratilgan tizim ba'zan o'rniga hukmdorlarni tan oldi.

Bu erda asosiy nuqta shundaki, tizim nimani ko'rib chiqayotgani haqida semantik tushunchaga ega emas. Biz piksellar to'plamiga qaraymiz va ularda qo'y, teri yoki o'lchagichni ko'ramiz, lekin tizim faqat raqamlar chizig'idir. U uch o'lchamli makonni ko'rmaydi, ob'ektlarni, to'qimalarni yoki qo'ylarni ko'rmaydi. U shunchaki ma'lumotlardagi naqshlarni ko'radi.

Bunday muammolarni tashxislashning qiyinligi shundaki, neyron tarmoq (mashinalarni o'rganish tizimi tomonidan yaratilgan model) minglab yuz minglab tugunlardan iborat. Modelni ko'rib chiqish va u qanday qaror qabul qilishini ko'rishning oson yo'li yo'q. Bunday usulga ega bo'lish, jarayonni mashinani o'rganishdan foydalanmasdan, barcha qoidalarni qo'lda tasvirlash uchun etarlicha sodda ekanligini anglatadi. Odamlar mashinani o'rganish qora qutiga aylanganidan xavotirda. (Nega bu taqqoslash hali ham juda ko'p ekanligini biroz keyinroq tushuntiraman.)

Bu, umuman olganda, sun'iy intellekt yoki mashinani o'rganishdagi noxolislik muammosi: ma'lumotlardagi naqshlarni topish tizimi noto'g'ri naqshlarni topishi mumkin va siz buni sezmasligingiz mumkin. Bu texnologiyaning asosiy xususiyati va u bilan akademiya va yirik texnologiya kompaniyalarida ishlayotgan har bir kishi uchun ayon. Ammo uning oqibatlari murakkab va bu oqibatlarga bizning yechimimiz ham.

Keling, birinchi navbatda oqibatlari haqida gapiraylik.

Sun'iy intellektning tarafkashligi haqida
AI biz uchun bilvosita, ko'p sonli sezilmaydigan signallarga asoslanib, ma'lum toifadagi odamlar foydasiga tanlov qilishi mumkin.

AI tarafkashlik stsenariylari

Eng aniq va qo'rqinchli, bu muammo insonning xilma-xilligi haqida gap ketganda o'zini namoyon qilishi mumkin. Yaqinda mish-mish bor ediAmazon ishga nomzodlarni dastlabki tekshirish uchun mashinani o'rganish tizimini yaratishga harakat qildi. Amazon ishchilari orasida erkaklar ko'proq bo'lganligi sababli, "muvaffaqiyatli ishga olish" misollari ham ko'proq erkaklardir va tizim tomonidan taklif qilingan rezyumelarni tanlashda erkaklar ko'proq bo'lgan. Amazon buni payqab qoldi va tizimni ishlab chiqarishga chiqarmadi.

Ushbu misoldagi eng muhimi, rezyumeda jins ko'rsatilmaganiga qaramay, tizim erkak abituriyentlarni qo'llab-quvvatlashi haqida mish-mishlar tarqaldi. Tizim "yaxshi yollash" misollarida boshqa naqshlarni ko'rdi: masalan, ayollar yutuqlarni tasvirlash uchun maxsus so'zlardan foydalanishlari yoki maxsus sevimli mashg'ulotlariga ega bo'lishlari mumkin. Albatta, tizim "xokkey" nima ekanligini yoki "odamlar" kimligini yoki "muvaffaqiyat" nima ekanligini bilmas edi - u shunchaki matnning statistik tahlilini o'tkazdi. Ammo u ko'rgan naqshlar, ehtimol, odamlar tomonidan e'tiborga olinmaydi va ularning ba'zilari (masalan, turli jinsdagi odamlar muvaffaqiyatni boshqacha ta'riflashi) biz ularga qaraganimizda ham ko'rishimiz qiyin bo'lishi mumkin.

Keyinchalik - yomonroq. Oqargan terida saratonni topishda juda yaxshi bo'lgan mashinani o'rganish tizimi qorong'i terida yaxshi ishlamasligi mumkin yoki aksincha. Mutlaqo tarafkashlik tufayli emas, balki siz turli xil xususiyatlarni tanlab, boshqa teri rangi uchun alohida modelni yaratishingiz kerak bo'lganligi sababli. Mashinani o'rganish tizimlarini hatto tasvirni aniqlash kabi tor sohada ham almashtirib bo'lmaydi. Siz xohlagan aniqlikka erishmaguningizcha, sizni qiziqtirgan ma'lumotlarning xususiyatlaridan yaxshi foydalanish uchun ba'zan sinov va xato orqali tizimni sozlashingiz kerak. Ammo siz sezmasligingiz mumkin bo'lgan narsa shundaki, tizim bir guruh bilan vaqtning 98% va boshqasi bilan atigi 91% (inson tahlilidan ham aniqroq) aniq.

Hozirgacha men asosan odamlar va ularning xususiyatlariga oid misollardan foydalandim. Ushbu muammo atrofidagi muhokamalar asosan ushbu mavzuga qaratilgan. Ammo shuni tushunish kerakki, odamlarga nisbatan noxolislik muammoning faqat bir qismidir. Biz mashinani o‘rganishdan ko‘p narsalar uchun foydalanamiz va namuna olish xatosi ularning barchasiga tegishli bo‘ladi. Boshqa tomondan, agar siz odamlar bilan ishlasangiz, ma'lumotlarning noto'g'riligi ular bilan bog'liq bo'lmasligi mumkin.

Buni tushunish uchun teri saratoni misoliga qaytaylik va tizimning ishdan chiqishining uchta faraziy imkoniyatlarini ko'rib chiqaylik.

  1. Odamlarning heterojen taqsimlanishi: pigmentatsiya tufayli noto'g'ri musbat yoki noto'g'ri negativlarga olib keladigan turli xil teri rangidagi fotosuratlarning muvozanatsiz soni.
  2. Tizim o'qitilgan ma'lumotlar odamlar bilan bog'liq bo'lmagan va diagnostik ahamiyatga ega bo'lmagan tez-tez uchraydigan va turli xil taqsimlangan xususiyatni o'z ichiga oladi: teri saratoni fotosuratlaridagi o'lchagich yoki qo'ylarning fotosuratlaridagi o'tlar. Bunday holda, agar tizim inson ko'zi "hukmdor" sifatida aniqlagan narsaning tasvirida piksellarni topsa, natija boshqacha bo'ladi.
  3. Ma'lumotlar uchinchi tomon xususiyatini o'z ichiga oladi, uni odam qidirsa ham ko'ra olmaydi.

Bu nima degani? Biz apriori bilamizki, ma'lumotlar odamlarning turli guruhlarini boshqacha ko'rsatishi mumkin va hech bo'lmaganda biz bunday istisnolarni izlashni rejalashtirishimiz mumkin. Boshqacha qilib aytadigan bo'lsak, odamlar guruhlari to'g'risidagi ma'lumotlar allaqachon ma'lum bir tarafkashlikni o'z ichiga oladi deb taxmin qilish uchun juda ko'p ijtimoiy sabablar mavjud. Agar biz o'lchagich bilan suratga qarasak, biz ushbu o'lchagichni ko'ramiz - biz bunga ahamiyat bermasligini bilib, tizim hech narsani bilmasligini unutib, shunchaki e'tibor bermaganmiz.

Agar sizning nosog'lom teringizning barcha fotosuratlari cho'g'lanma nuri ostida ofisda olingan bo'lsa va sog'lom teringiz floresan nur ostida olingan bo'lsa-chi? Agar sog'lom terini suratga olishni tugatganingizdan so'ng, nosog'lom terini suratga olishdan oldin siz telefoningizdagi operatsion tizimni yangilagan bo'lsangiz va Apple yoki Google shovqinni kamaytirish algoritmini biroz o'zgartirgan bo'lsangiz-chi? Inson bu kabi xususiyatlarni qanchalik izlamasin, buni sezmaydi. Ammo mashinadan foydalanish tizimi buni darhol ko'radi va ishlatadi. U hech narsani bilmaydi.

Hozircha biz soxta korrelyatsiyalar haqida gapirgan edik, lekin bu maʼlumotlarning toʻgʻri va natijalar toʻgʻri boʻlishi ham mumkin, lekin siz ulardan axloqiy, qonuniy yoki boshqaruv sabablarga koʻra foydalanishni xohlamaysiz. Ba'zi yurisdiktsiyalar, masalan, ayollar xavfsizroq haydovchi bo'lishi mumkin bo'lsa-da, ayollarga sug'urta bo'yicha chegirma olishlariga ruxsat bermaydi. Tarixiy ma'lumotlarni tahlil qilganda, ayol ismlariga kamroq xavf omilini belgilaydigan tizimni osongina tasavvur qilishimiz mumkin. OK, keling, ismlarni tanlovdan olib tashlaymiz. Ammo Amazon misolini eslang: tizim jinsni boshqa omillarga qarab aniqlashi mumkin (garchi u jins nima ekanligini va hatto avtomobil nima ekanligini bilmasa ham) va regulyator sizning tariflaringizni orqaga qarab tahlil qilmaguncha buni sezmaysiz. taklif va to'lovlar sizga jarimaga tortiladi.

Va nihoyat, ko'pincha biz bunday tizimlardan faqat odamlar va ijtimoiy o'zaro ta'sirlarni o'z ichiga olgan loyihalar uchun foydalanamiz, deb taxmin qilinadi. Bu unday emas. Agar siz gaz turbinalari yasasangiz, mahsulotingizdagi o'nlab yoki yuzlab sensorlar (audio, video, harorat va boshqa har qanday sensorlar mashinani yaratish uchun juda oson moslashtirilishi mumkin bo'lgan ma'lumotlarni ishlab chiqaradigan) telemetriyaga mashinani o'rganishni qo'llashni xohlaysiz. o'rganish modeli). Gipotetik tarzda siz shunday deyishingiz mumkin: “Mana, muvaffaqiyatsizlikka uchragan minglab turbinalarning ma'lumotlari va bu erda ishlamay qolgan minglab turbinalarning ma'lumotlari. Ularning orasidagi farq nima ekanligini aniqlash uchun model yarating." Xo'sh, endi tasavvur qiling-a, Siemens sensorlari yomon turbinalarning 75 foiziga va yaxshi turbinalarning atigi 12 foiziga o'rnatilgan (nosozliklar bilan bog'liqlik yo'q). Tizim Siemens sensorlari bilan turbinalarni topish uchun model yaratadi. Voy!

Sun'iy intellektning tarafkashligi haqida
Rasm - Moritz Hardt, UC Berkeley

AI tarafkashligini boshqarish

Bu haqda nima qilishimiz mumkin? Muammoga uch tomondan yondashishingiz mumkin:

  1. Tizimni o'qitish uchun ma'lumotlarni yig'ish va boshqarishda uslubiy qat'iylik.
  2. Model xatti-harakatlarini tahlil qilish va diagnostika qilish uchun texnik vositalar.
  3. Mashinani oʻrganishni mahsulotlarga tatbiq etishda oʻrgating, oʻrgating va ehtiyot boʻling.

Molyerning "Dvoryandagi burjua" kitobida bir hazil bor: bir kishiga adabiyot nasr va she'riyatga bo'linadi, deb aytishdi va u o'zi bilmagan holda butun umri nasrda gapirganini bilib, xursand bo'ldi. Ehtimol, statistiklar bugungi kunda shunday his qilishadi: ular o'z kareralarini sun'iy intellekt va tanlab olish xatosiga bag'ishlaganlar. Namuna olish xatosini izlash va bu haqda tashvishlanish yangi muammo emas, biz faqat uning yechimiga tizimli ravishda yondashishimiz kerak. Yuqorida aytib o'tilganidek, ba'zi hollarda odamlar ma'lumotlari bilan bog'liq muammolarni o'rganish orqali buni amalga oshirish osonroq. Biz odamlarning turli guruhlariga nisbatan noto'g'ri qarashlarga ega bo'lishimiz mumkin deb taxmin qilamiz, ammo Siemens sensorlari haqida noto'g'ri fikr yuritish biz uchun qiyin.

Bularning barchasida yangilik, albatta, odamlar endi statistik tahlilni bevosita amalga oshirmaydilar. Bu tushunish qiyin bo'lgan katta, murakkab modellarni yaratadigan mashinalar tomonidan amalga oshiriladi. Shaffoflik masalasi tarafkashlik muammosining asosiy jihatlaridan biridir. Biz tizim shunchaki xolis emas, balki uning tarafkashligini aniqlashning hech qanday usuli yo'qligi va mashinani o'rganish sinovdan o'tkazilishi mumkin bo'lgan aniq mantiqiy qadamlardan iborat bo'lishi kerak bo'lgan avtomatlashtirishning boshqa shakllaridan farq qilishidan qo'rqamiz.

Bu erda ikkita muammo bor. Biz hali ham mashinani o'rganish tizimlarining qandaydir auditini o'tkazishimiz mumkin. Va har qanday boshqa tizimni tekshirish aslida oson emas.

Birinchidan, mashinani o'rganish sohasidagi zamonaviy tadqiqotlarning yo'nalishlaridan biri bu mashinani o'rganish tizimlarining muhim funktsiyalarini aniqlash usullarini izlashdir. Ya'ni, mashinani o'rganish (hozirgi holatida) - bu ilm-fanning mutlaqo yangi sohasi bo'lib, u tez o'zgarib turadi, shuning uchun bugungi kunda imkonsiz bo'lgan narsalar tez orada haqiqatga aylanmaydi deb o'ylamang. Loyiha OpenAI - buning qiziqarli misoli.

Ikkinchidan, siz mavjud tizimlar yoki tashkilotlarning qaror qabul qilish jarayonini sinab ko'rishingiz va tushunishingiz mumkin degan fikr nazariy jihatdan yaxshi, lekin amalda shunday. Katta tashkilotda qarorlar qanday qabul qilinishini tushunish oson emas. Rasmiy qaror qabul qilish jarayoni mavjud bo'lsa ham, u odamlarning aslida qanday munosabatda bo'lishini aks ettirmaydi va ularning o'zlari ko'pincha qaror qabul qilishda mantiqiy, tizimli yondashuvga ega emaslar. Hamkasbim aytganidek Vijay Pande, odamlar ham qora qutilar.

Bir-biriga o'xshash bir nechta kompaniya va muassasalarda ming kishini oling va muammo yanada murakkablashadi. Biz Space Shuttle qaytib kelganda parchalanishini va NASA tarkibidagi odamlarda biron bir yomon narsa yuz berishi mumkin deb o'ylash uchun asos bo'lgan ma'lumotlarga ega bo'lganidan keyin bilamiz, ammo tizim umuman Men buni bilmasdim. NASA hatto oldingi kemasini yo'qotganidan keyin ham xuddi shunday tekshiruvdan o'tdi, ammo shunga o'xshash sababga ko'ra boshqasini yo'qotdi. Tashkilotlar va odamlar sinab ko'rish, tushunish va o'zgartirish mumkin bo'lgan aniq, mantiqiy qoidalarga amal qilishlari haqida bahslashish oson, ammo tajriba buning aksini isbotlaydi. Bu "Gosplanning aldanishi".

Men tez-tez mashinani o'rganishni ma'lumotlar bazalariga, ayniqsa relyatsion texnologiyalarga qiyoslayman - kompyuter fanining imkoniyatlarini va uning atrofidagi dunyoni o'zgartirgan, hamma narsaning bir qismiga aylangan va biz buni sezmasdan doimiy ravishda ishlatadigan yangi fundamental texnologiya. Ma'lumotlar bazalarida ham muammolar mavjud va ular o'xshash xususiyatga ega: tizim noto'g'ri taxminlar yoki noto'g'ri ma'lumotlarga asoslangan bo'lishi mumkin, ammo buni payqash qiyin bo'ladi va tizimdan foydalanadigan odamlar savol bermasdan aytganlarini bajaradilar. Ismingizni noto'g'ri yozgan soliqchilar haqida ko'plab eski hazillar bor va ularni xatoni tuzatishga ishontirish sizning ismingizni o'zgartirishdan ko'ra ancha qiyin. Bu haqda o'ylashning ko'plab usullari mavjud, ammo qaysi biri yaxshiroq ekanligi aniq emas: SQLdagi texnik muammomi yoki Oracle versiyasidagi xatolikmi yoki byurokratik institutlarning muvaffaqiyatsizligimi? Tizimda matn terish xatosini tuzatish funksiyasi yo'qligiga olib kelgan jarayonda xatolikni topish qanchalik qiyin? Odamlar shikoyat qilishni boshlashdan oldin buni aniqlash mumkinmi?

Bu muammo haydovchilar navigatordagi eskirgan ma'lumotlar tufayli daryolarga haydashlari haqidagi hikoyalar orqali yanada sodda tarzda tasvirlangan. Yaxshi, xaritalar doimiy ravishda yangilanib turishi kerak. Ammo mashinangiz dengizga uchib ketishida TomTom qanchalik aybdor?

Buni aytishimning sababi shundaki, ha, mashinani o'rganish tarafkashligi muammolarni keltirib chiqaradi. Ammo bu muammolar biz o'tmishda duch kelgan muammolarga o'xshash bo'ladi va ularni payqash va hal qilish mumkin (yoki yo'q) biz o'tmishda bo'lgani kabi. Shuning uchun, AI tarafkashligi zarar keltiradigan stsenariy katta tashkilotda ishlaydigan katta tadqiqotchilar bilan sodir bo'lishi dargumon. Katta ehtimol bilan, ba'zi bir ahamiyatsiz texnologiya pudratchisi yoki dasturiy ta'minot sotuvchisi o'zlari tushunmaydigan ochiq manba komponentlari, kutubxonalar va vositalardan foydalanib, tizzalarida biror narsa yozadilar. Va omadsiz mijoz mahsulot tavsifida "sun'iy intellekt" iborasini sotib oladi va hech qanday savol bermasdan, uni kam maosh oluvchi xodimlariga tarqatadi va ularga AI aytganini qilishni buyuradi. Aynan shu narsa ma'lumotlar bazalari bilan sodir bo'ldi. Bu sun'iy intellekt muammosi yoki hatto dasturiy ta'minot muammosi emas. Bu inson omili.

xulosa

Mashinani o'rganish itga o'rgatish mumkin bo'lgan hamma narsani qila oladi - lekin siz itga nima o'rgatganingizga hech qachon ishonch hosil qila olmaysiz.

Men ko'pincha "sun'iy intellekt" atamasi faqat bunday suhbatlarga xalaqit beradigandek his qilaman. Bu atama biz uni haqiqatan ham yaratganimiz haqida noto'g'ri taassurot qoldiradi - bu aql. Biz HAL9000 yoki Skynetga ketyapmiz - bu haqiqatan ham tushunadi. Lekin yoq. Bu shunchaki mashinalar va ularni, aytaylik, kir yuvish mashinasi bilan solishtirish ancha to'g'ri. U odamnikiga qaraganda ancha yaxshi kir yuvadi, lekin kir o‘rniga idish-tovoq qo‘ysangiz, u... ularni yuvadi. Idishlar hatto toza bo'ladi. Ammo bu siz kutganingizdek bo'lmaydi va bu sodir bo'lmaydi, chunki tizimda idishlarga nisbatan noto'g'ri fikrlar mavjud. Kir yuvish mashinasi idish-tovoq yoki kiyim nima ekanligini bilmaydi - bu avtomatlashtirishning bir misoli, kontseptual jihatdan jarayonlar avval avtomatlashtirilganidan farq qilmaydi.

Biz mashinalar, samolyotlar yoki ma'lumotlar bazalari haqida gapiramizmi, bu tizimlar juda kuchli va juda cheklangan bo'ladi. Ular butunlay odamlarning ushbu tizimlardan qanday foydalanishiga, ularning niyatlari yaxshi yoki yomonligiga va ular qanday ishlashini qanchalik tushunishlariga bog'liq bo'ladi.

Shuning uchun, "sun'iy intellekt - bu matematika, shuning uchun u noto'g'ri bo'lishi mumkin emas" deyish mutlaqo noto'g'ri. Ammo mashinani o'rganish "tabiatda sub'ektiv" deyish ham xuddi shunday noto'g'ri. Mashinani o'rganish ma'lumotlarda naqshlarni topadi va u qanday naqshlarni topishi ma'lumotlarga bog'liq va ma'lumotlar bizga bog'liq. Xuddi ular bilan qilganimiz kabi. Mashinani o'rganish ba'zi narsalarni bizdan ko'ra yaxshiroq bajaradi - ammo itlar, masalan, giyohvand moddalarni aniqlashda odamlarga qaraganda ancha samarali, bu ularni guvoh sifatida ishlatish va ularning ko'rsatmalariga asoslanib hukm chiqarish uchun sabab emas. Aytgancha, itlar har qanday mashinani o'rganish tizimiga qaraganda ancha aqlli.

Tarjima: Diana Letskaya.
Tahrirlash: Aleksey Ivanov.
Jamiyat: @PonchikNews.

Manba: www.habr.com

a Izoh qo'shish