Жасалма интеллект жөнүндө

Жасалма интеллект жөнүндө

курал; доктор:

  • Машина үйрөнүү маалыматтардагы үлгүлөрдү издейт. Бирок жасалма интеллект "бир тараптуу" болушу мүмкүн, башкача айтканда, туура эмес үлгүлөрдү табуу. Мисалы, фото-негизделген тери рагын аныктоо системасы дарыгердин кабинетинде тартылган сүрөттөргө өзгөчө көңүл бурушу мүмкүн. Машина үйрөнүү мүмкүн эмес түшүнүү: анын алгоритмдери сандардагы үлгүлөрдү гана аныктайт, эгер маалыматтар репрезентативдик болбосо, аны иштетүүнүн натыйжасы да ошондой болот. Жана мындай мүчүлүштүктөрдү кармоо машина үйрөнүүнүн абдан механикасына байланыштуу кыйын болушу мүмкүн.
  • Эң айкын жана коркунучтуу көйгөй чөйрөсү - адамдык көп түрдүүлүк. Адамдар жөнүндө маалыматтар чогултуу стадиясында да объективдүүлүктү жоготушу үчүн көптөгөн себептер бар. Бирок бул көйгөй адамдарга гана тиешелүү деп ойлобоңуз: кампадагы суу ташкыны же иштебей калган газ турбинасын аныктоого аракет кылганда дал ушундай кыйынчылыктар пайда болот. Кээ бир системалар теринин түсүнө жакын болушу мүмкүн, башкалары Siemens сенсорлоруна бир жактуу болот.
  • Мындай көйгөйлөр машина үйрөнүү үчүн жаңы эмес жана алар ага уникалдуу эмес. Кандайдыр бир татаал структурада туура эмес божомолдор жасалат жана эмне үчүн белгилүү бир чечим кабыл алынганын түшүнүү дайыма кыйын. Биз муну менен комплекстүү түрдө күрөшүшүбүз керек: текшерүү үчүн инструменттерди жана процесстерди түзүңүз жана колдонуучуларды AI сунуштарын сокур түрдө аткарбашы үчүн үйрөтүңүз. Машина үйрөнүү кээ бир нерселерди бизден алда канча жакшыраак кылат - бирок, мисалы, иттер баңгизаттарды аныктоодо адамдарга караганда алда канча натыйжалуу, бул аларды күбө катары колдонууга жана алардын көрсөтмөлөрүнүн негизинде өкүм чыгарууга себеп эмес. Ал эми иттер, демек, ар кандай машина үйрөнүү системасына караганда алда канча акылдуу.

Машина үйрөнүү - бүгүнкү күндө эң маанилүү фундаменталдык технология тенденцияларынын бири. Бул технология жакынкы он жылдыкта бизди курчап турган дүйнөнү өзгөртө турган негизги жолдорунун бири болуп саналат. Бул өзгөрүүлөрдүн кээ бир аспектилери тынчсызданууну жаратат. Мисалы, машинаны үйрөнүүнүн эмгек рыногуна потенциалдуу таасири же аны этикага жатпаган максаттарда колдонуу (мисалы, авторитардык режимдер тарабынан). Бул билдирүүдө дагы бир көйгөй бар: жасалма интеллект бурмалоо.

Бул оңой окуя эмес.

Жасалма интеллект жөнүндө
Google'дун AI мышыктарды таба алат. 2012-жылдагы бул жаңылык ошол кезде өзгөчө болгон.

"AI Bias" деген эмне?

"Чийки маалыматтар" оксиморон жана жаман идея болуп саналат; маалыматтар жакшы жана кылдаттык менен даярдалышы керек. — Джеффри Бокер

2013-жылга чейин, мисалы, мышыктарды сүрөттөрдөн тааный турган системаны түзүү үчүн логикалык кадамдарды сүрөттөшүңүз керек болчу. Сүрөттөгү бурчтарды кантип табууга, көздөрдү таанууга, жүндөрдүн текстураларына талдоо жүргүзүүгө, лаптарды эсептөөгө ж.б.у.с. Андан кийин бардык компоненттерди бириктирип, ал чындап иштебей турганын байкаңыз. Механикалык ат сыяктуу - теориялык жактан аны жасоого болот, бирок иш жүзүндө аны сүрөттөп берүү өтө татаал. Натыйжада жүздөгөн (ал тургай миңдеген) кол менен жазылган эрежелер. Жана бир дагы иштеген модели жок.

Машина үйрөнүү пайда болушу менен, биз белгилүү бир объектти таануу үчүн "кол" эрежелерин колдонууну токтоттук. Тескерисинче, биз миң үлгүлөрдү "ушул", X, миң "башка", Y үлгүлөрүн алып, алардын статистикалык анализинин негизинде компьютер моделди түзүшү керек. Андан кийин биз бул моделге кээ бир үлгү маалыматтарын беребиз жана ал топтомдордун бирине туура келер-келбесин кандайдыр бир тактык менен аныктайт. Машина менен үйрөнүү моделди адам жазгандан көрө, маалыматтардан түзөт. Натыйжалар, айрыкча, сүрөт жана үлгү таануу жаатында таасирдүү, ошондуктан бүт технологиялык индустрия азыр машина үйрөнүүгө (ML) өтүп жатат.

Бирок бул анчалык жөнөкөй эмес. Чыныгы дүйнөдө миңдеген X же Y мисалдарыңызда A, B, J, L, O, R, жада калса L да камтылган. Булар бирдей бөлүштүрүлбөй, кээ бирлери ушунчалык тез-тез пайда болушу мүмкүн, ошондуктан система көбүрөөк төлөйт. Сизди кызыктырган нерселерге караганда аларга көңүл буруңуз.

бул иш жүзүндө эмнени билдирет? Менин сүйүктүү мисал - сүрөт таануу системалары чөптүү дөңсөөнү карап, "кой" деп айт. Эмне үчүн экени түшүнүктүү: "койлордун" мисал сүрөттөрүнүн көбү алар жашаган шалбааларда тартылган жана бул сүрөттөрдө чөп кичинекей ак үлпүлүштүктөргө караганда алда канча көп орунду ээлейт жана система эң маанилүү деп эсептеген чөп болуп саналат. .

Мындан олуттуураак мисалдар бар. Жакында бири долбоору сүрөттөрдө тери рагын аныктоо үчүн. Көрсө, дерматологдор көп учурда түзүлмөлөрдүн өлчөмүн жазуу үчүн сызгычты тери рагынын көрүнүштөрү менен бирге сүрөткө тартышат экен. Дени сак теринин мисал сүрөттөрүндө эч кандай башкаруучулар жок. AI системасы үчүн мындай сызгычтар (тагыраак айтканда, биз "сызгыч" катары аныктаган пикселдер) мисалдардын топтомунун ортосундагы айырмачылыктардын бири болуп калды, ал эми кээде теридеги кичинекей исиркектерге караганда маанилүү. Ошентип, тери рагын аныктоо үчүн түзүлгөн система кээде анын ордуна башкаруучуларды тааныйт.

Бул жерде негизги нерсе системанын эмнени карап жатканын семантикалык түшүнүгү жок. Биз пикселдердин жыйындысын карап, аларда кой, тери же сызгычтарды көрөбүз, бирок система бир гана сандык сызык. Ал үч өлчөмдүү мейкиндикти көрбөйт, объекттерди, текстураларды же койлорду көрбөйт. Ал жөн гана маалыматтардагы үлгүлөрдү көрөт.

Мындай көйгөйлөрдү диагностикалоонун кыйынчылыгы нейрон тармагы (машина үйрөнүү тутумуңуз тарабынан түзүлгөн модель) миңдеген жүз миңдеген түйүндөрдөн турат. Моделди карап чыгуунун жана анын кандай чечим чыгарарын көрүүнүн оңой жолу жок. Мындай жолдун болушу процесстин машина үйрөнүүсүн колдонбостон, бардык эрежелерди кол менен сүрөттөө үчүн жетиштүү экенин билдирет. Адамдар машинаны үйрөнүү кара кутучага айланды деп кооптонушат. (Мен бул салыштыруу эмне үчүн дагы эле өтө көп экенин бир аз кийинчерээк түшүндүрөм.)

Бул, жалпысынан алганда, жасалма интеллекттеги же машина үйрөнүүдөгү бир тараптуулук көйгөйү: берилиштердеги үлгүлөрдү табуу системасы туура эмес үлгүлөрдү табышы мүмкүн жана сиз аны байкабай калышыңыз мүмкүн. Бул технологиянын негизги өзгөчөлүгү жана аны менен академияда жана чоң технологиялык компанияларда иштегендердин бардыгына айкын көрүнүп турат. Бирок анын кесепеттери татаал жана ошол кесепеттерди чечүү жолдорубуз да.

Адегенде кесепеттери жөнүндө сүйлөшөлү.

Жасалма интеллект жөнүндө
AI, биз үчүн кыйыр түрдө, көп сандагы байкалбаган сигналдардын негизинде адамдардын айрым категорияларынын пайдасына тандоо жасай алат.

AI Bias сценарийлери

Эң ачык жана коркунучтуусу, бул көйгөй адамдын көп түрдүүлүгүнө келгенде өзүн көрсөтө алат. Жакында ушак бар элеAmazon жумушка талапкерлерди алгачкы текшерүү үчүн машинаны үйрөнүү системасын курууга аракет кылган. Амазонканын жумушчуларынын арасында эркектер көп болгондуктан, “ийгиликтүү жалдоо” мисалдары да көбүнчө эркектер жана система тарабынан сунушталган резюмелерди тандоодо эркектер көбүрөөк болгон. Amazon муну байкап, системаны өндүрүшкө чыгарган жок.

Бул мисалдагы эң негизгиси, резюмеде жынысы көрсөтүлбөгөнүнө карабастан, система эркек абитуриенттерди колдойт деген имиштер болгон. Система "жакшы жалданмалардын" мисалдарында башка үлгүлөрдү көрдү: мисалы, аялдар жетишкендиктерин сүрөттөө үчүн атайын сөздөрдү колдонушу мүмкүн же өзгөчө хоббилери бар. Албетте, система "хоккей" деген эмне экенин, же "адамдар" ким экенин, же "ийгилик" эмне экенин билген эмес - ал жөн гана тексттин статистикалык анализин жүргүзгөн. Бирок ал көргөн үлгүлөр, кыязы, адамдар тарабынан байкалбай калат жана алардын кээ бирлери (мисалы, ар кандай жыныстагы адамдар ийгиликти башкача сүрөттөгөн фактылар) биз аларды карап көрсөк да, биз үчүн кыйынга турушу мүмкүн.

Андан ары - жаман. Кубарган териде ракты табууда абдан жакшы болгон машина үйрөнүү системасы кара териде жакшы иштебеши мүмкүн же тескерисинче. Сөзсүз эле бир жактуу эмес, бирок, балким, ар кандай мүнөздөмөлөрдү тандап, башка тери түсү үчүн өзүнчө моделин куруу керек, анткени. Сүрөттөрдү таануу сыяктуу тар чөйрөдө да машинаны үйрөнүү системалары алмаштырылбайт. Сиз каалаган тактыкка жеткенге чейин сизди кызыктырган маалыматтардагы функцияларды жакшы иштетүү үчүн, кээде сыноо жана ката аркылуу системаны чыңдооңуз керек. Бирок сиз байкабай турган нерсе, система бир топ менен убакыттын 98%, ал эми экинчисинде 91% гана (адамдын анализинен да так) так экенин байкабайсыз.

Буга чейин мен негизинен адамдарга жана алардын өзгөчөлүктөрүнө байланыштуу мисалдарды колдондум. Бул көйгөйдүн тегерегинде талкуу негизинен ушул темага багытталган. Бирок адамдарга карата бир жактуулук көйгөйдүн бир гана бөлүгү экенин түшүнүү керек. Биз машина үйрөнүүнү көп нерселер үчүн колдонобуз жана үлгү алуу катасы алардын баарына тиешелүү болот. Башка жагынан алганда, эгерде сиз адамдар менен иштесеңиз, анда маалыматтардагы бир тараптуулук аларга тиешеси жок болушу мүмкүн.

Муну түшүнүү үчүн, келгиле, тери рагы мисалына кайрылып, системанын иштебей калышынын үч гипотетикалык мүмкүнчүлүгүн карап көрөлү.

  1. Адамдардын гетерогендүү бөлүштүрүлүшү: пигментациядан улам жалган позитивдерге же жалган негативдерге алып баруучу ар кандай тери өңүндөгү сүрөттөрдүн тең салмактуу эмес саны.
  2. Система үйрөтүлгөн маалыматтарда адамдар менен байланышпаган жана диагностикалык мааниге ээ болбогон, көп кездешүүчү жана гетерогендүү бөлүштүрүлгөн өзгөчөлүк камтылган: тери рагынын сүрөттөрүндөгү сызгыч же койлордун сүрөттөрүндөгү чөп. Бул учурда, эгерде система адамдын көзү "сызгыч" катары аныктаган нерсенин сүрөттөлүшүнөн пикселдерди тапса, натыйжа башкача болот.
  3. Маалыматтарда адам издесе да көрө албаган үчүнчү жактын өзгөчөлүгү камтылган.

Бул эмнени билдирет? Маалыматтар адамдардын ар кандай топторун ар кандай чагылдырышы мүмкүн экенин априори билебиз жана эң аз дегенде, мындай өзгөчөлүктөрдү издөөнү пландаштырсак болот. Башкача айтканда, адамдардын топтору жөнүндө маалыматтар кандайдыр бир жактуулукту камтыйт деп болжолдоого көптөгөн социалдык себептер бар. Сызгыч менен тартылган сүрөттү карасак, бул сызгычты көрөбүз – биз буга чейин мунун маанилүү эмес экенин билип, система эч нерсе билбестигин унутуп койгонбуз.

Бирок сиздин ден-соолукка зыян келтирген териңиздин бардык сүрөттөрү кеңседе ысытуу лампасынын астында, ал эми дени сак териңиз флуоресценттик жарык астында тартылган болсочы? Эгер сиз дени сак терини тартып бүткөндөн кийин, жараксыз терини тартуудан мурун телефонуңуздагы операциялык системаны жаңыртсаңыз, ал эми Apple же Google ызы-чууну азайтуу алгоритмин бир аз өзгөрткөн болсоңузчу? Адам мындай өзгөчөлүктөрдү канчалык издесе да байкай албайт. Бирок машина колдонуу системасы муну дароо көрүп, колдонот. Ал эч нерсе билбейт.

Буга чейин биз жалган корреляциялар жөнүндө сөз кылдык, бирок бул маалыматтар так жана натыйжалар туура болушу мүмкүн, бирок сиз аларды этикалык, юридикалык же башкаруу себептери үчүн колдонгуңуз келбейт. Кээ бир юрисдикциялар, мисалы, аялдар коопсуз айдоочу болушу мүмкүн болсо да, аялдарга камсыздандыруу боюнча жеңилдик алууга уруксат бербейт. Тарыхый маалыматтарды талдоодо аялдардын ысымдарына төмөнкү тобокелдик факторун бере турган системаны оңой элестете алабыз. Макул, аттарды тандоодон алып салалы. Бирок Amazon мисалын эстен чыгарбаңыз: система башка факторлордун негизинде жынысты аныктай алат (ал гендер эмне экенин, атүгүл машине эмне экенин билбесе да) жана жөнгө салуучу тарифтерди ретроактивдүү талдоо жүргүзмөйүнчө, сиз муну байкабай каласыз. сунуш жана айып пул төлөйт.

Акыр-аягы, биз мындай системаларды адамдарды жана социалдык өз ара аракеттенүүнү камтыган долбоорлор үчүн гана колдонобуз деп ойлошот. Бул андай эмес. Эгер сиз газ турбиналарын жасасаңыз, анда, балким, сиз өнүмүңүздөгү ондогон же жүздөгөн сенсорлор (аудио, видео, температура жана башка ар кандай сенсорлор) машинаны түзүүгө оңой ыңгайлаштырыла турган маалыматтарды түзүүчү телеметрияга машиналык үйрөнүүнү колдонгуңуз келет. үйрөнүү модели). Гипотетикалык түрдө: “Мына миң турбинанын, алар иштен чыкканга чейин иштен чыккан маалыматтар жана бул жерде иштебей калган миң турбинанын маалыматтары. Алардын ортосунда кандай айырма бар экенин айтуу үчүн үлгү түзүңүз». Эми элестетип көргүлө, Siemens сенсорлору начар турбиналардын 75%, ал эми жакшыларынын 12% гана орнотулган (бузуулар менен байланышы жок). Система Siemens сенсорлору менен турбиналарды табуу үчүн моделди курат. Ой!

Жасалма интеллект жөнүндө
Сүрөт — Мориц Хардт, UC Беркли

AI Bias башкаруу

Бул тууралуу эмне кылсак болот? Маселеге үч өңүттөн мамиле кылсаңыз болот:

  1. Системаны окутуу үчүн маалыматтарды чогултуу жана башкаруудагы методологиялык катаал.
  2. Моделдин жүрүм-турумун анализдөө жана диагностикалоо үчүн техникалык каражаттар.
  3. Машыктырыңыз, үйрөтүңүз жана өнүмдөрдү машина менен үйрөнүүнү ишке ашырууда этият болуңуз.

Мольердин “Буржуазия дворянство” деген китебинде тамаша бар: бир кишиге адабият проза менен поэзияга бөлүнөрүн айтышкан жана ал өмүр бою прозада сүйлөп келгенин билип сүйүнгөн. Кыязы, бүгүнкү күндө статистиктер ушундай сезимде болсо керек: алар өз карьерасын жасалма интеллектке жана тандоо катасына арнашкан. Тандоо катасын издөө жана ал жөнүндө тынчсыздануу жаңы көйгөй эмес, жөн гана системалуу түрдө анын чечилишине жакындашыбыз керек. Жогоруда айтылгандай, кээ бир учурларда адамдардын маалыматтарына байланыштуу көйгөйлөрдү изилдөө менен муну жасоо оңой. Биз априори адамдардын ар кандай топторуна карата бейкалыс пикирлерге ээ болушубуз мүмкүн деп ойлойбуз, бирок Siemens сенсорлоруна карата бейкалыс пикирди элестетүү да кыйын.

Мунун баарынын жаңылыгы, албетте, адамдар мындан ары статистикалык анализди түз жүргүзбөйт. Аны түшүнүү кыйын болгон чоң, татаал моделдерди түзгөн машиналар ишке ашырат. Ачык-айкындуулук маселеси бир тараптуулук проблемасынын негизги аспектилеринин бири болуп саналат. Биз система жөн эле бир жактуу эмес деп коркобуз, бирок анын бир жактуулугун аныктоонун эч кандай жолу жок жана машина үйрөнүү автоматташтыруунун башка формаларынан айырмаланып турат, алар сыналышы мүмкүн болгон так логикалык кадамдардан турат.

Бул жерде эки көйгөй бар. Биз дагы эле машина үйрөнүү системаларынын кандайдыр бир аудитин жүргүзө алабыз. Жана башка системаны текшерүү чындыгында оңой эмес.

Биринчиден, машинаны үйрөнүү тармагындагы заманбап изилдөөлөрдүн багыттарынын бири машиналык окутуу системаларынын маанилүү функционалдуулугун аныктоо ыкмаларын издөө болуп саналат. Айтор, машинаны үйрөнүү (азыркы абалында) - бул илимдин таптакыр жаңы тармагы, ал тез өзгөрүп турат, андыктан бүгүн мүмкүн болбогон нерселер жакында реалдуу болуп калат деп ойлобоңуз. Долбоор OpenAI - Буга кызыктуу мисал.

Экинчиден, сиз иштеп жаткан системалардын же уюмдардын чечимдерди кабыл алуу процессин сынап, түшүнө аласыз деген идея теориялык жактан жакшы, бирок практикада ушундай. Чоң уюмда чечимдер кандайча кабыл алынарын түшүнүү оңой эмес. Формалдуу чечим кабыл алуу процесси болгон күндө да, ал адамдардын иш жүзүндө кандайча өз ара аракеттенүүсүн чагылдырбайт жана алардын өздөрү да көп учурда чечимдерди кабыл алууда логикалык, системалуу мамилеге ээ эмес. Кесиптешим айткандай Виджай Панде, адамдар да кара кутулар.

Бир нече бири-бирин кайталаган ишканаларда жана мекемелерде миң адамды алып, маселе ого бетер татаалдашып кетет. Биз Космос Шатлынын кайтып келери менен талкаланууга дайындалганын жана НАСАнын ичиндеги адамдарда кандайдыр бир жаман нерсе болушу мүмкүн деп ойлоого негиз берген маалымат бар экенин билебиз, бирок система толугу менен Мен муну билген эмесмин. NASA мурунку шаттлды жоготкондон кийин ушундай эле аудиттен өттү, бирок ушуга окшош себеп менен дагы бирөөсүн жоготту. Уюмдар жана адамдар сынап көрүүгө, түшүнүүгө жана өзгөртүүгө боло турган так, логикалык эрежелерди карманышат деп талашуу оңой, бирок тажрыйба тескерисинче далилдейт. Бул "Госпландын адашуусу«.

Мен машиналык үйрөнүүнү көп учурда маалымат базаларына салыштырам, айрыкча реляциялык - информатика илиминин жана аны курчап турган дүйнөнүн мүмкүнчүлүктөрүн өзгөрткөн жаңы фундаменталдык технология, ал бардык нерсенин бир бөлүгү болуп калган, биз аны байкабай эле колдонобуз. Берилиштер базаларында да көйгөйлөр бар жана алар окшош мүнөзгө ээ: система жаман божомолдорго же жаман маалыматтарга курулган болушу мүмкүн, бирок аны байкап калуу кыйын болот жана системаны колдонгон адамдар суроолорду бербестен, анын айтканын аткарышат. Бир жолу сиздин атыңызды туура эмес жазган салыкчылар жөнүндө эски тамашалар көп жана аларды катаны оңдоого көндүрүү атыңызды өзгөртүүгө караганда алда канча кыйын. Бул жөнүндө ойлонуунун көптөгөн жолдору бар, бирок кайсынысы жакшыраак экени белгисиз: SQLдеги техникалык көйгөй катарыбы же Oracle релизиндеги мүчүлүштүкпү же бюрократиялык институттардын катасыбы? Системада катаны оңдоо функциясы жок болгон процессте ката табуу канчалык кыйын? Муну эл нааразы боло электе эле аныктаса болот беле?

Бул көйгөй айдоочулар навигатордун эскирген маалыматтарынан улам дарыяларга айдап бара жаткан окуялар менен ого бетер жөнөкөй сүрөттөлөт. Макул, карталарды дайыма жаңыртып туруу керек. Бирок TomTom унааңыздын деңизге учуп кеткенине канчалык күнөөлүү?

Муну айтканымдын себеби, ооба, машинаны үйрөнүү көйгөйлөрдү жаратат. Бирок бул көйгөйлөр биз мурда туш болгон көйгөйлөргө окшош болот жана алар байкалып, чечилиши мүмкүн (же жокпу) биз мурда биз чече алгандай. Ошондуктан, AI бир жактуулугу зыян келтирген сценарий чоң уюмда иштеген улук изилдөөчүлөр үчүн болушу күмөн. Кыязы, кээ бир анча маанилүү эмес технологиялык подрядчы же программалык камсыздоо сатуучу ачык булак компоненттерин, китепканаларды жана алар түшүнбөгөн куралдарды колдонуп, тизелеп бир нерсе жазат. Ал эми бактысыз кардар продуктунун сүрөттөмөсүндө "жасалма интеллект" деген сөздү сатып алат жана эч кандай суроо бербестен, аны аз айлык алган кызматкерлерине таратып, аларга AI айткандай кылууну буйруйт. Бул так маалымат базалары менен болгон. Бул жасалма интеллект маселеси эмес, ал тургай программалык камсыздоо маселеси да эмес. Бул адам фактору.

жыйынтыктоо

Машина үйрөнүү сиз итке үйрөтө турган нерселердин баарын жасай алат, бирок сиз итке эмнени үйрөткөнүңүздү так айта албайсыз.

Мен көбүнчө "жасалма интеллект" термини ушул сыяктуу сүйлөшүүлөргө тоскоол болоорун сезем. Бул термин биз аны чындыгында жараткан деген жалган ойду берет - бул интеллект. Биз HAL9000 же Skynetке бара жатканыбыз - чынында эле түшүнөт. Бирок жок. Бул жөн эле машиналар, аларды, айталы, кир жуугуч машинага салыштыруу алда канча туура. Ал кишиге караганда алда канча жакшы кир жууйт, бирок ага кирдин ордуна идиш-аяк койсоңуз, ал... жууйт. Идиштер да таза болуп калат. Бирок бул сиз күткөндөй болбойт жана мындай болбойт, анткени системада идиштерге карата кандайдыр бир терс пикир бар. Кир жуугуч машина идиш-аяк, кийим эмне экенин билбейт - бул жөн гана автоматташтыруунун мисалы, концептуалдык жактан мурда процесстер автоматташтырылгандан эч кандай айырмасы жок.

Биз унаалар, учактар ​​же маалымат базалары жөнүндө айтып жатабызбы, бул системалар абдан күчтүү жана өтө чектелген болот. Алар толугу менен адамдардын бул системаларды кантип колдонушуна, алардын ниети жакшы же жаман экенине жана алар кантип иштээрин канчалык түшүнгөнүнө жараша болот.

Демек, “жасалма интеллект – математика, андыктан анын бир жактуулугу болбойт” деп айтуу таптакыр туура эмес. Бирок, машинаны үйрөнүү "табигы боюнча субъективдүү" деп айтуу да туура эмес. Машина үйрөнүү маалыматтардагы үлгүлөрдү табат жана ал кандай үлгүлөрдү табаары маалыматтардан көз каранды, ал эми маалыматтар бизден көз каранды. Алар менен кылган ишибиз сыяктуу. Машина үйрөнүү кээ бир нерселерди бизден алда канча жакшыраак кылат - бирок, мисалы, иттер баңгизаттарды аныктоодо адамдарга караганда алда канча натыйжалуу, бул аларды күбө катары колдонууга жана алардын көрсөтмөлөрүнүн негизинде өкүм чыгарууга себеп эмес. Ал эми иттер, демек, ар кандай машина үйрөнүү системасына караганда алда канча акылдуу.

котормо: Диана Лецкая.
Түзөтүү: Алексей Иванов.
Коомчулук: @PonchikNews.

Source: www.habr.com

Комментарий кошуу