Արհեստական ​​ինտելեկտի կողմնակալության մասին

Արհեստական ​​ինտելեկտի կողմնակալության մասին

tl; dr:

  • Մեքենայի ուսուցումը տվյալների մեջ փնտրում է օրինաչափություններ: Սակայն արհեստական ​​ինտելեկտը կարող է լինել «կողմնակալ», այսինքն՝ գտնել սխալ օրինաչափություններ: Օրինակ, լուսանկարի վրա հիմնված մաշկի քաղցկեղի հայտնաբերման համակարգը կարող է հատուկ ուշադրություն դարձնել բժշկի գրասենյակում արված նկարներին: Մեքենայական ուսուցումը չի կարող հասկանալՆրա ալգորիթմները միայն թվերով են բացահայտում օրինաչափությունները, և եթե տվյալները ներկայացուցչական չեն, ապա դրա մշակման արդյունքը նույնպես կլինի: Եվ նման սխալներ որսալը կարող է դժվար լինել մեքենայական ուսուցման հենց մեխանիզմի պատճառով:
  • Ամենաակնառու և սարսափելի խնդրահարույց ոլորտը մարդկային բազմազանությունն է: Կան բազմաթիվ պատճառներ, թե ինչու մարդկանց մասին տվյալները կարող են կորցնել օբյեկտիվությունը նույնիսկ հավաքագրման փուլում: Բայց մի կարծեք, որ այս խնդիրն ազդում է միայն մարդկանց վրա. ճիշտ նույն դժվարությունները ծագում են, երբ փորձում են հայտնաբերել ջրհեղեղը պահեստում կամ խափանված գազատուրբինում: Որոշ համակարգեր կարող են կողմնակալ լինել մաշկի գույնի նկատմամբ, մյուսները՝ Siemens սենսորների նկատմամբ:
  • Նման խնդիրները նորություն չեն մեքենայական ուսուցման համար, և դրանք շատ հեռու են յուրահատուկ լինելուց: Ցանկացած բարդ կառուցվածքում սխալ ենթադրություններ են արվում, և հասկանալը, թե ինչու է կայացվել որոշակի որոշում, միշտ էլ դժվար է: Մենք պետք է պայքարենք դրա դեմ համապարփակ ձևով. ստեղծենք գործիքներ և գործընթացներ ստուգման համար, և կրթենք օգտատերերին, որպեսզի նրանք կուրորեն չհետևեն AI-ի առաջարկություններին: Մեքենայական ուսուցումը որոշ բաներ անում է շատ ավելի լավ, քան մենք կարող ենք, բայց շները, օրինակ, շատ ավելի արդյունավետ են, քան մարդիկ թմրանյութեր հայտնաբերելու հարցում, ինչը պատճառ չէ դրանք օգտագործել որպես վկաներ և դատողություններ անել՝ հիմնվելով նրանց ցուցմունքների վրա: Իսկ շները, ի դեպ, շատ ավելի խելացի են, քան մեքենայական ուսուցման ցանկացած համակարգ։

Մեքենայական ուսուցումն այսօր ամենակարևոր հիմնարար տեխնոլոգիական միտումներից մեկն է: Սա այն հիմնական ուղիներից մեկն է, որով տեխնոլոգիան կփոխի մեզ շրջապատող աշխարհը հաջորդ տասնամյակում: Այս փոփոխությունների որոշ ասպեկտներ անհանգստության տեղիք են տալիս: Օրինակ՝ մեքենայական ուսուցման հնարավոր ազդեցությունը աշխատաշուկայի վրա կամ դրա օգտագործումը ոչ էթիկական նպատակներով (օրինակ՝ ավտորիտար ռեժիմների կողմից): Մեկ այլ խնդիր կա, որին անդրադառնում է այս գրառումը. արհեստական ​​ինտելեկտի կողմնակալություն.

Սա հեշտ պատմություն չէ։

Արհեստական ​​ինտելեկտի կողմնակալության մասին
Google-ի AI-ն կարող է գտնել կատուներ. 2012 թվականի այս լուրն այն ժամանակ յուրահատուկ բան էր:

Ի՞նչ է «AI-ի կողմնակալությունը»:

«Հում տվյալները» և՛ օքսիմորոն է, և՛ վատ գաղափար. տվյալները պետք է լավ և զգույշ պատրաստվեն: - Ջեֆրի Բոկեր

Ինչ-որ տեղ մինչև 2013 թվականը, որպեսզի այնպիսի համակարգ ստեղծեիր, որը, ասենք, կատուներին կճանաչի լուսանկարներում, պետք էր տրամաբանական քայլեր նկարագրել։ Ինչպես գտնել անկյունները պատկերի մեջ, ճանաչել աչքերը, վերլուծել հյուսվածքները մորթի համար, հաշվել թաթերը և այլն: Այնուհետև միացրեք բոլոր բաղադրիչները և պարզեք, որ այն իրականում չի աշխատում: Շատ նման է մեխանիկական ձիուն. տեսականորեն այն կարելի է պատրաստել, բայց գործնականում այն ​​չափազանց բարդ է նկարագրելու համար: Վերջնական արդյունքը հարյուրավոր (կամ նույնիսկ հազարավոր) ձեռագիր կանոններն են: Եվ ոչ մի աշխատող մոդել:

Մեքենայական ուսուցման գալուստով մենք դադարեցինք օգտագործել «ձեռնարկ» կանոնները որոշակի օբյեկտի ճանաչման համար: Փոխարենը մենք վերցնում ենք «այս»-ի հազար նմուշ, X-ից, «ուրիշ»-ի հազար նմուշ, և համակարգչին տալիս ենք մոդել՝ հիմնվելով նրանց վիճակագրական վերլուծության վրա: Այնուհետև մենք այս մոդելին տալիս ենք որոշ նմուշային տվյալներ և այն որոշ ճշգրտությամբ որոշում է, թե արդյոք այն համապատասխանում է հավաքածուներից մեկին: Մեքենայական ուսուցումը մոդել է ստեղծում տվյալներից, այլ ոչ թե այն գրող մարդուց: Արդյունքները տպավորիչ են հատկապես պատկերների և օրինաչափությունների ճանաչման ոլորտում, և դա է պատճառը, որ ամբողջ տեխնոլոգիական արդյունաբերությունը այժմ անցնում է մեքենայական ուսուցման (ML):

Բայց դա այնքան էլ պարզ չէ: Իրական աշխարհում X կամ Y-ի ձեր հազարավոր օրինակները պարունակում են նաև A, B, J, L, O, R և նույնիսկ L: Դրանք կարող են հավասարաչափ բաշխված չլինել, իսկ որոշները կարող են տեղի ունենալ այնքան հաճախ, որ համակարգը ավելի շատ վճարի: ուշադրություն դարձրեք նրանց, քան ձեզ հետաքրքրող առարկաներին:

Ի՞նչ է սա նշանակում գործնականում: Իմ սիրելի օրինակն այն է, երբ պատկերների ճանաչման համակարգերը նայեք խոտածածկ բլրին և ասեք՝ «ոչխար». Հասկանալի է, թե ինչու. «ոչխարների» օրինակների լուսանկարների մեծ մասն արված է մարգագետիններում, որտեղ նրանք ապրում են, և այս նկարներում խոտը շատ ավելի շատ տեղ է զբաղեցնում, քան փոքրիկ սպիտակ բմբուլները, և դա խոտն է, որը համակարգը համարում է ամենակարևորը: .

Ավելի լուրջ օրինակներ կան. Մեկը վերջերս նախագիծ լուսանկարներում մաշկի քաղցկեղը հայտնաբերելու համար: Պարզվել է, որ մաշկաբանները հաճախ նկարում են քանոնը մաշկի քաղցկեղի դրսևորումների հետ մեկտեղ՝ գոյացությունների չափը գրանցելու համար։ Առողջ մաշկի լուսանկարների օրինակներում կանոններ չկան: AI համակարգի համար նման քանոնները (ավելի ճիշտ՝ պիքսելները, որոնք մենք սահմանում ենք որպես «քանոն») դարձել են օրինակների հավաքածուների տարբերություններից մեկը և երբեմն ավելի կարևոր, քան մաշկի վրա փոքր ցանը: Այսպիսով, մաշկի քաղցկեղը բացահայտելու համար ստեղծված համակարգը երբեմն ճանաչում էր կառավարիչների փոխարեն:

Այստեղ առանցքային կետն այն է, որ համակարգը իմաստային պատկերացում չունի այն մասին, թե ինչ է նայում: Մենք նայում ենք մի շարք պիքսելների և դրանցում տեսնում ենք ոչխար, մաշկ կամ քանոն, բայց համակարգը ընդամենը թվային գիծ է: Նա չի տեսնում եռաչափ տարածություն, չի տեսնում առարկաներ, հյուսվածքներ կամ ոչխարներ: Նա պարզապես օրինաչափություններ է տեսնում տվյալների մեջ:

Նման խնդիրների ախտորոշման դժվարությունն այն է, որ նեյրոնային ցանցը (ձեր մեքենայական ուսուցման համակարգի կողմից ստեղծված մոդելը) բաղկացած է հազարավոր հարյուր հազարավոր հանգույցներից: Մոդելի մեջ նայելու և տեսնելու, թե ինչպես է այն որոշում կայացնում, հեշտ ճանապարհ չկա: Նման ձև ունենալը կնշանակի, որ գործընթացը բավական պարզ է՝ բոլոր կանոնները ձեռքով նկարագրելու համար՝ առանց մեքենայական ուսուցման օգտագործման: Մարդիկ անհանգստանում են, որ մեքենայական ուսուցումը սև արկղի պես մի բան է դարձել: (Ես մի փոքր ուշ կբացատրեմ, թե ինչու է այս համեմատությունը դեռ շատ):

Սա, ընդհանուր առմամբ, արհեստական ​​ինտելեկտի կամ մեքենայական ուսուցման կողմնակալության խնդիրն է. տվյալների մեջ օրինաչափություններ գտնելու համակարգը կարող է սխալ օրինաչափություններ գտնել, և դուք չեք կարող դա նկատել: Սա տեխնոլոգիայի հիմնարար հատկանիշն է, և դա ակնհայտ է բոլոր նրանց համար, ովքեր աշխատում են դրա հետ ակադեմիայում և խոշոր տեխնոլոգիական ընկերություններում: Բայց դրա հետևանքները բարդ են, և այդ հետևանքների մեր հնարավոր լուծումները նույնպես:

Նախ խոսենք հետեւանքների մասին։

Արհեստական ​​ինտելեկտի կողմնակալության մասին
AI-ն կարող է մեզ համար անուղղակիորեն ընտրություն կատարել հօգուտ որոշակի կատեգորիաների մարդկանց՝ հիմնվելով մեծ թվով աննկատ ազդանշանների վրա:

AI կողմնակալության սցենարներ

Առավել ակնհայտ և սարսափելի է, որ այս խնդիրը կարող է դրսևորվել, երբ խոսքը վերաբերում է մարդկային բազմազանությանը: Վերջերս խոսակցություն կարոր Amazon-ը փորձել է ստեղծել մեքենայական ուսուցման համակարգ՝ աշխատանքի թեկնածուների նախնական զննման համար։ Քանի որ Amazon-ի աշխատողների մեջ ավելի շատ տղամարդիկ կան, «հաջող աշխատանքի ընդունվելու» օրինակները նույնպես ավելի հաճախ արական սեռի են, և համակարգի կողմից առաջարկվող ռեզյումեների ընտրության մեջ ավելի շատ տղամարդիկ են եղել: Amazon-ը նկատեց դա և չթողարկեց համակարգը արտադրության մեջ:

Այս օրինակում ամենակարևորն այն է, որ լուրեր էին պտտվում, որ համակարգը նպաստում է արական սեռի դիմորդներին, չնայած այն հանգամանքին, որ ռեզյումեում սեռը նշված չէր: Համակարգը տեսավ այլ օրինաչափություններ «լավ վարձույթների» օրինակներում. օրինակ՝ կանայք կարող են օգտագործել հատուկ բառեր՝ նկարագրելու ձեռքբերումները կամ ունենալ հատուկ հոբբի: Իհարկե, համակարգը չգիտեր, թե ինչ է «հոկեյը», կամ ովքեր են «մարդիկ», կամ ինչ է «հաջողությունը», պարզապես իրականացրել է տեքստի վիճակագրական վերլուծություն։ Բայց նրա տեսած օրինաչափությունները, ամենայն հավանականությամբ, աննկատ կմնան մարդկանց կողմից, և դրանցից մի քանիսը (օրինակ, այն փաստը, որ տարբեր սեռերի մարդիկ տարբեր կերպ են նկարագրում հաջողությունը), հավանաբար մեզ համար դժվար կլինի տեսնել, նույնիսկ եթե մենք նայենք դրանց:

Հետագա - ավելի վատ: Մեքենայի ուսուցման համակարգը, որը շատ լավ է գունատ մաշկի վրա քաղցկեղ հայտնաբերելու հարցում, կարող է այնքան էլ լավ չգործել մուգ մաշկի վրա, կամ հակառակը: Պարտադիր չէ, որ կողմնակալության պատճառով, այլ այն պատճառով, որ դուք հավանաբար պետք է առանձին մոդել կառուցեք մաշկի տարբեր գույնի համար՝ ընտրելով տարբեր բնութագրեր: Մեքենայական ուսուցման համակարգերը փոխարինելի չեն նույնիսկ այնպիսի նեղ տարածքում, ինչպիսին պատկերի ճանաչումն է: Դուք պետք է շտկեք համակարգը, երբեմն պարզապես փորձության և սխալի միջոցով, որպեսզի լավ տիրապետեք ձեզ հետաքրքրող տվյալների առանձնահատկություններին, մինչև հասնեք ձեր ուզած ճշգրտությանը: Բայց այն, ինչ դուք կարող եք չնկատել, այն է, որ համակարգը ճշգրիտ է ժամանակի 98%-ում մեկ խմբի հետ, և միայն 91%-ում (նույնիսկ ավելի ճշգրիտ, քան մարդկային վերլուծությունը) մյուսի հետ:

Մինչ այժմ ես օգտագործել եմ հիմնականում մարդկանց և նրանց առանձնահատկություններին վերաբերող օրինակներ։ Այս խնդրի շուրջ քննարկումները հիմնականում կենտրոնանում են այս թեմայի շուրջ։ Բայց կարևոր է հասկանալ, որ մարդկանց նկատմամբ կողմնակալությունը խնդրի միայն մի մասն է: Մենք կօգտագործենք մեքենայական ուսուցումը շատ բաների համար, և ընտրանքի սխալը տեղին կլինի դրանց բոլորի համար: Մյուս կողմից, եթե դուք աշխատում եք մարդկանց հետ, տվյալների կողմնակալությունը կարող է կապված չլինել նրանց հետ:

Սա հասկանալու համար վերադառնանք մաշկի քաղցկեղի օրինակին և դիտարկենք համակարգի ձախողման երեք հիպոթետիկ հնարավորություն։

  1. Մարդկանց տարասեռ բաշխում. մաշկի տարբեր երանգների լուսանկարների անհավասարակշիռ քանակություն, որոնք հանգեցնում են կեղծ պոզիտիվների կամ կեղծ բացասականների՝ պիգմենտացիայի պատճառով:
  2. Տվյալները, որոնց վրա ուսուցանվում է համակարգը, պարունակում են հաճախակի հանդիպող և տարասեռ բաշխված հատկանիշ, որը կապված չէ մարդկանց հետ և չունի ախտորոշիչ արժեք՝ քանոն մաշկի քաղցկեղի կամ խոտի լուսանկարներում՝ ոչխարների լուսանկարներում: Այս դեպքում արդյունքը տարբեր կլինի, եթե համակարգը պիքսելներ գտնի մի բանի պատկերում, որը մարդու աչքը նույնացնում է որպես «քանոն»:
  3. Տվյալները պարունակում են երրորդ կողմի հատկանիշ, որը մարդը չի կարող տեսնել, եթե նույնիսկ փնտրի այն:

Ինչ է դա նշանակում? Մենք ապրիորի գիտենք, որ տվյալները կարող են տարբեր կերպ ներկայացնել մարդկանց տարբեր խմբեր, և առնվազն մենք կարող ենք պլանավորել նման բացառություններ փնտրել: Այլ կերպ ասած, կան բազմաթիվ սոցիալական պատճառներ ենթադրելու, որ մարդկանց խմբերի մասին տվյալներն արդեն իսկ որոշակի կողմնակալություն են պարունակում: Եթե ​​նայենք քանոնի հետ լուսանկարը, կտեսնենք այս քանոնը. մենք նախկինում ուղղակի անտեսել ենք այն՝ իմանալով, որ դա նշանակություն չունի, և մոռանալով, որ համակարգը ոչինչ չգիտի։

Բայց ի՞նչ, եթե անառողջ մաշկի ձեր բոլոր լուսանկարներն արված լինեն գրասենյակում շիկացած լույսի ներքո, իսկ առողջ մաշկը արված լինի լյումինեսցենտային լույսի ներքո: Իսկ եթե առողջ մաշկի նկարահանումն ավարտելուց հետո, նախքան անառողջ մաշկը նկարահանելը, թարմացնեիք ձեր հեռախոսի օպերացիոն համակարգը, և Apple-ը կամ Google-ը մի փոքր փոխեին աղմուկի նվազեցման ալգորիթմը: Մարդը դա չի կարող նկատել, որքան էլ որ նա փնտրի նման հատկանիշներ։ Բայց մեքենայի օգտագործման համակարգը անմիջապես կտեսնի և կօգտագործի սա: Նա ոչինչ չգիտի:

Մինչ այժմ մենք խոսել ենք կեղծ հարաբերակցությունների մասին, բայց կարող է նաև լինել, որ տվյալները ճշգրիտ են, և արդյունքները ճիշտ են, բայց դուք չեք ցանկանում դրանք օգտագործել էթիկական, իրավական կամ կառավարման նկատառումներով: Որոշ իրավասություններ, օրինակ, թույլ չեն տալիս կանանց զեղչ ստանալ իրենց ապահովագրության վրա, չնայած կանայք կարող են ավելի ապահով վարորդներ լինել: Մենք հեշտությամբ կարող ենք պատկերացնել մի համակարգ, որը պատմական տվյալները վերլուծելիս իգական սեռի անուններին ավելի ցածր ռիսկային գործոն կսահմանի: Լավ, եկեք անունները հանենք ընտրությունից: Բայց հիշեք Amazon-ի օրինակը. համակարգը կարող է որոշել սեռը՝ հիմնվելով այլ գործոնների վրա (թեև չգիտի, թե ինչ է սեռը կամ նույնիսկ ինչ է մեքենան), և դուք դա չեք նկատի այնքան ժամանակ, քանի դեռ կարգավորիչը հետադարձ կերպով չի վերլուծի ձեր սակագները։ առաջարկում և գանձում է ձեզ, դուք կտուգանվեք:

Վերջապես, հաճախ ենթադրվում է, որ մենք կօգտագործենք նման համակարգեր միայն մարդկանց և սոցիալական փոխազդեցությունների ընդգրկող նախագծերի համար: Սա սխալ է. Եթե ​​դուք գազատուրբիններ եք պատրաստում, հավանաբար կցանկանաք կիրառել մեքենայական ուսուցում ձեր արտադրանքի տասնյակ կամ հարյուրավոր սենսորների միջոցով փոխանցվող հեռաչափության վրա (աուդիո, վիդեո, ջերմաստիճան և ցանկացած այլ սենսորներ առաջացնում են տվյալներ, որոնք կարող են շատ հեշտությամբ հարմարեցվել մեքենայի ստեղծման համար: ուսուցման մոդել): Հիպոթետիկորեն կարելի է ասել. «Ահա հազար տուրբինների տվյալները, որոնք խափանվել են նախքան խափանվելը, և ահա հազար տուրբինների տվյալները, որոնք չեն խափանում: Կառուցեք մոդել՝ ասելու, թե ինչ տարբերություն կա նրանց միջև»: Դե, հիմա պատկերացրեք, որ Siemens-ի սենսորները տեղադրված են վատ տուրբինների 75%-ի վրա, իսկ լավերի միայն 12%-ի վրա (խափանումների հետ կապ չկա)։ Համակարգը կկառուցի Siemens սենսորներով տուրբիններ գտնելու մոդել: Վա՜յ

Արհեստական ​​ինտելեկտի կողմնակալության մասին
Նկար — Մորից Հարդտ, UC Berkeley

AI-ի կողմնակալության կառավարում

Ի՞նչ կարող ենք անել դրա դեմ: Դուք կարող եք հարցին մոտենալ երեք տեսանկյունից.

  1. Համակարգի վերապատրաստման համար տվյալների հավաքագրման և կառավարման մեթոդական խստություն:
  2. Մոդելի վարքագծի վերլուծության և ախտորոշման տեխնիկական գործիքներ:
  3. Վերապատրաստեք, կրթեք և զգույշ եղեք մեքենայական ուսուցումը արտադրանքներում կիրառելիս:

Մոլիերի «Բուրժուան ազնվականության մեջ» գրքում կա մի կատակ. մի մարդու ասացին, որ գրականությունը բաժանված է արձակի և պոեզիայի, և նա ուրախությամբ հայտնաբերեց, որ նա ամբողջ կյանքում արձակ է խոսել՝ առանց իմանալու: Հավանաբար, այսօր վիճակագիրներն այսպես են զգում՝ առանց գիտակցելու, նրանք իրենց կարիերան նվիրել են արհեստական ​​ինտելեկտին և ընտրանքային սխալին: Ընտրանքային սխալ փնտրելը և դրա համար անհանգստանալը նոր խնդիր չէ, պարզապես պետք է համակարգված մոտենալ դրա լուծմանը: Ինչպես նշվեց վերևում, որոշ դեպքերում իրականում ավելի հեշտ է դա անել՝ ուսումնասիրելով մարդկանց տվյալների հետ կապված խնդիրները: Մենք ապրիորի ենթադրում ենք, որ կարող ենք նախապաշարմունքներ ունենալ մարդկանց տարբեր խմբերի վերաբերյալ, բայց մեզ համար դժվար է նույնիսկ պատկերացնել նախապաշարմունք Siemens-ի սենսորների վերաբերյալ:

Նորությունն այս ամենում, իհարկե, այն է, որ մարդիկ այլեւս ուղղակի վիճակագրական վերլուծություններ չեն անում։ Այն իրականացվում է մեքենաների միջոցով, որոնք ստեղծում են մեծ, բարդ մոդելներ, որոնք դժվար է հասկանալ: Թափանցիկության խնդիրը կողմնակալության խնդրի հիմնական կողմերից մեկն է։ Մենք վախենում ենք, որ համակարգը ոչ միայն կողմնակալ է, այլև դրա կողմնակալությունը հայտնաբերելու միջոց չկա, և որ մեքենայական ուսուցումը տարբերվում է ավտոմատացման այլ ձևերից, որոնք ենթադրաբար բաղկացած են հստակ տրամաբանական քայլերից, որոնք կարող են փորձարկվել:

Այստեղ երկու խնդիր կա. Մենք դեռ կարող ենք իրականացնել մեքենայական ուսուցման համակարգերի որոշակի աուդիտ: Եվ ցանկացած այլ համակարգի աուդիտ իրականում ավելի հեշտ չէ:

Նախ, մեքենայական ուսուցման ոլորտում ժամանակակից հետազոտությունների ուղղություններից մեկը մեքենայական ուսուցման համակարգերի կարևոր ֆունկցիոնալությունը բացահայտելու մեթոդների որոնումն է: Ասել է թե, մեքենայական ուսուցումն (իր ներկա վիճակում) գիտության բոլորովին նոր ոլորտ է, որն արագ փոխվում է, այնպես որ մի կարծեք, որ այսօր անհնարին բաները շուտով չեն կարող իրական դառնալ: Նախագիծ OpenAI - Սրա մի հետաքրքիր օրինակ.

Երկրորդ, այն գաղափարը, որ դուք կարող եք ստուգել և հասկանալ գոյություն ունեցող համակարգերի կամ կազմակերպությունների որոշումների կայացման գործընթացը, լավ է տեսականորեն, բայց այդպես է գործնականում: Հասկանալը, թե ինչպես են որոշումները կայացվում մեծ կազմակերպությունում, հեշտ չէ: Նույնիսկ եթե կա որոշումների կայացման պաշտոնական գործընթաց, այն չի արտացոլում, թե ինչպես են մարդիկ իրականում փոխազդում, և նրանք իրենք հաճախ չունեն տրամաբանական, համակարգված մոտեցում իրենց որոշումները կայացնելու համար: Ինչպես ասաց իմ գործընկերը Վիջայ Պանդե, մարդիկ նույնպես սև արկղեր են.

Վերցրեք հազար մարդ մի քանի համընկնող ընկերություններում և հաստատություններում, և խնդիրն ավելի բարդ է դառնում: Մենք գիտենք, որ այն բանից հետո, երբ Տիեզերական մաքոքը վիճակված էր բաժանվել վերադառնալուն պես, և ՆԱՍԱ-ի անհատները տեղեկություններ ունեին, որոնք հիմք էին տալիս մտածելու, որ կարող է ինչ-որ վատ բան պատահել, բայց համակարգը ընդհանրապես Ես սա չգիտեի: ՆԱՍԱ-ն նույնիսկ պարզապես անցավ նմանատիպ աուդիտ՝ կորցնելով իր նախորդ մաքոքը, և, այնուամենայնիվ, կորցրեց ևս մեկը շատ նմանատիպ պատճառով: Հեշտ է պնդել, որ կազմակերպությունները և մարդիկ հետևում են հստակ, տրամաբանական կանոններին, որոնք կարող են փորձարկվել, հասկանալ և փոխվել, բայց փորձը հակառակն է ապացուցում: սա «Գոսպլանի մոլորությունը.

Ես հաճախ համեմատում եմ մեքենայական ուսուցումը տվյալների շտեմարանների հետ, հատկապես՝ հարաբերական՝ նոր հիմնարար տեխնոլոգիա, որը փոխել է համակարգչային գիտության և դրա շրջակա աշխարհի հնարավորությունները, որը դարձել է ամեն ինչի մի մասը, որը մենք անընդհատ օգտագործում ենք՝ առանց գիտակցելու: Տվյալների շտեմարանները նույնպես խնդիրներ ունեն, և դրանք նմանատիպ բնույթ ունեն. համակարգը կարող է կառուցված լինել վատ ենթադրությունների կամ վատ տվյալների վրա, բայց դա դժվար կլինի նկատել, և համակարգից օգտվող մարդիկ կանեն այն, ինչ ասում է նրանց՝ առանց հարցեր տալու: Շատ հին կատակներ կան հարկային մարդկանց մասին, ովքեր ժամանակին սխալ են գրել ձեր անունը, և նրանց համոզելն ուղղել սխալը շատ ավելի դժվար է, քան իրականում ձեր անունը փոխելը: Այս մասին մտածելու բազմաթիվ եղանակներ կան, բայց պարզ չէ, թե որն է ավելի լավ՝ որպես տեխնիկական խնդիր SQL-ում, թե՞ որպես Oracle-ի թողարկման սխալ, թե՞ որպես բյուրոկրատական ​​ինստիտուտների ձախողում: Որքա՞ն դժվար է սխալ գտնել գործընթացում, որը հանգեցրել է նրան, որ համակարգը չունի տառասխալների ուղղման հնարավորություն: Կարո՞ղ էր արդյոք դա պարզվել նախքան մարդիկ սկսել էին բողոքել:

Այս խնդիրը նույնիսկ ավելի պարզ է ցույց տալիս պատմություններով, երբ վարորդները քշում են գետեր նավիգատորի հնացած տվյալների պատճառով: Լավ, քարտեզները պետք է անընդհատ թարմացվեն: Բայց որքանո՞վ է TomTom-ը մեղավոր, որ ձեր մեքենան դուրս է թռչել ծով:

Սա ասելու պատճառն այն է, որ այո, մեքենայական ուսուցման կողմնակալությունը խնդիրներ կստեղծի: Բայց այս խնդիրները նման են լինելու այն խնդիրներին, որոնց մենք բախվել ենք անցյալում, և դրանք կարելի է նկատել և լուծել (կամ ոչ) այնպես, ինչպես կարողացել ենք անցյալում: Հետևաբար, մի սցենար, որտեղ AI-ի կողմնակալությունը վնաս է պատճառում, դժվար թե պատահի խոշոր կազմակերպությունում աշխատող ավագ հետազոտողների հետ: Ամենայն հավանականությամբ, որոշ աննշան տեխնոլոգիաների կապալառու կամ ծրագրային ապահովման վաճառող ինչ-որ բան կգրի իրենց ծնկներին՝ օգտագործելով բաց կոդով բաղադրիչներ, գրադարաններ և գործիքներ, որոնք նրանք չեն հասկանում: Իսկ դժբախտ հաճախորդը կգնի «արհեստական ​​ինտելեկտ» արտահայտությունը ապրանքի նկարագրության մեջ և, առանց որևէ հարց տալու, այն կտարածի իր ցածր վարձատրվող աշխատակիցներին՝ պատվիրելով անել այն, ինչ ասում է AI-ն: Սա հենց այն է, ինչ տեղի ունեցավ տվյալների բազաների հետ: Սա արհեստական ​​ինտելեկտի խնդիր չէ կամ նույնիսկ ծրագրային ապահովման խնդիր: Սա մարդկային գործոնն է։

Ամփոփում

Մեքենայի ուսուցումը կարող է անել այն ամենը, ինչ դուք կարող եք սովորեցնել շանը, բայց դուք երբեք չեք կարող վստահ լինել, թե կոնկրետ ինչ եք սովորեցրել շանը:

Ես հաճախ զգում եմ, որ «արհեստական ​​ինտելեկտ» տերմինը միայն խանգարում է նման խոսակցություններին: Այս տերմինը կեղծ տպավորություն է ստեղծում, որ մենք իրականում ստեղծել ենք այն՝ այս բանականությունը: Այն, որ մենք գնում ենք դեպի HAL9000 կամ Skynet, մի բան, որն իրականում հասկանում է. Բայց ոչ. Սրանք պարզապես մեքենաներ են, և շատ ավելի ճիշտ է դրանք համեմատել, ասենք, լվացքի մեքենայի հետ։ Նա շատ ավելի լավ է լվացք անում, քան մարդը, բայց եթե լվացքի փոխարեն սպասք դնես նրա մեջ, նա... Սպասքները նույնիսկ մաքուր կդառնան։ Բայց դա չի լինի այն, ինչ դուք ակնկալում էիք, և դա տեղի չի ունենա, քանի որ համակարգը նախապաշարմունքներ ունի ուտեստների վերաբերյալ: Լվացքի մեքենան չգիտի, թե ինչ է սպասքը կամ ինչ հագուստ, դա ընդամենը ավտոմատացման օրինակ է, կոնցեպտուալ առումով ոչնչով չի տարբերվում այն ​​բանից, թե ինչպես էին նախկինում ավտոմատացված գործընթացները:

Անկախ նրանից, թե մենք խոսում ենք մեքենաների, ինքնաթիռների կամ տվյալների բազաների մասին, այս համակարգերը կլինեն և՛ շատ հզոր, և՛ շատ սահմանափակ: Դրանք ամբողջությամբ կախված կլինեն նրանից, թե ինչպես են մարդիկ օգտագործում այս համակարգերը, նրանց մտադրությունները լավ են, թե վատ, և որքանով են նրանք հասկանում, թե ինչպես են դրանք աշխատում:

Հետևաբար, ասել, որ «արհեստական ​​ինտելեկտը մաթեմատիկա է, ուստի այն չի կարող կողմնակալություն ունենալ», լիովին սուտ է: Բայց նույնքան սխալ է ասել, որ մեքենայական ուսուցումը «բնույթով սուբյեկտիվ է»: Մեքենայական ուսուցումը տվյալների մեջ օրինաչափություններ է գտնում, և թե ինչպիսի օրինաչափություններ է գտնում, կախված է տվյալներից, և տվյալները կախված են մեզանից: Ճիշտ այնպես, ինչպես մենք անում ենք նրանց հետ: Մեքենայական ուսուցումը որոշ բաներ անում է շատ ավելի լավ, քան մենք կարող ենք, բայց շները, օրինակ, շատ ավելի արդյունավետ են, քան մարդիկ թմրանյութեր հայտնաբերելու հարցում, ինչը պատճառ չէ դրանք օգտագործել որպես վկաներ և դատողություններ անել՝ հիմնվելով նրանց ցուցմունքների վրա: Իսկ շները, ի դեպ, շատ ավելի խելացի են, քան մեքենայական ուսուցման ցանկացած համակարգ։

Թարգմանություն Դիանա Լեցկայա.
Խմբագրում: Ալեքսեյ Իվանով.
Համայնք: @PonchikNews.

Source: www.habr.com

Добавить комментарий