Լուսանկարները նրբորեն աղավաղելու տեխնիկա՝ դեմքի ճանաչման համակարգերը խաթարելու համար

Լաբորատորիայի հետազոտողներ SAND Չիկագոյի համալսարանը մշակել է գործիքակազմ Ֆոքս իրականացման հետ մեթոդ լուսանկարների աղավաղում, կանխելով դրանց օգտագործումը դեմքի ճանաչման և օգտագործողի նույնականացման համակարգերի ուսուցման համար: Պատկերում կատարվում են պիքսելային փոփոխություններ, որոնք անտեսանելի են, երբ դիտվում են մարդկանց կողմից, բայց հանգեցնում են սխալ մոդելների ձևավորման, երբ օգտագործվում են մեքենայական ուսուցման համակարգերը վարժեցնելու համար: Գործիքակազմի կոդը գրված է Python և հրատարակված BSD լիցենզիայի ներքո: Ժողովներ պատրաստված Linux-ի, macOS-ի և Windows-ի համար:

Լուսանկարները նրբորեն աղավաղելու տեխնիկա՝ դեմքի ճանաչման համակարգերը խաթարելու համար

Նախքան սոցիալական ցանցերում և այլ հանրային հարթակներում հրապարակելը լուսանկարների մշակումը առաջարկվող օգտակար ծրագրով թույլ է տալիս պաշտպանել օգտատիրոջը լուսանկարների տվյալների օգտագործումից՝ որպես դեմքի ճանաչման համակարգերի ուսուցման աղբյուր: Առաջարկվող ալգորիթմը պաշտպանում է դեմքի ճանաչման փորձերի 95%-ից (Microsoft Azure ճանաչման API-ի, Amazon Rekognition-ի և Face++-ի համար պաշտպանության արդյունավետությունը 100%) է։ Ավելին, եթե նույնիսկ ապագայում բնօրինակ լուսանկարները, որոնք չմշակված են կոմունալ ծառայության կողմից, օգտագործվեն այնպիսի մոդելում, որն արդեն վերապատրաստվել է լուսանկարների աղավաղված տարբերակների միջոցով, ճանաչման խափանումների մակարդակը մնում է նույնը և կազմում է առնվազն 80%:

Մեթոդը հիմնված է «հակառակ օրինակների» երևույթի վրա, որի էությունն այն է, որ մուտքային տվյալների աննշան փոփոխությունները կարող են հանգեցնել դասակարգման տրամաբանության կտրուկ փոփոխությունների: Ներկայումս «հակառակ օրինակների» ֆենոմենը մեքենայական ուսուցման համակարգերի հիմնական չլուծված խնդիրներից է։ Ապագայում ակնկալվում է, որ կհայտնվի մեքենայական ուսուցման համակարգերի նոր սերունդ, որոնք զերծ կլինեն այս թերությունից, սակայն այդ համակարգերը կպահանջեն զգալի փոփոխություններ ճարտարապետության և շինարարական մոդելների մոտեցման մեջ:

Լուսանկարների մշակումը հանգում է պատկերին պիքսելների (կլաստերների) համակցության ավելացմանը, որոնք ընկալվում են խորը մեքենայական ուսուցման ալգորիթմների կողմից որպես պատկերված օբյեկտին բնորոշ օրինաչափություններ և հանգեցնում են դասակարգման համար օգտագործվող հատկանիշների խեղաթյուրմանը: Նման փոփոխությունները չեն առանձնանում ընդհանուր հավաքածուից և չափազանց դժվար է հայտնաբերել և հեռացնել: Նույնիսկ օրիգինալ և փոփոխված պատկերների դեպքում դժվար է որոշել, թե որն է բնօրինակը և որը փոփոխված տարբերակը:

Լուսանկարները նրբորեն աղավաղելու տեխնիկա՝ դեմքի ճանաչման համակարգերը խաթարելու համար

Ներդրված աղավաղումները ցույց են տալիս բարձր դիմադրություն հակաքայլերի ստեղծմանը, որոնք ուղղված են լուսանկարների նույնականացմանը, որոնք խախտում են մեքենայական ուսուցման մոդելների ճիշտ կառուցվածքը: Ներառյալ մեթոդները, որոնք հիմնված են պղտորման, աղմուկի ավելացման կամ պատկերի վրա ֆիլտրերի կիրառման վրա՝ պիքսելների համակցությունները ճնշելու համար, արդյունավետ չեն: Խնդիրն այն է, որ երբ ֆիլտրերը կիրառվում են, դասակարգման ճշգրտությունը շատ ավելի արագ է ընկնում, քան պիքսելների օրինաչափությունների հայտնաբերումը, և այն մակարդակում, երբ աղավաղումները ճնշվում են, ճանաչման մակարդակն այլևս չի կարող ընդունելի համարվել:

Նշվում է, որ, ինչպես գաղտնիությունը պաշտպանելու այլ տեխնոլոգիաների մեծ մասը, առաջարկվող տեխնիկան կարող է օգտագործվել ոչ միայն ճանաչման համակարգերում հանրային պատկերների չարտոնված օգտագործման դեմ պայքարելու համար, այլ նաև որպես հարձակվողներին թաքցնելու գործիք: Հետազոտողները կարծում են, որ ճանաչման հետ կապված խնդիրները կարող են հիմնականում ազդել երրորդ կողմի ծառայությունների վրա, որոնք տեղեկատվություն են հավաքում անվերահսկելի և առանց իրենց մոդելներին վերապատրաստելու թույլտվության (օրինակ, Clearview.ai ծառայությունն առաջարկում է դեմքի ճանաչման տվյալների բազա, կառուցված ինդեքսավորված է մոտ 3 միլիարդ լուսանկար սոցիալական ցանցերից): Եթե ​​այժմ նման ծառայությունների հավաքածուները պարունակում են հիմնականում վստահելի պատկերներ, ապա Fawkes-ի ակտիվ կիրառմամբ, ժամանակի ընթացքում աղավաղված լուսանկարների հավաքածուն ավելի մեծ կլինի, և մոդելը դրանք կհամարի դասակարգման համար ավելի առաջնահերթություն: Հետախուզական գործակալությունների ճանաչման համակարգերը, որոնց մոդելները կառուցված են վստահելի աղբյուրների հիման վրա, ավելի քիչ ազդեցություն կունենան հրապարակված գործիքներից։

Նպատակով մոտ պրակտիկ զարգացումներից կարելի է նշել նախագիծը Camera Adversaria, զարգացող բջջային հավելված պատկերներին ավելացնելու համար Պերլինի աղմուկ, կանխելով ճիշտ դասակարգումը մեքենայական ուսուցման համակարգերի կողմից: Camera Adversaria կոդը հասանելի է GitHub-ում EPL լիցենզիայի ներքո: Մեկ այլ նախագիծ Անտեսանելի թիկնոց նպատակ ունի արգելափակել հսկողության տեսախցիկների ճանաչումը հատուկ նախշավոր անձրեւանոցների, շապիկների, սվիտերների, թիկնոցների, պաստառների կամ գլխարկների ստեղծման միջոցով:

Source: opennet.ru

Добавить комментарий