د مخ پیژندنې سیسټمونو ګډوډولو لپاره د عکسونو په لنډ ډول تحریف کولو تخنیک

د لابراتوار څخه څیړونکي سیند د شیکاګو پوهنتون یو اوزار کټ جوړ کړ فوکس د تطبیق سره طریقه د عکسونو تحریف، د مخ پیژندنې او د کارونکي پیژندنې سیسټمونو روزنې لپاره د دوی کارولو مخه نیسي. په عکس کې د پکسل بدلونونه رامینځته شوي ، کوم چې د انسانانو لخوا لیدل کیږي نه لیدل کیږي ، مګر د غلط ماډلونو رامینځته کیدو لامل کیږي کله چې د ماشین زده کړې سیسټمونو روزنې لپاره کارول کیږي. د Toolkit کوډ په Python او خپور شوی د BSD جواز لاندې. مجلسونه چمتو شوی د لینکس، MacOS او وینډوز لپاره.

د مخ پیژندنې سیسټمونو ګډوډولو لپاره د عکسونو په لنډ ډول تحریف کولو تخنیک

په ټولنیزو شبکو او نورو عامه پلیټونو کې خپرولو دمخه د وړاندیز شوي افادیت سره د عکسونو پروسس کول تاسو ته اجازه درکوي چې کارونکي د مخ پیژندنې سیسټمونو روزنې لپاره د سرچینې په توګه د عکس ډیټا کارولو څخه خوندي کړئ. وړاندیز شوی الګوریتم د مخ پیژندنې هڅو 95٪ پروړاندې محافظت چمتو کوي (د مایکروسافټ ازور پیژندنې API ، ایمیزون پیژندنې او مخ++ لپاره ، د محافظت موثریت 100٪ دی). سربیره پردې ، حتی که په راتلونکي کې اصلي عکسونه ، د کارونې لخوا غیر پروسس شوي ، په داسې ماډل کې کارول کیږي چې دمخه د عکسونو مسخ شوي نسخو په کارولو سره روزل شوي وي ، د پیژندلو ناکامۍ کچه ورته پاتې ده او لږترلږه 80٪ ده.

دا میتود د "مخالف مثالونو" پدیدې پر بنسټ والړ دی، د هغې جوهر دا دی چې د معلوماتو ډاټا کې کوچني بدلونونه کولی شي د طبقه بندي منطق کې د ډراماتیک بدلونونو المل شي. اوس مهال، د "مخالف مثالونو" پدیده د ماشین زده کړې سیسټمونو کې یو له اصلي حل شوي ستونزو څخه دی. په راتلونکي کې، تمه کیږي چې د ماشین زده کړې سیسټمونو نوی نسل رامینځته شي چې د دې نیمګړتیا څخه پاک وي، مګر دا سیسټمونه به د ماډلونو جوړولو لپاره په جوړښت او چلند کې د پام وړ بدلونونو ته اړتیا ولري.

د عکسونو پروسس کول په عکس کې د پکسلز (کلسترونو) ترکیب اضافه کولو ته راځي ، کوم چې د ژور ماشین زده کړې الګوریتم لخوا د عکس شوي څیز د نمونو ځانګړتیاو په توګه پیژندل کیږي او د ډلبندۍ لپاره کارول شوي ځانګړتیاو د تحریف لامل کیږي. دا ډول بدلونونه د عمومي سیټ څخه توپیر نلري او کشف او لرې کول خورا ستونزمن دي. حتی د اصلي او بدل شوي عکسونو سره، دا ستونزمنه ده چې معلومه شي چې کوم اصلي دی او کوم بدل شوی نسخه.

د مخ پیژندنې سیسټمونو ګډوډولو لپاره د عکسونو په لنډ ډول تحریف کولو تخنیک

معرفي شوي تحریفونه د عکس العملونو رامینځته کولو لپاره لوړ مقاومت ښیې چې هدف یې د عکسونو پیژندل دي چې د ماشین زده کړې ماډلونو سم جوړښت څخه سرغړونه کوي. په عکس کې د فلټر کولو پراساس د میتودونو په شمول ، شور اضافه کول ، یا عکس ته د فلټرونو پلي کول د پکسل ترکیبونو فشارولو لپاره مؤثر ندي. ستونزه دا ده چې کله چې فلټرونه پلي کیږي، د ډلبندۍ دقت د پکسل نمونو د کشف کولو په پرتله خورا ګړندی راټیټیږي، او په هغه کچه چې تحریفونه ودرول شي، د پیژندنې کچه نور د منلو وړ نه ګڼل کیږي.

د یادونې وړ ده چې د محرمیت د ساتنې لپاره د نورو ټیکنالوژیو په څیر، وړاندیز شوی تخنیک نه یوازې د پیژندنې سیسټمونو کې د عامه انځورونو د غیرقانوني کارونې سره د مبارزې لپاره کارول کیدی شي، بلکه د برید کونکو پټولو لپاره د یوې وسیلې په توګه هم کارول کیدی شي. څیړونکي پدې باور دي چې د پیژندنې ستونزې په عمده ډول د دریمې ډلې خدماتو باندې اغیزه کولی شي چې معلومات په غیر کنټرول ډول راټولوي او د دوی ماډلونو روزنې لپاره اجازې پرته (د مثال په توګه، د Clearview.ai خدمت د مخ پیژندنې ډیټابیس وړاندې کوي، جوړ د ټولنیزو شبکو څخه شاوخوا 3 ملیارد عکسونه لیست شوي دي). که اوس د داسې خدماتو ټولګه ډیری معتبر عکسونه ولري، نو د وخت په تیریدو سره، د فاکس فعال کارولو سره، د تحریف شوي عکسونو سیټ به لوی وي او ماډل به دوی د طبقه بندي لپاره لوړ لومړیتوب په پام کې ونیسي. د استخباراتي ادارو د پیژندنې سیسټمونه، هغه ماډلونه چې د باوري سرچینو پر بنسټ جوړ شوي، د خپرو شویو وسیلو لخوا به لږ اغیزمن شي.

د عملي پرمختګونو په منځ کې هدف ته نږدې، موږ کولی شو د پروژې یادونه وکړو د کیمرې Adversaria، وده کول ګرځنده تلیفون په انځورونو کې اضافه کولو لپاره د پرلین شورد ماشین زده کړې سیسټمونو لخوا د سم طبقه بندي مخه نیسي. د کیمرې Adversaria کوډ شتون لري په GitHub کې د EPL جواز لاندې. بله پروژه د نه لیدلو پوټکی موخه یې د ځانګړو نمونو باران کوټونو، ټي شرټونو، سویټرونو، کیپونو، پوسترونو یا خولۍ جوړولو له لارې د څارنې کیمرې لخوا د پیژندلو مخه نیول دي.

سرچینه: opennet.ru

Add a comment