د مصنوعي استخباراتو تعصب په اړه

د مصنوعي استخباراتو تعصب په اړه

tl؛ dr:

  • د ماشین زده کړه په ډاټا کې نمونې ګوري. مګر مصنوعي استخبارات کیدای شي "متعصب" وي - دا دی، هغه نمونې ومومئ چې غلط دي. د مثال په توګه، د عکس پر بنسټ د پوستکي سرطان کشف سیسټم ممکن د ډاکټر په دفتر کې اخیستل شوي عکسونو ته ځانګړې پاملرنه وکړي. ماشین زده کړه نشي کولی پوهیدل: د دې الګوریتم یوازې په شمیرو کې نمونې پیژني، او که چیرې ډاټا نمایندګي نه وي، نو د هغې د پروسس پایله به وي. او د داسې کیګونو نیول د ماشین زده کړې خورا میخانیکونو له امله ستونزمن کیدی شي.
  • تر ټولو ښکاره او سخته ستونزه د انسان تنوع دی. ډیری دلیلونه شتون لري چې ولې د خلکو په اړه معلومات ممکن د راټولولو په مرحله کې اعتراض له لاسه ورکړي. مګر فکر مه کوئ چې دا ستونزه یوازې په خلکو اغیزه کوي: په حقیقت کې ورته ستونزې رامینځته کیږي کله چې په ګودام یا ناکام ګاز توربین کې سیلاب کشف کړي. ځینې ​​​​سیسټمونه ممکن د پوټکي رنګ په اړه تعصب وي، نور به د سیمنز سینسرونو په لور متعصب وي.
  • دا ډول ستونزې د ماشین زده کړې لپاره نوې نه دي، او دا له دې څخه بې ساري دي. غلط انګیرنې په هر پیچلي جوړښت کې رامینځته کیږي، او پوهیدل چې ولې ځانګړې پریکړه شوې وه تل ستونزمن وي. موږ اړتیا لرو چې د دې سره په پراخه کچه مبارزه وکړو: د تایید لپاره وسیلې او پروسې رامینځته کړئ - او کاروونکو ته روزنه ورکړئ ترڅو دوی د AI سپارښتنې ړندې نه کړي. د ماشین زده کړه ځینې شیان زموږ په پرتله خورا ښه ترسره کوي - مګر سپي، د بیلګې په توګه، د انسانانو په پرتله د مخدره توکو په کشف کې خورا اغیزمن دي، کوم چې د دوی د شاهدانو په توګه کارولو او د دوی د شهادت پر بنسټ قضاوت کولو دلیل نه دی. او سپي، په لاره کې، د ماشین زده کړې سیسټم په پرتله خورا هوښیار دي.

د ماشین زده کړه نن ورځ یو له خورا مهم بنسټیز ټیکنالوژۍ رجحاناتو څخه دی. دا یو له لویو لارو څخه دی چې ټیکنالوژي به په راتلونکې لسیزه کې زموږ شاوخوا نړۍ بدل کړي. د دې بدلونونو ځینې اړخونه د اندیښنې لامل دي. د بیلګې په توګه، د کار په بازار کې د ماشین زده کړې احتمالي اغیزه، یا د غیر اخلاقي موخو لپاره د هغې کارول (د بیلګې په توګه، د استبدادي رژیمونو لخوا). بله ستونزه ده چې دا پوسټ حل کوي: د مصنوعي استخباراتو تعصب.

دا یوه اسانه کیسه نه ده.

د مصنوعي استخباراتو تعصب په اړه
د ګوګل AI کولی شي پیشوګانې ومومي. د 2012 څخه دا خبر یو څه ځانګړی و.

"AI تعصب" څه شی دی؟

"خام معلومات" دواړه یو اکسیمورون او بد نظر دی؛ معلومات باید په ښه او احتیاط سره چمتو شي. – جیفري بوکر

د 2013 څخه دمخه، د داسې سیسټم جوړولو لپاره چې ووایاست، په انځورونو کې پیشوګانې پیژني، تاسو باید منطقي ګامونه بیان کړئ. په عکس کې د کونجونو موندلو څرنګوالی، سترګې وپیژنئ، د پوستکي جوړښت تحلیل کړئ، د پنجو شمیره، او داسې نور. بیا ټولې برخې یوځای کړئ او ومومئ چې دا واقعیا کار نه کوي. د میخانیکي آس په څیر - په نظري توګه دا کیدی شي، مګر په عمل کې دا خورا پیچلې ده چې تشریح شي. وروستۍ پایله په سلګونو (یا حتی په زرګونو) د لاس لیکل شوي قواعد دي. او نه یو واحد کاري ماډل.

د ماشین زده کړې په راتګ سره، موږ د یو ځانګړي څیز پیژندلو لپاره د "لاسي" قواعدو کارول بند کړل. پرځای یې، موږ د "دا"، X، د "نور"، Y زرو نمونې اخلو، او کمپیوټر د دوی د احصایوي تحلیلونو پراساس یو ماډل جوړوي. بیا موږ دې ماډل ته ځینې نمونې ډاټا ورکوو او دا په یو څه دقت سره ټاکي چې ایا دا د یوې سیټ سره سمون لري. د ماشین زده کړه د ډیټا څخه ماډل رامینځته کوي نه د انسان لیکلو څخه. پایلې اغیزمنې دي، په ځانګړې توګه د عکس او نمونې پیژندنې په برخه کې، او له همدې امله ټول تخنیکي صنعت اوس د ماشین زده کړې (ML) ته ځي.

خو دا دومره ساده نه ده. په ریښتینې نړۍ کې، ستاسو د X یا Y په زرګونو مثالونه د A، B، J، L، O، R، او حتی L هم لري. دا ممکن په مساوي توګه نه وي ویشل شوي، او ځینې ممکن په مکرر ډول پیښ شي چې سیسټم به ډیر تادیه کړي. د هغو شیانو په پرتله چې تاسو سره علاقه لري دوی ته پاملرنه وکړئ.

دا په عمل کې څه معنی لري؟ زما غوره بیلګه دا ده کله چې د عکس پیژندنې سیسټمونه یو واښه غونډۍ ته وګوره او ووایه، "پسه". دا روښانه ده چې ولې: د "پسونو" ډیری مثالونه عکسونه په مرغانو کې اخیستل شوي چیرې چې دوی ژوند کوي، او پدې انځورونو کې واښه د کوچنیو سپینو فلفسونو په پرتله ډیر ځای نیسي، او دا هغه واښه دي چې سیسټم خورا مهم ګڼي. .

ډیر جدي مثالونه شتون لري. یو وروستی مسوده په عکسونو کې د پوستکي سرطان کشف کولو لپاره. دا معلومه شوه چې د ډرماتولوژیسټان ډیری وختونه د پوستکي سرطان سره د حاکم عکس اخلي ترڅو د جوړښت اندازه ثبت کړي. د سالم پوټکي عکسونو مثال کې هیڅ حاکم شتون نلري. د AI سیسټم لپاره، دا ډول حاکمان (په دقیق ډول، هغه پکسلونه چې موږ یې د "حاکم" په توګه تعریف کوو) د مثالونو سیټونو ترمنځ یو له توپیرونو څخه جوړ شوی، او ځینې وختونه د پوستکي د کوچني داغ څخه ډیر مهم دي. نو یو سیسټم رامینځته شوی چې د پوټکي سرطان پیژندلو لپاره ځینې وختونه حاکمان پیژندل کیږي.

دلته کلیدي ټکی دا دی چې سیسټم د هغه څه په اړه هیڅ معنی پوهه نلري چې دا یې ګوري. موږ د پکسلونو سیټ ګورو او په دوی کې پسه، پوستکي یا حاکمان ګورو، مګر سیسټم یوازې د شمیرې کرښه ده. هغه درې اړخیز ځای نه ګوري، شیان، جوړښت، یا پسونه نه ګوري. هغه په ​​ساده ډول په ډاټا کې نمونې ګوري.

د دې ډول ستونزو په تشخیص کې ستونزه دا ده چې عصبي شبکه (ستاسو د ماشین زده کړې سیسټم لخوا رامینځته شوی ماډل) د زرګونو او سلګونو زرو نوډونو څخه جوړه ده. د موډل د کتلو لپاره کومه اسانه لار نشته او وګورئ چې دا څنګه پریکړه کوي. د داسې یوې لارې درلودل به پدې معنی وي چې پروسه دومره ساده ده چې د ماشین زده کړې کارولو پرته ټول مقررات په لاسي ډول تشریح کړي. خلک اندیښمن دي چې د ماشین زده کړه د تور بکس یو څه بدل شوی. (زه به یو څه وروسته تشریح کړم چې ولې دا پرتله لاهم ډیره ده.)

دا، په عمومي اصطلاحاتو کې، د مصنوعي استخباراتو یا ماشین زده کړې کې د تعصب ستونزه ده: په ډیټا کې د نمونو موندلو لپاره یو سیسټم ممکن غلط نمونې ومومي، او تاسو ممکن پام ونه کړئ. دا د ټیکنالوژۍ بنسټیز ځانګړتیا ده، او دا د هر چا لپاره څرګنده ده چې په اکاډیمیا او لوی ټیک شرکتونو کې کار کوي. مګر پایلې یې پیچلې دي، او د دې پایلو لپاره زموږ ممکنه حلونه دي.

راځئ چې لومړی د پایلو په اړه خبرې وکړو.

د مصنوعي استخباراتو تعصب په اړه
AI کولی شي، په ښکاره ډول زموږ لپاره، د خلکو د ځینو کټګوریو په ګټه انتخاب وکړي، د لوی شمیر نه منلو وړ سیګنالونو پراساس

د AI تعصب سناریوګانې

په ښکاره ډول او ډارونکي، دا ستونزه کولی شي ځان ښکاره کړي کله چې دا د انسان تنوع ته راځي. په دې وروستیو کې یوه اوازه وهدا چې ایمیزون هڅه کړې چې د دندې نوماندانو لومړني سکرینینګ لپاره د ماشین زده کړې سیسټم رامینځته کړي. څرنګه چې د ایمیزون کارمندانو په منځ کې ډیر نارینه شتون لري، د "بریالي استخدام" مثالونه هم ډیری وختونه نارینه دي، او د سیسټم لخوا وړاندیز شوي د بیا پیلونو په انتخاب کې ډیر نارینه وو. ایمیزون دا ولیدل او سیسټم یې په تولید کې خوشې نه کړ.

په دې مثال کې تر ټولو مهم شی دا دی چې سیسټم د نارینه غوښتونکو د خوښې لپاره افواه وه، سره له دې چې په بیا پیل کې جنسیت مشخص شوی نه و. سیسټم د "ښه ګمارلو" مثالونو کې نورې نمونې لیدلي: د بیلګې په توګه، میرمنې ممکن د لاسته راوړنو تشریح کولو لپاره ځانګړي کلمې وکاروي، یا ځانګړي شوقونه ولري. البته، سیسټم نه پوهیده چې "هاک" څه و، یا "خلک" څوک وو، یا "بریالیتوب" څه و - دا په ساده ډول د متن احصایوي تحلیل ترسره کړ. مګر هغه نمونې چې هغې لیدلې شاید د انسانانو لخوا ناڅرګند وي، او ځینې یې (د بیلګې په توګه، دا حقیقت چې د مختلفو جنسونو خلک بریالیتوب په بل ډول بیانوي) شاید زموږ لپاره ستونزمن وي چې وګورو حتی که موږ ورته وګورو.

نور - بدتر. د ماشین زده کړې سیسټم چې په تیاره پوټکي کې د سرطان موندلو کې خورا ښه دی ممکن په تیاره پوټکي کې ښه کار ونکړي ، یا برعکس. اړینه نه ده چې د تعصب له امله وي، مګر دا چې تاسو شاید د مختلف پوټکي رنګ لپاره جلا ماډل جوړ کړئ، د مختلفو ځانګړتیاو غوره کول. د ماشین زده کړې سیسټمونه حتی د عکس پیژندنې په څیر په دومره تنګ ساحه کې د تبادلې وړ ندي. تاسو اړتیا لرئ سیسټم ټیک کړئ، ځینې وختونه یوازې د محاکمې او تېروتنې له لارې، په هغه معلوماتو کې چې تاسو یې لیوالتیا لرئ د ځانګړتیاوو په اړه ښه اداره ترلاسه کړئ تر هغه چې تاسو هغه دقت ترلاسه کړئ چې تاسو یې غواړئ. مګر هغه څه چې تاسو یې نه ګورئ دا دی چې سیسټم د یوې ډلې سره د وخت 98٪ دقیق دی ، او یوازې 91٪ (حتی د انساني تحلیل څخه ډیر دقیق) د بلې ډلې سره.

تر دې دمه ما په عمده ډول د خلکو او د دوی ځانګړتیاو پورې اړوند مثالونه کارولي دي. د دې ستونزې په اړه بحث په عمده توګه په دې موضوع تمرکز کوي. مګر دا مهمه ده چې پوه شي چې د خلکو په وړاندې تعصب یوازې د ستونزې یوه برخه ده. موږ به د ډیری شیانو لپاره د ماشین زده کړې وکاروو، او د نمونې کولو تېروتنه به د دوی ټولو سره تړاو ولري. له بلې خوا، که تاسو د خلکو سره کار کوئ، په ډاټا کې تعصب ممکن د دوی سره تړاو ونلري.

د دې پوهیدو لپاره، راځئ چې د پوستکي سرطان مثال ته راستون شو او د سیسټم ناکامۍ لپاره درې فرضي امکانات په پام کې ونیسو.

  1. د خلکو متفاوت توزیع: د مختلف پوستکي ټنو عکسونو غیر متوازن شمیر چې د رنګ کولو له امله غلط مثبت یا غلط منفي لامل کیږي.
  2. هغه معلومات چې سیسټم یې روزل کیږي په مکرر ډول واقع کیږي او په متفاوت ډول توزیع شوي ځانګړتیا لري چې د خلکو سره تړاو نلري او هیڅ تشخیصي ارزښت نلري: د پوستکي سرطان عکسونو کې حاکم یا د پسونو عکسونو کې واښه. په دې حالت کې، پایله به توپیر ولري که سیسټم د هغه څه په عکس کې پکسلونه ومومي چې د انسان سترګې د "حاکم" په توګه پیژني.
  3. ډاټا د دریمې ډلې ځانګړتیا لري چې یو څوک نشي لیدلی حتی که هغه یې لټوي.

دا څه معنی ورکوي؟ موږ په لومړيتوب پوهیږو چې ډاټا ممکن د خلکو مختلف ګروپونه په مختلف ډول نمایندګي وکړي، او لږترلږه موږ کولی شو پلان وکړو چې دا ډول استثناوې وګورو. په بل عبارت، ډیری ټولنیز دلیلونه شتون لري چې فرض کړي چې د خلکو د ډلو په اړه معلومات دمخه یو څه تعصب لري. که موږ د حاکم سره عکس ته وګورو، موږ به دا حاکم ووینو - موږ په ساده ډول دا مخکې له پامه غورځولی و، پوهیږو چې دا مسله نه کوي، او دا هیر کړي چې سیسټم هیڅ نه پوهیږي.

مګر څه که چیرې ستاسو د غیر صحي پوټکي ټول عکسونه د تاپېدونکي ر lightا لاندې په دفتر کې اخیستل شوي وي ، او ستاسو صحي پوټکی د فلوروسینټ ر lightا لاندې اخیستل شوي وي؟ که تاسو د صحي پوټکي شوټینګ پای ته ورسوئ ، د غیر صحي پوټکي ډزو کولو دمخه ، تاسو په خپل تلیفون کې عملیاتي سیسټم تازه کړی ، او ایپل یا ګوګل یو څه د شور کمولو الګوریتم بدل کړی؟ یو څوک نشي کولی دا په پام کې ونیسي، پرته له دې چې هغه د دې ځانګړتیاوو په لټه کې وي. مګر د ماشین کارولو سیسټم به سمدلاسه دا وګوري او وکاروي. هغه هیڅ نه پوهیږي.

تر دې دمه موږ د جعلي اړیکو په اړه خبرې کړې دي، مګر دا هم کیدی شي چې ډاټا سم وي او پایلې سمې وي، مګر تاسو نه غواړئ د اخلاقي، قانوني، یا مدیریت دلایلو لپاره وکاروئ. ځینې ​​قضاوتونه، د بیلګې په توګه، ښځو ته اجازه نه ورکوي چې د دوی په بیمه کې تخفیف ترلاسه کړي، که څه هم ښځې ممکن خوندي موټر چلوونکي وي. موږ کولی شو په اسانۍ سره یو سیسټم تصور کړو چې د تاریخي معلوماتو تحلیل کولو په وخت کې به د ښځینه نومونو لپاره د ټیټ خطر فکتور وټاکي. ښه، راځئ چې نومونه له انتخاب څخه لرې کړو. مګر د ایمیزون مثال په یاد ولرئ: سیسټم کولی شي جندر د نورو فکتورونو پراساس وټاکي (که څه هم دا نه پوهیږي چې جنس څه شی دی ، یا حتی موټر څه دی) ، او تاسو به دا په پام کې ونلرئ تر هغه چې تنظیم کونکی ستاسو تعرفې په تکراري ډول تحلیل کړي. وړاندیز وکړئ او تاسو ته پیسې ورکړئ تاسو به جریمه شئ.

په نهایت کې، ډیری وختونه داسې انګیرل کیږي چې موږ به یوازې د پروژو لپاره داسې سیسټمونه کاروو چې خلک او ټولنیز تعامل پکې شامل وي. دا غلط دی. که تاسو د ګاز توربینونه جوړ کړئ، نو تاسو به شاید د ماشین زده کړې پلي کړئ چې ستاسو په محصول کې د لسګونو یا سلونو سینسرونو لخوا لیږدول شوي ټیلی میټري (آډیو، ویډیو، تودوخې، او نور سینسرونه ډاټا تولیدوي چې په ډیره اسانۍ سره د ماشین جوړولو لپاره تطبیق کیدی شي. د زده کړې ماډل). په فرضي ډول، تاسو کولی شئ ووایاست، "دلته د زرو توربینونو ډاټا دي چې د ناکامۍ دمخه ناکام شوي، او دلته د هغو زرو توربینونو ډاټا دي چې ناکام شوي ندي. یو ماډل جوړ کړئ ترڅو ووایاست چې د دوی ترمنځ توپیر څه دی." ښه، اوس تصور وکړئ چې د سیمنز سینسرونه په 75٪ خراب توربینونو کې نصب شوي، او یوازې 12٪ ښه (د ناکامۍ سره هیڅ تړاو نلري). سیسټم به د سیمنز سینسرونو سره د توربینونو موندلو لپاره ماډل رامینځته کړي. اوف!

د مصنوعي استخباراتو تعصب په اړه
انځور - موریتز هارډ، UC برکلي

د AI تعصب اداره کول

موږ په دې اړه څه کولی شو؟ تاسو کولی شئ مسلې ته له دریو زاویو څخه مراجعه وکړئ:

  1. د سیسټم روزنې لپاره د معلوماتو راټولولو او اداره کولو کې میتودولوژیکي سختۍ.
  2. د ماډل چلند تحلیل او تشخیص لپاره تخنیکي وسایل.
  3. روزنه، زده کړه، او محتاط اوسئ کله چې په محصولاتو کې د ماشین زده کړې پلي کول.

د مولیر په کتاب "د بورژوا په شرافت" کې یوه ټوکه ده: یو سړي ته ویل شوي و چې ادب په نثر او شعر ویشل شوی ، او هغه په ​​دې خوښ شو چې پوه شو چې هغه ټول عمر په نثر کې خبرې کوي ، پرته له دې چې پوه شي. دا شاید نن ورځ احصایه کونکي څنګه احساس کوي: پرته له دې چې پوه شي ، دوی خپل کیریر مصنوعي استخباراتو او نمونې کولو خطا ته وقف کړي. د نمونې اخیستلو تېروتنې لټول او د هغې په اړه اندیښنه کومه نوې ستونزه نده، موږ یوازې اړتیا لرو چې په سیستماتیک ډول د هغې حل ته مراجعه وکړو. لکه څنګه چې پورته یادونه وشوه، په ځینو قضیو کې دا د خلکو ډیټا پورې اړوند ستونزو مطالعه کولو سره دا واقعیا اسانه ده. موږ لومړی فرض کوو چې موږ ممکن د خلکو د مختلف ډلو په اړه تعصب ولرو، مګر دا زموږ لپاره ستونزمنه ده چې حتی د سیمنز سینسرونو په اړه د تعصب تصور وکړو.

د دې ټولو په اړه څه نوي دي، البته، دا دی چې خلک نور په مستقیم ډول احصایوي تحلیل نه کوي. دا د ماشینونو لخوا ترسره کیږي چې لوی، پیچلي ماډلونه رامینځته کوي چې پوهیدل ستونزمن دي. د روڼتیا مسله د تعصب د ستونزې یو له اصلي اړخونو څخه دی. موږ ویره لرو چې سیسټم یوازې متعصب نه دی ، مګر دا چې د دې تعصب کشف کولو لپاره هیڅ لاره شتون نلري ، او دا د ماشین زده کړه د اتوماتیک نورو ډولونو څخه توپیر لري ، کوم چې باید د روښانه منطقي مرحلو څخه جوړه وي چې ازموینه کیدی شي.

دلته دوه ستونزې شتون لري. موږ اوس هم کولی شو د ماشین زده کړې سیسټمونو ځینې ډول پلټنې ترسره کړو. او د کوم بل سیسټم پلټنه په حقیقت کې اسانه نه ده.

لومړی، د ماشین زده کړې په برخه کې د عصري څیړنې یو له لارښوونو څخه د ماشین زده کړې سیسټمونو مهم فعالیت پیژندلو لپاره د میتودونو لټون دی. دې وویل، د ماشین زده کړه (په خپل اوسني حالت کې) د ساینس یو بشپړ نوی ډګر دی چې په چټکۍ سره بدلیږي، نو فکر مه کوئ چې هغه شیان چې نن ورځ ناممکن دي ډیر ژر واقعیا نشي کیدی. پروژه OpenAI - د دې په زړه پورې مثال.

دوهم، دا نظریه چې یو څوک کولی شي د موجوده سیسټمونو یا سازمانونو د پریکړې کولو پروسې ازموینه او پوهه په تیوري کې ښه وي، مګر په عمل کې هم همداسې وي. په یوه لوی سازمان کې د پریکړې کولو څرنګوالي پوهیدل اسانه ندي. حتی که چیرې د پریکړې کولو رسمي پروسه وي، دا نه منعکس کوي چې خلک په حقیقت کې څنګه تعامل کوي، او دوی پخپله اکثرا د خپلو پریکړو کولو لپاره منطقي، سیستماتیک چلند نلري. لکه څنګه چې زما همکار وویل وجي پانډي, خلک هم تور بکسونه دي.

په څو اوورپلینګ شرکتونو او بنسټونو کې د زرو کسانو ځای ونیسئ، او ستونزه نوره هم پیچلې کیږي. موږ د حقیقت څخه وروسته پوهیږو چې فضایی بیړۍ د بیرته راستنیدو په وخت کې له مینځه تللې وه، او په NASA کې اشخاصو داسې معلومات درلودل چې دوی ته یې د دې دلیل ورکړ چې فکر وکړي یو څه بد پیښ شي، مګر سیسټم عموما زه پدې نه پوهیدم. NASA حتی د خپل مخکینۍ بیړۍ له لاسه ورکولو وروسته د ورته پلټنې څخه تیر شو، او بیا هم د ورته دلیل لپاره یو بل له لاسه ورکړ. دا استدلال کول اسانه دي چې سازمانونه او خلک روښانه، منطقي قواعد تعقیبوي چې ازموینه، پوهیدل، او بدلون موندلی شي - مګر تجربه بل ډول ثابتوي. دا "د ګوسپلان فریب".

زه ډیری وختونه د ماشین زده کړې ډیټابیسونو سره پرتله کوم ، په ځانګړي توګه اړونده - یوه نوې بنسټیزه ټیکنالوژي چې د کمپیوټر ساینس او ​​شاوخوا نړۍ وړتیاوې یې بدلې کړې ، کوم چې د هرڅه برخه ګرځیدلې ، کوم چې موږ یې د پوهیدو پرته په دوامداره توګه کاروو. ډیټابیسونه هم ستونزې لري، او دوی ورته طبیعت لري: سیسټم ممکن په غلط انګیرنو یا خراب معلوماتو باندې جوړ شي، مګر دا به ستونزمن وي چې یادونه وشي، او هغه خلک چې سیسټم کاروي به هغه څه وکړي چې دوی ته یې ویل کیږي پرته له پوښتنې. د مالیې خلکو په اړه ډیری زاړه ټوکې شتون لري چې یوځل یې ستاسو نوم غلط لیکلی و ، او د غلطۍ سمولو ته قانع کول ستاسو د نوم بدلولو په پرتله خورا ستونزمن دي. د دې په اړه د فکر کولو لپاره ډیری لارې شتون لري، مګر دا روښانه نده چې کوم یو غوره دی: په SQL کې د تخنیکي ستونزې په توګه، یا د اوریکل خوشې کولو کې د بګ په توګه، یا د بیوروکراټیک ادارو ناکامۍ په توګه؟ په یوه پروسه کې د بګ موندل څومره ستونزمن دي چې سیسټم یې د ټایپو اصلاح کولو ځانګړتیا نه لري؟ ایا دا مخکې له دې چې خلکو شکایت پیل کړی وي معلوم شوی و؟

دا ستونزه نوره هم په ساده ډول د کیسې لخوا روښانه کیږي کله چې چلوونکي په نیویګیټر کې د پخوانیو معلوماتو له امله سیندونو ته ځي. ښه، نقشې باید په دوامداره توګه تازه شي. مګر ټام ټام څومره ملامت دی چې ستاسو موټر بحر ته غورځول شوی؟

دلیل چې زه یې وایم دا دی چې هو، د ماشین زده کړې تعصب به ستونزې رامینځته کړي. مګر دا ستونزې به ورته وي چې موږ په تیرو وختونو کې ورسره مخ شوي یو، او دوی د پام وړ او حل کیدی شي (یا نه) لکه څنګه چې موږ په تیرو وختونو کې توانیدلی و. له همدې امله، یوه سناریو چې په کې د AI تعصب د زیان لامل کیږي د لوړ پوړو څیړونکو لپاره چې په لوی سازمان کې کار کوي احتمال نلري. ډیری احتمال، د ټیکنالوژۍ ځینې مهم قراردادي یا سافټویر پلورونکي به د خلاصې سرچینې اجزاو، کتابتونونو او وسایلو په کارولو سره په خپلو زنګونو کې یو څه ولیکي چې دوی نه پوهیږي. او بدبخته پیرودونکی به د محصول توضیحاتو کې د "مصنوعي هوښیارتیا" جمله واخلي او پرته له کومې پوښتنې څخه به یې خپلو ټیټ معاش کارمندانو ته وویشي ، دوی ته به امر وکړي چې هغه څه وکړي چې AI ورته وایی. دا په حقیقت کې هغه څه دي چې د ډیټابیسونو سره پیښ شوي. دا د مصنوعي استخباراتو ستونزه نه ده، یا حتی د سافټویر ستونزه. دا د انسان فکتور دی.

پایلې

د ماشین زده کړه کولی شي هر هغه څه وکړي چې تاسو سپي ته ښوونه کولی شئ - مګر تاسو هیڅکله ډاډه نه شئ چې تاسو سپي ته څه درس ورکړی.

زه ډیری وختونه داسې احساس کوم چې د "مصنوعي استخباراتو" اصطلاح یوازې د دې په څیر خبرو اترو کې راځي. دا اصطلاح غلط تاثر ورکوي چې موږ په حقیقت کې دا جوړ کړی - دا استخبارات. دا چې موږ HAL9000 یا Skynet ته په لاره یو - هغه څه چې واقعیا دي پوهیږي. مګر نه. دا یوازې ماشینونه دي، او دا د مینځلو ماشین سره پرتله کول خورا دقیق دي. هغه د انسان په پرتله ډیر ښه کالي مینځل کیږي، مګر که تاسو د کالو مینځلو پر ځای په هغې کې لوښي واچوئ، هغه به یې ومینځي. لوښي به حتی پاک شي. مګر دا به هغه څه نه وي چې تاسو یې تمه درلوده، او دا به پیښ نشي ځکه چې سیسټم د لوښو په اړه کوم تعصب لري. د مینځلو ماشین نه پوهیږي چې لوښي څه دي یا کوم جامې دي - دا یوازې د اتوماتیک یوه بیلګه ده ، په تصور کې د دې څخه توپیر نلري چې پروسې دمخه اتومات شوي.

که موږ د موټرو، الوتکو، یا ډیټابیسونو په اړه خبرې کوو، دا سیسټمونه به دواړه خورا پیاوړي او خورا محدود وي. دوی به په بشپړه توګه په دې پورې اړه ولري چې خلک څنګه دا سیسټمونه کاروي، ایا د دوی ارادې ښه یا بد دي، او دوی څومره پوهیږي چې دوی څنګه کار کوي.

نو ځکه، دا ویل چې "مصنوعي استخبارات ریاضی دی، نو دا تعصب نشي کولی" په بشپړ ډول غلط دی. مګر دا په مساوي ډول غلط دی چې ووایو چې د ماشین زده کړه "په طبیعت کې موضوع ده." د ماشین زده کړه په ډیټا کې نمونې لټوي، او کومې نمونې یې موندلې په ډیټا پورې اړه لري، او ډاټا په موږ پورې اړه لري. لکه څنګه چې موږ د دوی سره کوو. د ماشین زده کړه ځینې شیان زموږ په پرتله خورا ښه ترسره کوي - مګر سپي، د بیلګې په توګه، د انسانانو په پرتله د مخدره توکو په کشف کې خورا اغیزمن دي، کوم چې د دوی د شاهدانو په توګه کارولو او د دوی د شهادت پر بنسټ قضاوت کولو دلیل نه دی. او سپي، په لاره کې، د ماشین زده کړې سیسټم په پرتله خورا هوښیار دي.

ژباړه: ډیانا لیټسکایا.
تدوین: الکسي ایوانوف.
ټولنه: @PonchikNews.

سرچینه: www.habr.com

Add a comment