Di derbarê Biasê Îstixbarata Hunerî de

Di derbarê Biasê Îstixbarata Hunerî de

tl; dr:

  • Fêrbûna makîneyê di daneyan de li nimûneyan digere. Lê îstîxbarata çêkirî dikare "alîgir" be - ango, qalibên ku nerast in bibînin. Mînakî, pergalek tespîtkirina penceşêrê ya çerm-based wêne dibe ku girîngiyek taybetî bide wêneyên ku di nivîsgeha bijîjkî de têne kişandin. Fêrbûna makîneyê nikare têgihîştin: algorîtmayên wê tenê di hejmaran de nimûneyan nas dikin, û heke dane ne nûner bin, dê encama pêvajoyek wê jî wiha be. Û girtina xeletiyên weha ji ber mekanîka fêrbûna makîneyê dikare dijwar be.
  • Qada pirsgirêka herî eşkere û ditirsîne cihêrengiya mirovan e. Gelek sedem hene ku çima daneyên di derheqê mirovan de dibe ku di qonaxa berhevkirinê de jî objektîf winda bikin. Lê nefikirin ku ev pirsgirêk tenê bandorê li mirovan dike: bi rastî heman dijwarî derdikevin dema ku hewl didin ku lehiyek li depoyek an turbînek gazê ya têkçûyî bibînin. Dibe ku hin pergal ber bi rengê çerm ve girêdayî bin, yên din dê berbi senzorên Siemens ve bibin.
  • Pirsgirêkên weha ji bo fêrbûna makîneyê ne nû ne, û ew ji wê re bêhempa ne. Di her avahiyek tevlihev de texmînên xelet têne çêkirin, û têgihîştina çima biryarek taybetî hate girtin her gav dijwar e. Pêdivî ye ku em li dijî vê yekê bi rengek berfireh şer bikin: ji bo verastkirinê amûr û pêvajoyên biafirînin - û bikarhêneran perwerde bikin da ku ew bi kor pêşniyarên AI-ê bişopînin. Fêrbûna makîneyê hin tiştan ji me çêtir dike - lê kûçik, mînakî, di tespîtkirina narkotîkan de ji mirovan pir bi bandortir in, ku ev ne sedemek e ku meriv wan wekî şahid bikar bîne û li ser bingeha şahidiya wan dadbar bike. Û kûçik, bi awayê, ji her pergala fêrbûna makîneyê pir jîrtir in.

Fêrbûna makîneyê îro yek ji meylên teknolojiya bingehîn ên herî girîng e. Ev yek ji awayên sereke ye ku tê de teknolojî dê di deh salên pêş de cîhana li dora me biguhezîne. Hin aliyên van guhertinan dibin sedema fikaran. Mînakî, bandora potansiyela fêrbûna makîneyê li ser bazara kedê, an karanîna wê ji bo armancên neexlaqî (mînak, ji hêla rejîmên otorîter ve). Pirsgirêkek din jî heye ku ev post destnîşan dike: bias îstîxbarata sûnî.

Ev ne çîrokek hêsan e.

Di derbarê Biasê Îstixbarata Hunerî de
AI-ya Google dikare pisîkan bibîne. Ev nûçeyên 2012-an wê demê tiştek taybetî bû.

"AI Bias" çi ye?

“Daneyên xav” hem oksîmoron û hem jî fikreke xerab e; divê dane baş û bi baldarî bên amadekirin. - Geoffrey Bocker

Berî sala 2013-an, ji bo ku hûn pergalek çêbikin ku, bêje, pisîkan di wêneyan de nas bike, diviyabû ku hûn gavên mentiqî vebêjin. Meriv çawa di wêneyekê de goşeyan bibîne, çavan nas bike, tevnvîsên ji bo porê analîz bike, paçikan bijmêre û hwd. Dûv re hemî pêkhatan li hev bixin û kifş bikin ku ew bi rastî nexebite. Mîna hespek mekanîkî - ji hêla teorîkî ve ew dikare were çêkirin, lê di pratîkê de ew pir tevlihev e ku meriv rave bike. Encama dawî bi sedan (an jî bi hezaran) qaîdeyên destnivîs in. Û ne yek modela xebatê.

Bi hatina fêrbûna makîneyê re, me ji bo naskirina tiştek taybetî ji karanîna qaîdeyên "destan" rawestand. Di şûna wê de, em hezar nimûneyên "vê", X, hezar nimûneyên "yên din", Y digirin û komputerê li gorî analîza wan a statîstîkî modelek ava dike. Dûv re em hin daneyên nimûne didin vê modelê û ew bi hin hûrgulî diyar dike ka ew yek ji koman li hev dike. Fêrbûna makîneyê li şûna ku ji mirovek ku wê dinivîse, modelek ji daneyê diafirîne. Encam balkêş in, nemaze di warê naskirina wêne û nimûneyê de, û ji ber vê yekê tevahiya pîşesaziya teknolojiyê naha ber bi fêrbûna makîneyê (ML) ve diçe.

Lê ne ew qas hêsan e. Di cîhana rastîn de, bi hezaran mînakên we yên X an Y jî A, B, J, L, O, R, û tewra L jî hene. Dibe ku ev yeksan neyên belavkirin, û dibe ku hin jî ew qas pir caran çêbibin ku pergal dê bêtir bide. bala wan ji tiştên ku we eleqedar dike.

Ev di pratîkê de tê çi wateyê? Mînaka min a bijare dema pergalên naskirina wêneyê ye li çiyayekî bi giya binêre û bêje, "pez". Eşkere ye ku çima: piraniya wêneyên nimûne yên "pez" li mêrgên ku ew lê dijîn têne kişandin, û di van wêneyan de giya ji guliyên spî yên piçûk pirtir cîh digire, û ew giyayê ye ku pergalê herî girîng dibîne. .

Mînakên girantir hene. Yeka dawî projeyê ji bo tespîtkirina kansera çerm di wêneyan de. Derket holê ku dermatolog bi gelemperî li gel diyardeyên penceşêrê çerm wênesaziya serwerê wêne dikin da ku mezinahiya pêkhateyan tomar bikin. Di mînakên wêneyên çermê saxlem de serwer tune. Ji bo pergalek AI-ê, serwerên weha (bi rastî, pixelên ku em wekî "serwer" pênase dikin) bûne yek ji cûdahiyên di navbera komên mînakan de, û carinan ji pişkek piçûk a li ser çerm girîngtir e. Ji ber vê yekê pergalek ku ji bo naskirina kansera çerm hatî afirandin carinan li şûna hukumdaran nas dikir.

Li vir xala sereke ev e ku pergal ji tiştê ku lê dinihêre têgihîştina semantîk tune. Em li komek pixelan dinêrin û di wan de pez, çerm an serwer dibînin, lê pergal tenê rêzek hejmar e. Ew cîhê sê-alî nabîne, ne tişt, ne tewra, ne jî pez nabîne. Ew tenê di daneyan de nimûneyan dibîne.

Zehmetiya teşhîskirina pirsgirêkên weha ev e ku tora neuralî (modela ku ji hêla pergala fêrbûna makîneya we ve hatî hilberandin) ji hezaran sed hezaran girêk pêk tê. Rêyek hêsan tune ku meriv li modelek binêre û bibîne ka ew çawa biryarek dide. Hebûna rêgezek wusa tê vê wateyê ku pêvajo têra xwe hêsan e ku meriv hemî qaîdeyan bi destan diyar bike, bêyî karanîna fêrbûna makîneyê. Mirov ditirsin ku fêrbûna makîneyê bûye tiştek wekî qutiyek reş. (Ez ê piçek paşê rave bikim ka çima ev berhevok hîn jî zêde ye.)

Ev, bi gelemperî, di îstîxbarata sûnî an fêrbûna makîneyê de pirsgirêka nelirêtiyê ye: pergalek ji bo dîtina qalibên di daneyan de dibe ku qalibên xelet bibîne, û dibe ku hûn pê nebînin. Ev taybetmendiyek bingehîn a teknolojiyê ye, û ji her kesê ku li akademiyê û li pargîdaniyên teknolojiya mezin bi wê re dixebite diyar e. Lê encamên wê tevlihev in, û çareseriyên me yên muhtemel ji wan encaman re jî wiha ne.

Werin em pêşî li ser encamên biaxivin.

Di derbarê Biasê Îstixbarata Hunerî de
AI dikare, ji bo me nepenî, li ser bingeha hejmareke mezin ji nîşaneyên nedîtbar, di berjewendiya hin kategoriyên mirovan de bijartinek bike.

Senaryoyên Bias AI

Ya herî eşkere û tirsnak, ev pirsgirêk dema ku tê ser cihêrengiya mirovî dikare xwe diyar bike. Berî demekê xeberek hebûku Amazon hewl da ku pergalek fêrbûna makîneyê ji bo ceribandina destpêkê ya berendamên kar ava bike. Ji ber ku di nav xebatkarên Amazonê de bêtir mêr hene, mînakên "karkirina serketî" jî pir caran mêr in, û di hilbijartina resumeyên ku ji hêla pergalê ve hatî pêşniyar kirin de mêr zêdetir bûn. Amazon vê yekê ferq kir û pergalê berneda hilberînê.

Di vê nimûneyê de tişta herî girîng ev e ku tê gotin ku pergalê ji bo serlêderên mêr eleqedar dike, tevî ku zayend di resume de nehate diyarkirin. Pergalê di mînakên "kirêdanên baş" de qalibên din dît: wek nimûne, jin dibe ku peyvên taybetî ji bo danasîna destkeftiyan bikar bînin, an jî xwediyê hobiyên taybetî bin. Bê guman, pergalê nizanibû ku "hockey" çi ye, an "mirov" kî ne, an "serkeftin" çi ye - ew tenê analîzek statîstîkî ya nivîsê kir. Lê qalibên ku wê dîtî bi îhtîmaleke mezin dê ji hêla mirovan ve neyên dîtin, û hin ji wan (mînak, rastiya ku mirovên ji zayendên cihê serfiraziyê bi rengek cûda diyar dikin) dibe ku ji me re dijwar be ku em li wan binerin jî.

Zêdetir - xirabtir. Pergalek fêrbûna makîneyê ya ku di dîtina penceşêrê de li ser çermê zirav pir baş e, dibe ku li ser çermê tarî jî baş nexebite, an jî berevajî. Ne hewce ne ji ber bertengiyê, lê ji ber ku dibe ku hûn hewce ne ku ji bo rengek çermek cûda modelek cûda ava bikin, taybetmendiyên cûda hilbijêrin. Pergalên fêrbûna makîneyê di nav deverek wusa teng de wekî naskirina wêneyê jî nayên guheztin. Hûn hewce ne ku pergalê, carinan tenê bi ceribandin û xeletiyê biguhezînin, da ku meriv li ser taybetmendiyên daneyên ku hûn jê re eleqedar in baş bi dest bixin heya ku hûn rastbûna ku hûn dixwazin bi dest bixin. Lê ya ku hûn ferq nakin ev e ku pergal 98% ji dema yek grûpek rast e, û tenê 91% (ji analîza mirovî jî rasttir) bi ya din re rast e.

Heta niha min bi piranî mînakên ku bi mirovan û taybetmendiyên wan ve girêdayî bi kar anîne. Nîqaşa li dora vê pirsgirêkê bi giranî li ser vê mijarê disekine. Lê girîng e ku meriv fêm bike ku neyartiya li hember mirovan tenê beşek pirsgirêkê ye. Em ê ji bo gelek tiştan fêrbûna makîneyê bikar bînin, û xeletiya nimûneyê dê ji hemîyan re têkildar be. Ji hêla din ve, heke hûn bi mirovan re bixebitin, dibe ku bertengiya daneyan bi wan re ne têkildar be.

Ji bo ku em vê yekê fêm bikin, werin em vegerin mînaka penceşêra çerm û sê îmkanên hîpotezîkî ji bo têkçûna pergalê bifikirin.

  1. Dabeşkirina heterojen a mirovan: hejmareke bêhevseng a wêneyên rengên cûda yên çerm, ku ji ber pigmentasyonê dibe sedema erênîyên derewîn an neyînîyên derewîn.
  2. Daneyên ku li ser pergalê têne perwerde kirin taybetmendiyek pir caran diqewime û bi heterojen ve hatî belav kirin heye ku ne bi mirovan re têkildar e û nirxa wê ya teşhîsê tune: di wêneyên kansera çerm de an jî giya di wêneyên pez de serwerek. Di vê rewşê de, heke pergal di wêneyê tiştekê de ku çavê mirov wekî "serwer" dide nasîn, pixelan bibîne dê encam cûda be.
  3. Daneyên taybetmendiyek sêyemîn-sêyemîn heye ku mirov nikare bibîne ku ew lê bigere jî.

Poldayî? Em berê dizanin ku dane dibe ku komên cûda cûda cûda temsîl bikin, û bi kêmanî em dikarin plan bikin ku li îstîsnayên weha bigerin. Bi gotineke din, gelek sedemên civakî hene ku em texmîn bikin ku daneyên di derbarê komên mirovan de berê hin alîgiran dihewîne. Ger em li wêneyê bi hukumdar re binerin, em ê vî hukumdar bibînin - me berê bi hêsanî paşguh kir, zanibû ku ew ne girîng e, û ji bîr kir ku pergal tiştek nizane.

Lê heke hemî wêneyên we yên çermê netendurist li nivîsgehekê di bin ronahiya ronahiyê de werin kişandin, û çermê weya saxlem di bin ronahiya fluorescent de were kişandin? Ger, piştî ku we kişandina çermê saxlem qedand, berî ku hûn çermê netendurist bikşînin, we pergala xebitandinê ya li ser têlefona xwe nûve kir, û Apple an Google hinekî algorîtmaya kêmkirina deng biguhezînin? Mirov çiqasî li taybetmendiyên wiha bigere jî nikare vê yekê bibîne. Lê pergala karanîna makîneyê dê yekser vê yekê bibîne û bikar bîne. Ew tiştek nizane.

Heya nuha me li ser têkiliyên derewîn peyivî, lê dibe ku ew jî ev be ku dane rast in û encam rast in, lê hûn naxwazin wan ji ber sedemên exlaqî, qanûnî, an rêveberî bikar bînin. Mînakî, hin dadgeh rê nadin ku jin li ser bîmeya xwe erzantir bibin, her çend jin ajokarên ewletir bin. Em dikarin bi hêsanî pergalek xeyal bikin ku dema ku daneyên dîrokî analîz bikin, faktorek xeternak kêmtir li navên jinan bide. Baş e, em navan ji hilbijartinê derxin. Lê mînaka Amazonê ji bîr mekin: pergal dikare zayendê li ser bingeha faktorên din diyar bike (her çend ew nizane cins çi ye, an jî gerîdeyek çi ye), û hûn ê vê yekê ferq nekin heya ku regulator bi paşverû tarîfên we analîz neke. pêşkêşî û tezmînata we bike hûn ê werin cezakirin.

Di dawiyê de, pir caran tê texmîn kirin ku em ê pergalên weha tenê ji bo projeyên ku mirov û têkiliyên civakî vedigirin bikar bînin. Ev xelet e. Ger hûn turbînên gazê çêkin, belkî hûn ê bixwazin ku fêrbûna makîneyê li telemetrîya ku bi deh an bi sedan senzorên li ser hilbera we ve hatî veguheztin bicîh bikin (dûr, vîdyo, germahî, û her senzorên din daneyên ku dikarin pir bi hêsanî werin adapte kirin da ku makîneyek çêbikin. modela fêrbûnê). Bi awayekî hîpotetîk, hûn dikarin bibêjin, "Li vir daneyên hezar turbînên ku berî têkçûn têk çûn hene, û li vir daneyên hezar turbînên ku têkneçûne hene. Modelek ava bikin da ku bibêjin ferqa wan çi ye.” Welê, naha bifikirin ku senzorên Siemens li ser 75% turbînên xirab, û tenê% 12 yên baş têne saz kirin (têkiliyek bi têkçûnê re tune). Pergal dê modelek çêbike ku bi senzorên Siemens turbînan bibîne. Oops!

Di derbarê Biasê Îstixbarata Hunerî de
Wêne - Moritz Hardt, UC Berkeley

Rêvebirina AI Bias

Em dikarin çi bikin? Hûn dikarin ji sê aliyan ve nêzikî mijarê bibin:

  1. Di berhevkirin û birêvebirina daneyan de ji bo perwerdekirina pergalê hişkiya metodolojîk.
  2. Amûrên teknîkî yên ji bo analîzkirin û tespîtkirina behreya modelê.
  3. Dema ku fêrbûna makîneyê di hilberan de bicîh dikin perwerde bikin, perwerde bikin û baldar bin.

Di pirtûka Molière "Burjûwaziya di Esilzade" de henekek heye: Ji zilamekî re hat gotin ku edebiyat di nav pexşan û helbestê de tê dabeş kirin, û ew kêfxweş bû ku wî kifş kir ku ew di tevahiya jiyana xwe de bi proz diaxive, bêyî ku bizane. Dibe ku îro statîstîkvan hest bi vî rengî dikin: bêyî ku haya wan jê hebe, wan kariyera xwe ji îstîxbarata sûnî û xeletiya nimûneyê re veqetandiye. Lêgerîna li xeletiya nimûneyê û xema wê ne pirsgirêkek nû ye, tenê hewce ye ku em bi rêkûpêk nêzikî çareseriya wê bibin. Wekî ku li jor behs kir, di hin rewşan de bi xwendina pirsgirêkên ku bi daneyên mirovan ve girêdayî ne bi rastî kirina vê yekê hêsantir e. Em berê texmîn dikin ku dibe ku di derheqê komên cûda yên mirovan de pêşdaraziyên me hebin, lê ji me re dijwar e ku meriv pêşdarazîyek li ser senzorên Siemens jî xeyal bike.

Tişta ku di van hemûyan de nû ye, bê guman ew e ku mirov êdî rasterast analîzên îstatîstîkî nakin. Ew ji hêla makîneyên ku modelên mezin, tevlihev ên ku têgihîştina wan zehmet e diafirînin, têne kirin. Mijara şefafî yek ji aliyên sereke yên pirsgirêka nelirêtiyê ye. Em ditirsin ku pergal ne tenê ne alîgir e, lê rêyek tune ku meriv alîgiriya wê bibîne, û fêrbûna makîneyê ji celebên din ên otomatîkkirinê cûda ye, ku tê xwestin ku ji gavên mentiqî yên zelal ên ku bêne ceribandin pêk werin.

Li vir du pirsgirêk hene. Dibe ku em hîn jî karibin cûreyek kontrolkirina pergalên fêrbûna makîneyê pêk bînin. Û kontrolkirina pergalek din bi rastî ne hêsantir e.

Yekem, yek ji rêwerzên lêkolîna nûjen di warê fêrbûna makîneyê de lêgerîna rêbazan e ku fonksiyonên girîng ên pergalên fêrbûna makîneyê nas bike. Wusa got, fêrbûna makîneyê (di rewşa xwe ya heyî de) qadek zanistî ya bi tevahî nû ye ku zû diguhere, ji ber vê yekê nefikirin ku tiştên ku îro ne mumkin in zû zû rast nebin. Rêvename OpenAI - Nimûneyek balkêş a vê yekê.

Ya duyemîn, ramana ku hûn dikarin pêvajoya biryargirtinê ya pergalên an rêxistinên heyî ceribandin û fêm bikin di teorîyê de baş e, lê di pratîkê de wusa ye. Fêmkirina çawa biryar di rêxistinek mezin de têne girtin ne hêsan e. Her çend pêvajoyek biryargirtinê ya fermî hebe jî, ew nîşan nade ku mirov bi rastî çawa bi hev re tevdigerin, û ew bi xwe jî pir caran ne xwediyê nêzîkbûnek mentiqî, bi rêkûpêk di girtina biryarên xwe de ne. Wekî ku hevkarê min got Vijay Pande, mirov jî qutiyên reş in.

Hezar kes di çend pargîdanî û saziyên lihevhatî de bigirin, û pirsgirêk hîn tevlihevtir dibe. Em piştî vê rastiyê dizanin ku Gerîla Fezayê ji bo vegerê ji hev biqete, û kesên di nav NASA de xwedî agahdarî bûn ku ji wan re sedem fikirîn ku dibe ku tiştek xirab biqewime, lê pergalê giştîve Min ev nizanîbû. NASA di heman demê de piştî ku gera xweya berê winda kir, tenê di vedîtinek bi vî rengî de derbas bû, lê dîsa jî ji ber sedemek pir dişibin ew yekî din winda kir. Hêsan e ku meriv nîqaş bike ku rêxistin û mirov rêgezên zelal, mentiqî yên ku dikarin bêne ceribandin, fêm kirin û guheztin dişopînin - lê ezmûn berevajî îsbat dike. ev"Xewna Gosplan".

Ez bi gelemperî fêrbûna makîneyê bi databasan re, nemaze yên pêwendiyê, berhev dikim - teknolojiyek bingehîn a nû ya ku kapasîteyên zanistiya komputerê û cîhana li dora wê guhezandiye, ku bûye beşek ji her tiştî, ku em bi domdarî bêyî ku em pê hay bibin bikar tînin. Pirsgirêkên databasan jî hene, û ew ji xwezayek wekhev in: dibe ku pergal li ser texmînên xirab an daneya xirab were çêkirin, lê dê dijwar be ku meriv pê bibîne, û kesên ku pergalê bikar tînin dê tiştê ku ji wan re bêje bêyî ku pirsan bikin bikin. Gelek henekên kevn hene li ser kesên bacê yên ku carekê navê we xelet nivîsandine, û qanihkirina wan ji bo rastkirina xeletiyê ji guheztina navê xwe pir dijwartir e. Gelek rê hene ku meriv li ser vê yekê bifikire, lê ne diyar e ka kîjan çêtir e: wekî pirsgirêkek teknîkî di SQL de, an wekî xeletiyek di serbestberdana Oracle de, an wekî têkçûna saziyên burokratîk? Di pêvajoyek ku bûye sedema nebûna taybetmendiya rastkirina tîpê ya pergalê de peydakirina xeletiyek çiqas dijwar e? Beriya ku mirov dest bi gilîkirinê bikin, gelo dikaribû ev yek were fêhm kirin?

Dema ku ajokar ji ber daneyên kevnar ên di navîgatorê de di çeman de diherikin, ev pirsgirêk bi çîrokan hê hêsantir tê destnîşan kirin. Baş e, pêdivî ye ku nexşe bi domdarî bêne nûve kirin. Lê TomTom çiqas sûcdar e ku gerîdeya we ber bi deryayê ve hat avêtin?

Sedema ku ez viya dibêjim ev e ku erê, pêşbaziya fêrbûna makîneyê dê pirsgirêkan biafirîne. Lê ev pirsgirêk dê dişibin yên ku em di paşerojê de pê re rû bi rû mane, û ew dikarin werin dîtin û çareser kirin (an na) wekî ku me berê karîbû. Ji ber vê yekê, senaryoyek ku tê de alikariya AI-ê zirarê dide, ne mimkûn e ku ji lêkolînerên payebilind ên ku di rêxistinek mezin de dixebitin çêbibe. Bi îhtimaleke mezin, hin peymankarê teknolojiyê an firoşkarê nermalavê yê ne girîng dê tiştek li ser çokên xwe binivîsin, bi karanîna hêmanên çavkaniya vekirî, pirtûkxane û amûrên ku ew jê fam nakin bikar bînin. Û xerîdarê bêbext dê di danasîna hilberê de peyva "îstîxbarata hunerî" bikire û, bêyî ku tu pirsan bipirse, wê li karmendên xwe yên kêm-drav belav bike, fermanê bide wan ku tiştê ku AI dibêje bikin. Tiştê ku bi databasan re qewimî ev e. Ev ne pirsgirêkek îstîxbarata sûnî, an jî pirsgirêkek nermalavê ye. Ev faktora mirovî ye.

encamê

Fêrbûna makîneyê dikare her tiştî bike ku hûn dikarin kûçikek hîn bikin - lê hûn çu carî nikanin pê bawer bin ku we bi rastî we kûçik hîn kir.

Ez bi gelemperî hest dikim ku têgîna "îstîxbarata hunerî" tenê rê li ber axaftinên bi vî rengî digire. Ev têgîn têgihiştina derewîn dide ku me bi rastî ew afirandiye - ev hişmendî. Ku em li ser rêya HAL9000 an Skynet in - tiştek ku bi rastî fêm dike. Lê na. Vana tenê makîne ne, û pir rasttir e ku meriv wan bi makîneyek şuştinê re bide berhev. Ew ji mirovan gelek çêtir cilşûştinê dike, lê heke hûn li şûna cilşûştinê firaqan têxin hundurê wê, ew... dê wan bişo. Dê firaq jî paqij bibin. Lê ev ê ne ya ku we hêvî dikir be, û ev ê nebe ji ber ku pergalê di derheqê xwarinan de pêşdaraziyek heye. Makîneya şuştinê nizane firax çi ne an cil û berg çi ne - ew tenê mînakek otomatê ye, ji hêla têgînî ve ji awayê otomatîkkirina pêvajoyên berê ne cûda ye.

Ka em behsa otomobîl, balafir, an databasan bikin, ev pergal dê hem pir bi hêz û hem jî pir kêm bin. Ew ê bi tevahî ve girêdayî bin ka mirov çawa van pergalan bikar tîne, gelo niyeta wan baş e an xirab in, û ew çiqas fêm dikin ka ew çawa dixebitin.

Ji ber vê yekê, mirov bibêje ku "îstîxbarata hunerî matematîk e, ji ber vê yekê nikare bibe xwedî alîgiran" bi tevahî derew e. Lê bi heman rengî derew e ku meriv bêje ku fêrbûna makîneyê "xwezayê subjektîf e". Fêrbûna makîneyê di daneyan de qalibên xwe dibîne, û ew çi qalibên ku dibîne bi daneyan ve girêdayî ye, û dane jî bi me ve girêdayî ye. Mîna ku em bi wan re dikin. Fêrbûna makîneyê hin tiştan ji me çêtir dike - lê kûçik, mînakî, di tespîtkirina narkotîkan de ji mirovan pir bi bandortir in, ku ev ne sedemek e ku meriv wan wekî şahid bikar bîne û li ser bingeha şahidiya wan dadbar bike. Û kûçik, bi awayê, ji her pergala fêrbûna makîneyê pir jîrtir in.

Werger: Diana Letskaya.
Verastkirin: Aleksey Ivanov.
Civatî: @PonchikNews.

Source: www.habr.com

Add a comment