Kuhusu Upendeleo wa Ujasusi wa Artificial

Kuhusu Upendeleo wa Ujasusi wa Artificial

tl; dr:

  • Kujifunza kwa mashine hutafuta ruwaza katika data. Lakini akili ya bandia inaweza "kupendelea" - yaani, kupata mifumo ambayo si sahihi. Kwa mfano, mfumo wa kugundua saratani ya ngozi unaotegemea picha unaweza kulipa kipaumbele maalum kwa picha zilizopigwa katika ofisi ya daktari. Kujifunza kwa mashine hakuwezi kuelewa: algoriti zake hutambua ruwaza katika nambari pekee, na ikiwa data si mwakilishi, ndivyo matokeo ya uchakataji wake yatakavyokuwa. Na kupata mende kama hizo inaweza kuwa ngumu kwa sababu ya ufundi wa mashine kujifunza.
  • Tatizo la wazi zaidi na la kutisha ni utofauti wa binadamu. Kuna sababu nyingi kwa nini data kuhusu watu inaweza kupoteza mwelekeo hata katika hatua ya ukusanyaji. Lakini usifikiri kwamba tatizo hili linaathiri watu tu: matatizo sawa hutokea wakati wa kujaribu kuchunguza mafuriko katika ghala au turbine ya gesi iliyoshindwa. Mifumo mingine inaweza kuwa na upendeleo kuelekea rangi ya ngozi, mingine itakuwa na upendeleo kuelekea sensorer za Siemens.
  • Shida kama hizo sio mpya kwa ujifunzaji wa mashine, na sio za kipekee kwake. Mawazo yasiyo sahihi yanafanywa katika muundo wowote mgumu, na kuelewa kwa nini uamuzi fulani ulifanywa daima ni vigumu. Tunahitaji kupambana na hili kwa njia ya kina: kuunda zana na michakato ya uthibitishaji - na kuwaelimisha watumiaji ili wasifuate mapendekezo ya AI bila upofu. Kujifunza kwa mashine hufanya baadhi ya mambo vizuri zaidi kuliko tunavyoweza - lakini mbwa, kwa mfano, ni bora zaidi kuliko wanadamu katika kugundua dawa, ambayo sio sababu ya kuzitumia kama mashahidi na kutoa hukumu kulingana na ushuhuda wao. Na mbwa, kwa njia, ni nadhifu zaidi kuliko mfumo wowote wa kujifunza mashine.

Kujifunza kwa mashine ni mojawapo ya mitindo muhimu ya kimsingi ya teknolojia leo. Hii ni mojawapo ya njia kuu ambazo teknolojia itabadilisha ulimwengu unaotuzunguka katika miaka kumi ijayo. Baadhi ya vipengele vya mabadiliko haya ni sababu ya wasiwasi. Kwa mfano, athari inayowezekana ya kujifunza kwa mashine kwenye soko la kazi, au matumizi yake kwa madhumuni yasiyo ya kimaadili (kwa mfano, na serikali za kimabavu). Kuna shida nyingine ambayo chapisho hili linashughulikia: upendeleo wa akili ya bandia.

Hii si hadithi rahisi.

Kuhusu Upendeleo wa Ujasusi wa Artificial
AI ya Google inaweza kupata paka. Habari hii kutoka 2012 ilikuwa kitu maalum wakati huo.

"AI Bias" ni nini?

"Data ghafi" ni oksimoroni na wazo mbaya; data lazima iandaliwe vizuri na kwa uangalifu. -Geoffrey Boker

Mahali fulani kabla ya 2013, ili kufanya mfumo ambao, sema, unatambua paka kwenye picha, ulipaswa kuelezea hatua za mantiki. Jinsi ya kupata pembe katika picha, kutambua macho, kuchambua textures kwa manyoya, kuhesabu paws, na kadhalika. Kisha weka vipengele vyote pamoja na ugundue kwamba haifanyi kazi kweli. Sana kama farasi wa mitambo - kinadharia inaweza kufanywa, lakini kwa mazoezi ni ngumu sana kuelezea. Matokeo ya mwisho ni mamia (au hata maelfu) ya sheria zilizoandikwa kwa mkono. Na sio mfano mmoja wa kufanya kazi.

Pamoja na ujio wa kujifunza kwa mashine, tuliacha kutumia sheria za "mwongozo" kwa kutambua kitu fulani. Badala yake, tunachukua sampuli elfu za "hii", X, sampuli elfu za "nyingine", Y, na kufanya kompyuta itengeneze muundo kulingana na uchanganuzi wao wa takwimu. Kisha tunaupa mfano huu baadhi ya data ya sampuli na huamua kwa usahihi fulani ikiwa inafaa mojawapo ya seti. Kujifunza kwa mashine hutoa kielelezo kutoka kwa data badala ya kutoka kwa mwanadamu kuiandika. Matokeo ni ya kuvutia, hasa katika nyanja ya utambuzi wa picha na muundo, na ndiyo maana sekta nzima ya teknolojia sasa inahamia kwenye kujifunza kwa mashine (ML).

Lakini si rahisi hivyo. Katika ulimwengu halisi, maelfu ya mifano yako ya X au Y pia ina A, B, J, L, O, R, na hata L. Hizi zinaweza zisisambazwe kwa usawa, na nyingine zinaweza kutokea mara kwa mara hivi kwamba mfumo utalipa zaidi. makini nao kuliko vitu vinavyokuvutia.

Hii ina maana gani katika mazoezi? Mfano wangu unaopenda ni wakati mifumo ya utambuzi wa picha angalia kilima chenye nyasi na useme, "kondoo". Ni wazi kwa nini: picha nyingi za "kondoo" huchukuliwa kwenye malisho wanamoishi, na katika picha hizi nyasi huchukua nafasi kubwa zaidi kuliko fluffs nyeupe, na ni nyasi ambayo mfumo huona kuwa muhimu zaidi. .

Kuna mifano nzito zaidi. Moja ya hivi karibuni mradi kwa kugundua saratani ya ngozi kwenye picha. Ilibadilika kuwa dermatologists mara nyingi hupiga picha ya mtawala pamoja na maonyesho ya saratani ya ngozi ili kurekodi ukubwa wa formations. Hakuna watawala katika picha za mfano za ngozi yenye afya. Kwa mfumo wa AI, watawala kama hao (kwa usahihi zaidi, saizi ambazo tunafafanua kuwa "mtawala") zimekuwa tofauti kati ya seti za mifano, na wakati mwingine ni muhimu zaidi kuliko upele mdogo kwenye ngozi. Kwa hivyo mfumo ulioundwa kutambua saratani ya ngozi wakati mwingine ulitambua watawala badala yake.

Jambo kuu hapa ni kwamba mfumo hauna uelewa wa kisemantiki wa kile kinachoangalia. Tunaangalia seti ya saizi na kuona ndani yao kondoo, ngozi au watawala, lakini mfumo ni mstari wa nambari tu. Yeye haoni nafasi ya pande tatu, haoni vitu, maumbo, au kondoo. Yeye huona tu ruwaza katika data.

Ugumu wa kutambua matatizo kama haya ni kwamba mtandao wa neva (mfano unaozalishwa na mfumo wako wa kujifunza wa mashine) una maelfu ya mamia ya maelfu ya nodi. Hakuna njia rahisi ya kuangalia mfano na kuona jinsi inavyofanya uamuzi. Kuwa na njia kama hiyo inamaanisha kuwa mchakato ni rahisi kutosha kuelezea sheria zote kwa mikono, bila kutumia kujifunza kwa mashine. Watu wana wasiwasi kwamba kujifunza kwa mashine imekuwa kitu cha sanduku nyeusi. (Nitaelezea baadaye kidogo kwa nini ulinganisho huu bado ni mwingi.)

Hili, kwa ujumla, ni tatizo la upendeleo katika akili bandia au kujifunza kwa mashine: mfumo wa kutafuta ruwaza katika data unaweza kupata ruwaza zisizo sahihi, na huenda usilitambue. Hii ni sifa ya kimsingi ya teknolojia, na ni dhahiri kwa kila mtu anayefanya kazi nayo katika taaluma na katika kampuni kubwa za teknolojia. Lakini matokeo yake ni magumu, na hivyo ni ufumbuzi wetu iwezekanavyo kwa matokeo hayo.

Tuzungumzie madhara kwanza.

Kuhusu Upendeleo wa Ujasusi wa Artificial
AI inaweza, kwa uwazi kwa ajili yetu, kufanya uchaguzi kwa ajili ya aina fulani za watu, kulingana na idadi kubwa ya ishara zisizoweza kuonekana.

Matukio ya Upendeleo wa AI

Zaidi ya wazi na ya kutisha, tatizo hili linaweza kujidhihirisha linapokuja suala la utofauti wa binadamu. Hivi majuzi kulikuwa na uvumikwamba Amazon ilijaribu kujenga mfumo wa kujifunza kwa mashine kwa ajili ya uchunguzi wa awali wa watahiniwa wa kazi. Kwa kuwa kuna wanaume zaidi kati ya wafanyikazi wa Amazon, mifano ya "kuajiri kwa mafanikio" pia mara nyingi ni wanaume, na kulikuwa na wanaume zaidi katika uteuzi wa wasifu uliopendekezwa na mfumo. Amazon iligundua hili na haikutoa mfumo katika uzalishaji.

Jambo muhimu zaidi katika mfano huu ni kwamba mfumo huo ulivumishwa kuwapendelea waombaji wa kiume, licha ya ukweli kwamba jinsia haikuainishwa kwenye wasifu. Mfumo huo uliona mifumo mingine katika mifano ya "ajira nzuri": kwa mfano, wanawake wanaweza kutumia maneno maalum kuelezea mafanikio, au kuwa na vitu maalum vya kufurahisha. Kwa kweli, mfumo haukujua "hoki" ni nini, au "watu" walikuwa nani, au "mafanikio" yalikuwa nini - ilifanya uchambuzi wa takwimu wa maandishi. Lakini mifumo aliyoona huenda isingetambuliwa na wanadamu, na baadhi yao (kwa mfano, ukweli kwamba watu wa jinsia tofauti huelezea mafanikio kwa njia tofauti) pengine ingekuwa vigumu kwetu kuona hata kama tungeiangalia.

Zaidi - mbaya zaidi. Mfumo wa kujifunza kwa mashine ambao ni mzuri sana katika kupata saratani kwenye ngozi iliyopauka unaweza usifanye vizuri kwenye ngozi nyeusi, au kinyume chake. Si lazima kwa sababu ya upendeleo, lakini kwa sababu labda unahitaji kujenga mfano tofauti kwa rangi tofauti ya ngozi, kuchagua sifa tofauti. Mifumo ya kujifunza ya mashine haiwezi kubadilishana hata katika eneo nyembamba kama utambuzi wa picha. Unahitaji kurekebisha mfumo, wakati mwingine kupitia jaribio na hitilafu, ili kupata ushughulikiaji mzuri wa vipengele kwenye data unayopenda hadi ufikie usahihi unaotaka. Lakini kile ambacho huwezi kutambua ni kwamba mfumo ni sahihi 98% ya muda na kundi moja, na 91% tu (hata sahihi zaidi kuliko uchambuzi wa binadamu) na nyingine.

Hadi sasa nimetumia hasa mifano inayohusiana na watu na tabia zao. Majadiliano kuhusu tatizo hili yanalenga zaidi mada hii. Lakini ni muhimu kuelewa kwamba upendeleo kwa watu ni sehemu tu ya tatizo. Tutatumia ujifunzaji kwa mashine kwa mambo mengi, na hitilafu ya sampuli itakuwa muhimu kwa yote. Kwa upande mwingine, ikiwa unafanya kazi na watu, upendeleo katika data unaweza kuwa hauhusiani nao.

Ili kuelewa hili, hebu turudi kwenye mfano wa saratani ya ngozi na fikiria uwezekano tatu wa dhahania wa kushindwa kwa mfumo.

  1. Usambazaji tofauti wa watu: idadi isiyo na usawa ya picha za rangi tofauti za ngozi, na kusababisha chanya za uwongo au hasi za uwongo kwa sababu ya rangi.
  2. Data ambayo mfumo huu unafunzwa ina kipengele kinachotokea mara kwa mara na kusambazwa kwa wingi ambacho hakihusiani na watu na hakina thamani ya uchunguzi: rula katika picha za saratani ya ngozi au nyasi kwenye picha za kondoo. Katika kesi hii, matokeo yatakuwa tofauti ikiwa mfumo hupata saizi katika picha ya kitu ambacho jicho la mwanadamu linatambua kuwa "mtawala".
  3. Data ina sifa ya mtu wa tatu ambayo mtu hawezi kuona hata kama anaitafuta.

Ina maana gani? Tunajua kipaumbele kwamba data inaweza kuwakilisha vikundi tofauti vya watu kwa njia tofauti, na kwa uchache tunaweza kupanga kutafuta vighairi kama hivyo. Kwa maneno mengine, kuna sababu nyingi za kijamii za kudhani kuwa data kuhusu vikundi vya watu tayari ina upendeleo fulani. Ikiwa tunatazama picha na mtawala, tutaona mtawala huyu - tulipuuza tu hapo awali, tukijua kwamba haijalishi, na kusahau kwamba mfumo haujui chochote.

Lakini vipi ikiwa picha zako zote za ngozi zisizo na afya zilichukuliwa katika ofisi chini ya mwanga wa incandescent, na ngozi yako yenye afya ilichukuliwa chini ya mwanga wa fluorescent? Je, ikiwa, baada ya kumaliza kupiga ngozi yenye afya, kabla ya kupiga ngozi isiyofaa, ulisasisha mfumo wa uendeshaji kwenye simu yako, na Apple au Google ilibadilisha kidogo algorithm ya kupunguza kelele? Mtu hawezi kutambua hili, bila kujali ni kiasi gani anatafuta vipengele vile. Lakini mfumo wa kutumia mashine utaona mara moja na kutumia hii. Yeye hajui chochote.

Kufikia sasa tumezungumza kuhusu uunganisho wa uwongo, lakini pia inaweza kuwa kwamba data ni sahihi na matokeo ni sahihi, lakini hutaki kuzitumia kwa sababu za kimaadili, kisheria au za usimamizi. Baadhi ya mamlaka, kwa mfano, haziruhusu wanawake kupokea punguzo la bima yao, ingawa wanawake wanaweza kuwa madereva salama zaidi. Tunaweza kufikiria kwa urahisi mfumo ambao, wakati wa kuchambua data ya kihistoria, ungeweka sababu ndogo ya hatari kwa majina ya kike. Sawa, hebu tuondoe majina kutoka kwa uteuzi. Lakini kumbuka mfano wa Amazon: mfumo unaweza kuamua jinsia kulingana na mambo mengine (ingawa haujui jinsia ni nini, au hata gari ni nini), na hutagundua hili hadi mdhibiti atakapochambua ushuru unaorudiwa. ofa na ada utatozwa faini.

Hatimaye, mara nyingi inachukuliwa kuwa tutatumia tu mifumo kama hii kwa miradi inayohusisha watu na mwingiliano wa kijamii. Hii si sahihi. Ukitengeneza mitambo ya gesi, pengine utataka kutumia mafunzo ya mashine kwenye telemetry inayopitishwa na makumi au mamia ya vitambuzi kwenye bidhaa yako (sauti, video, halijoto na vihisi vingine vyovyote hutoa data ambayo inaweza kubadilishwa kwa urahisi sana kuunda mashine. mfano wa kujifunza). Kwa dhahania, unaweza kusema, "Hapa kuna data kutoka kwa turbines elfu ambazo zilishindwa kabla hazijafaulu, na hapa kuna data kutoka kwa turbine elfu ambazo hazikushindwa. Jenga kielelezo cha kusema ni tofauti gani kati yao." Naam, sasa fikiria kwamba sensorer za Siemens zimewekwa kwenye 75% ya turbines mbaya, na 12% tu ya nzuri (hakuna uhusiano na kushindwa). Mfumo utaunda mfano wa kupata turbines na sensorer za Nokia. Lo!

Kuhusu Upendeleo wa Ujasusi wa Artificial
Picha - Moritz Hardt, UC Berkeley

Kusimamia Upendeleo wa AI

Je, tunaweza kufanya nini kuhusu hilo? Unaweza kushughulikia suala hilo kutoka pembe tatu:

  1. Ukali wa mbinu katika kukusanya na kusimamia data kwa ajili ya mafunzo ya mfumo.
  2. Zana za kiufundi za kuchambua na kugundua tabia ya mfano.
  3. Funza, elimisha na uwe mwangalifu unapotekeleza mafunzo ya mashine kwenye bidhaa.

Kuna mzaha katika kitabu cha Molière "The Bourgeois in the Nobility": mtu mmoja aliambiwa kwamba fasihi imegawanywa katika prose na mashairi, na alifurahi kugundua kwamba alikuwa akizungumza kwa prose maisha yake yote, bila kujua. Hivi ndivyo wanatakwimu wanavyohisi leo: bila kutambua, wamejitolea kazi zao kwa akili ya bandia na makosa ya sampuli. Kutafuta kosa la sampuli na kuwa na wasiwasi juu yake sio shida mpya, tunahitaji tu kushughulikia suluhisho lake kwa utaratibu. Kama ilivyotajwa hapo juu, katika hali zingine ni rahisi kufanya hivyo kwa kusoma shida zinazohusiana na data ya watu. Sisi a priori kudhani kwamba tunaweza kuwa na chuki kuhusu makundi mbalimbali ya watu, lakini ni vigumu kwetu hata kufikiria chuki kuhusu Siemens sensorer.

Nini kipya kuhusu haya yote, bila shaka, ni kwamba watu hawafanyi tena uchambuzi wa takwimu moja kwa moja. Inafanywa na mashine zinazounda mifano kubwa, ngumu ambayo ni ngumu kuelewa. Suala la uwazi ni mojawapo ya mambo makuu ya tatizo la upendeleo. Tunaogopa kwamba mfumo hauegemei upande wowote, lakini hakuna njia ya kugundua upendeleo wake, na kwamba kujifunza kwa mashine ni tofauti na aina zingine za uwekaji otomatiki, ambazo zinapaswa kujumuisha hatua wazi za kimantiki ambazo zinaweza kujaribiwa.

Kuna matatizo mawili hapa. Bado tunaweza kufanya ukaguzi wa aina fulani wa mifumo ya kujifunza ya mashine. Na kukagua mfumo mwingine wowote sio rahisi.

Kwanza, mojawapo ya mwelekeo wa utafiti wa kisasa katika uwanja wa kujifunza kwa mashine ni utafutaji wa mbinu za kutambua utendaji muhimu wa mifumo ya kujifunza mashine. Hiyo ilisema, kujifunza kwa mashine (katika hali yake ya sasa) ni uwanja mpya kabisa wa sayansi ambao unabadilika haraka, kwa hivyo usifikirie kuwa mambo ambayo hayawezekani leo hayawezi kuwa halisi hivi karibuni. Mradi OpenAI - mfano wa kuvutia wa hili.

Pili, wazo kwamba unaweza kupima na kuelewa mchakato wa kufanya maamuzi ya mifumo iliyopo au mashirika ni nzuri katika nadharia, lakini hivyo-hivyo katika mazoezi. Kuelewa jinsi maamuzi hufanywa katika shirika kubwa si rahisi. Hata kama kuna mchakato rasmi wa kufanya maamuzi, hauakisi jinsi watu wanavyoingiliana, na wao wenyewe mara nyingi hawana njia ya kimantiki na ya kimfumo ya kufanya maamuzi yao. Kama mwenzangu alivyosema Vijay Pande, watu pia ni masanduku nyeusi.

Chukua watu elfu katika kampuni na taasisi kadhaa zinazoingiliana, na shida inakuwa ngumu zaidi. Tunajua baada ya ukweli kwamba Space Shuttle ilikusudiwa kuvunjika wakati wa kurudi, na watu binafsi ndani ya NASA walikuwa na habari ambayo iliwapa sababu ya kufikiria kitu kibaya kinaweza kutokea, lakini mfumo. kwa ujumla Sikujua hili. NASA hata ilipitisha ukaguzi kama huo baada ya kupoteza shuttle yake ya awali, na bado ilipoteza mwingine kwa sababu sawa. Ni rahisi kubishana kuwa mashirika na watu hufuata sheria zilizo wazi na zenye mantiki zinazoweza kujaribiwa, kueleweka na kubadilishwa—lakini uzoefu unathibitisha vinginevyo. Hii"Udanganyifu wa Gosplan'.

Mara nyingi mimi hulinganisha kujifunza kwa mashine na hifadhidata, haswa zile za uhusiano - teknolojia mpya ya kimsingi ambayo imebadilisha uwezo wa sayansi ya kompyuta na ulimwengu unaoizunguka, ambayo imekuwa sehemu ya kila kitu, ambayo tunatumia kila wakati bila kujua. Hifadhidata pia zina shida, na zina asili sawa: mfumo unaweza kujengwa kwa mawazo mabaya au data mbaya, lakini itakuwa ngumu kugundua, na watu wanaotumia mfumo watafanya kile inachowaambia bila kuuliza maswali. Kuna utani mwingi wa zamani kuhusu watu wa ushuru ambao mara moja waliandika jina lako vibaya, na kuwashawishi kusahihisha kosa ni ngumu zaidi kuliko kubadilisha jina lako. Kuna njia nyingi za kufikiria juu ya hili, lakini haijulikani ni ipi iliyo bora zaidi: kama shida ya kiufundi katika SQL, au kama hitilafu katika toleo la Oracle, au kama kushindwa kwa taasisi za urasimu? Je, ni vigumu kiasi gani kupata hitilafu katika mchakato ambao umesababisha mfumo kutokuwa na kipengele cha kusahihisha chapa? Je, hili lingeweza kufikiriwa kabla ya watu kuanza kulalamika?

Tatizo hili linaonyeshwa hata zaidi kwa urahisi na hadithi wakati madereva wanaendesha gari kwenye mito kwa sababu ya data ya zamani katika navigator. Sawa, ramani zinahitaji kusasishwa kila mara. Lakini TomTom anapaswa kulaumiwa kiasi gani kwa gari lako kupeperushwa baharini?

Sababu ninasema hivi ni kwamba ndio, upendeleo wa kujifunza kwa mashine utaleta shida. Lakini matatizo haya yatakuwa sawa na yale ambayo tumekabiliana nayo hapo awali, na yanaweza kutambuliwa na kutatuliwa (au la) kuhusu vile vile tumeweza kufanya hapo awali. Kwa hivyo, hali ambayo upendeleo wa AI husababisha madhara hauwezekani kutokea kwa watafiti wakuu wanaofanya kazi katika shirika kubwa. Uwezekano mkubwa zaidi, mkandarasi fulani wa teknolojia asiye na maana au muuzaji wa programu ataandika kitu kwenye magoti yao, kwa kutumia vipengele vya chanzo wazi, maktaba na zana ambazo hazielewi. Na mteja asiye na bahati atanunua kifungu "akili ya bandia" katika maelezo ya bidhaa na, bila kuuliza maswali yoyote, atasambaza kwa wafanyikazi wake wanaolipwa kidogo, akiwaamuru kufanya kile AI inasema. Hivi ndivyo ilivyotokea na hifadhidata. Hili si tatizo la akili bandia, au hata tatizo la programu. Hii ndio sababu ya kibinadamu.

Hitimisho

Kujifunza kwa mashine kunaweza kufanya chochote unachoweza kumfundisha mbwa-lakini huwezi kuwa na uhakika ni nini hasa ulimfunza mbwa.

Mara nyingi mimi huhisi kama neno "akili ya bandia" huingia tu katika njia ya mazungumzo kama haya. Neno hili linatoa taswira ya uwongo kwamba tuliiunda - akili hii. Kwamba tuko njiani kuelekea HAL9000 au Skynet - kitu ambacho hakika anaelewa. Lakini hapana. Hizi ni mashine tu, na ni sahihi zaidi kuzilinganisha na, sema, mashine ya kuosha. Anafua nguo vizuri zaidi kuliko binadamu, lakini ukimwekea vyombo badala ya kufulia, ataziosha. Sahani zitakuwa safi hata. Lakini hii haitakuwa vile ulivyotarajia, na hii haitatokea kwa sababu mfumo una ubaguzi wowote kuhusu sahani. Mashine ya kuosha haijui ni sahani gani au nguo ni nini - ni mfano tu wa otomatiki, kwa kweli hakuna tofauti na jinsi michakato ilivyokuwa kiotomatiki hapo awali.

Iwe tunazungumza kuhusu magari, ndege, au hifadhidata, mifumo hii itakuwa na nguvu sana na yenye mipaka. Watategemea kabisa jinsi watu wanavyotumia mifumo hii, ikiwa nia yao ni nzuri au mbaya, na ni kwa kiasi gani wanaelewa jinsi inavyofanya kazi.

Kwa hiyo, kusema kwamba "akili ya bandia ni hisabati, hivyo haiwezi kuwa na upendeleo" ni uongo kabisa. Lakini ni uwongo vile vile kusema kwamba kujifunza kwa mashine ni "chini ya asili." Kujifunza kwa mashine hupata ruwaza katika data, na mifumo inayopata inategemea data, na data inategemea sisi. Kama vile tunavyofanya nao. Kujifunza kwa mashine hufanya baadhi ya mambo vizuri zaidi kuliko tunavyoweza - lakini mbwa, kwa mfano, ni bora zaidi kuliko wanadamu katika kugundua dawa, ambayo sio sababu ya kuzitumia kama mashahidi na kutoa hukumu kulingana na ushuhuda wao. Na mbwa, kwa njia, ni nadhifu zaidi kuliko mfumo wowote wa kujifunza mashine.

Tafsiri: Diana Letskaya.
Kuhariri: Aleksey Ivanov.
Jamii: @PonchikNews.

Chanzo: mapenzi.com

Kuongeza maoni