Tungkol sa Artificial Intelligence Bias

Tungkol sa Artificial Intelligence Bias

tl; dr:

  • Ang machine learning ay naghahanap ng mga pattern sa data. Ngunit ang artificial intelligence ay maaaring "biased"—iyon ay, maghanap ng mga pattern na mali. Halimbawa, maaaring bigyang-pansin ng isang photo-based na skin cancer detection system ang mga larawang kinunan sa opisina ng doktor. Hindi pwede ang machine learning upang maunawaan: ang mga algorithm nito ay tumutukoy lamang ng mga pattern sa mga numero, at kung ang data ay hindi kinatawan, gayon din ang resulta ng pagproseso nito. At ang paghuli sa mga naturang bug ay maaaring maging mahirap dahil sa mismong mga mekanika ng machine learning.
  • Ang pinaka-halata at nakakatakot na lugar ng problema ay ang pagkakaiba-iba ng tao. Maraming dahilan kung bakit maaaring mawalan ng objectivity ang data tungkol sa mga tao kahit na sa yugto ng pagkolekta. Ngunit huwag isipin na ang problemang ito ay nakakaapekto lamang sa mga tao: ang eksaktong parehong mga paghihirap ay lumitaw kapag sinusubukang makita ang isang baha sa isang bodega o isang nabigong gas turbine. Ang ilang mga sistema ay maaaring maging bias sa kulay ng balat, ang iba ay magiging bias sa mga sensor ng Siemens.
  • Ang mga ganitong problema ay hindi bago sa machine learning, at malayo ang mga ito sa kakaiba dito. Ang mga maling pagpapalagay ay ginawa sa anumang kumplikadong istraktura, at ang pag-unawa kung bakit ginawa ang isang partikular na desisyon ay palaging mahirap. Kailangan nating labanan ito sa isang komprehensibong paraan: lumikha ng mga tool at proseso para sa pag-verify - at turuan ang mga user upang hindi sila bulag na sumunod sa mga rekomendasyon ng AI. Nagagawa ng machine learning ang ilang bagay na mas mahusay kaysa sa magagawa natin - ngunit ang mga aso, halimbawa, ay mas epektibo kaysa sa mga tao sa pagtuklas ng mga droga, na hindi isang dahilan upang gamitin ang mga ito bilang mga saksi at gumawa ng mga paghatol batay sa kanilang patotoo. At ang mga aso, sa pamamagitan ng paraan, ay mas matalino kaysa sa anumang machine learning system.

Ang machine learning ay isa sa pinakamahalagang pangunahing trend ng teknolohiya ngayon. Isa ito sa mga pangunahing paraan kung saan babaguhin ng teknolohiya ang mundo sa ating paligid sa susunod na dekada. Ang ilang aspeto ng mga pagbabagong ito ay dahilan ng pag-aalala. Halimbawa, ang potensyal na epekto ng machine learning sa labor market, o ang paggamit nito para sa hindi etikal na layunin (halimbawa, ng mga awtoritaryan na rehimen). May isa pang problema na tinutugunan ng post na ito: bias ng artificial intelligence.

Ito ay hindi isang madaling kuwento.

Tungkol sa Artificial Intelligence Bias
Ang AI ng Google ay makakahanap ng mga pusa. Ang balitang ito mula 2012 ay isang espesyal na bagay noon.

Ano ang "AI Bias"?

Ang "raw data" ay parehong oxymoron at isang masamang ideya; kailangang ihanda nang mabuti at maingat ang mga datos. —Geoffrey Boker

Sa isang lugar bago ang 2013, upang makagawa ng isang sistema na, sabihin nating, kinikilala ang mga pusa sa mga litrato, kailangan mong ilarawan ang mga lohikal na hakbang. Paano makahanap ng mga sulok sa isang imahe, kilalanin ang mga mata, pag-aralan ang mga texture para sa balahibo, bilangin ang mga paa, at iba pa. Pagkatapos ay pagsamahin ang lahat ng mga bahagi at tuklasin na hindi talaga ito gumagana. Katulad ng isang mekanikal na kabayo - sa teoryang ito ay maaaring gawin, ngunit sa pagsasagawa ito ay masyadong kumplikado upang ilarawan. Ang resulta ay daan-daang (o kahit libu-libo) ng mga panuntunang nakasulat-kamay. At hindi isang solong gumaganang modelo.

Sa pagdating ng machine learning, huminto kami sa paggamit ng "manual" na mga panuntunan para sa pagkilala sa isang partikular na bagay. Sa halip, kumukuha kami ng isang libong sample ng "ito", X, isang libong sample ng "iba pa", Y, at pinapagawa ang computer ng isang modelo batay sa kanilang istatistikal na pagsusuri. Pagkatapos ay binibigyan namin ang modelong ito ng ilang sample na data at tinutukoy nito nang may katumpakan kung umaangkop ito sa isa sa mga set. Ang machine learning ay bumubuo ng isang modelo mula sa data sa halip na mula sa isang tao na sumulat nito. Ang mga resulta ay kahanga-hanga, lalo na sa larangan ng pagkilala sa imahe at pattern, at iyon ang dahilan kung bakit ang buong industriya ng tech ay lumilipat na ngayon sa machine learning (ML).

Ngunit hindi ito ganoon kasimple. Sa totoong mundo, ang iyong libu-libong halimbawa ng X o Y ay naglalaman din ng A, B, J, L, O, R, at kahit L. Maaaring hindi pantay-pantay ang mga ito, at ang ilan ay maaaring mangyari nang napakadalas na ang system ay magbabayad ng higit pa pansin sa kanila kaysa sa mga bagay na interesado ka.

Ano ang ibig sabihin nito sa pagsasanay? Ang aking paboritong halimbawa ay kapag ang mga sistema ng pagkilala ng imahe tumingin sa isang madaming burol at sabihin, "tupa". Malinaw kung bakit: karamihan sa mga halimbawang larawan ng "tupa" ay kinukuha sa parang kung saan sila nakatira, at sa mga larawang ito ang damo ay kumukuha ng mas maraming espasyo kaysa sa maliliit na puting fluffs, at ito ang damo na itinuturing ng system na pinakamahalaga. .

Mayroong mas seryosong mga halimbawa. Isang kamakailan lang proyekto para sa pagtuklas ng kanser sa balat sa mga litrato. Ito ay lumabas na ang mga dermatologist ay madalas na kunan ng larawan ang pinuno kasama ang mga pagpapakita ng kanser sa balat upang maitala ang laki ng mga pormasyon. Walang mga pinuno sa mga halimbawang larawan ng malusog na balat. Para sa isang AI system, ang mga naturang ruler (mas tiyak, ang mga pixel na tinukoy namin bilang isang "ruler") ay naging isa sa mga pagkakaiba sa pagitan ng mga hanay ng mga halimbawa, at kung minsan ay mas mahalaga kaysa sa isang maliit na pantal sa balat. Kaya isang sistema na nilikha upang matukoy ang kanser sa balat kung minsan ay kinikilala ang mga pinuno sa halip.

Ang pangunahing punto dito ay ang sistema ay walang semantikong pag-unawa sa kung ano ang tinitingnan nito. Tinitingnan namin ang isang hanay ng mga pixel at nakikita sa kanila ang isang tupa, balat o mga pinuno, ngunit ang sistema ay isang linya ng numero lamang. Hindi siya nakakakita ng three-dimensional na espasyo, hindi nakakakita ng mga bagay, texture, o tupa. Nakikita lang niya ang mga pattern sa data.

Ang kahirapan sa pag-diagnose ng mga ganitong problema ay ang neural network (ang modelong nabuo ng iyong machine learning system) ay binubuo ng libu-libong daan-daang libong node. Walang madaling paraan upang tingnan ang isang modelo at makita kung paano ito gumagawa ng desisyon. Ang pagkakaroon ng ganoong paraan ay nangangahulugan na ang proseso ay sapat na simple upang ilarawan ang lahat ng mga panuntunan nang manu-mano, nang hindi gumagamit ng machine learning. Nag-aalala ang mga tao na ang pag-aaral ng makina ay naging isang itim na kahon. (Ipapaliwanag ko sa ibang pagkakataon kung bakit napakarami pa rin ng paghahambing na ito.)

Ito, sa mga pangkalahatang termino, ay ang problema ng bias sa artificial intelligence o machine learning: ang isang sistema para sa paghahanap ng mga pattern sa data ay maaaring makahanap ng mga maling pattern, at maaaring hindi mo ito mapansin. Ito ay isang pangunahing katangian ng teknolohiya, at ito ay kitang-kita sa lahat na nagtatrabaho dito sa akademya at sa malalaking kumpanya ng teknolohiya. Ngunit ang mga kahihinatnan nito ay kumplikado, at gayundin ang ating mga posibleng solusyon sa mga kahihinatnan na iyon.

Pag-usapan muna natin ang kahihinatnan.

Tungkol sa Artificial Intelligence Bias
Ang AI ay maaaring, nang tahasang para sa amin, ay gumawa ng isang pagpipilian pabor sa ilang mga kategorya ng mga tao, batay sa isang malaking bilang ng mga hindi mahahalata na signal

AI Bias Scenario

Ang pinaka-malinaw at nakakatakot, ang problemang ito ay maaaring magpakita mismo pagdating sa pagkakaiba-iba ng tao. Kamakailan lang nagkaroon ng tsismisna sinubukan ng Amazon na bumuo ng isang machine learning system para sa paunang screening ng mga kandidato sa trabaho. Dahil mas maraming lalaki sa mga manggagawa sa Amazon, ang mga halimbawa ng "matagumpay na pag-hire" ay mas madalas na mga lalaki, at mas maraming lalaki sa pagpili ng mga resume na iminungkahi ng system. Napansin ito ng Amazon at hindi inilabas ang system sa produksyon.

Ang pinakamahalagang bagay sa halimbawang ito ay ang sistema ay napabalitang pabor sa mga lalaking aplikante, sa kabila ng katotohanan na ang kasarian ay hindi tinukoy sa resume. Nakita ng system ang iba pang mga pattern sa mga halimbawa ng "magandang empleyado": halimbawa, maaaring gumamit ang mga babae ng mga espesyal na salita upang ilarawan ang mga nagawa, o magkaroon ng mga espesyal na libangan. Siyempre, hindi alam ng system kung ano ang "hockey", o kung sino ang "mga tao", o kung ano ang "tagumpay" - nagsagawa lamang ito ng istatistikal na pagsusuri ng teksto. Ngunit ang mga pattern na nakita niya ay malamang na hindi napapansin ng mga tao, at ang ilan sa mga ito (halimbawa, ang katotohanan na ang mga tao ng iba't ibang kasarian ay naglalarawan ng tagumpay nang iba) ay malamang na mahirap para sa atin na makita kahit na tingnan natin sila.

Dagdag pa - mas masahol pa. Ang isang machine learning system na napakahusay sa paghahanap ng cancer sa maputlang balat ay maaaring hindi gumanap nang maayos sa maitim na balat, o vice versa. Hindi kinakailangan dahil sa bias, ngunit dahil malamang na kailangan mong bumuo ng isang hiwalay na modelo para sa ibang kulay ng balat, pagpili ng iba't ibang mga katangian. Ang mga machine learning system ay hindi mapapalitan kahit na sa isang makitid na lugar gaya ng pagkilala sa imahe. Kailangan mong i-tweak ang system, kung minsan sa pamamagitan lamang ng pagsubok at error, upang makakuha ng mahusay na paghawak sa mga feature sa data na interesado ka hanggang sa makamit mo ang katumpakan na gusto mo. Ngunit ang hindi mo maaaring mapansin ay ang sistema ay tumpak sa 98% ng oras sa isang grupo, at 91% lamang (mas tumpak kaysa sa pagsusuri ng tao) sa isa pa.

Sa ngayon ginagamit ko ang pangunahing mga halimbawa na may kaugnayan sa mga tao at kanilang mga katangian. Ang talakayan sa paligid ng problemang ito ay pangunahing nakatuon sa paksang ito. Ngunit mahalagang maunawaan na ang pagkiling sa mga tao ay bahagi lamang ng problema. Gagamitin namin ang machine learning para sa maraming bagay, at ang sampling error ay magiging may-katuturan sa lahat ng ito. Sa kabilang banda, kung nakikipagtulungan ka sa mga tao, ang bias sa data ay maaaring hindi nauugnay sa kanila.

Upang maunawaan ito, bumalik tayo sa halimbawa ng kanser sa balat at isaalang-alang ang tatlong hypothetical na posibilidad para sa pagkabigo ng system.

  1. Heterogenous distribution ng mga tao: isang hindi balanseng bilang ng mga larawan ng iba't ibang kulay ng balat, na humahantong sa mga maling positibo o maling negatibo dahil sa pigmentation.
  2. Ang data kung saan sinanay ang system ay naglalaman ng isang madalas na nagaganap at magkakaibang namamahagi na tampok na hindi nauugnay sa mga tao at walang diagnostic na halaga: isang pinuno sa mga larawan ng kanser sa balat o damo sa mga larawan ng mga tupa. Sa kasong ito, mag-iiba ang resulta kung makakahanap ang system ng mga pixel sa larawan ng isang bagay na kinikilala ng mata ng tao bilang isang "pinuno".
  3. Ang data ay naglalaman ng isang third-party na katangian na hindi nakikita ng isang tao kahit na hinahanap niya ito.

Ano ang ibig sabihin nito? Alam namin ang isang priori na ang data ay maaaring kumatawan sa iba't ibang mga grupo ng mga tao sa iba't ibang paraan, at sa pinakamababa ay maaari naming planuhin na hanapin ang mga naturang pagbubukod. Sa madaling salita, maraming panlipunang dahilan upang ipagpalagay na ang data tungkol sa mga grupo ng mga tao ay naglalaman na ng ilang bias. Kung titingnan natin ang larawan kasama ang pinuno, makikita natin ang pinuno na ito - binalewala lang natin ito noon, alam na hindi ito mahalaga, at nalilimutan na ang sistema ay walang alam.

Ngunit paano kung ang lahat ng iyong mga larawan ng hindi malusog na balat ay kinuha sa isang opisina sa ilalim ng maliwanag na ilaw, at ang iyong malusog na balat ay kinuha sa ilalim ng fluorescent na ilaw? Paano kung, pagkatapos mong mag-shoot ng malusog na balat, bago mag-shoot ng hindi malusog na balat, na-update mo ang operating system sa iyong telepono, at bahagyang binago ng Apple o Google ang algorithm ng pagbabawas ng ingay? Hindi ito mapapansin ng isang tao, gaano man niya ito hinahanap. Ngunit agad itong makikita at gagamitin ng sistema ng paggamit ng makina. Wala siyang alam.

Sa ngayon ay napag-usapan na natin ang tungkol sa mga huwad na ugnayan, ngunit maaari ring tumpak ang data at tama ang mga resulta, ngunit hindi mo gustong gamitin ang mga ito para sa etikal, legal, o mga kadahilanang pang-pangasiwaan. Ang ilang mga hurisdiksyon, halimbawa, ay hindi nagpapahintulot sa mga kababaihan na makatanggap ng diskwento sa kanilang insurance, kahit na ang mga babae ay maaaring mas ligtas na mga driver. Madali nating maiisip ang isang sistema na, kapag sinusuri ang makasaysayang data, ay magtatalaga ng mas mababang kadahilanan ng panganib sa mga pangalan ng babae. Okay, tanggalin natin ang mga pangalan sa seleksyon. Ngunit tandaan ang halimbawa sa Amazon: maaaring matukoy ng system ang kasarian batay sa iba pang mga salik (kahit na hindi nito alam kung ano ang kasarian, o kahit na kung ano ang isang kotse), at hindi mo ito mapapansin hanggang sa muling pag-aaralan ng regulator ang mga taripa na gagawin mo. alok at singilin ka pagmumultahin ka.

Sa wakas, madalas na ipinapalagay na gagamitin lang namin ang mga ganitong sistema para sa mga proyektong may kinalaman sa mga tao at mga pakikipag-ugnayan sa lipunan. Mali ito. Kung gagawa ka ng mga gas turbine, malamang na gugustuhin mong ilapat ang machine learning sa telemetry na ipinadala ng sampu o daan-daang sensor sa iyong produkto (audio, video, temperatura, at anumang iba pang sensor ay bumubuo ng data na napakadaling iakma upang lumikha ng makina modelo ng pag-aaral). Hypothetically, maaari mong sabihin, "Narito ang data mula sa isang libong turbine na nabigo bago sila nabigo, at narito ang data mula sa isang libong turbine na hindi nabigo. Bumuo ng isang modelo upang sabihin kung ano ang pagkakaiba sa pagitan nila." Kaya, ngayon isipin na ang mga sensor ng Siemens ay naka-install sa 75% ng mga masamang turbine, at 12% lamang ng mga mahusay (walang koneksyon sa mga pagkabigo). Ang system ay bubuo ng isang modelo upang makahanap ng mga turbine na may mga sensor ng Siemens. Oops!

Tungkol sa Artificial Intelligence Bias
Larawan — Moritz Hardt, UC Berkeley

Pamamahala ng AI Bias

Ano ang maaari nating gawin tungkol dito? Maaari mong lapitan ang isyu mula sa tatlong anggulo:

  1. Metodolohikal na hirap sa pagkolekta at pamamahala ng data para sa pagsasanay sa system.
  2. Mga teknikal na tool para sa pagsusuri at pag-diagnose ng gawi ng modelo.
  3. Sanayin, turuan, at maging maingat kapag nagpapatupad ng machine learning sa mga produkto.

May isang biro sa aklat ni Molière na "The Bourgeois in the Nobility": isang tao ang sinabihan na ang panitikan ay nahahati sa prosa at tula, at natutuwa siyang matuklasan na siya ay nagsasalita sa tuluyan sa buong buhay niya, nang hindi niya nalalaman. Ito marahil ang nararamdaman ng mga istatistika ngayon: nang hindi namamalayan, inilaan nila ang kanilang mga karera sa artificial intelligence at sampling error. Ang paghahanap para sa sampling error at pag-aalala tungkol dito ay hindi isang bagong problema, kailangan lang nating sistematikong lumapit sa solusyon nito. Tulad ng nabanggit sa itaas, sa ilang mga kaso, mas madaling gawin ito sa pamamagitan ng pag-aaral ng mga problemang nauugnay sa data ng mga tao. Ipinapalagay namin na maaari kaming magkaroon ng mga pagkiling tungkol sa iba't ibang grupo ng mga tao, ngunit mahirap para sa amin na isipin ang isang pagkiling tungkol sa mga sensor ng Siemens.

Ang bago sa lahat ng ito, siyempre, ay hindi na direktang gumagawa ng istatistikal na pagsusuri ang mga tao. Isinasagawa ito ng mga makina na lumilikha ng malalaki, kumplikadong mga modelo na mahirap maunawaan. Ang isyu ng transparency ay isa sa mga pangunahing aspeto ng problema ng bias. Natatakot kami na ang system ay hindi lamang bias, ngunit walang paraan upang makita ang bias nito, at ang machine learning ay iba sa iba pang mga anyo ng automation, na dapat ay binubuo ng malinaw na lohikal na mga hakbang na maaaring masuri.

May dalawang problema dito. Maaari pa rin kaming magsagawa ng ilang uri ng pag-audit ng mga machine learning system. At ang pag-audit sa anumang iba pang sistema ay talagang hindi madali.

Una, ang isa sa mga direksyon ng modernong pananaliksik sa larangan ng machine learning ay ang paghahanap ng mga pamamaraan para matukoy ang mahalagang functionality ng machine learning system. Iyon ay sinabi, ang pag-aaral ng makina (sa kasalukuyang estado nito) ay isang ganap na bagong larangan ng agham na mabilis na nagbabago, kaya huwag isipin na ang mga bagay na imposible ngayon ay hindi maaaring maging ganap na totoo. Proyekto OpenAI - isang kawili-wiling halimbawa nito.

Pangalawa, ang ideya na masusubok at mauunawaan ng isang tao ang proseso ng paggawa ng desisyon ng mga umiiral nang system o organisasyon ay maganda sa teorya, ngunit sa praktika. Ang pag-unawa kung paano ginagawa ang mga desisyon sa isang malaking organisasyon ay hindi madali. Kahit na mayroong isang pormal na proseso ng paggawa ng desisyon, hindi ito nagpapakita kung paano aktwal na nakikipag-ugnayan ang mga tao, at sila mismo ay madalas na walang lohikal, sistematikong diskarte sa paggawa ng kanilang mga desisyon. Gaya ng sabi ng kasamahan ko Vijay Pande, mga black box din ang mga tao.

Kumuha ng isang libong tao sa ilang magkakapatong na kumpanya at institusyon, at ang problema ay nagiging mas kumplikado. Alam namin pagkatapos ng katotohanan na ang Space Shuttle ay nakatakdang maghiwalay sa pagbabalik, at ang mga indibidwal sa loob ng NASA ay may impormasyon na nagbigay sa kanila ng dahilan para isipin na may masamang mangyari, ngunit ang system sa pangkalahatan Hindi ko alam ito. Ang NASA ay dumaan pa lang sa isang katulad na pag-audit matapos mawala ang dati nitong shuttle, ngunit nawalan pa ito ng isa para sa isang katulad na dahilan. Madaling magtaltalan na ang mga organisasyon at mga tao ay sumusunod sa malinaw, lohikal na mga panuntunan na maaaring subukan, maunawaan, at baguhin—ngunit ang karanasan ay nagpapatunay kung hindi. ito"Ang maling akala ni Gosplan'.

Madalas kong ikinukumpara ang machine learning sa mga database, lalo na ang mga relational - isang bagong pangunahing teknolohiya na nagpabago sa mga kakayahan ng computer science at ng mundo sa paligid nito, na naging bahagi ng lahat, na patuloy nating ginagamit nang hindi natin namamalayan. Ang mga database ay mayroon ding mga problema, at ang mga ito ay may katulad na kalikasan: ang system ay maaaring binuo sa masamang mga pagpapalagay o masamang data, ngunit ito ay mahirap mapansin, at ang mga taong gumagamit ng system ay gagawin kung ano ang sinasabi nito sa kanila nang hindi nagtatanong. Maraming mga lumang biro tungkol sa mga taong nagbubuwis na minsan ay nabaybay nang mali ang iyong pangalan, at ang pagkumbinsi sa kanila na itama ang pagkakamali ay mas mahirap kaysa sa aktwal na pagpapalit ng iyong pangalan. Mayroong maraming mga paraan upang isipin ito, ngunit hindi malinaw kung alin ang mas mahusay: bilang isang teknikal na problema sa SQL, o bilang isang bug sa isang release ng Oracle, o bilang isang pagkabigo ng mga burukratikong institusyon? Gaano kahirap maghanap ng bug sa isang proseso na humantong sa kawalan ng typo correction feature ng system? Naisip kaya ito bago nagsimulang magreklamo ang mga tao?

Ang problemang ito ay higit na inilalarawan ng mga kuwento kapag ang mga driver ay nagmamaneho sa mga ilog dahil sa hindi napapanahong data sa navigator. Okay, ang mga mapa ay kailangang palaging i-update. Ngunit gaano ang dapat sisihin sa TomTom para sa iyong sasakyan na natangay sa dagat?

Ang dahilan kung bakit sinasabi ko ito ay dahil oo, ang pagkiling sa pagkatuto ng makina ay lilikha ng mga problema. Ngunit ang mga problemang ito ay magiging katulad ng mga naharap natin sa nakaraan, at maaari silang mapansin at malutas (o hindi) tulad ng nagagawa natin sa nakaraan. Samakatuwid, ang isang senaryo kung saan ang pagkiling ng AI ay nagdudulot ng pinsala ay malabong mangyari sa mga senior researcher na nagtatrabaho sa isang malaking organisasyon. Malamang, ang ilang hindi gaanong kontraktor ng teknolohiya o vendor ng software ay magsusulat ng isang bagay sa kanilang mga tuhod, gamit ang mga open source na bahagi, mga aklatan at mga tool na hindi nila naiintindihan. At ang malas na kliyente ay bibili ng pariralang "artipisyal na katalinuhan" sa paglalarawan ng produkto at, nang hindi nagtatanong ng anumang mga katanungan, ipamahagi ito sa kanyang mga empleyadong mababa ang suweldo, na inutusan silang gawin ang sinasabi ng AI. Ito ay eksakto kung ano ang nangyari sa mga database. Hindi ito isang problema sa artificial intelligence, o kahit isang problema sa software. Ito ang kadahilanan ng tao.

Konklusyon

Magagawa ng machine learning ang anumang bagay na maaari mong ituro sa isang aso - ngunit hindi mo masisiguro kung ano ang eksaktong itinuro mo sa aso.

Madalas kong nararamdaman na ang terminong "artificial intelligence" ay nakakasagabal lamang sa mga pag-uusap na tulad nito. Ang terminong ito ay nagbibigay ng maling impresyon na kami talaga ang lumikha nito - ang katalinuhan na ito. Na papunta na kami sa HAL9000 o Skynet - isang bagay na talaga naiintindihan. Pero hindi. Ang mga ito ay mga makina lamang, at mas tumpak na ihambing ang mga ito sa, halimbawa, isang washing machine. Higit na mas mahusay siya sa paglalaba kaysa tao, ngunit kung lalagyan mo siya ng mga pinggan sa halip na labada, siya... ang maghuhugas ng mga ito. Magiging malinis pa ang mga pinggan. Ngunit hindi ito ang iyong inaasahan, at hindi ito mangyayari dahil ang sistema ay may anumang mga pagkiling tungkol sa mga pinggan. Ang washing machine ay hindi alam kung ano ang mga pinggan o kung ano ang mga damit - ito ay isang halimbawa lamang ng automation, sa konsepto ay hindi naiiba sa kung paano awtomatiko ang mga proseso noon.

Kung pag-uusapan natin ang tungkol sa mga kotse, eroplano, o database, ang mga system na ito ay parehong napakalakas at napakalimitado. Sila ay ganap na magdedepende sa kung paano ginagamit ng mga tao ang mga sistemang ito, kung ang kanilang mga intensyon ay mabuti o masama, at kung gaano nila naiintindihan kung paano sila gumagana.

Samakatuwid, ang pagsasabi na "ang artificial intelligence ay matematika, kaya hindi ito maaaring magkaroon ng mga bias" ay ganap na mali. Ngunit ito ay pare-parehong mali na sabihin na ang machine learning ay "subjective sa kalikasan." Ang machine learning ay nakakahanap ng mga pattern sa data, at kung anong mga pattern ang makikita nito ay nakadepende sa data, at ang data ay nakadepende sa amin. Katulad ng ginagawa natin sa kanila. Nagagawa ng machine learning ang ilang bagay na mas mahusay kaysa sa magagawa natin - ngunit ang mga aso, halimbawa, ay mas epektibo kaysa sa mga tao sa pagtuklas ng mga droga, na hindi isang dahilan upang gamitin ang mga ito bilang mga saksi at gumawa ng mga paghatol batay sa kanilang patotoo. At ang mga aso, pala, ay mas matalino kaysa sa anumang machine learning system.

Pagsasalin: Diana Letskaya.
Pag-edit: Aleksey Ivanov.
Komunidad: @PonchikNews.

Pinagmulan: www.habr.com

Magdagdag ng komento