Par mākslīgā intelekta aizspriedumiem

Par mākslīgā intelekta aizspriedumiem

tl; dr:

  • MaŔīnmācÄ«ba meklē datu modeļus. Bet mākslÄ«gais intelekts var bÅ«t ā€œneobjektÄ«vsā€ ā€” tas ir, atrast modeļus, kas ir nepareizi. Piemēram, uz fotoattēliem balstÄ«ta ādas vēža noteikÅ”anas sistēma var pievērst Ä«paÅ”u uzmanÄ«bu attēliem, kas uzņemti ārsta kabinetā. MaŔīnmācÄ«ba nevar saprast: tā algoritmi identificē tikai skaitļu modeļus, un, ja dati nav reprezentatÄ«vi, tad arÄ« to apstrādes rezultāts. Un Ŕādu kļūdu uztverÅ”ana var bÅ«t sarežģīta maŔīnmācÄ«Å”anās mehānikas dēļ.
  • AcÄ«mredzamākā un biedējoŔākā problēmu joma ir cilvēku daudzveidÄ«ba. Ir daudz iemeslu, kāpēc dati par cilvēkiem var zaudēt objektivitāti pat vākÅ”anas posmā. Bet nedomājiet, ka Ŕī problēma skar tikai cilvēkus: tieÅ”i tādas paÅ”as grÅ«tÄ«bas rodas, mēģinot atklāt plÅ«dus noliktavā vai bojātu gāzes turbÄ«nu. Dažas sistēmas var bÅ«t novirzÄ«tas uz ādas krāsu, citas bÅ«s novirzÄ«tas uz Siemens sensoriem.
  • Šādas problēmas nav nekas jauns maŔīnmācÄ«bā, un tās nebÅ«t nav unikālas. Jebkurā sarežģītā struktÅ«rā tiek izdarÄ«ti nepareizi pieņēmumi, un vienmēr ir grÅ«ti saprast, kāpēc tika pieņemts konkrēts lēmums. Mums ar to jācÄ«nās visaptveroŔā veidā: jāizveido rÄ«ki un procesi verifikācijai un jāizglÄ«to lietotāji, lai viņi akli neievērotu AI ieteikumus. MaŔīnmācÄ«ba dara dažas lietas daudz labāk, nekā mēs varam, taču, piemēram, suņi ir daudz efektÄ«vāki nekā cilvēki narkotiku atklāŔanā, kas nav iemesls, lai viņus izmantotu kā lieciniekus un pieņemtu spriedumus, pamatojoties uz viņu liecÄ«bām. Un suņi, starp citu, ir daudz gudrāki par jebkuru maŔīnmācÄ«Å”anās sistēmu.

MaŔīnmācÄ«ba mÅ«sdienās ir viena no svarÄ«gākajām fundamentālajām tehnoloÄ£iju tendencēm. Å is ir viens no galvenajiem veidiem, kā tehnoloÄ£ija nākamajā desmitgadē mainÄ«s pasauli ap mums. Daži Å”o izmaiņu aspekti rada bažas. Piemēram, maŔīnmācÄ«bas iespējamā ietekme uz darba tirgu vai tās izmantoÅ”ana neētiskiem mērÄ·iem (piemēram, autoritāri režīmi). Å ajā ziņojumā ir vēl viena problēma: mākslÄ«gā intelekta aizspriedumi.

Šis nav viegls stāsts.

Par mākslīgā intelekta aizspriedumiem
Google AI var atrast kaÄ·us. Å Ä«s 2012. gada ziņas toreiz bija kaut kas Ä«paÅ”s.

Kas ir ā€œAI novirzeā€?

ā€œNeapstrādāti datiā€ ir gan oksimorons, gan slikta ideja; dati ir jāsagatavo labi un rÅ«pÄ«gi. ā€” Džefrijs Bokers

Kaut kur pirms 2013. gada, lai izveidotu sistēmu, kas, teiksim, atpazÄ«st kaÄ·us fotogrāfijās, bija jāapraksta loÄ£iski soļi. Kā attēlā atrast stÅ«rus, atpazÄ«t acis, analizēt kažokādas faktÅ«ras, saskaitÄ«t Ä·epas un tā tālāk. Pēc tam salieciet visus komponentus un atklājiet, ka tas Ä«sti nedarbojas. LÄ«dzÄ«gi kā mehānisks zirgs - teorētiski to var izgatavot, bet praksē tas ir pārāk sarežģīti aprakstÄ«t. Gala rezultāts ir simtiem (vai pat tÅ«kstoÅ”iem) ar roku rakstÄ«tu noteikumu. Un neviena darba modeļa nav.

LÄ«dz ar maŔīnmācÄ«bas parādÄ«Å”anos mēs pārstājām izmantot ā€œmanuālosā€ noteikumus konkrēta objekta atpazÄ«Å”anai. Tā vietā mēs ņemam tÅ«kstoÅ” ā€œÅ”isā€, X paraugu, tÅ«kstoÅ” ā€œcitaā€ Y paraugu un liekam datoram izveidot modeli, pamatojoties uz viņu statistisko analÄ«zi. Pēc tam mēs sniedzam Å”im modelim dažus datu paraugus, un tas ar zināmu precizitāti nosaka, vai tas atbilst kādai no kopām. MaŔīnmācÄ«ba Ä£enerē modeli no datiem, nevis no cilvēka, kas tos raksta. Rezultāti ir iespaidÄ«gi, Ä«paÅ”i attēlu un modeļu atpazÄ«Å”anas jomā, un tāpēc visa tehnoloÄ£iju nozare tagad pāriet uz maŔīnmācÄ«Å”anos (ML).

Bet tas nav tik vienkārÅ”i. Reālajā pasaulē jÅ«su tÅ«kstoÅ”iem X vai Y piemēru satur arÄ« A, B, J, L, O, R un pat L. Tie var nebÅ«t vienmērÄ«gi sadalÄ«ti, un daži var parādÄ«ties tik bieži, ka sistēma maksās vairāk. pievērsiet uzmanÄ«bu tiem, nevis objektiem, kas jÅ«s interesē.

Ko tas nozÄ«mē praksē? Mans mīļākais piemērs ir attēlu atpazÄ«Å”anas sistēmas paskaties uz zālaugu kalnu un saki "aita". Ir skaidrs, kāpēc: lielākā daļa "aitu" piemēru fotogrāfiju ir uzņemtas pļavās, kur tās dzÄ«vo, un Å”ajos attēlos zāle aizņem daudz vairāk vietas nekā mazās baltas pÅ«ciņas, un sistēma uzskata par vissvarÄ«gāko zāli. .

Ir nopietnāki piemēri. Viens nesen projekts ādas vēža noteikÅ”anai fotogrāfijās. IzrādÄ«jās, ka dermatologi bieži fotografē lineālu kopā ar ādas vēža izpausmēm, lai fiksētu veidojumu izmērus. VeselÄ«gas ādas piemēra fotogrāfijās nav lineālu. AI sistēmai Ŕādi lineāli (precÄ«zāk, pikseļi, kurus mēs definējam kā ā€œlineāluā€) ir kļuvuÅ”i par vienu no atŔķirÄ«bām starp piemēru kopām, un dažreiz tie ir svarÄ«gāki nekā nelieli izsitumi uz ādas. Tātad sistēma, kas izveidota, lai identificētu ādas vēzi, dažkārt atzina valdniekus.

Galvenais Å”eit ir tas, ka sistēmai nav semantiskas izpratnes par to, ko tā skatās. Mēs skatāmies uz pikseļu kopu un redzam tajos aitu, ādu vai lineālus, bet sistēma ir tikai skaitļu lÄ«nija. Viņa neredz trÄ«sdimensiju telpu, neredz objektus, faktÅ«ras vai aitas. Viņa vienkārÅ”i redz datos modeļus.

Šādu problēmu diagnosticÄ“Å”anas grÅ«tÄ«bas rada tas, ka neironu tÄ«kls (modelis, ko Ä£enerē jÅ«su maŔīnmācÄ«Å”anās sistēma) sastāv no tÅ«kstoÅ”iem simtiem tÅ«kstoÅ”u mezglu. Nav vienkārÅ”a veida, kā izpētÄ«t modeli un redzēt, kā tas pieņem lēmumu. Šāda veida izmantoÅ”ana nozÄ«mētu, ka process ir pietiekami vienkārÅ”s, lai aprakstÄ«tu visus noteikumus manuāli, neizmantojot maŔīnmācÄ«Å”anos. Cilvēki uztraucas, ka maŔīnmācÄ«ba ir kļuvusi par melno kasti. (Nedaudz vēlāk paskaidroÅ”u, kāpēc Å”is salÄ«dzinājums joprojām ir par daudz.)

VispārÄ«gi runājot, tā ir mākslÄ«gā intelekta vai maŔīnmācÄ«bas neobjektivitātes problēma: sistēma datu modeļu atraÅ”anai var atrast nepareizus modeļus, un jÅ«s varat to nepamanÄ«t. Tā ir tehnoloÄ£iju pamatÄ«paŔība, un tā ir acÄ«mredzama ikvienam, kas ar to strādā akadēmiskajās aprindās un lielos tehnoloÄ£iju uzņēmumos. Taču tā sekas ir sarežģītas, un tādi ir arÄ« mÅ«su iespējamie Å”o seku risinājumi.

Vispirms parunāsim par sekām.

Par mākslīgā intelekta aizspriedumiem
AI netieÅ”i mums var izdarÄ«t izvēli par labu noteiktām cilvēku kategorijām, pamatojoties uz lielu skaitu nemanāmu signālu

AI novirzes scenāriji

Visredzamāk un biedējoŔāk Ŕī problēma var izpausties, kad runa ir par cilvēku daudzveidÄ«bu. Nesen bija baumaska Amazon mēģināja izveidot maŔīnmācÄ«Å”anās sistēmu darba kandidātu sākotnējai pārbaudei. Tā kā Amazon strādnieku vidÅ« ir vairāk vÄ«rieÅ”u, arÄ« ā€œveiksmÄ«gas pieņemÅ”anas darbāā€ piemēri biežāk ir vÄ«rieÅ”i, un sistēmas ieteiktajā CV izvēlē bija vairāk vÄ«rieÅ”u. Amazon to pamanÄ«ja un nelaida sistēmu ražoÅ”anā.

VissvarÄ«gākais Å”ajā piemērā ir tas, ka tika baumots, ka sistēma atbalsta vÄ«rieÅ”u kārtas pretendentus, neskatoties uz to, ka CV nebija norādÄ«ts dzimums. Sistēma saskatÄ«ja citus modeļus "labas nomas" piemēros: piemēram, sievietes var izmantot Ä«paÅ”us vārdus, lai aprakstÄ«tu sasniegumus vai viņiem ir Ä«paÅ”i hobiji. Protams, sistēma nezināja, kas ir ā€œhokejsā€, kas ir ā€œcilvēkiā€, vai kas ir ā€œpanākumiā€ ā€“ tā vienkārÅ”i veica teksta statistisko analÄ«zi. Taču viņas redzētos modeļus, visticamāk, cilvēki nepamanÄ«s, un dažus no tiem (piemēram, to, ka dažāda dzimuma cilvēki veiksmi raksturo atŔķirÄ«gi), mums, iespējams, bÅ«tu grÅ«ti saskatÄ«t pat tad, ja mēs uz tiem paskatÄ«tos.

Tālāk - sliktāk. MaŔīnmācÄ«Å”anās sistēma, kas ļoti labi spēj atrast vēzi uz bālas ādas, var nedarboties tik labi uz tumÅ”as ādas vai otrādi. Ne vienmēr aizspriedumu dēļ, bet tāpēc, ka jums, iespējams, ir jāizveido atseviŔķs modelis citai ādas krāsai, izvēloties dažādas Ä«paŔības. MaŔīnmācÄ«Å”anās sistēmas nav savstarpēji aizvietojamas pat tik Å”aurā jomā kā attēlu atpazÄ«Å”ana. Jums ir jāpielāgo sistēma, dažkārt tikai ar izmēģinājumu un kļūdu palÄ«dzÄ«bu, lai labi pārvaldÄ«tu interesējoÅ”o datu funkcijas, lÄ«dz sasniedzat vēlamo precizitāti. Bet tas, ko jÅ«s, iespējams, nepamanÄ«sit, ir tas, ka sistēma ir precÄ«za 98% gadÄ«jumu ar vienu grupu un tikai 91% (pat precÄ«zāka nekā cilvēka analÄ«ze) ar otru.

LÄ«dz Å”im esmu izmantojis galvenokārt piemērus, kas saistÄ«ti ar cilvēkiem un viņu Ä«paŔībām. Diskusija par Å”o problēmu galvenokārt koncentrējas uz Å”o tēmu. Taču ir svarÄ«gi saprast, ka aizspriedumi pret cilvēkiem ir tikai daļa no problēmas. Mēs izmantosim maŔīnmācÄ«Å”anos daudzām lietām, un paraugu ņemÅ”anas kļūda bÅ«s bÅ«tiska visām tām. No otras puses, ja strādājat ar cilvēkiem, datu novirze var nebÅ«t saistÄ«ta ar viņiem.

Lai to saprastu, atgriezīsimies pie ādas vēža piemēra un apsvērsim trīs hipotētiskas sistēmas atteices iespējas.

  1. Neviendabīgs cilvēku sadalījums: nesabalansēts dažādu ādas toņu fotogrāfiju skaits, kas pigmentācijas dēļ rada viltus pozitīvus vai viltus negatīvus.
  2. Dati, uz kuriem sistēma tiek apmācÄ«ta, satur bieži sastopamu un neviendabÄ«gi izplatÄ«tu pazÄ«mi, kas nav saistÄ«ta ar cilvēkiem un kam nav diagnostiskas vērtÄ«bas: lineāls ādas vēža fotogrāfijās vai zāle aitu fotogrāfijās. Å ajā gadÄ«jumā rezultāts bÅ«s atŔķirÄ«gs, ja sistēma attēlā atrod pikseļus kaut kam, ko cilvēka acs identificē kā ā€œvaldniekuā€.
  3. Dati satur treŔās puses raksturlielumu, ko cilvēks nevar redzēt, pat ja viņŔ to meklē.

Ko tas nozÄ«mē? Mēs jau a priori zinām, ka dati var atŔķirÄ«gi atspoguļot dažādas cilvēku grupas, un vismaz mēs varam plānot meklēt Ŕādus izņēmumus. Citiem vārdiem sakot, ir daudz sociālu iemeslu pieņemt, ka dati par cilvēku grupām jau satur zināmu neobjektivitāti. Ja mēs paskatÄ«simies uz fotogrāfiju ar lineālu, mēs redzēsim Å”o lineālu - mēs to vienkārÅ”i ignorējām iepriekÅ”, zinot, ka tam nav nozÄ«mes, un aizmirstot, ka sistēma neko nezina.

Bet kā bÅ«tu, ja visas jÅ«su neveselÄ«gās ādas fotogrāfijas bÅ«tu uzņemtas birojā kvēlspuldzes gaismā, bet jÅ«su veselÄ«gā āda bÅ«tu uzņemta dienasgaismas gaismā? Ko darÄ«t, ja pēc veselÄ«gas ādas uzņemÅ”anas, pirms neveselÄ«gas ādas uzņemÅ”anas, jÅ«s atjauninātu tālruņa operētājsistēmu un Apple vai Google nedaudz mainÄ«tu trokŔņu samazināŔanas algoritmu? Cilvēks to nevar pamanÄ«t, lai kā viņŔ meklētu Ŕādas pazÄ«mes. Bet maŔīnas lietoÅ”anas sistēma to uzreiz redzēs un izmantos. Viņa neko nezina.

LÄ«dz Å”im mēs esam runājuÅ”i par viltus korelācijām, taču var bÅ«t arÄ« tā, ka dati ir precÄ«zi un rezultāti ir pareizi, taču jÅ«s nevēlaties tos izmantot ētisku, juridisku vai pārvaldÄ«bas iemeslu dēļ. Dažas jurisdikcijas, piemēram, neļauj sievietēm saņemt atlaidi apdroÅ”ināŔanai, lai gan sievietes var bÅ«t droŔākas autovadÄ«tājas. Mēs varam viegli iedomāties sistēmu, kas, analizējot vēsturiskos datus, sievieÅ”u vārdiem pieŔķirtu zemāku riska faktoru. Labi, noņemsim vārdus no atlases. Bet atcerieties Amazon piemēru: sistēma var noteikt dzimumu, pamatojoties uz citiem faktoriem (lai gan tā nezina, kas ir dzimums vai pat kas ir automaŔīna), un jÅ«s to nepamanÄ«sit, kamēr regulators ar atpakaļejoÅ”u datumu neanalizēs jÅ«su tarifus. piedāvājums un maksas jums tiks uzlikts naudas sods.

Visbeidzot, bieži tiek pieņemts, ka Ŕādas sistēmas izmantosim tikai projektiem, kuros iesaistÄ«ti cilvēki un sociālā mijiedarbÄ«ba. Tas ir nepareizi. Ja izgatavojat gāzes turbÄ«nas, iespējams, vēlēsities izmantot maŔīnmācÄ«Å”anos telemetrijai, ko pārraida desmitiem vai simtiem jÅ«su produkta sensoru (audio, video, temperatÅ«ras un jebkuri citi sensori Ä£enerē datus, kurus var ļoti viegli pielāgot, lai izveidotu maŔīnu mācÄ«bu modelis). Hipotētiski jÅ«s varētu teikt: ā€œÅ eit ir dati par tÅ«kstoÅ” turbÄ«nām, kuras sabojājās, pirms tās atteicās, un Å”eit ir dati no tÅ«kstoÅ” turbÄ«nām, kuras nebojāja. Izveidojiet modeli, lai pateiktu, kāda ir atŔķirÄ«ba starp tiem. Nu, tagad iedomājieties, ka Siemens sensori ir uzstādÄ«ti uz 75% sliktu turbÄ«nu, bet tikai uz 12% no labām (nav nekāda sakara ar kļūmēm). Sistēma izveidos modeli, lai atrastu turbÄ«nas ar Siemens sensoriem. Hmm!

Par mākslīgā intelekta aizspriedumiem
Attēls ā€” Morics Hārds, UC Berkeley

AI novirzes pārvaldība

Ko mēs varam darīt lietas labā? Problēmai var pieiet no trim leņķiem:

  1. Metodiskā stingrÄ«ba datu vākÅ”anā un pārvaldÄ«bā sistēmas apmācÄ«bai.
  2. Tehniskie rÄ«ki modeļa uzvedÄ«bas analÄ«zei un diagnosticÄ“Å”anai.
  3. Apmāciet, izglītojiet un esiet piesardzīgs, ievieŔot maŔīnmācīŔanos produktos.

Moljēra grāmatā ā€œBuržuāze muižniecÄ«bāā€ ir kāds joks: vienam cilvēkam stāstÄ«ja, ka literatÅ«ra ir sadalÄ«ta prozā un dzejā, un viņŔ ar prieku atklāja, ka visu mūžu runājis prozā, pats to nezinot. Tā droÅ”i vien Å”odien jÅ«tas statistiÄ·i: paÅ”i to neapzinoties, viņi savu karjeru ir veltÄ«juÅ”i mākslÄ«gajam intelektam un izlases kļūdām. Izlases kļūdas meklÄ“Å”ana un raizÄ“Å”anās par to nav jauna problēma, mums tikai sistemātiski jārisina tās risinājums. Kā minēts iepriekÅ”, dažos gadÄ«jumos to patieŔām ir vieglāk izdarÄ«t, pētot problēmas, kas saistÄ«tas ar cilvēku datiem. Mēs a priori pieņemam, ka mums var bÅ«t aizspriedumi pret dažādām cilvēku grupām, taču mums ir grÅ«ti pat iedomāties aizspriedumus par Siemens sensoriem.

Jaunums Å”ajā visā, protams, ir tas, ka cilvēki vairs neveic tieÅ”i statistisko analÄ«zi. To veic maŔīnas, kas rada lielus, sarežģītus un grÅ«ti saprotamus modeļus. PārredzamÄ«bas jautājums ir viens no galvenajiem neobjektivitātes problēmas aspektiem. Mēs baidāmies, ka sistēma ir ne tikai neobjektÄ«va, bet arÄ« nav iespējas noteikt tās novirzi un ka maŔīnmācÄ«Å”anās atŔķiras no citiem automatizācijas veidiem, kas, domājams, sastāv no skaidriem loÄ£iskiem soļiem, kurus var pārbaudÄ«t.

Å eit ir divas problēmas. Iespējams, mēs joprojām varēsim veikt kādu maŔīnmācÄ«Å”anās sistēmu auditu. Un jebkuras citas sistēmas auditÄ“Å”ana patiesÄ«bā nav vieglāka.

Pirmkārt, viens no mÅ«sdienu pētÄ«jumu virzieniem maŔīnmācÄ«bas jomā ir metožu meklÄ“Å”ana, lai identificētu maŔīnmācÄ«Å”anās sistēmu svarÄ«gu funkcionalitāti. Tas nozÄ«mē, ka maŔīnmācÄ«ba (paÅ”reizējā stāvoklÄ«) ir pilnÄ«gi jauna zinātnes joma, kas strauji mainās, tāpēc nedomājiet, ka lietas, kas Å”odien nav iespējamas, drÄ«z nevar kļūt gluži reālas. Projekts OpenAI - interesants piemērs tam.

Otrkārt, ideja, ka jÅ«s varat pārbaudÄ«t un saprast lēmumu pieņemÅ”anas procesu esoÅ”ajās sistēmās vai organizācijās, teorētiski ir laba, taču praksē tā ir laba. Saprast, kā lielā organizācijā tiek pieņemti lēmumi, nav viegli. Pat ja notiek formāls lēmumu pieņemÅ”anas process, tas neatspoguļo to, kā cilvēki faktiski mijiedarbojas, un viņiem paÅ”iem bieži vien nav loÄ£iskas, sistemātiskas pieejas lēmumu pieņemÅ”anai. Kā teica mans kolēģis Vijay Pande, cilvēki arÄ« ir melnās kastes.

Paņemiet tÅ«kstoÅ” cilvēku vairākos uzņēmumos un iestādēs, kas pārklājas, un problēma kļūst vēl sarežģītāka. Mēs zinām, ka pēc atgrieÅ”anās Space Shuttle bija paredzēts sadalÄ«ties, un NASA darbiniekiem bija informācija, kas lika viņiem domāt, ka varētu notikt kaut kas slikts, taču sistēma vispār Es to nezināju. NASA pat tikko veica lÄ«dzÄ«gu auditu pēc tam, kad zaudēja savu iepriekŔējo kuÄ£a kuÄ£i, taču tā zaudēja vēl vienu ļoti lÄ«dzÄ«ga iemesla dēļ. Ir viegli apgalvot, ka organizācijas un cilvēki ievēro skaidrus, loÄ£iskus noteikumus, kurus var pārbaudÄ«t, saprast un mainÄ«t, taču pieredze pierāda pretējo. Å”is "Gosplāna maldi'.

Es bieži salÄ«dzinu maŔīnmācÄ«Å”anos ar datu bāzēm, Ä«paÅ”i relāciju - jaunu fundamentālu tehnoloÄ£iju, kas ir mainÄ«jusi datorzinātņu un apkārtējās pasaules iespējas, kas ir kļuvusi par daļu no visa, ko mēs pastāvÄ«gi lietojam, nemanot. Problēmas ir arÄ« datu bāzēm, un tām ir lÄ«dzÄ«gs raksturs: sistēma var bÅ«t veidota uz sliktiem pieņēmumiem vai sliktiem datiem, taču to bÅ«s grÅ«ti pamanÄ«t, un cilvēki, kas izmanto sistēmu, darÄ«s to, ko tā viņiem saka, neuzdodot jautājumus. Ir daudz vecu joku par nodokļu maksātāji, kuri kādreiz ir uzrakstÄ«juÅ”i jÅ«su vārdu nepareizi, un pārliecināt viņus labot kļūdu ir daudz grÅ«tāk nekā faktiski mainÄ«t vārdu. Ir daudz veidu, kā par to domāt, bet nav skaidrs, kas ir labāks: kā tehniska problēma SQL, vai kā kļūda Oracle laidienā, vai kā birokrātisko iestāžu kļūme? Cik grÅ«ti ir atrast kļūdu procesā, kura rezultātā sistēmai nav drukas kļūdu laboÅ”anas funkcijas? Vai to varēja noskaidrot, pirms cilvēki sāka sÅ«dzēties?

Å o problēmu vēl vienkārŔāk ilustrē stāsti, kad autovadÄ«tāji iebrauc upēs novecojuÅ”u navigatora datu dēļ. Labi, kartes ir pastāvÄ«gi jāatjaunina. Bet cik daudz TomTom ir vainojams, ka jÅ«su automaŔīna tiek izpÅ«sta jÅ«rā?

Iemesls, kāpēc es to saku, ir tāds, ka jā, maŔīnmācÄ«Å”anās novirze radÄ«s problēmas. Taču Ŕīs problēmas bÅ«s lÄ«dzÄ«gas tām, ar kurām esam saskāruÅ”ies agrāk, un tās var pamanÄ«t un atrisināt (vai ne) tikpat labi, kā mēs to varējām pagātnē. Tāpēc scenārijs, kurā AI novirze nodara kaitējumu, visticamāk, nenotiks vecākajiem pētniekiem, kas strādā lielā organizācijā. Visticamāk, kāds nenozÄ«mÄ«gs tehnoloÄ£iju darbuzņēmējs vai programmatÅ«ras pārdevējs kaut ko uzrakstÄ«s uz ceļiem, izmantojot atvērtā pirmkoda komponentus, bibliotēkas un rÄ«kus, kurus viņi nesaprot. Un nelaimÄ«gais klients nopirks frāzi ā€œmākslÄ«gais intelektsā€ produkta aprakstā un, neuzdodot nekādus jautājumus, izplatÄ«s to saviem zemu atalgotajiem darbiniekiem, liekot viņiem darÄ«t to, ko AI saka. TieÅ”i tā notika ar datu bāzēm. Tā nav mākslÄ«gā intelekta problēma vai pat programmatÅ«ras problēma. Tas ir cilvēciskais faktors.

Secinājums

MaŔīnmācība var darīt visu, ko varat iemācīt sunim, taču jūs nekad nevarat būt pārliecināts, ko tieŔi jūs mācījāt sunim.

Man bieži Ŕķiet, ka termins ā€œmākslÄ«gais intelektsā€ tikai traucē Ŕādām sarunām. Å is termins rada maldÄ«gu iespaidu, ka mēs to patiesÄ«bā radÄ«jām ā€“ Ŕī inteliÄ£ence. Tas, ka mēs esam ceļā uz HAL9000 vai Skynet ā€” kaut kas tāds saprot. Bet nē. Tās ir tikai maŔīnas, un daudz precÄ«zāk tās ir salÄ«dzināt, teiksim, ar veļas maŔīnu. Viņa mazgā veļu daudz labāk nekā cilvēks, bet, ja tu viņā ieliksi traukus, nevis veļas, viņa... tos izmazgās. Trauki pat kļūs tÄ«ri. Bet tas nebÅ«s tas, ko jÅ«s gaidÄ«jāt, un tas nenotiks, jo sistēmai ir kādi aizspriedumi attiecÄ«bā uz ēdieniem. Veļas maŔīna nezina, kas ir trauki vai kas ir drēbes - tas ir tikai automatizācijas piemērs, kas konceptuāli neatŔķiras no tā, kā procesi tika automatizēti iepriekÅ”.

NeatkarÄ«gi no tā, vai mēs runājam par automaŔīnām, lidmaŔīnām vai datu bāzēm, Ŕīs sistēmas bÅ«s gan ļoti jaudÄ«gas, gan ļoti ierobežotas. Tie bÅ«s pilnÄ«bā atkarÄ«gi no tā, kā cilvēki izmanto Ŕīs sistēmas, vai viņu nodomi ir labi vai slikti, un cik daudz viņi saprot, kā tās darbojas.

Tāpēc apgalvojums, ka ā€œmākslÄ«gais intelekts ir matemātika, tāpēc tam nevar bÅ«t neobjektivitāteā€, ir pilnÄ«gi nepareizs. Taču tikpat aplami ir teikt, ka maŔīnmācÄ«ba ir ā€œsubjektÄ«vaā€. MaŔīnmācÄ«ba atrod datu modeļus, un tas, kādi modeļi tiek atrasti, ir atkarÄ«gi no datiem, un dati ir atkarÄ«gi no mums. Tāpat kā tas, ko mēs ar viņiem darām. MaŔīnmācÄ«ba dara dažas lietas daudz labāk, nekā mēs varam, taču, piemēram, suņi ir daudz efektÄ«vāki nekā cilvēki narkotiku atklāŔanā, kas nav iemesls, lai viņus izmantotu kā lieciniekus un pieņemtu spriedumus, pamatojoties uz viņu liecÄ«bām. Un suņi, starp citu, ir daudz gudrāki par jebkuru maŔīnmācÄ«Å”anās sistēmu.

Tulkojums: Diāna Ä»etskaja.
RediģēŔana: Aleksejs Ivanovs.
Kopiena: @PonchikNews.

Avots: www.habr.com

Pievieno komentāru