Iwwer Kënschtlech Intelligenz Bias

Iwwer Kënschtlech Intelligenz Bias

tl; dr:

  • Maschinn Léieren sicht Muster an Daten. Awer kënschtlech Intelligenz kann "biaséiert" sinn - dat heescht Muster fannen déi falsch sinn. Zum Beispill kann e Foto-baséiert Hautkriibserkennungssystem besonnesch Opmierksamkeet op Biller bezuelen, déi an engem Dokterbüro gemaach goufen. Maschinn Léieren kann net ze verstoen: seng Algorithmen identifizéieren nëmmen Musteren an Zuelen, a wann d'Donnéeën net representativ sinn, och d'Resultat vu senger Veraarbechtung. A sou Bugs ze fangen ka schwéier sinn wéinst der ganzer Mechanik vum Maschinnléieren.
  • Déi offensichtlechst an beängschtegend Problemberäich ass mënschlech Diversitéit. Et gi vill Grënn firwat Daten iwwer Leit Objektivitéit verléieren souguer an der Sammelstadium. Awer denkt net datt dëse Problem nëmmen d'Leit beaflosst: genee déiselwecht Schwieregkeeten entstinn wann Dir probéiert eng Iwwerschwemmung an engem Lagerhaus oder eng gescheitert Gasturbin z'entdecken. E puer Systemer kënne biaséiert sinn op d'Hautfaarf, anerer si biaséiert op Siemens Sensoren.
  • Esou Probleemer sinn net nei fir Maschinnléieren, a si si wäit vun der eenzegaarteger. Falsch Viraussetzunge ginn an all komplexe Struktur gemaach, a verstoen firwat eng bestëmmte Entscheedung getraff gouf ass ëmmer schwéier. Mir mussen dëst op eng ëmfaassend Manéier bekämpfen: Tools a Prozesser erstellen fir d'Verifizéierung - an d'Benotzer educéieren sou datt se net blann AI Empfehlungen verfollegen. Maschinnléieren mécht e puer Saachen vill besser wéi mir kënnen - awer Hënn, zum Beispill, si vill méi effektiv wéi Mënschen fir Drogen z'entdecken, wat kee Grond ass fir se als Zeien ze benotzen an Uerteeler op Basis vun hirem Zeegnes ze maachen. An Hënn, iwwregens, si vill méi clever wéi all Maschinnléieresystem.

Maschinnléieren ass ee vun de wichtegste fundamental Technologie Trends haut. Dëst ass ee vun de wichtegste Weeër wéi d'Technologie d'Welt ronderëm eis an den nächsten Dekade wäert änneren. E puer Aspekter vun dësen Ännerungen sinn Ursaach fir Suergen. Zum Beispill, de potenziellen Impakt vum Maschinnléieren op den Aarbechtsmaart, oder seng Notzung fir onethesch Zwecker (zum Beispill duerch autoritäre Regimer). Et gëtt en anere Problem deen dëse Post adresséiert: kënschtlech Intelligenz Bias.

Dëst ass keng einfach Geschicht.

Iwwer Kënschtlech Intelligenz Bias
Google's AI ka Kazen fannen. Dës Nouvelle vun 2012 war deemools eppes Besonnesches.

Wat ass "AI Bias"?

"Raw Daten" ass souwuel en Oxymoron an eng schlecht Iddi; daten muss gutt a virsiichteg virbereet ginn. — Geoffrey Bocker

Iergendwou virun 2013, fir e System ze maachen, deen zum Beispill Kazen op Fotoen erkennt, musst Dir logesch Schrëtt beschreiwen. Wéi fannt Dir Ecken an engem Bild, Aen erkennen, Texturen fir Pelz analyséieren, Patten zielen, asw. Da setzt all d'Komponenten zesummen an entdeckt datt et net wierklech funktionnéiert. Vill wéi e mechanesche Päerd - theoretesch kann et gemaach ginn, awer an der Praxis ass et ze komplex fir ze beschreiwen. D'Enn Resultat ass Honnerte (oder souguer Dausende) vun handgeschriwwene Regelen. An net een eenzegen Aarbechtsmodell.

Mat dem Advent vu Maschinnléieren hu mir opgehalen "manuell" Reegele fir e bestëmmten Objet ze erkennen. Amplaz hu mir dausend Echantillon vun "dëst", X, dausend Echantillon vun "aner", Y, an hunn de Computer e Modell baséiert op hir statistesch Analyse bauen. Mir ginn dësem Modell dann e puer Beispillerdaten an et bestëmmt mat e puer Präzisioun ob et op ee vun de Sets passt. Maschinnléieren generéiert e Modell aus Daten anstatt aus engem Mënsch deen et schreift. D'Resultater sinn beandrockend, besonnesch am Beräich vun der Bild- a Mustererkennung, an dofir ass d'ganz Techindustrie elo op Maschinnléieren (ML) réckelen.

Awer sou einfach ass et net. An der realer Welt enthalen Är Dausende vu Beispiller vun X oder Y och A, B, J, L, O, R, a souguer L. Dës kënnen net gläichméisseg verdeelt sinn, an e puer kënne sou dacks optrieden datt de System méi wäert bezuelen oppassen op si wéi op Objeten déi Iech interesséieren.

Wat heescht dat an der Praxis? Meng Léifsten Beispill ass wann Bild Unerkennung Systemer kuckt op e Gras Hiwwel a sot "Schof". Et ass kloer firwat: Déi meescht Beispillfotoe vu "Schof" ginn an de Wisen gemaach, wou se wunnen, an op deene Biller hëlt d'Gras vill méi Plaz wéi déi kleng wäiss Fuuss, an et ass d'Gras, déi de System als wichtegst hält .

Et gi méi sérieux Beispiller. Eng rezent Projet fir Hautkriibs op Fotoen z'entdecken. Et huet sech erausgestallt datt d'Dermatologen dacks de Lineal zesumme mat de Manifestatiounen vum Hautkriibs fotograféieren fir d'Gréisst vun de Formatiounen opzehuelen. Et gi keng Herrscher an de Beispillfotoe vu gesonde Haut. Fir en AI System sinn esou Linealer (méi präzis, d'Pixel, déi mir als "Herrscher" definéieren) ee vun den Ënnerscheeder tëscht Sätz vu Beispiller ginn, an heiansdo méi wichteg wéi e klengen Ausschlag op der Haut. Also e System erstallt fir Hautkriibs z'identifizéieren heiansdo unerkannt Herrscher amplaz.

De Schlësselpunkt hei ass datt de System kee semantescht Verständnis huet wat e kuckt. Mir kucken op eng Rei vu Pixel a gesinn an hinnen e Schof, Haut oder Linealer, mä de System ass nëmmen eng Zuel Linn. Si gesäit net dräi-zweedimensional Raum, gesäit net Objete, Texturen, oder Schof. Si gesäit einfach Musteren an den Donnéeën.

D'Schwieregkeet fir sou Probleemer ze diagnostizéieren ass datt den neurale Netzwierk (de Modell generéiert vun Ärem Maschinnléieresystem) aus Dausende vun Honnerte vun Dausende vu Wirbelen besteet. Et gëtt keen einfache Wee fir e Modell ze kucken an ze kucken wéi et eng Entscheedung mécht. Sou e Wee ze hunn bedeit datt de Prozess einfach genuch ass fir all d'Regele manuell ze beschreiwen, ouni Maschinnléieren ze benotzen. D'Leit fäerten datt Maschinnléieren eppes vun enger schwaarzer Këscht ginn ass. (Ech wäert e bësse méi spéit erklären firwat dëse Verglach nach ëmmer ze vill ass.)

Dëst, am allgemengen, ass de Problem vu Bias an der kënschtlecher Intelligenz oder Maschinnléieren: e System fir Musteren an Daten ze fannen kann déi falsch Mustere fannen, an Dir kënnt et net bemierken. Dëst ass e fundamentale Charakteristik vun der Technologie, an et ass offensichtlech fir jiddereen deen domat an der Akademie a bei groussen Techfirmen schafft. Awer seng Konsequenze si komplex, an och eis méiglech Léisunge fir dës Konsequenzen.

Loosst d'éischt iwwer d'Konsequenzen schwätzen.

Iwwer Kënschtlech Intelligenz Bias
AI kann, implizit fir eis, e Choix zugonschte vu bestëmmte Kategorien vu Leit maachen, baséiert op enger grousser Zuel vun onmerkbaren Signaler

AI Bias Szenarien

Am meeschten offensichtlech an erschreckend, kann dëse Problem sech manifestéieren wann et ëm d'mënschlech Diversitéit kënnt. Viru kuerzem et gouf e Gerüchtdatt Amazon probéiert e Maschinnléieresystem ze bauen fir eng initial Screening vun Jobkandidaten. Well et méi Männer ënner Amazon Aarbechter sinn, sinn Beispiller vun "erfollegräicher Employeur" och méi dacks männlech, an et waren méi Männer an der Auswiel vu CVen, déi vum System proposéiert goufen. Amazon huet dëst gemierkt an huet de System net an d'Produktioun verëffentlecht.

Déi wichtegst Saach an dësem Beispill ass datt de System rumoréiert gouf fir männlech Bewerberinnen ze favoriséieren, trotz der Tatsaach datt d'Geschlecht net am CV spezifizéiert gouf. De System huet aner Mustere gesinn an Beispiller vu "gutt Hiren": zum Beispill, Frae kënne speziell Wierder benotzen fir Erreechen ze beschreiwen, oder speziell Hobbien hunn. Natierlech wousst de System net wat "Hockey" war, oder wien "Leit" waren, oder wat "Erfolleg" war - et huet einfach eng statistesch Analyse vum Text gemaach. Awer d'Muster, déi se gesinn huet, wäerten héchstwahrscheinlech vun de Mënschen net bemierkt ginn, an e puer vun hinnen (zum Beispill d'Tatsaach, datt Leit vu verschiddene Geschlechter Erfolleg anescht beschreiwen) wiere wahrscheinlech schwéier fir eis ze gesinn, och wa mir se kucken.

Weider - méi schlëmm. E Maschinnléieresystem dee ganz gutt ass fir Kriibs op blass Haut ze fannen kann net esou gutt op donkel Haut funktionnéieren, oder vice versa. Net onbedéngt wéinst Viraussetzung, mee well Dir wahrscheinlech e separaten Modell fir eng aner Hautfaarf bauen musst, verschidde Charakteristiken auswielen. Maschinn Léiersystemer sinn net austauschbar och a sou engem schmuele Gebitt wéi Bilderkennung. Dir musst de System upassen, heiansdo just duerch Versuch a Feeler, fir e gudde Grëff op d'Features an den Donnéeën ze kréien, an deenen Dir interesséiert sidd, bis Dir d'Genauegkeet erreecht déi Dir wëllt. Awer wat Dir vläicht net bemierkt ass datt de System 98% vun der Zäit mat enger Grupp korrekt ass, an nëmmen 91% (souguer méi genau wéi mënschlech Analyse) mat der anerer.

Bis elo hunn ech haaptsächlech Beispiller benotzt betreffend Leit an hir Charakteristiken. D'Diskussioun ronderëm dëse Problem konzentréiert sech haaptsächlech op dëst Thema. Awer et ass wichteg ze verstoen datt Viraussetzung géint d'Leit nëmmen en Deel vum Problem ass. Mir benotze Maschinnléiere fir vill Saachen, a Probefehler wäerte fir all relevant sinn. Op der anerer Säit, wann Dir mat Leit schafft, ass d'Basitéit an den Daten vläicht net mat hinnen verbonnen.

Fir dëst ze verstoen, loosst eis zréck op d'Hautkriibs Beispill a betruecht dräi hypothetesch Méiglechkeete fir Systemfehler.

  1. Heterogen Verdeelung vu Leit: eng onbalancéiert Zuel vu Fotoe vu verschiddene Hauttéin, déi zu falschen Positiven oder falschen Negativer duerch Pigmentéierung féieren.
  2. D'Daten, op deenen de System trainéiert gëtt, enthält eng dacks optrieden an heterogen verdeelt Feature, déi net mat de Leit assoziéiert ass an keen diagnostesche Wäert huet: e Lineal bei Fotoen vu Hautkriibs oder Gras a Fotoe vu Schof. An dësem Fall wäert d'Resultat anescht sinn, wann de System Pixel am Bild vun eppes fënnt, wat de mënschleche Auge als "Herrscher" identifizéiert.
  3. D'Daten enthalen eng Drëtt Partei Charakteristik déi eng Persoun net kann gesinn, och wann hien no sicht.

Wat heescht dat? Mir wëssen a priori datt Daten verschidde Gruppe vu Leit anescht vertrieden, a mir kënnen op e Minimum plangen no sou Ausnahmen ze sichen. An anere Wierder, et gi vill sozial Grënn fir unzehuelen datt Daten iwwer Gruppe vu Leit schonn e bësse Bias enthalen. Wa mir d'Foto mam Lineal kucken, wäerte mir dësen Lineal gesinn - mir hunn et einfach virdru ignoréiert, wëssend datt et egal ass, a vergiessen datt de System näischt weess.

Awer wat wann all Är Fotoe vun ongesonde Haut an engem Büro ënner Glühwäin geholl goufen, an Är gesond Haut ënner Leuchtstoff geholl gouf? Wat wann Dir, nodeems Dir fäerdeg sidd gesond Haut ze schéissen, ier Dir eng ongesonde Haut schéissen, Dir de Betribssystem op Ärem Telefon aktualiséiert hutt, an Apple oder Google de Geräischer Reduktioun Algorithmus liicht geännert hunn? Eng Persoun kann dat net bemierken, egal wéi vill hien no sou Features sicht. Awer de Maschinnbenotzungssystem wäert dëst direkt gesinn a benotzen. Si weess näischt.

Bis elo hu mir iwwer spurious Korrelatiounen geschwat, awer et kéint och sinn datt d'Donnéeën korrekt sinn an d'Resultater richteg sinn, awer Dir wëllt se net aus etheschen, juristeschen oder Gestiounsgrënn benotzen. E puer Juridictioune, zum Beispill, erlaben net Fraen eng Remise op hir Versécherung ze kréien, och wa Fraen méi sécher Chauffeuren kënne sinn. Mir kënne ganz einfach e System virstellen, deen, wann Dir historesch Daten analyséiert, e méi nidderege Risikofaktor fir weiblech Nimm zouginn. Okay, loosst eis Nimm aus der Auswiel ewechhuelen. Awer erënnert un d'Amazon Beispill: de System kann Geschlecht bestëmmen op Basis vun anere Faktoren (och wann et net weess wat Geschlecht ass, oder souguer wat en Auto ass), an Dir wäert dat net bemierken bis de Reguléierer retroaktiv d'Tariffer analyséiert Offer a Käschten Dir wäert Geldstrof ginn.

Schlussendlech gëtt dacks ugeholl datt mir esou Systemer nëmme benotze fir Projeten, déi Leit a sozial Interaktiounen involvéieren. Dëst ass falsch. Wann Dir Gasturbinen maacht, wëllt Dir wahrscheinlech Maschinnléieren op d'Telemetrie applizéieren, déi vun Zénger oder Honnerte vu Sensoren op Ärem Produkt iwwerdroe gëtt (Audio, Video, Temperatur, an all aner Sensoren generéieren Daten déi ganz einfach adaptéiert kënne ginn fir eng Maschinn ze kreéieren Léiermodell). Hypothetesch kéint Dir soen, "Hei sinn Daten vun dausend Turbinen déi gescheitert hunn ier se gescheitert sinn, an hei sinn Daten vun dausend Turbinen déi net gescheitert hunn. Baut e Modell fir ze soen wat den Ënnerscheed tëscht hinnen ass. Gutt, stellt Iech elo vir datt Siemens Sensoren op 75% vu schlechte Turbinen installéiert sinn, an nëmmen 12% vu gudden (et gëtt keng Verbindung mat Feeler). De System wäert e Modell bauen fir Turbinen mat Siemens Sensoren ze fannen. Oops!

Iwwer Kënschtlech Intelligenz Bias
Bild — Moritz Hardt, UC Berkeley

Gestioun vun AI Bias

Wat kënne mir doriwwer maachen? Dir kënnt d'Thema aus dräi Wénkelen ugoen:

  1. Methodologesch Rigoritéit beim Sammelen a Gestioun vun Donnéeën fir de System ze trainéieren.
  2. Technesch Tools fir Analyse an Diagnostik vum Modellverhalen.
  3. Trainéiert, educéiert a sidd virsiichteg wann Dir Maschinnléiere a Produkter implementéiert.

Am Molière sengem Buch „Die Bourgeois im Adel“ gëtt et e Witz: Ee Mann krut gesot, datt d'Literatur a Prosa a Poesie opgedeelt ass, an hie war frou ze entdecken, datt hie säi ganzt Liewen a Prosa geschwat huet, ouni et ze wëssen. Dëst ass wahrscheinlech wéi d'Statistiker sech haut fillen: ouni et ze realiséieren, hunn se hir Carrière fir kënschtlech Intelligenz a Samplingfehler gewidmet. Sich no Probefehler a Suergen doriwwer ass keen neie Problem, mir brauche just systematesch seng Léisung unzegoen. Wéi uewen ernimmt, an e puer Fäll ass et tatsächlech méi einfach dëst ze maachen andeems Dir Probleemer am Zesummenhang mat Leitdaten studéiert. Mir huelen a priori un datt mir Viruerteeler betreffend verschidde Gruppe vu Leit kënnen hunn, awer et ass schwéier fir eis iwwerhaapt e Virurteel iwwer Siemens Sensoren virzestellen.

Neies un all deem, natierlech, ass, datt d'Leit net méi direkt statistesch Analyse maachen. Et gëtt duerch Maschinnen duerchgefouert, déi grouss, komplex Modeller kreéieren déi schwéier ze verstoen sinn. D'Fro vun der Transparenz ass ee vun den Haaptaspekter vum Problem vun der Bias. Mir fäerten datt de System net nëmme biaséiert ass, mee datt et kee Wee ass fir seng Bias z'entdecken, an datt Maschinnléiere anescht ass wéi aner Forme vun Automatisatioun, déi aus klore logesche Schrëtt besteet, déi getest kënne ginn.

Et ginn zwee Problemer hei. Mir kënnen nach ëmmer fäeg sinn eng Aart Audit vu Maschinnléieresystemer auszeféieren. An all aner System Audit ass eigentlech net méi einfach.

Als éischt ass eng vun de Richtungen vun der moderner Fuerschung am Feld vum Maschinnléieren d'Sich no Methoden fir wichteg Funktionalitéit vu Maschinnléieresystemer ze identifizéieren. Dat gesot, Maschinnléieren (a sengem aktuellen Zoustand) ass e komplett neit Wëssenschaftsberäich dat sech séier ännert, also denkt net datt Saachen déi haut onméiglech sinn net geschwënn ganz real kënne ginn. Projet OpenAI - en interessant Beispill vun dëser.

Zweetens, d'Iddi datt Dir den Entscheedungsprozess vun existente Systemer oder Organisatiounen testen a verstoen kann ass gutt an der Theorie, awer sou an der Praxis. Verstoen wéi Entscheedungen an enger grousser Organisatioun getraff ginn ass net einfach. Och wann et e formellen Entscheedungsprozess gëtt, reflektéiert et net wéi d'Leit tatsächlech interagéieren, a si selwer hunn dacks keng logesch, systematesch Approche fir hir Entscheedungen ze treffen. Wéi mäi Kolleg gesot huet Vijay Pande, Leit sinn och schwaarz Këschte.

Huelt dausend Leit an e puer iwwerlappend Firmen an Institutiounen, an de Problem gëtt nach méi komplex. Mir wëssen no der Tatsaach datt de Space Shuttle bestëmmt war fir op Retour opzedeelen, an Individuen bannent der NASA haten Informatioun déi hinnen Grond ginn huet ze denken datt eppes Schlechtes ka geschéien, awer de System am Allgemengen Ech wousst dat net. D'NASA ass souguer just duerch en ähnlechen Audit gaangen nodeems se säi fréiere Shuttle verluer huet, an awer huet se en aneren aus engem ganz ähnleche Grond verluer. Et ass einfach ze streiden datt Organisatiounen a Leit kloer, logesch Reegele verfollegen, déi getest kënne ginn, verstanen a geännert ginn - awer d'Erfahrung beweist anescht. Dëst"Gosplans Wahnsinn".

Ech vergläichen dacks Maschinnléieren mat Datenbanken, besonnesch relational - eng nei fundamental Technologie déi d'Fäegkeeten vun der Informatik an der Welt ronderëm geännert huet, déi Deel vun allem ginn ass, wat mir stänneg benotzen ouni et ze realiséieren. D'Datebasen hunn och Problemer, a si vun enger ähnlecher Natur: de System kann op schlecht Viraussetzungen oder schlecht Donnéeën gebaut ginn, awer et wäert schwiereg sinn ze bemierken, an d'Leit déi de System benotzen wäerte maachen wat et hinnen seet ouni Froen ze stellen. Et gi vill al Witzer iwwer Steier Leit, déi eemol Ären Numm falsch geschriwwen hunn, a se ze iwwerzeegen de Feeler ze korrigéieren ass vill méi schwéier wéi Ären Numm tatsächlech z'änneren. Et gi vill Weeër iwwer dëst ze denken, awer et ass net kloer wat besser ass: als technesche Problem an SQL, oder als Feeler an enger Oracle Verëffentlechung, oder als Versoen vun bürokrateschen Institutiounen? Wéi schwéier ass et e Feeler an engem Prozess ze fannen deen dozou gefouert huet datt de System keng Tippfeelerkorrektur Feature huet? Konnt dat erausfonnt ginn ier d'Leit ugefaang hunn ze beschwéieren?

Dëse Problem gëtt nach méi einfach duerch Geschichten illustréiert wann Chauffeuren an de Flëss fueren wéinst verännerten Donnéeën am Navigator. Okay, Kaarte musse permanent aktualiséiert ginn. Awer wéi vill ass den TomTom Schold datt Ären Auto op d'Mier geplatzt ass?

De Grond firwat ech dëst soen ass datt jo, Maschinn Léieren Bias wäert Probleemer kreéieren. Awer dës Probleemer wäerten ähnlech sinn wéi déi, déi mir an der Vergaangenheet konfrontéiert hunn, a si kënne gemierkt a geléist ginn (oder net) sou gutt wéi mir an der Vergaangenheet konnten. Dofir ass e Szenario an deem AI Bias Schued verursaacht ass onwahrscheinlech mat Senior Fuerscher ze geschéien, déi an enger grousser Organisatioun schaffen. Wahrscheinlech wäert e onbedeitend Technologiekontrakter oder Software Verkeefer eppes op de Knéien schreiwen, mat Open Source Komponenten, Bibliothéiken an Tools déi se net verstinn. An den ongléckleche Client wäert den Ausdrock "kënschtlech Intelligenz" an der Produktbeschreiwung kafen an, ouni Froen ze stellen, et u seng niddereg bezuelte Mataarbechter verdeelen, se bestellen ze maachen wat d'AI seet. Dat ass genee wat mat Datenbanken geschitt ass. Dëst ass keen kënschtlechen Intelligenzproblem, oder souguer e Softwareproblem. Dëst ass de mënschleche Faktor.

Konklusioun

Maschinnléiere kann alles maachen wat Dir en Hond léiere kënnt - awer Dir kënnt ni sécher sinn wat Dir den Hond genau geléiert hutt.

Ech fille mech dacks wéi wann de Begrëff "kënschtlech Intelligenz" nëmme sou Gespréicher am Wee steet. Dëse Begrëff gëtt de falschen Androck datt mir et tatsächlech erstallt hunn - dës Intelligenz. Dass mir op de Wee op HAL9000 oder Skynet sinn - eppes wat eigentlech versteet. Awer nee. Dëst si just Maschinnen, an et ass vill méi präzis fir se mat z.B. eng Wäschmaschinn ze vergläichen. Si mécht d'Wäsch vill besser wéi e Mënsch, awer wann Dir Platen an hir setzt anstatt d'Wäsch, hatt ... wäscht se. D'Platen wäerte souguer propper ginn. Awer dëst wäert net sinn wat Dir erwaart hutt, an dëst wäert net geschéien, well de System Viruerteeler iwwer Platen huet. D'Wäschmaschinn weess net wat Platen sinn oder wat Kleeder sinn - et ass just e Beispill vun der Automatisatioun, konzeptuell net anescht wéi d'Prozesser virdrun automatiséiert goufen.

Egal ob mir iwwer Autoen, Fligeren oder Datenbanken schwätzen, dës Systemer wäerte souwuel ganz mächteg a ganz limitéiert sinn. Si wäerten ganz ofhänken wéi d'Leit dës Systemer benotzen, ob hir Intentiounen gutt oder schlecht sinn, a wéi vill se verstinn wéi se funktionnéieren.

Dofir, ze soen datt "kënschtlech Intelligenz Mathematik ass, also kann et keng Biases hunn" ass komplett falsch. Awer et ass gläich falsch ze soen datt Maschinnléieren "subjektiv an der Natur" ass. Maschinn Léieren fënnt Musteren an Daten, a wéi eng Mustere et fënnt hänkt vun den Daten of, an d'Donnéeën hänkt vun eis of. Just wéi wat mir mat hinnen maachen. Maschinnléieren mécht e puer Saachen vill besser wéi mir kënnen - awer Hënn, zum Beispill, si vill méi effektiv wéi Mënschen fir Drogen z'entdecken, wat kee Grond ass fir se als Zeien ze benotzen an Uerteeler op Basis vun hirem Zeegnes ze maachen. An Hënn, iwwregens, si vill méi clever wéi all Maschinnléieresystem.

Iwwersetzung: Diana Letskaya.
Änneren: Aleksey Ivanov.
Communautéit: @PonchikNews.

Source: will.com

Setzt e Commentaire