NeurIPS 2019: ML-trends die ons de komende tien jaar zullen bijblijven

NeuroIPS (Neurale informatieverwerkingssystemen) is 's werelds grootste conferentie over machine learning en kunstmatige intelligentie en het belangrijkste evenement in de wereld van deep learning.

Zullen wij, DS-ingenieurs, in het nieuwe decennium ook biologie, taalkunde en psychologie beheersen? Wij vertellen het je in onze review.

NeurIPS 2019: ML-trends die ons de komende tien jaar zullen bijblijven

Dit jaar bracht de conferentie meer dan 13500 mensen uit 80 landen samen in Vancouver, Canada. Dit is niet het eerste jaar dat Sberbank Rusland vertegenwoordigt op de conferentie - het DS-team sprak over de implementatie van ML in bankprocessen, over de ML-concurrentie en over de mogelijkheden van het Sberbank DS-platform. Wat waren de belangrijkste trends van 2019 in de ML-gemeenschap? Deelnemers aan de conferentie zeggen: Andrej Chertok и Tatjana Shavrina.

Dit jaar accepteerde NeurIPS meer dan 1400 artikelen: algoritmen, nieuwe modellen en nieuwe toepassingen op nieuwe gegevens. Link naar alle materialen

Inhoud:

  • trends
    • Interpreteerbaarheid van modellen
    • Multidisciplinariteit
    • Redenering
    • RL
    • GAN
  • Basisgesprekken op uitnodiging
    • “Sociale Intelligentie”, Blaise Aguera y Arcas (Google)
    • “Veridical Data Science”, Bin Yu (Berkeley)
    • “Modellering van menselijk gedrag met machinaal leren: kansen en uitdagingen”, Nuria M Oliver, Albert Ali Salah
    • “Van Systeem 1 naar Systeem 2 Deep Learning”, Yoshua Bengio

Trends 2019 van het jaar

1. Modelinterpreteerbaarheid en nieuwe ML-methodologie

Het hoofdonderwerp van de conferentie is interpretatie en bewijs van waarom we bepaalde resultaten behalen. Je kunt lang praten over het filosofische belang van de ‘black box’-interpretatie, maar er waren meer reële methoden en technische ontwikkelingen op dit gebied.

De methodologie voor het repliceren van modellen en het extraheren van kennis daaruit is een nieuwe toolkit voor de wetenschap. Modellen kunnen dienen als hulpmiddel om nieuwe kennis te verkrijgen en te testen, en elke fase van voorbewerking, training en toepassing van het model moet reproduceerbaar zijn.
Een aanzienlijk deel van de publicaties is niet gewijd aan de constructie van modellen en hulpmiddelen, maar aan de problemen van het waarborgen van de veiligheid, transparantie en verifieerbaarheid van resultaten. Er is met name een aparte stroom verschenen over aanvallen op het model (vijandige aanvallen), en opties voor zowel aanvallen op training als aanvallen op de toepassing worden overwogen.

artikelen:

NeurIPS 2019: ML-trends die ons de komende tien jaar zullen bijblijven
ExBert.net toont modelinterpretatie voor tekstverwerkingstaken

2. Multidisciplinariteit

Om betrouwbare verificatie te garanderen en mechanismen te ontwikkelen voor het verifiëren en uitbreiden van kennis, hebben we specialisten op aanverwante gebieden nodig die tegelijkertijd competenties hebben op het gebied van ML en op het vakgebied (geneeskunde, taalkunde, neurobiologie, onderwijs, enz.). Het is vooral de moeite waard om de significantere aanwezigheid van werken en toespraken in de neurowetenschappen en de cognitieve wetenschappen op te merken: er is een toenadering tussen specialisten en het lenen van ideeën.

Naast deze toenadering ontstaat er multidisciplinariteit in het gezamenlijk verwerken van informatie uit diverse bronnen: tekst en foto's, tekst en games, grafendatabases + tekst en foto's.

artikelen:

NeurIPS 2019: ML-trends die ons de komende tien jaar zullen bijblijven
Twee modellen - strateeg en leidinggevende - gebaseerd op RL en NLP spelen online strategie

3. Redeneren

Het versterken van kunstmatige intelligentie is een beweging in de richting van zelflerende systemen, ‘bewust’, redeneren en redeneren. Met name causale gevolgtrekkingen en gezond verstand-redeneringen ontwikkelen zich. Sommige rapporten zijn gewijd aan meta-learning (over hoe je kunt leren leren) en de combinatie van DL-technologieën met logica van de eerste en tweede orde - de term Artificial General Intelligence (AGI) wordt een veelgebruikte term in toespraken van sprekers.

artikelen:

4. Versterkend leren

Het meeste werk gaat door met het ontwikkelen van traditionele gebieden van RL - DOTA2, Starcraft, waarbij architecturen worden gecombineerd met computervisie, NLP en grafische databases.

Een aparte dag van de conferentie was gewijd aan een RL-workshop, waarin de architectuur van het Optimistic Actor Critic Model werd gepresenteerd, superieur aan alle voorgaande, in het bijzonder Soft Actor Critic.

artikelen:

NeurIPS 2019: ML-trends die ons de komende tien jaar zullen bijblijven
StarCraft-spelers vechten tegen het Alphastar-model (DeepMind)

5.GAN

Generatieve netwerken staan ​​nog steeds in de schijnwerpers: veel werken gebruiken standaard-GAN's voor wiskundige bewijzen, en passen deze ook op nieuwe, ongebruikelijke manieren toe (grafiekgeneratieve modellen, werken met reeksen, toepassing op oorzaak-en-gevolgrelaties in gegevens, enz.).

artikelen:

Omdat er meer werk werd geaccepteerd 1400 Hieronder bespreken we de belangrijkste toespraken.

Uitgenodigde gesprekken

“Sociale Intelligentie”, Blaise Aguera y Arcas (Google)

Link
Dia's en video's
De lezing concentreert zich op de algemene methodologie van machinaal leren en de vooruitzichten die de sector op dit moment veranderen - op welk kruispunt staan ​​we? Hoe werken het brein en de evolutie, en waarom maken we zo weinig gebruik van wat we al weten over de ontwikkeling van natuurlijke systemen?

De industriële ontwikkeling van ML valt grotendeels samen met de mijlpalen in de ontwikkeling van Google, dat jaar na jaar zijn onderzoek over NeurIPS publiceert:

  • 1997 – lancering van zoekfaciliteiten, eerste servers, kleine rekenkracht
  • 2010 – Jeff Dean lanceert het Google Brain-project, de opkomst van neurale netwerken aan het begin
  • 2015 – industriële implementatie van neurale netwerken, snelle gezichtsherkenning rechtstreeks op een lokaal apparaat, low-level processors op maat gemaakt voor tensor computing - TPU. Google lanceert Coral ai - een analoog van Raspberry Pi, een minicomputer voor het introduceren van neurale netwerken in experimentele installaties
  • 2017 – Google begint gedecentraliseerde training te ontwikkelen en de resultaten van neurale netwerktraining van verschillende apparaten te combineren in één model – op Android

Tegenwoordig houdt een hele industrie zich bezig met gegevensbeveiliging, aggregatie en replicatie van leerresultaten op lokale apparaten.

Federaal leren – een richting van ML waarin individuele modellen onafhankelijk van elkaar leren en vervolgens worden gecombineerd tot één enkel model (zonder de brongegevens te centraliseren), aangepast voor zeldzame gebeurtenissen, afwijkingen, personalisatie, enz. Alle Android-apparaten zijn in wezen één computersupercomputer voor Google.

Generatieve modellen gebaseerd op federatief leren zijn volgens Google een veelbelovende toekomstige richting, die zich “in de vroege stadia van exponentiële groei bevindt.” GAN's zijn volgens de docent in staat om het massagedrag van populaties van levende organismen en denkalgoritmen te leren reproduceren.

Aan de hand van het voorbeeld van twee eenvoudige GAN-architecturen wordt aangetoond dat daarin de zoektocht naar een optimalisatiepad in een cirkel rondloopt, wat betekent dat optimalisatie als zodanig niet plaatsvindt. Tegelijkertijd zijn deze modellen zeer succesvol in het simuleren van de experimenten die biologen uitvoeren met bacteriepopulaties, waardoor ze gedwongen worden nieuwe gedragsstrategieën te leren op zoek naar voedsel. We kunnen concluderen dat het leven anders werkt dan de optimalisatiefunctie.

NeurIPS 2019: ML-trends die ons de komende tien jaar zullen bijblijven
Lopende GAN-optimalisatie

Het enige wat we nu in het raamwerk van machinaal leren doen, zijn beperkte en extreem geformaliseerde taken, terwijl deze formalismen niet goed generaliseren en niet overeenkomen met onze vakkennis op gebieden als neurofysiologie en biologie.

Wat in de nabije toekomst echt de moeite waard is om te lenen uit het veld van de neurofysiologie zijn nieuwe neuronarchitecturen en een kleine herziening van de mechanismen die fouten terugbrengen.

Het menselijk brein zelf leert niet als een neuraal netwerk:

  • Hij beschikt niet over willekeurige primaire input, inclusief die welke via de zintuigen en in de kindertijd wordt vastgelegd
  • Hij heeft inherente richtingen van instinctieve ontwikkeling (de wens om taal te leren van een baby, rechtop lopend)

Het trainen van individuele hersenen is een taak op laag niveau; misschien moeten we “kolonies” van snel veranderende individuen overwegen die kennis aan elkaar doorgeven om de mechanismen van groepsevolutie te reproduceren.

Wat we nu kunnen toepassen in ML-algoritmen:

  • Pas cellijnmodellen toe die het leren van de bevolking garanderen, maar de korte levensduur van het individu (“individueel brein”)
  • Weinig-shot leren met behulp van een klein aantal voorbeelden
  • Complexere neuronstructuren, iets andere activeringsfuncties
  • Het ‘genoom’ overbrengen naar volgende generaties - backpropagation-algoritme
  • Zodra we neurofysiologie en neurale netwerken met elkaar verbinden, zullen we leren een multifunctioneel brein op te bouwen uit vele componenten.

Vanuit dit oogpunt is de praktijk van SOTA-oplossingen schadelijk en moet deze worden herzien met het oog op de ontwikkeling van gemeenschappelijke taken (benchmarks).

“Veridical Data Science”, Bin Yu (Berkeley)

Video's en dia's
Het rapport is gewijd aan het probleem van het interpreteren van machine learning-modellen en de methodologie voor het direct testen en verifiëren ervan. Elk getraind ML-model kan worden gezien als een bron van kennis die eruit moet worden gehaald.

Op veel gebieden, vooral in de geneeskunde, is het gebruik van een model onmogelijk zonder deze verborgen kennis te extraheren en de resultaten van het model te interpreteren. Anders zijn we er niet zeker van dat de resultaten stabiel, niet-willekeurig en betrouwbaar zullen zijn en de geduldig. Binnen het deep learning-paradigma ontwikkelt zich een hele richting van werkmethodologie en gaat verder dan zijn grenzen: waarheidsgetrouwe datawetenschap. Wat het is?

We willen een zodanige kwaliteit van wetenschappelijke publicaties en reproduceerbaarheid van modellen bereiken dat ze:

  1. voorspelbaar
  2. berekenbaar
  3. stal

Deze drie principes vormen de basis van de nieuwe methodiek. Hoe kunnen ML-modellen aan deze criteria worden getoetst? De eenvoudigste manier is om direct interpreteerbare modellen te bouwen (regressies, beslissingsbomen). We willen echter ook de onmiddellijke voordelen van deep learning benutten.

Verschillende bestaande manieren om met het probleem te werken:

  1. het model interpreteren;
  2. gebruik methoden gebaseerd op aandacht;
  3. gebruik ensembles van algoritmen bij het trainen en zorg ervoor dat lineair interpreteerbare modellen dezelfde antwoorden leren voorspellen als het neurale netwerk, waarbij ze kenmerken uit het lineaire model interpreteren;
  4. trainingsgegevens wijzigen en uitbreiden. Dit omvat het toevoegen van ruis, interferentie en datavergroting;
  5. alle methoden die ervoor zorgen dat de resultaten van het model niet willekeurig zijn en niet afhankelijk zijn van kleine ongewenste interferentie (vijandige aanvallen);
  6. interpreteer het model achteraf, na training;
  7. bestudeer functiegewichten op verschillende manieren;
  8. bestudeer de waarschijnlijkheden van alle hypothesen, klassenverdeling.

NeurIPS 2019: ML-trends die ons de komende tien jaar zullen bijblijven
Tegenstrijdige aanval voor een varken

Modelleringsfouten zijn voor iedereen kostbaar: een goed voorbeeld is het werk van Reinhart en Rogov."Groei in een tijd van schulden' beïnvloedde het economisch beleid van veel Europese landen en dwong hen een bezuinigingsbeleid te voeren, maar een zorgvuldige hercontrole van de gegevens en de verwerking ervan jaren later liet het tegenovergestelde resultaat zien!

Elke ML-technologie heeft zijn eigen levenscyclus, van implementatie tot implementatie. Het doel van de nieuwe methodologie is om in elke fase van de levensduur van het model drie basisprincipes te controleren.

De resultaten:

  • Er worden verschillende projecten ontwikkeld die het ML-model betrouwbaarder zullen maken. Dit is bijvoorbeeld deeptune (link naar: github.com/ChrisCummins/paper-end2end-dl);
  • Voor verdere ontwikkeling van de methodologie is het noodzakelijk om de kwaliteit van publicaties op het gebied van ML aanzienlijk te verbeteren;
  • Machine learning heeft leiders nodig met multidisciplinaire training en expertise op zowel technisch als geesteswetenschappelijk gebied.

“Modellering van menselijk gedrag met machinaal leren: kansen en uitdagingen” Nuria M Oliver, Albert Ali Salah

Lezing gewijd aan het modelleren van menselijk gedrag, de technologische grondslagen en toepassingsmogelijkheden ervan.

Modellering van menselijk gedrag kan worden onderverdeeld in:

  • individueel gedrag
  • gedrag van een kleine groep mensen
  • massa gedrag

Elk van deze typen kan worden gemodelleerd met behulp van ML, maar met totaal verschillende invoerinformatie en functies. Elk type heeft ook zijn eigen ethische kwesties waar elk project doorheen gaat:

  • individueel gedrag – identiteitsdiefstal, deepfake;
  • gedrag van groepen mensen - de-anonimiseren, informatie verkrijgen over bewegingen, telefoongesprekken, enz.;

individueel gedrag

Meestal gerelateerd aan het onderwerp Computer Vision - herkenning van menselijke emoties en reacties. Misschien alleen in context, in de tijd, of met de relatieve omvang van zijn eigen variabiliteit van emoties. De dia toont de herkenning van de emoties van Mona Lisa aan de hand van context uit het emotionele spectrum van mediterrane vrouwen. Resultaat: een glimlach van vreugde, maar met minachting en walging. De reden ligt hoogstwaarschijnlijk in de technische manier om een ​​‘neutrale’ emotie te definiëren.

Gedrag van een kleine groep mensen

Het slechtste model tot nu toe is te wijten aan onvoldoende informatie. Als voorbeeld werden werken uit de periode 2018 – 2019 getoond. op tientallen mensen X tientallen video's (zie 100k++ beelddatasets). Om deze taak zo goed mogelijk te modelleren is multimodale informatie nodig, bij voorkeur van sensoren op een lichaamshoogtemeter, thermometer, microfoonopname, enz.

Massa gedrag

Het meest ontwikkelde gebied, aangezien de klant de VN en vele staten is. Buitenbewakingscamera's, gegevens van telefoontorens - facturering, sms, oproepen, gegevens over verkeer tussen staatsgrenzen - dit alles geeft een zeer betrouwbaar beeld van de beweging van mensen en sociale instabiliteit. Mogelijke toepassingen van de technologie: optimalisatie van reddingsoperaties, hulpverlening en tijdige evacuatie van de bevolking tijdens noodsituaties. De gebruikte modellen worden vooral nog slecht geïnterpreteerd – het gaat om diverse LSTM’s en convolutionele netwerken. Er was een korte opmerking dat de VN lobbyde voor een nieuwe wet die Europese bedrijven zou verplichten geanonimiseerde gegevens te delen die nodig zijn voor elk onderzoek.

“Van Systeem 1 naar Systeem 2 Deep Learning”, Yoshua Bengio

Dia's
In de lezing van Joshua Bengio ontmoet deep learning neurowetenschappen op het niveau van het stellen van doelen.
Bengio identificeert twee hoofdtypen problemen volgens de methodologie van Nobelprijswinnaar Daniel Kahneman (boek “Denk langzaam, beslis snel")
type 1 - Systeem 1, onbewuste acties die we “automatisch” doen (oude hersenen): autorijden op bekende plaatsen, lopen, gezichten herkennen.
type 2 - Systeem 2, bewuste acties (hersenschors), doelen stellen, analyse, denken, samengestelde taken.

AI heeft tot nu toe alleen voldoende hoogten bereikt in taken van het eerste type, terwijl het onze taak is om het naar het tweede type te brengen, door het te leren multidisciplinaire operaties uit te voeren en te werken met logica en cognitieve vaardigheden op hoog niveau.

Om dit doel te bereiken wordt voorgesteld:

  1. gebruik bij NLP-taken aandacht als een belangrijk mechanisme voor het modelleren van denken
  2. gebruik meta-learning en representatie-leren om kenmerken die het bewustzijn en de lokalisatie ervan beïnvloeden beter te modelleren - en ga op basis daarvan verder met het werken met concepten op een hoger niveau.

In plaats van een conclusie is hier een lezing op uitnodiging: Bengio is een van de vele wetenschappers die proberen het veld van ML uit te breiden buiten optimalisatieproblemen, SOTA en nieuwe architecturen.
De vraag blijft open in hoeverre de combinatie van bewustzijnsproblemen, de invloed van taal op het denken, neurobiologie en algoritmen ons in de toekomst te wachten staat en ons in staat zal stellen over te stappen op machines die ‘denken’ als mensen.

Dank je wel!



Bron: www.habr.com

Voeg een reactie