Olie- en gasindustrie als voorbeeld voor edge cloud-systemen

Vorige week organiseerde mijn team een ​​spannend evenement in het Four Seasons Hotel in Houston, Texas. Het was bedoeld om de trend van het ontwikkelen van nauwere relaties tussen deelnemers voort te zetten. Het was een evenement dat gebruikers, partners en klanten samenbracht. Daarnaast waren er veel vertegenwoordigers van Hitachi aanwezig op het evenement. Bij het organiseren van deze onderneming hebben we onszelf twee doelen gesteld:

  1. Belangstelling bevorderen voor lopend onderzoek naar nieuwe industriële problemen;
  2. Bekijk de gebieden waarop we al werken en ontwikkelen, evenals hun aanpassingen op basis van gebruikersfeedback.

Doug Gibson en Matt Hall (Agile geowetenschappen) begon met het bespreken van de toestand van de sector en de verschillende uitdagingen die verband houden met het beheer en de verwerking van seismische gegevens. Het was behoorlijk inspirerend en zeker onthullend om te horen hoe investeringsvolumes verdeeld zijn over productie, transport en verwerking. Meer recentelijk ging het leeuwendeel van de investeringen naar de productie, die ooit de koning was in termen van de omvang van de geconsumeerde middelen, maar de investeringen verschuiven geleidelijk naar verwerking en transport. Matt vertelde over zijn passie voor het letterlijk observeren van de geologische ontwikkeling van de aarde met behulp van seismische gegevens.

Olie- en gasindustrie als voorbeeld voor edge cloud-systemen

Over het geheel genomen geloof ik dat ons evenement kan worden beschouwd als een "eerste optreden" voor het werk waarmee we enkele jaren geleden zijn begonnen. We zullen u blijven informeren over verschillende prestaties en successen in ons werk in deze richting. Vervolgens hielden we, geïnspireerd door een lezing van Matt Hall, een reeks sessies die resulteerden in een zeer waardevolle uitwisseling van ervaringen.

Olie- en gasindustrie als voorbeeld voor edge cloud-systemen

Edge (edge) of cloud computing?

In één sessie leidden Doug en Ravi (Hitachi Research in Santa Clara) een discussie over hoe je bepaalde analyses naar edge computing kunt verplaatsen voor snellere, nauwkeurigere besluitvorming. Daar zijn veel redenen voor, en ik denk dat de drie belangrijkste smalle datakanalen, grote hoeveelheden data (zowel qua snelheid, volume als variëteit) en strakke beslissingsschema's zijn. Hoewel sommige processen (vooral geologische processen) weken, maanden of jaren in beslag kunnen nemen, zijn er in deze sector veel gevallen waarin urgentie van bijzonder belang is. In dit geval kan het onvermogen om toegang te krijgen tot de gecentraliseerde cloud desastreuze gevolgen hebben! Met name HSE-kwesties (gezondheid, veiligheid en milieu) en kwesties die verband houden met de olie- en gasproductie vereisen snelle analyse en besluitvorming. Misschien is de beste manier om dit met verschillende cijfers te illustreren – de specifieke details blijven anoniem om “de onschuldigen te beschermen”.

  • Last mile draadloze netwerken worden geüpgraded in plaatsen als het Permian Basin, waarbij kanalen van de satelliet (waar snelheden werden gemeten in kbps) worden verplaatst naar een 10 Mbps-kanaal met behulp van 4G/LTE of een spectrum zonder licentie. Zelfs deze gemoderniseerde netwerken kunnen het lastig hebben als ze worden geconfronteerd met terabytes en petabytes aan data aan de edge.
  • Sensorsystemen van bedrijven als FOTECH, die zich aansluiten bij een verscheidenheid aan andere nieuwe en gevestigde sensorplatforms, kunnen meerdere terabytes per dag produceren. Extra digitale camera's die worden geïnstalleerd voor veiligheidstoezicht en diefstalbeveiliging genereren ook grote hoeveelheden gegevens, wat betekent dat aan de grens een volledig scala aan big data-categorieën (volume, snelheid en variëteit) wordt gegenereerd.
  • Voor seismische systemen die worden gebruikt voor gegevensverzameling, omvatten de ontwerpen "geconvergeerde" ISO-gecontaineriseerde systemen om seismische gegevens te verzamelen en opnieuw te formatteren, mogelijk tot een schaal van 10 petabytes aan gegevens. Vanwege de afgelegen locaties waarop deze intelligentiesystemen opereren, is er een ernstig gebrek aan bandbreedte om gegevens via netwerken van de ‘last mile edge’ naar het datacenter te verplaatsen. Servicebedrijven sturen dus letterlijk gegevens van de edge naar het datacenter op tape, optische of robuuste magnetische opslagapparaten.
  • Exploitanten van brownfieldfabrieken, waar elke dag duizenden gebeurtenissen en tientallen rode alarmen plaatsvinden, willen optimaal en consistenter opereren. Netwerken met een lage datasnelheid en vrijwel geen opslagfaciliteiten voor het verzamelen van gegevens voor analyse in fabrieken suggereren echter dat er iets fundamentelers nodig is voordat de basisanalyse van de huidige activiteiten kan beginnen.

Dit doet mij zeker denken dat, hoewel publieke cloudproviders al deze gegevens naar hun platforms proberen te verplaatsen, er een harde realiteit is waar ze mee moeten proberen om te gaan. De beste manier om dit probleem te classificeren is misschien wel het proberen een olifant door een rietje te duwen! Veel van de voordelen van de cloud zijn echter essentieel. Dus, wat kunnen we doen?

Op weg naar de edge-cloud

Natuurlijk heeft Hitachi al (branchespecifieke) geoptimaliseerde oplossingen op de markt die data aan de edge verrijken, analyseren en comprimeren tot een minimaal bruikbaar datavolume, en bedrijfsadviessystemen bieden die processen die verband houden met edge computing kunnen verbeteren. Mijn conclusie van vorige week is echter dat de oplossingen voor deze complexe problemen minder te maken hebben met de widget die je ter tafel brengt, maar meer met de aanpak die je hanteert om het probleem op te lossen. Dit is echt de geest van het Lumada-platform van Hitachi Insight Group, omdat het methoden omvat om gebruikers en ecosystemen te betrekken en, waar nodig, instrumenten voor discussie biedt. Ik was erg blij dat ik weer problemen kon oplossen (in plaats van producten te verkopen), want Matt Hall zei: “Ik was blij om te zien dat de mensen van Hitachi de omvang van het probleem echt begonnen te begrijpen” toen we onze top afsloten.

Kan O&G (olie- en gasindustrie) dus een levend voorbeeld zijn van de noodzaak om edge computing te implementeren? Het lijkt erop dat, gezien de problemen die tijdens onze top aan het licht zijn gekomen, en andere interacties binnen de sector, het antwoord waarschijnlijk ja is. Misschien is de reden dat dit zo duidelijk is, dat edge computing, industriegericht bouwen en de vermenging van cloudontwerppatronen duidelijk zichtbaar worden naarmate stacks moderniseren. Ik ben van mening dat in dit geval de vraag ‘hoe’ aandacht verdient. Met behulp van het citaat van Matt uit de laatste paragraaf begrijpen we hoe we het ethos van cloud computing naar edge computing kunnen pushen. In wezen vereist deze industrie dat we 'ouderwetse' en soms persoonlijke contacten hebben met mensen die betrokken zijn bij verschillende delen van het ecosysteem van de olie- en gasindustrie, zoals geologen, booringenieurs, geofysici enzovoort. Nu deze interacties zijn opgelost, worden hun reikwijdte en diepgang duidelijker en zelfs overtuigender. Zodra we uitvoeringsplannen hebben gemaakt en geïmplementeerd, besluiten we om edge-cloudsystemen te bouwen. Als we echter in het midden zitten en deze kwesties alleen maar lezen en ons voorstellen, zullen we niet genoeg begrip en empathie hebben om echt ons best te doen. Dus nogmaals: olie en gas zullen leiden tot edge-cloudsystemen, maar het begrijpen van de werkelijke behoeften van gebruikers ter plaatse zal ons helpen bepalen welke kwesties van het allergrootste belang zijn.

Bron: www.habr.com

Voeg een reactie