Huis audio Edge-analyse: eindelijk de iot-economie

Edge-analyse: eindelijk de iot-economie

Anonim

Door Techopedia Staff, 22 september 2016

Takeaway: Host Rebecca Jozwiak bespreekt edge-analytics met Dr. Robin Bloor, Dez Blanchfield en Shawn Rogers van Dell Statistica.

Je bent momenteel niet ingelogd. Log in of meld je aan om de video te bekijken.

Rebecca Jozwiak: Dames en heren, hallo en welkom bij Hot Technologies van 2016. Vandaag hebben we “Edge Analytics: eindelijk de IoT Economy.” Mijn naam is Rebecca Jozwiak. Ik zal je moderator zijn voor de webcast van vandaag. We tweeten met een hashtag van # HOTTECH16 als je mee wilt doen aan het Twitter-gesprek.

Dus het IoT, dit jaar absoluut een hot topic en het internet der dingen, het gaat echt over de machinegegevens, sensorgegevens, loggegevens, apparaatgegevens. Niets van dit alles is nieuw, we hebben dat soort gegevens voor altijd gehad, maar het is dat we het niet echt hebben kunnen gebruiken en nu zien we slechts een heleboel nieuwe manieren om die gegevens te gebruiken. Met name in de medische industrie, de financiële markten, met olie en gas, grondstoffen, is het gewoon een schat aan informatie die eerder ongebruikt was. En niet heel veel mensen hebben echt goed begrepen hoe ze dat goed moeten doen. We hebben het over veel kleine gegevens, maar het zijn veel gegevens en, weet je, er zijn netwerkproblemen aan de orde, er is hardware aan de orde, of moet worden verwerkt, en hoe doe je dat zonder je systeem te verstoppen? Dat gaan we vandaag leren kennen.

Hier is onze line-up van experts. We hebben Dr. Robin Bloor, onze hoofdanalist bij The Bloor Group. We hebben ook Dez Blanchfield, onze datawetenschapper bij The Bloor Group. En we zijn blij dat Shawn Rogers, directeur van wereldwijde marketing en kanalen van Dell Statistica, aanwezig is. En daarmee geef ik de bal aan Robin.

Dr. Robin Bloor: Oké, daarvoor bedankt. Ik zal op een knop drukken en een dia gooien. Ik heb geen idee waarom ik deze apocalyptische foto voor het internet der dingen heb gemaakt. Mogelijk omdat ik denk dat het uiteindelijk chaotisch gaat worden. Ik ga rechtdoor. Dit is de standaard voor elke IoT-presentatie. Je moet op de een of andere manier iets schandelijks zeggen over waar het allemaal heen gaat. En eigenlijk is het meeste waarschijnlijk waar. Als je echt kijkt naar de manier waarop deze krommen zich geleidelijk uitbreiden. Weet je, personal computers, smartphones en tablets zullen waarschijnlijk blijven stijgen. Smart TV's zullen waarschijnlijk stijgen. Wearables, ze zijn waarschijnlijk nu aan het exploderen, vergeleken met wat ze een paar jaar geleden waren. Aangesloten auto's, onvermijdelijk dat vrijwel alle auto's door en door breed worden verbonden en voortdurend gegevens doorgeven. En al het andere. En deze specifieke grafiek van BI Intelligence geeft aan dat al het andere heel, heel snel zwaarder weegt dan de voor de hand liggende dingen.

Dus wat te zeggen over het IoT? Het eerste is slechts een architectonisch punt. Weet je, wanneer je gegevens hebt en je op een of andere manier moet verwerken, moet je die twee samenvoegen. En met gegevens op de volumes die het nu is, en op verschillende plaatsen verzamelen, zijn de twee niet meer vanzelfsprekend samen. Ik veronderstel dat ze vroeger in de mainframedagen waren. Je kunt dus denken aan een verwerkingslaag, een transportlaag en een gegevenslaag. En op de een of andere manier gaat transportlaag tegenwoordig de verwerking verplaatsen of de gegevens over netwerken verplaatsen. Dus hier zijn de keuzes: U kunt de gegevens naar de verwerking verplaatsen, u kunt de verwerking naar de gegevens verplaatsen, u kunt de verwerking en de gegevens naar een handig uitvoeringspunt verplaatsen, of u kunt de verwerking scherven en de gegevens scherven. En wat het internet der dingen betreft, worden de gegevens vrijwel al bij de geboorte weggegooid en de kans is groot dat een groot deel van de verwerking zal worden weggegooid zodat de toepassingen die moeten worden uitgevoerd, kunnen worden uitgevoerd.

Dus ik heb een foto geschilderd. Het interessante voor mij over het IoT, ik heb het over een aggregatiedomein in dit diagram en ik wijs erop dat er subdomeinen zijn. Je kunt je dus voorstellen dat het IoT-domein 1 hier een soort auto is, en domein 2 en domein 3 en domein 4, auto's van een soort, en je verzamelt gegevens lokaal, je voert lokale apps op die gegevens uit, en je zult verschillende dingen in daden omzetten. Maar om analyses over alle auto's te hebben, moet je gegevens naar het centrum overbrengen, niet noodzakelijkerwijs alle gegevens, maar je moet in het midden verzamelen. En als je erover nadenkt, wil je misschien heel veel verschillende aggregatiedomeinen voor dezelfde set IoT-dingen. En de domeinen zelf kunnen verder aggregeren. Dus je zou deze herhalende hiërarchie kunnen hebben. En eigenlijk hebben we daar een ongelooflijk complex netwerk. Veel complexer dan alles wat we eerder moesten hebben.

Ik heb onderaan een briefje. Alle netwerkknooppunten, inclusief bladknooppunten, kunnen gegevensontwikkelaars, gegevensopslagplaatsen en verwerkingspunten zijn. En dat geeft u een mogelijkheid van distributie, zoals we nog niet eerder hebben gezien. Dez gaat daar wat meer over praten, dus ik ga verder met dit specifieke punt. Als we eenmaal op het internet van de dingen zijn en alle gegevens daadwerkelijk zijn omgezet in evenementen, is het punt van deze dia alleen maar om aan te geven dat we op evenementen moeten standaardiseren. We zullen dit op zijn minst moeten hebben. We hebben de tijd dat het evenement plaatsvond, de geografische locatie waarop het plaatsvond, de virtuele of logische locatie van het proces dat het heeft gemaakt, het bronapparaat dat het heeft gemaakt, apparaat-ID zodat u precies weet welk bronapparaat het heeft gemaakt, eigendom van de gegevens en acteurs, die mensen die het recht hebben om de gegevens op de een of andere manier te gebruiken, het zal zijn permissies erbij moeten dragen, wat betekent dat het echt veiligheid moet hebben, en dan is er de gegevens zelf. En als je dit bekijkt, realiseer je je dat, weet je, zelfs als je een sensor hebt die niets meer doet dan elke seconde de temperatuur van iets melden, er eigenlijk heel veel gegevens zijn om precies te identificeren waar de gegevens precies zijn is ontstaan ​​en wat het eigenlijk is. Dit is trouwens geen uitputtende lijst.

Dus, in termen van het toekomstige IT-landschap, is de manier waarop ik het zie: dat het niet alleen het internet van dingen is, er is ook het feit dat we in een wereld van gebeurtenisgestuurde activiteiten zullen zijn, en daarom zullen event-driven architecturen moeten hebben, en die architecturen zullen grote netwerken moeten omvatten. En het andere is real-time alles, het is niet noodzakelijkerwijs het geval voor ons om real-time te zijn, maar er is iets dat ik business-time noem, de tijd waarin gegevens daadwerkelijk moeten worden geserveerd en gereed zijn te verwerken. Dat is misschien geen milliseconde nadat het is gemaakt. Maar er is altijd zo'n tijd voor elk stukje gegevens en als je eenmaal een gebeurtenisgestuurde architectuur hebt, wordt het verstandiger om te denken in termen van een realtime benadering van de manier waarop de wereld werkt.

Dus het komt erop neer, want we hebben het eigenlijk over analyses op het IoT. Ondanks dat alles draait het allemaal om tijd tot inzicht, en het is niet alleen tijd voor inzicht, inzicht moet worden gevolgd door acties. Dus tijd voor inzicht en tijd voor actie is waar ik op neer zou komen. Dat gezegd hebbende, zal ik de bal teruggeven aan Dez.

Dez Blanchfield: Bedankt, Robin. Inzicht zoals altijd. Ik ben dol op het feit dat het moeilijk is om elke keer te volgen, maar ik zal mijn best doen.

Een van de dingen die ik zie, en ik word er vaak door vermaakt, om eerlijk te zijn, en niet in een oneerlijke en negatieve schuine vorm, maar er is veel bezorgdheid en paniek over het internet van dingen die de wereld overnemen en slot ons en je zult je gegevens beginnen te verliezen, dus ik wil een beetje terugblikken op enkele van de dingen die we eerder hebben gedaan in de laatste twee tot drie decennia die een facsimile voor het internet waren van dingen, maar misschien niet helemaal op dezelfde schaal. En gewoon om onszelf te laten zien dat we hier echt zijn geweest en enkele problemen hebben opgelost, niet op dit schaalniveau en niet op deze snelheid. Omdat het betekent dat we het probleem daadwerkelijk kunnen oplossen en dat we weten wat enkele antwoorden zijn; we moeten gewoon naar beneden gaan en enkele van de lessen die we eerder hadden, opnieuw toepassen. En ik weet dat dit het hele gesprek is dat we gaan voeren en ik heb een hele reeks leuke dingen om gewoon door te praten in de Q & A-sectie.

Maar als we nadenken over het internet van dingen in de cirkel, is er op dit moment veel centralisatie op een ontwerpniveau dat al in de vroege dagen werd geschreven. Fitbit-apparaten gaan bijvoorbeeld allemaal naar één centrale plek en het wordt waarschijnlijk ergens gehost in een cloudplatform en al die gegevens van al die apparaten raken hetzelfde, laten we zeggen, front-end van een stapel, inclusief internet en app en op gegevens gebaseerde services. Maar na verloop van tijd vereist die schaal een re-engineering om te gaan met de hoeveelheid gegevens die op hen afkomt en ze zullen dat opnieuw ontwerpen zodat er meerdere front-ends en meerdere kopieën van de stapel op meerdere locaties en regio's zijn. En we zien dit en er zijn een aantal voorbeelden die ik je ga geven die we kunnen bespreken.

Het belangrijkste punt hiervan is dat hoewel we enkele van deze oplossingen die ik ga behandelen hebben gezien, de schaal en het volume van de gegevens en het netwerkverkeer dat het internet van dingen zal genereren dringend een verschuiving van centraal vereist naar mijn mening gedistribueerde architecturen, en we weten dit, maar we hebben niet noodzakelijk begrepen wat de oplossing is. Als we nadenken over het concept van wat het internet der dingen is, is het een grootschalig netwerkmodel. Het zijn heel veel dingen die nu lawaai maken. Dingen die tot voor kort geen lawaai maakten. En eigenlijk denk ik dat het gisteren was, grapte ik over de stapel, maar ik ging een nieuwe broodrooster kopen en deze kwam met een optie die me verschillende dingen kon vertellen, inclusief wanneer het moest worden gereinigd. En een nieuwe magnetron met een zeer vergelijkbare functie en kon zelfs een app op mijn telefoon pingen om te zeggen dat het ding dat ik aan het opwarmen was, nu was gedaan. En ik ben zeer van mening dat als er een paar dingen zijn die ik niet met me wil praten, het mijn koelkast, magnetron en broodroosters zijn. Ik voel me behoorlijk op mijn gemak als ze domme apparaten zijn. Maar ik heb onlangs een nieuwe auto, een beetje Audi, en die spreekt me aan en ik ben daar best blij mee, omdat de dingen waarover hij praat interessant zijn. Zoals kaarten in realtime bijwerken om me te vertellen waar er een betere route is om van punt A naar punt B te komen, omdat het verkeer door verschillende mechanismen met gegevens wordt gedetecteerd die het wordt verzonden.

Ik heb deze dia. We hebben al gezien dat de grootschalige netwerkmodellen een verschuiving vereisen van centrale naar gedistribueerde vastlegging en levering van gegevensverwerkings- en analysemodellen. We hebben dingen zien bewegen van de drie kleine grafiekdiagrammen daar aan de rechterkant waar we hebben, die links van de drie, er is een gecentraliseerd model met alle kleine apparaten op de centrale locatie en gegevens verzamelen en de schaal is niet zo groot, ze kunnen het daar prima aan. In het midden hebben we een iets meer gedecentraliseerd model en hub en spaak, dat is wat ik denk dat we nodig zullen hebben met het internet der dingen in de volgende generatie. En dan aan de rechterkant hebben we dit volledig gedistribueerde en gemaasde netwerk, waar het internet van dingen en machine-to-machine in de toekomst op zeer korte termijn naartoe gaat, maar we zijn niet helemaal daar om verschillende redenen. En vooral omdat we tot nu toe internetplatforms gebruiken voor de meeste communicatie en we eigenlijk geen tweede netwerk hebben gebouwd om veel van deze gegevens te vervoeren.

Er zijn tweede netwerken die al bestaan, zoals het Batelco-netwerk. Veel mensen denken er niet aan dat de telecomnetwerken geen internet zijn. Het internet is op veel manieren een heel ander ding. Ze routeren gegevens van smartphones via de telefoonnetwerken, en vervolgens via de telefoonnetwerken en naar internet in het algemeen, waar ze ze eigenlijk in twee netwerken onderbrengen. Maar het is heel goed mogelijk en waarschijnlijk dat het internet der dingen een ander netwerk nodig heeft. We hebben het over het industriële internet als onderwerp in het algemeen, waar we nu niet verder op in gaan, maar in wezen hebben we het over een ander netwerk dat specifiek is ontworpen voor het soort vervoer voor gegevens of internet van dingen en machine-to-machine communicatie.

Maar sommige van de voorbeelden die ik wilde delen waar we netwerken met grote volumes en gedistribueerde gegevens heel goed hebben zien werken, zijn dingen zoals internet. Het internet is vanaf de eerste dag specifiek ontworpen en ontworpen om een ​​nucleaire oorlog te kunnen overleven. Als delen van de VS worden opgeblazen, is internet zo ontworpen dat gegevens zonder pakketverlies over het internet kunnen worden verplaatst om redenen dat we nog steeds verbonden zijn. En dat bestaat vandaag nog steeds op wereldschaal. Het internet heeft meerdere mogelijkheden rond redundantie en routeringspakketten. En in feite wordt het internet bestuurd door een ding dat BGP, Border Gateway Protocol wordt genoemd, en het Border Gateway Protocol, BGP, is specifiek ontworpen om te zorgen dat een router of switch of server niet werkt. Wanneer u een e-mail verzendt of ontvangt en u drie e-mails achter elkaar verzendt, is er geen garantie dat elk van die e-mails dezelfde route naar dezelfde eindbestemming zal volgen. Ze kunnen om verschillende redenen door verschillende delen van het internet gaan. Er kan een storing zijn, er kunnen onderhoudsvensters zijn waar dingen offline zijn om te upgraden, er kan gewoon congestie in het netwerk zijn, en we zien dat met dingen zoals verkeersnetwerken met auto's en openbaar vervoer en schepen en vliegtuigen. We krijgen elke dag content op onze apparaten zoals onze laptops en tablets en computers via browsers enzovoort via netwerken voor contentlevering. Inhoudsleveringsnetwerken gaan over het nemen van kopieën van inhoud van uw primaire serverplatform zoals de webserver en het verplaatsen van kopieën daarvan en de cache kleine hoeveelheden naar de rand van het netwerk en deze alleen aan u leveren vanaf het dichtstbijzijnde deel van de rand.

Anti-spam en cybersecurity - als een spam-evenement plaatsvindt in Canada en Microsoft het detecteert en ziet dat er veel kopieën van dezelfde e-mail naar een groep willekeurige mensen worden verzonden, worden daarop controlesommen gebruikt, een handtekening voor dat bericht is gemaakt en in een netwerk geplaatst en onmiddellijk gedistribueerd. En zodat e-mail nooit in mijn inbox terechtkomt, of anders wel, wordt het meteen als spam getagd omdat het ergens anders in de rand van het netwerk is gedetecteerd. En dus worden andere delen van de rand van het netwerk verteld over deze handtekening van spamberichten en het wordt in de index van een database geplaatst en als die berichten aan de andere kant van de planeet verschijnen, detecteren we ze en weten we dat ze spam zijn. En hetzelfde geldt voor cybersecurity. Een hack die aan de ene kant van de planeet plaatsvindt, wordt gedetecteerd en geregistreerd en in kaart gebracht en aan de andere kant van het netwerk kunnen we het bestrijden en de regels en beleidsregels indienen en wijzigen om te zien of we het kunnen blokkeren. Vooral met de nieuwe impact van zaken als denial-of-service of gedistribueerde denial-of-service waarbij duizenden machines worden gebruikt om een ​​centrale website aan te vallen.

Bitcoin en de blockchain zijn standaard een gedistribueerd grootboek, de blockchain, en gaan om met eventuele storingen of breuken in het netwerk. Fraudedetectie en -preventie, stroom- en waterbedrijven - we zien, u kent het stroomnetwerk, als een deel van het netwerk er een boom op krijgt en een paal en een draad eruit haalt, krijgt mijn huis nog steeds stroom. Ik weet het niet eens, ik zie het vaak niet eens in het nieuws. En we zijn allemaal gewend aan de transportnetwerken waar oorspronkelijk een gecentraliseerd model was: 'Alle wegen leidden naar Rome', zoals ze zeggen, en uiteindelijk moesten we naar het gedecentraliseerde model met hubs en spaken, en toen gingen we naar een gaasnetwerk waar je van de ene kant van de stad naar de andere kunt komen via verschillende gaasroutes en verschillende kruispunten. En wat we hier zien is dat dit gecentraliseerde model van wat we nu doen met het internet der dingen, naar de rand van het netwerk moet gaan. En dit is meer dan ooit van toepassing op analyses, en dat is dat we analyses in het netwerk moeten pushen. En om dat te doen, vereist het naar mijn mening een volledig nieuwe benadering in hoe we die gegevens en de gegevensstromen benaderen en verwerken. We hebben het nu over een scenario waarin ik geloof dat we beperkte intelligentie naar de rand van het netwerk zien gaan op apparaten die met internet zijn verbonden, maar we zullen binnenkort zien dat deze apparaten intelligentie verhogen en het niveau van analyse verhogen dat ze willen Te doen. En daarom moeten we die smarts steeds verder door het netwerk duwen.

Bijvoorbeeld, slimme apps en sociale media - als we denken aan sociale media en sommige slimme apps, staan ​​ze nog steeds erg centraal. Weet je, er zijn maar twee of drie datacenters voor Facebook. Google is veel meer gedecentraliseerd geworden, maar er is nog steeds een beperkt aantal datacenters over de hele wereld. Als we dan denken aan personalisatie van inhoud, moet u op een heel lokaal niveau nadenken. Veel van dat gebeurt in uw browser of op een lokale netwerklaag voor contentlevering. En we denken aan gezondheids- en fitness-trackers - veel van de gegevens die van hen worden verzameld, worden lokaal geanalyseerd en dus worden de nieuwe versies van de Garmin- en Fitbit-apparaten die u om uw pols plaatst, slimmer en slimmer in het apparaat . Ze sturen nu niet alle gegevens over uw hartslag terug naar een gecentraliseerde server om te proberen de analyses gedaan te krijgen; ze bouwen die intelligentie rechtstreeks in het apparaat in. In-car navigatie, vroeger was het dat de auto constant updates en kaarten kreeg van een centrale locatie, nu zitten de smarts in de auto en neemt de auto zelf beslissingen en uiteindelijk zullen de auto's in elkaar grijpen. De auto's zullen met elkaar praten via draadloze netwerken van een of andere vorm, dat kan via de 3G of een 4G draadloos netwerk zijn in de volgende generatie, maar uiteindelijk zal het van apparaat tot apparaat zijn. En de enige manier waarop we het volume daarvan aankunnen, is door de apparaten slimmer te maken.

We hebben al noodwaarschuwingssystemen die lokaal informatie verzamelen en die centraal of naar een mesh-netwerk verzenden en beslissingen nemen over wat er lokaal gebeurt. In Japan zijn er bijvoorbeeld applicaties die mensen op hun smartphones uitvoeren met versnellingsmeters in de smartphone. De versnellingsmeters in de smartphone detecteren trillingen en bewegingen en kunnen het verschil bepalen tussen alleen normale dagelijkse bewegingen en de trillingen en schokken van een aardbeving. En die telefoon zal je onmiddellijk, lokaal waarschuwen. De eigenlijke app weet dat het aardbevingen detecteert. Maar het deelt die gegevens ook via een netwerk in een gedistribueerde hub en spaakmodel, zodat mensen in uw buurt onmiddellijk of zo snel mogelijk worden gewaarschuwd als de gegevens door het netwerk stromen. En uiteindelijk, wanneer het op een centrale locatie of een gedistribueerde kopie van de centrale locatie komt, duwt het terug naar mensen die niet in de directe omgeving zijn, de beweging van de planeet niet hebben gedetecteerd, maar moeten worden gewaarschuwd omdat misschien komt er een tsunami.

En slimme stadsinfrastructuur - het concept van intelligente infrastructuur, we bouwen al het intellect in slimme gebouwen en slimme infrastructuur. Gisteren heb ik mijn auto in de stad geparkeerd in een nieuw gebied waar een deel van de stad wordt gerenoveerd en herbouwd. En ze hebben alle straten opnieuw gedaan, en er zijn sensoren in de straten, en de eigenlijke parkeermeter weet dat wanneer ik met een auto binnenrijd, hij weet dat wanneer ik me ga vernieuwen voor de limiet van twee uur de auto is niet bewogen, en het zou me niet echt laten bijvullen en nog twee uur blijven. Ik moest in de auto stappen, uit de ruimte stappen en dan weer naar binnen trekken om hem in staat te stellen nog twee uur daar te blijven. Maar wat interessant is, is dat we uiteindelijk het punt bereiken waarop het niet alleen de auto detecteert die het gebied binnenkomt als een gelokaliseerde sensor, maar dingen zoals optische kenmerken waarbij herkenning wordt toegepast met camera's die naar mijn kenteken kijken, en het zal weten dat ik eigenlijk net teruggetrokken en teruggetrokken heb en het bedrogen heb, en het laat me gewoon niet vernieuwen en ik ga verder. En dan zal het die gegevens verspreiden en ervoor zorgen dat ik dat nergens anders kan doen en het netwerk ook voortdurend kan misleiden. Omdat het van nature slimmer moet worden, anders blijven we het allemaal voor de gek houden.

Er is hier een voorbeeld van waar ik persoonlijk in heb gewoond, waar in de firewalltechnologie, eind jaren 80 en begin jaren 90, een product genaamd Check Point FireWall-1 werd genoemd. Een zeer eenvoudige firewalltechnologie die we gebruikten om regels te maken en beleid en regels rond bepaalde dingen te bouwen om te zeggen dat soorten verkeer via bepaalde poorten en IP-adressen en netwerken van en naar elkaar, het webverkeer van de ene plaats naar de andere, van browser en client naar onze server. We hebben dit probleem opgelost door de logica daadwerkelijk uit de firewalls zelf te halen en daadwerkelijk te verplaatsen naar de ASIC, het applicatiespecifieke geïntegreerde circuit. Het controleerde de poorten in Ethernet-switches. We hebben geconstateerd dat de servercomputers, de computers die we eigenlijk als servers gebruikten om beslissingen te nemen als firewalls, niet krachtig genoeg waren om de hoeveelheid verkeer te verwerken die er doorheen ging voor elke kleine pakketinspectie. We hebben het probleem opgelost door de logica die nodig is om pakketinspectie en internetdetecties uit te voeren, te verplaatsen naar de netwerkswitches die zijn gedistribueerd en in staat zijn om de hoeveelheid gegevens die door het netwerkniveau gaan te verwerken. We maakten ons er geen zorgen over op centraal niveau met firewalls, we verhuisden het naar de schakelaars.

En dus lieten we de fabrikanten de mogelijkheid voor ons bouwen om paden en regels en beleid in de Ethernet-switch te pushen, zodat op het werkelijke Ethernet-poortniveau, en misschien veel mensen in het zwembad hier niet bekend mee zijn, omdat we ze leven nu allemaal in een draadloze wereld, maar ooit moest alles via Ethernet worden aangesloten. Nu deden we op Ethernet-poortniveau een inspectie van pakketten om te zien of de pakketten zelfs naar de switch en het netwerk mochten worden verplaatst. Een deel van dit is wat we nu oplossen rond deze uitdaging van het vastleggen van gegevens in het netwerk, met name van de IRT-apparaten, en het inspecteren en analyseren en waarschijnlijk in realtime analyseren om er beslissingen over te nemen. En een deel ervan is om inzicht te krijgen in bedrijfsinformatie en informatie over hoe mensen betere beslissingen nemen en andere analyses en prestaties voor de dingen van machine tot machine niveau waar apparaten met apparaten praten en beslissingen nemen.

En dit wordt een trend waar we naar moeten kijken in de nabije toekomst, want als we dat niet doen, zullen we gewoon eindigen met deze stortvloed van lawaai. En we hebben gezien in de big data-wereld, we hebben dingen als datameren zien veranderen in datamoerassen waar we net een stortvloed van ruis van hebben waar we nog niet achter zijn gekomen hoe we de verwerkingsanalyses kunnen oplossen in een gecentraliseerde mode. Als we dit probleem naar mijn mening niet onmiddellijk met het IoT oplossen en heel snel een platformoplossing krijgen, komen we op een heel, heel slechte plek terecht.

En met dat in gedachten ga ik afsluiten met mijn punt, namelijk dat ik geloof dat een van de grootste veranderingen die plaatsvinden op het gebied van big data en analyse nu wordt aangedreven door de onmiddellijke behoefte om te reageren op de impact van internet van dingen met groot volume en realtime analyses, in die zin dat we de analyses naar het netwerk moeten verplaatsen en uiteindelijk naar de rand van het netwerk moeten gaan om het enorme volume aan te kunnen, gewoon om het te verwerken. En uiteindelijk, hopelijk, brengen we de intelligentie in het netwerk en de rand van het netwerk in een hub- en spaakmodel dat we het daadwerkelijk kunnen beheren en in realtime inzichten kunnen verkrijgen en er waarde uit kunnen halen. En daarmee ga ik over naar onze gast en kijken waar dit gesprek ons ​​brengt.

Shawn Rogers: Heel erg bedankt. Dit is Shawn Rogers van Dell Statistica, en om te beginnen ben ik het helemaal eens met alle belangrijke onderwerpen die hier aan de orde zijn gekomen. En Rebecca, je begon met een idee, weet je, deze gegevens zijn niet nieuw, en het is opmerkelijk voor mij hoeveel tijd en energie wordt besteed aan het bespreken van de gegevens, de gegevens, de gegevens van het IoT. En het is zeker relevant, weet je, Robin maakte een goed punt, zelfs als je iets heel eenvoudigs doet en je een keer per seconde op een thermostaat tikt, weet je, je doet dat 24 uur per dag en je hebt eigenlijk, weet je, enkele interessante data-uitdagingen. Maar weet je, uiteindelijk - en ik denk dat veel mensen in de industrie op deze manier over de gegevens praten - dat het niet echt zo interessant is en, voor Rebecca's punt, het al heel lang bestaat, maar we hebben er in het verleden niet veel gebruik van kunnen maken. En ik denk dat de geavanceerde analyse-industrie en de BI-industrie in het algemeen echt hun hoofd beginnen te draaien naar IoT. En Dez, tot je laatste punt, dit is onderdeel van of een van de uitdagende punten van het big data-landschap en ik denk dat dat heel waar is. Ik denk dat iedereen erg enthousiast is over wat we kunnen doen met dit soort gegevens, maar tegelijkertijd, als we niet kunnen achterhalen hoe we inzicht kunnen toepassen, actie kunnen ondernemen en, weet u, analyse kunnen krijgen waar de gegevens zijn, denk ik we zullen uitdagingen hebben die mensen niet echt hun kant op zien komen.

Dat gezegd hebbende, in de geavanceerde analyseruimte zijn we grote fans van wat we denken dat er kan gebeuren met IoT-gegevens, vooral als we er analyses op toepassen. En er is veel informatie op deze dia en ik laat iedereen gewoon jagen en rondneuzen, maar als je naar verschillende sectoren kijkt zoals detailhandel helemaal rechts, zie je hun kans ontstaan ​​om innovatiever te zijn of wat kostenbesparingen of procesoptimalisatie of -verbeteringen zijn erg belangrijk en ze zien daarvoor veel use-cases. Als je van links naar rechts over de dia kijkt, zie je hoe elk van deze afzonderlijke industrieën nieuwe mogelijkheden en nieuwe onderscheidende mogelijkheden voor zichzelf claimt wanneer ze analyses op IoT toepassen. En ik denk dat het bottom-line is, is dat als je probeert om dat pad op te gaan, je je niet alleen zorgen moet maken over de gegevens, zoals we hebben besproken, en de architectuur, maar je moet ook kijken hoe je pas de analyses toe en waar de analyses moeten plaatsvinden.

Voor velen van ons die vandaag aanwezig zijn, weet je, Robin en ik kennen elkaar al heel lang en hadden in het verleden talloze gesprekken over traditionele architecturen, die rond gecentraliseerde databases of enterprise data warehouses enzovoort, en zoals we ' hebben het afgelopen decennium ontdekt, dus we doen best goed de beperkingen van die infrastructuren op te rekken. En ze zijn niet zo standvastig of sterk als we zouden willen dat ze vandaag zijn om alle geweldige analyses te ondersteunen die we toepassen op de informatie en natuurlijk breekt de informatie ook de architectuur, weet je, de snelheid van gegevens, de hoeveelheid gegevens enzovoort, zijn zeker de beperkingen van sommige van onze meer traditionele benaderingen en strategieën voor dit soort werk aan het oprekken. En dus denk ik dat het een beetje begint op te roepen voor de behoefte van bedrijven om een ​​flexibeler en misschien meer flexibel standpunt in te nemen en dat is het deel, denk ik, dat ik graag een beetje over de IoT-kant wil praten.

Voordat ik dat doe, zal ik even de tijd nemen om iedereen aan het bellen te hebben, je een beetje achtergrondinformatie geven over wat Statistica is en wat we doen. Zoals u kunt zien op de titel van deze dia, is Statistica een voorspellende analyse, big data en visualisatie voor IoT-platform. Het product zelf is iets meer dan 30 jaar oud en we concurreren met de andere leiders in de markt waarmee u waarschijnlijk bekend bent in de zin van het kunnen toepassen van voorspellende analyses, geavanceerde analyses op gegevens. We zagen een kans om ons bereik te vergroten van waar we onze analyses aanbrachten en zijn een tijdje geleden begonnen met werken aan een aantal technologieën die ons vrij goed hebben gepositioneerd om te profiteren van waar zowel Dez als Robin vandaag over hebben gesproken, wat deze nieuwe aanpak is en waar u de analyses gaat plaatsen en hoe u deze gaat combineren met de gegevens. Langs die kant komen andere dingen die je met het platform moet kunnen aanpakken, en zoals ik al zei, Statistica is al heel lang op de markt. We zijn erg goed in het samenvoegen van gegevens en ik denk dat je weet dat we vandaag niet al te veel over gegevenstoegang hebben gesproken, maar in staat zijn om via deze diverse netwerken te reiken en de juiste gegevens bij de hand te krijgen juiste tijd wordt steeds interessanter en belangrijker voor de eindgebruikers.

Ten slotte zal ik hier nog een opmerking maken, omdat Dez een goed punt maakte over de netwerken zelf, met een bepaald niveau van controle en beveiliging over analytische modellen in uw omgeving en hoe ze zich hechten aan gegevens die erg belangrijk worden. Toen ik een paar jaar geleden in deze industrie kwam - bijna 20 denk ik op dit moment - toen we het hadden over geavanceerde analyse, was dat op een zeer curatieve manier. Slechts een paar mensen in de organisatie hadden het in handen, zij implementeerden het en zij gaven mensen het antwoord zoals vereist of gaven inzichten zoals vereist. Dat is echt aan het veranderen en wat we zien, is dat veel mensen met een of meer verschillende en flexibelere manieren werkten om de gegevens te bereiken, beveiliging en governance op de gegevens toepassen en er vervolgens aan kunnen samenwerken. Dat zijn enkele van de belangrijke dingen waar Dell Statistica naar kijkt.

Maar ik wil ingaan op het onderwerp dat een beetje dichter bij de titel van vandaag ligt, namelijk hoe moeten we omgaan met de gegevens die afkomstig zijn van het internet van dingen en waar je misschien naar op zoek bent als je naar verschillende oplossingen kijkt. De dia die ik nu voor je heb staan ​​is een beetje het traditionele beeld en zowel Dez als Robin hebben dit een beetje aangeraakt, weet je, dit idee van praten met een sensor, of het nu een auto of een broodrooster is of een windturbine, of wat dan ook, en dan die gegevens van de gegevensbron naar uw netwerk verplaatsen naar een gecentraliseerd soort configuratie, zoals Dez al zei. En het netwerken vrij goed en veel bedrijven stappen in de IoT-ruimte en beginnen het oorspronkelijk met dat model te doen.

Het andere dat kwam, als je naar de onderkant van de dia kijkt, is dit idee van het nemen van andere traditionele gegevensbronnen, het aanvullen van je IoT-gegevens en dan bij dit soort kern, of je kern toevallig een datacenter is of het misschien in de cloud, het maakt niet echt uit, je zou een product als Statistica nemen en daar vervolgens analyses op toepassen en die inzichten vervolgens aan de consumenten rechts aanbieden. En ik denk dat dit op dit moment tafelinzet is. Dit is iets dat je moet kunnen doen en je moet een open genoeg architectuur hebben voor een geavanceerd analyseplatform en praten met al deze, soort, diverse gegevensbronnen, al deze sensoren en al deze verschillende bestemmingen waar je hebt de gegevens. En ik denk dat dit iets is dat je moet kunnen doen en ik denk dat je zult merken dat veel leiders in de markt dit soort dingen kunnen doen. Hier bij Statistica praten we hier eigenlijk over als kernanalyses. Ga de gegevens ophalen, breng de gegevens terug naar de kern, verwerk ze, voeg meer gegevens toe indien nodig of indien voordelig, en voer uw analyses uit en deel die informatie vervolgens voor actie of voor inzicht.

En dus denk ik dat dit zeker vanuit een functie-standpunt is, we zouden het waarschijnlijk allemaal eens zijn dat, weet je, dit de absolute noodzaak is en iedereen dit moet doen. Waar het interessant begint te worden, is waar je enorme hoeveelheden gegevens hebt, weet je, afkomstig van verschillende gegevensbronnen, zoals IoT-sensoren, zoals ik al zei, of het nu een auto- of beveiligingscamera of een productieproces is, een voordeel om de analyse te kunnen uitvoeren waar de gegevens daadwerkelijk worden geproduceerd. En het voordeel voor de meeste mensen, denk ik, wanneer we de analyse van de kern naar de rand beginnen te verplaatsen, is deze mogelijkheid om enkele van de data-uitdagingen die zich voordoen te verspreiden, en Dez en Robin zullen hier waarschijnlijk op reageren aan het einde vandaag, maar ik denk dat je in staat moet zijn om toezicht te houden op en actie te ondernemen op gegevens aan de rand, zodat het niet altijd nodig is om al die gegevens naar je netwerk te verplaatsen. Robin heeft hierover gesproken in zijn, soort, de architectuurfoto's die hij heeft gemaakt, waar je al deze verschillende bronnen hebt, maar er is meestal een verzamelpunt. Het verzamelpunt dat we vaak zien, bevindt zich op sensorniveau, maar nog vaker op gatewayniveau. En deze gateways bestaan ​​als een soort tussenpersoon in de gegevensstroom van de gegevensbronnen voordat u teruggaat naar de kern.

Een van de kansen waar Dell Statistica gebruik van maakte, is dat onze mogelijkheid om een ​​model te exporteren vanuit ons gecentraliseerd geavanceerd analyseplatform om een ​​model te kunnen nemen en dat model vervolgens aan de rand op een ander platform, zoals een gateway of binnen, uit te voeren van een database, of wat heb jij. En ik denk dat de flexibiliteit die dat ons geeft, echt het interessante punt is van het gesprek van vandaag, is dat dat vandaag in uw infrastructuur? Bent u in staat om een ​​analyse te verplaatsen naar waar de gegevens zich bevinden versus alleen de gegevens altijd te verplaatsen naar waar uw gegevens zich bevinden? En dat is iets waar Statistica zich al geruime tijd op richt, en als je de dia's nader bekijkt, zie je dat er een andere technologie in zit van ons zusterbedrijf, Dell Boomi. Dell Boomi is een data-integratie- en applicatie-integratieplatform in de cloud en we gebruiken Dell Boomi als een trafficking-apparaat om onze modellen van Dell Statistica, via Boomi en off-to-edge-apparaten te verplaatsen. En we denken dat dit een agile benadering is die bedrijven zullen eisen, net zoals ze de versie die ik je zojuist liet zien, leuk vinden, wat het soort kernidee is om gegevens van de sensoren helemaal terug naar de in het midden, tegelijkertijd willen bedrijven het kunnen doen op de manier zoals ik hier een soort van overzicht geef. En de voordelen hiervan zijn enkele van de punten die zowel Robin als Dez hebben gemaakt, dat wil zeggen, kunt u een beslissing nemen en actie ondernemen met de snelheid van uw bedrijf? Kunt u analyses van de ene plaats naar de andere verplaatsen en uzelf tijd, geld en energie en de complexiteit besparen van het voortdurend verplaatsen van die randgegevens naar de kern.

Nu ben ik de eerste die zegt dat sommige randgegevens altijd van voldoende verdienste zullen zijn, waar het zinvol is om die gegevens op te slaan en te bewaren en terug te brengen naar uw netwerk, maar met welke randanalyses kunt u is de mogelijkheid om beslissingen te nemen met de snelheid die de gegevens daadwerkelijk bereiken, toch? Dat je het inzicht en de actie kunt toepassen met een snelheid waarbij de hoogst mogelijke waarde is. En ik denk dat dat iets is waar we allemaal naar op zoek zullen zijn als het gaat om het gebruik van geavanceerde analyses en IoT-gegevens deze kans is om te bewegen met de snelheid van het bedrijf of de snelheid die de klant vraagt. Ik denk dat onze positie is dat ik denk dat je beide moet kunnen doen. En ik denk dat vrij snel en heel snel naarmate meer bedrijven naar meer verschillende datasets kijken, vooral die van de IoT-kant, ze naar de leveranciersruimte gaan kijken en eisen wat Statistica kan doen. Dat is om een ​​model in de kern te implementeren, zoals we al jaren traditioneel doen, of om het te implementeren op platforms die misschien niet-traditioneel zijn, zoals een IoT-gateway, en om in staat te zijn om analyses te maken en analyses toe te passen op de gegevens aan de rand van de productie van de gegevens. En ik denk dat dat is waar het opwindende deel van dit gesprek binnenkomt. Omdat we door een analytische analyse te kunnen uitvoeren op het moment dat de gegevens van een sensor afkomen, ons in staat stelt om zo snel actie te ondernemen als nodig is, maar stelt ons ook in staat om te beslissen, moeten deze gegevens onmiddellijk helemaal teruggaan naar de kern? Kunnen we het hier batchen en het vervolgens in stukken en delen terugsturen en later verder analyseren? En dat is wat we veel van onze toonaangevende klanten zien doen.

De manier waarop Dell Statistica dit doet, is dat we het kunnen gebruiken. Stel dat u bijvoorbeeld een neuraal netwerk in Statistica bouwt en dat u het neurale netwerk ergens anders in uw gegevenslandschap wilt plaatsen. We hebben de mogelijkheid om die modellen en alle talen die u in de rechterhoek hebt opgemerkt uit te voeren - Java, PPML, C en SQL enzovoort, we nemen ook Python op en we kunnen ook onze scripts exporteren - en terwijl u dat verplaatst van ons gecentraliseerde platform, kunt u dat model of dat algoritme vervolgens overal gebruiken waar u het nodig hebt. En zoals ik al eerder zei, gebruiken we Dell Boomi om het te plaatsen en te parkeren waar we het moeten uitvoeren en dan kunnen we de resultaten terugbrengen, of we kunnen helpen gegevens terug te brengen, of de gegevens scoren en actie ondernemen met behulp van onze rule engine . Al die dingen worden een beetje belangrijk als we naar dit soort gegevens gaan kijken en we denken er nog eens over na.

Dit is iets dat de meesten van jullie aan de telefoon moeten doen, omdat het erg duur en belastend wordt op je netwerk, zoals Dez al zei, om gegevens links van deze diagrammen naar rechts van deze diagrammen te verplaatsen tijd. Het klinkt niet als veel, maar we hebben productie-klanten gezien met tienduizend sensoren in hun fabrieken. En als u tienduizend sensoren in uw fabriek hebt, zelfs als u deze slechts een tweede soort tests of signalen uitvoert, hebt u het over vierentachtig duizend rijen met gegevens van elk van die individuele sensoren per dag. En dus stapelen de gegevens zich op en Robin noemde dat soort dingen. Vooraf heb ik een aantal sectoren genoemd waar we mensen een aantal behoorlijk interessante dingen zien doen met onze software en IoT-gegevens: automatisering van gebouwen, energie, hulpprogramma's is een heel belangrijke ruimte. We zien veel werk worden gedaan aan systeemoptimalisatie, zelfs klantenservice en natuurlijk algemene operaties en onderhoud, binnen energiefaciliteiten en binnen gebouwen voor automatisering. En dit zijn enkele use-cases die we zien zijn behoorlijk krachtig.

We hebben al eerder edge-analyses gedaan, denk ik, de term is bedacht. Zoals ik al zei, we hebben diepe wortels bij Statistica. Het bedrijf is bijna 30 jaar geleden opgericht, dus we hebben al geruime tijd klanten terug die IoT-gegevens integreren met hun analyses en dat al een tijdje doen. En Alliant Energy is een van onze use cases of referentieklanten. En u kunt zich het probleem voorstellen dat een energiebedrijf heeft met een fysieke fabriek. Het is moeilijk om verder te gaan dan de bakstenen muren van een fysieke fabriek en daarom zoeken energiebedrijven zoals Alliant naar manieren om hun energie-output te optimaliseren, in feite hun productieproces te verbeteren en naar het hoogste niveau te optimaliseren. En ze gebruiken Statistica om de ovens in hun fabrieken te beheren. En voor iedereen die teruggaat naar onze vroege dagen in de wetenschapsklas, weten we allemaal dat de ovens warmte maken, de warmte stoom maakt, de turbines draaien, we krijgen elektriciteit. Het probleem voor bedrijven als Alliant is eigenlijk het optimaliseren van hoe dingen opwarmen en verbranden in die grote cycloonovens. En het optimaliseren van de output om de extra kosten van vervuiling, koolstofverplaatsing, enzovoort te voorkomen. En dus moet je de binnenkant van een van deze cycloonovens kunnen bewaken met al deze apparaten, sensoren, en vervolgens al die sensorgegevens kunnen opnemen en het energieproces voortdurend kunnen wijzigen. En dat is precies wat Statistica sinds ongeveer 2007 voor Alliant doet, zelfs voordat de term IoT super populair was.

Voor Rebecca's punt in het begin zijn de gegevens zeker niet nieuw. De mogelijkheid om het te verwerken en correct te gebruiken is echt waar de spannende dingen gebeuren. We hebben vandaag in de pre-call een beetje over gezondheidszorg gesproken en we zien allerlei toepassingen voor mensen om dingen te doen zoals betere patiëntenzorg, preventief onderhoud, supply chain management en operationele efficiëntie in de gezondheidszorg. En dat is vrij lopend en er zijn veel verschillende gebruiksscenario's. Eentje waar we hier bij Statistica erg trots op zijn, is bij onze klant Shire Biopharmaceuticals. En Shire maakt speciale medicijnen voor echt moeilijk te behandelen ziekten. En wanneer ze een batch van hun medicijnen voor hun klanten maken, is het een extreem duur proces en dat extreem dure proces kost ook tijd. Wanneer u nadenkt over een productieproces terwijl u ziet dat de uitdagingen alle gegevens verenigen, flexibel genoeg zijn op verschillende manieren om gegevens in het systeem te plaatsen, de informatie valideren en vervolgens voorspellend kunnen zijn over hoe wij die klant helpen. En de processen die de meeste informatie uit onze productiesystemen haalden en natuurlijk de apparaten en sensoren die deze productiesystemen aansturen. En het is een goed gebruik van hoe bedrijven verlies voorkomen en hun productieprocessen optimaliseren met een combinatie van sensorgegevens, IoT-gegevens en reguliere gegevens van hun processen.

Dus u weet wel, een goed voorbeeld van waar productie, en vooral hightech-productie, de gezondheidszorgsector ten goede komt aan dit soort werk en gegevens. Ik denk dat ik nog een paar andere punten heb die ik graag wil maken voordat ik het afrond en het terug geef aan Dez en Robin. Maar weet je, ik denk dat dit idee om je analyse overal in je omgeving te kunnen pushen iets is dat voor de meeste bedrijven heel belangrijk zal worden. Gekoppeld zijn aan het traditionele formaat van ETL-gegevens van bronnen terug naar centrale locaties zal altijd een plaats in uw strategie hebben, maar zou niet uw enige strategie moeten zijn. Je moet tegenwoordig veel flexibeler omgaan met dingen. Om de beveiliging die ik heb genoemd toe te passen, vermijd de belasting van uw netwerk, om de gegevens te kunnen beheren en filteren zoals ze van de rand komen, en te bepalen welke gegevens het waard zijn om voor de lange termijn te bewaren, welke gegevens de moeite waard zijn om te verplaatsen naar ons netwerk, of welke gegevens alleen moeten worden geanalyseerd op het moment dat ze worden gemaakt, zodat we de best mogelijke beslissingen kunnen nemen. Deze overal en overal analytische benadering is iets dat we heel ter harte nemen bij Statistica en het is iets waar we heel goed in zijn. En het gaat terug naar een van die dia's die ik eerder heb genoemd, de mogelijkheid om uw modellen in verschillende talen te exporteren, zodat ze kunnen overeenkomen met en overeenkomen met de platforms waarop de gegevens worden gemaakt. En dan natuurlijk een distributieapparaat voor die modellen, dat is ook iets dat we naar de tafel brengen en waar we erg enthousiast over zijn. Ik denk dat het gesprek van vandaag is, als we echt serieus gaan omgaan met deze gegevens die al heel lang in onze systemen aanwezig zijn en we willen een concurrentievoordeel en een innovatieve invalshoek vinden om het te gebruiken, moet je een beetje technologie waarmee je weg kunt komen van enkele van die beperkende modellen die we in het verleden hebben gebruikt.

Nogmaals, mijn punt is dat als je IoT gaat doen, ik denk dat je het in de kern moet kunnen doen, en de gegevens binnenbrengen en matchen met andere gegevens en je analyses doen. Maar ook, net zo belangrijk of misschien nog belangrijker, moet je over deze flexibiliteit beschikken om de analyse met de gegevens te plaatsen en de analyse van de centrale kant van je architectuur naar de rand te verplaatsen voor de voordelen die ik heb genoemd voordat. Dat is een klein beetje over wie we zijn en wat we doen op de markt. En we zijn erg enthousiast over IoT, we denken dat het zeker volwassen wordt en er zijn grote kansen voor iedereen hier om hun analyse en kritieke processen met dit soort gegevens te beïnvloeden.

Rebecca Jozwiak: Shawn, heel erg bedankt, dat was echt een fantastische presentatie. En ik weet dat Dez waarschijnlijk je een paar vragen wil stellen, dus Dez, ik zal je eerst laten gaan.

Dez Blanchfield: Ik heb een miljoen vragen, maar ik zal mezelf inhouden omdat ik weet dat Robin dat ook zal hebben. Een van de dingen die ik wijd en zijd zie, is een vraag die opkomt en ik wil heel graag enig inzicht krijgen in je ervaringen hierin, gezien het feit dat je midden in de dingen zit. Organisaties worstelen met de uitdaging, en sommigen van hen hebben net gelezen zoals Klaus Schwab's "De vierde industriële revolutie" en kregen toen een paniekaanval. En degenen die niet bekend zijn met dit boek, het is in wezen een inzicht van een heer, van Klaus Schwab, die volgens mij een professor is, die de stichter en uitvoerend voorzitter van het World Economic Forum is uit het geheugen, en het boek gaat in essentie over dit hele alomtegenwoordige internet van dingen explosie en een deel van de impact op de wereld in het algemeen. Organisaties waarmee ik het heb, weten niet zeker of ze de huidige omgeving moeten aanpassen of alles moeten investeren in het bouwen van alle nieuwe omgevingen, infrastructuur en platforms. Ziet u ook in Dell Statistica mensen hun huidige omgevingen aanpassen en uw platform inzetten in bestaande infrastructuur, of ziet u hen hun focus verleggen naar het bouwen van alle nieuwe infrastructuur en zich voorbereiden op deze zondvloed?

Shawn Rogers: Weet je, we hebben de mogelijkheid gehad om beide soorten klanten te bedienen en zolang we in de markt zijn, krijg je die kansen om een ​​beetje breed te gaan. We hebben klanten die in de afgelopen jaren gloednieuwe fabrieken hebben gecreëerd en ze tijdens dat proces voorzien van sensordata, IoT, geavanceerde analyses. Maar ik moet zeggen dat de meeste van onze klanten mensen zijn die dit soort werk al een tijdje doen, maar die gegevens hebben moeten negeren. Weet je, Rebecca heeft het punt meteen al gemaakt - dit zijn geen nieuwe gegevens, dit soort informatie is al heel lang in veel verschillende formaten beschikbaar, maar waar het probleem was, was er verbinding mee maken, verplaatsen, ergens naartoe brengen waar je iets slims mee kunt doen.

En dus zou ik zeggen dat de meeste van onze klanten kijken naar wat ze vandaag hebben, en Dez, je hebt dit eerder gezegd, dat dit deel uitmaakt van die big data-revolutie en ik denk dat het echt gaat om data revolutie, toch? We hoeven bepaalde systeemgegevens of productiegegevens of gebouwautomatiseringsgegevens niet meer te negeren, we hebben nu het juiste speelgoed en hulpmiddelen om het te gaan halen en er vervolgens slimme dingen mee te doen. En ik denk dat er veel stuurprogramma's in deze ruimte zijn die dit mogelijk maken en sommige zijn technologisch. Weet je, de oplossingen voor big data-infrastructuur zoals Hadoop en anderen hebben het iets goedkoper gemaakt en voor sommigen een beetje gemakkelijker gemaakt om na te denken over het creëren van een datameer van dat soort informatie. En we kijken nu rond in de onderneming om te gaan: "Hé, we hebben analyses in ons productieproces, maar zouden ze worden verbeterd als we wat inzicht uit deze processen konden toevoegen?" En dat is, denk ik, wat de meeste van onze klanten doen het. Het is niet zozeer het creëren van de grond af, maar het verbeteren en optimaliseren van de analyses die ze al hebben met gegevens die nieuw voor hen zijn.

Dez Blanchfield: Ja, er komen een aantal opwindende dingen naar voren in enkele van de grootste industrieën die we hebben gezien, en je noemde, de kracht en hulpprogramma's. Luchtvaart gaat net door deze boom waar een van mijn favoriete apparaten aller tijden waar ik het regelmatig over heb, de Boeing 787 Dreamliner, en zeker het Airbus-equivalent, de A330 dezelfde weg is ingeslagen. Er waren ongeveer zesduizend sensoren in de 787 toen deze voor het eerst werd uitgebracht, en ik denk dat ze het nu hebben over vijftienduizend sensoren in de nieuwe versie ervan. En het merkwaardige aan praten met een aantal mensen in die wereld was dat het idee om sensoren in de vleugels te plaatsen enzovoort, en het verbazingwekkende aan 787 in een ontwerpplatform is dat, weet je, ze alles opnieuw hebben uitgevonden in het vliegtuig. Zoals de vleugels, bijvoorbeeld, wanneer het vliegtuig opstijgt, buigen de vleugels tot twaalf en een halve meter. Maar in extreme gevallen kunnen de vleugels aan de punt tot 25 meter buigen. Dit ding lijkt op een flapperende vogel. Maar wat ze niet konden repareren, was de engineering van de analyse van al deze gegevens, dus hebben ze sensoren die LED's groen en rood laten knipperen als er iets ergs gebeurt, maar ze eindigen niet met diepe inzichten in echte tijd. En ze hebben ook het probleem niet opgelost hoe de hoeveelheid gegevens te verplaatsen, omdat er dagelijks in het binnenlandse luchtruim in de VS 87.400 vluchten zijn. Wanneer elk vliegtuig zijn buy-in van een 787 Dreamliner inhaalt, is dat 43 petabytes aan gegevens per dag, omdat deze vliegtuigen momenteel elk ongeveer een halve terabyte aan gegevens creëren. En wanneer u die 87.400 vluchten per dag in de VS vermenigvuldigt met punt vijf of een halve terabyte, krijgt u 43, 5 petabyte aan gegevens. We kunnen dat fysiek niet verplaatsen. Dus door het ontwerp moeten we de analyses in het apparaat duwen.

Maar een van de dingen die interessant zijn als ik naar deze hele architectuur kijk - en ik ben benieuwd wat je hiervan vindt - is dat we zijn overgestapt op het master data management, een soort van, eerste principes van data management, trekken alles op een centrale locatie. We hebben gegevensmeertjes, en dan maken we kleine gegevensvijvers als je wilt, uittreksels van dat waar we analyses over doen, maar door het verspreiden naar de rand, een van de dingen die blijft komen, met name van databasemensen en gegevensbeheerders of mensen die informatie beheren, gebeurt er als ik veel gedistribueerde kleine miniatuurgegevensmeren heb? Wat voor soort dingen zijn toegepast op dit denken met betrekking tot edge-analyse in uw oplossing, in die zin dat traditioneel alles centraal zou komen bij het datameer, nu eindigen we overal met deze kleine plassen data, en hoewel we kunnen lokaal analyses uitvoeren om wat lokaal inzicht te krijgen, wat zijn enkele uitdagingen waarmee u te maken hebt gehad en hoe u dat hebt opgelost met die gedistribueerde dataset, en met name wanneer u de microkosmossen van datameren en gedistribueerde gebieden krijgt?

Shawn Rogers: Nou, ik denk dat dat een van de uitdagingen is, toch? Als we weggaan van, weet je, alle gegevens terugvoeren naar de centrale locatie of het kernanalysevoorbeeld dat ik gaf en dan doen we de gedistribueerde versie dat je met al deze kleine silo's komt, toch? Net zoals je hebt afgebeeld, toch? Ze doen een beetje werk, sommige analyses worden uitgevoerd, maar hoe breng je ze weer samen? En ik denk dat de sleutel orkestratie in dat alles zal zijn en ik denk dat jullie het met me eens zullen zijn, maar ik ben blij als je dat niet doet, dat ik denk dat we deze evolutie al heel lang in de gaten houden enige tijd.

Teruggaand naar de dagen van onze vrienden Mr. Inmon en Mr. Kimball die iedereen hielpen met de architectuur van hun vroege investeringen in datawarehouse, met als punt dat we al lang weg zijn van dat gecentraliseerde model. We hebben dit nieuwe idee overgenomen om de gegevens de ernst ervan te laten zien voor waar deze het beste in uw ecosysteem zou moeten verblijven en de gegevens in overeenstemming te brengen met het best mogelijke platform voor de best mogelijke uitkomst. En we zijn begonnen met het uitgeven, denk ik, van een meer georchestreerde benadering van ons ecosysteem als een overkoepelende manier om dingen te doen, net als waar we proberen al die stukken in één keer op elkaar af te stemmen. Welk type analyse of werk ga ik doen met de gegevens, welk type gegevens het is, dat zal helpen dicteren waar het zou moeten leven. Waar wordt het geproduceerd en wat voor soort zwaartekracht hebben de gegevens?

Weet je, we zien veel van deze big data-voorbeelden waarbij mensen het hebben over 10- en 15-petabyte datameren. Nou, als je een datameer hebt dat zo groot is, is het erg onpraktisch voor je om het te verplaatsen en dus moet je er analyses naar toe kunnen brengen. Maar als je dat doet, denk ik tot de kern van je vraag dat het voor veel nieuwe uitdagingen zorgt voor iedereen om het milieu te orkestreren en governance en veiligheid toe te passen, en te begrijpen wat er met die gegevens moet gebeuren om het te beheren en om haal er de hoogste waarde uit. En om eerlijk te zijn - ik hoor graag je mening hier - ik denk dat we daar vroeger zijn en ik denk dat er nog veel goed werk moet worden verricht. Ik denk dat programma's als Statistica erop gericht zijn om meer mensen toegang tot gegevens te geven. We zijn zeker gefocust op deze nieuwe persona's zoals citizen data scientist die voorspellende analyses naar plaatsen binnen de organisatie willen brengen die het misschien niet eerder was. En ik denk dat dit enkele van de vroege dagen hieromtrent zijn, maar ik denk dat de rijpingsboog een hoog niveau of orkestratie en afstemming tussen deze platforms zal moeten aantonen, en een begrip van wat erop staat en waarom. En dat is een eeuwenoud probleem voor ons allemaal datamensen.

Dez Blanchfield: Dat is het inderdaad en daar ben ik het helemaal mee eens en ik denk dat het geweldige wat we hier vandaag horen, op zijn minst de voorkant is van het probleem van het daadwerkelijk vastleggen van de gegevens op, denk ik, gateway-niveau aan de rand van het netwerk en de mogelijkheid om op dat moment analyses uit te voeren, is nu in wezen opgelost. En het bevrijdt ons nu om daadwerkelijk te gaan nadenken over de volgende uitdaging, namelijk gedistribueerde datameren. Heel erg bedankt daarvoor, het was een fantastische presentatie. Ik waardeer de kans om er met je over te praten.

Ik ga nu naar Robin door omdat ik weet dat hij dat heeft gedaan, en daarna kreeg Rebecca ook een lange lijst met geweldige vragen van het publiek na Robin. Robin?

Dr. Robin Bloor: Oké. Shawn, ik wil graag dat je een beetje meer zegt en ik probeer je niet de kans te geven om er reclame voor te maken, maar het is eigenlijk heel belangrijk. Ik wil graag weten op welk moment Statistica de exportcapaciteit van het model heeft gegenereerd. Maar ik wil ook dat je iets over Boomi zegt, want alles wat je tot nu toe over Boomi hebt gezegd, is dat het ETL is en het is inderdaad ETL. Maar het is eigenlijk heel capabel ETL en voor het soort timing waar we het over hebben, en sommige van de situaties die we hier bespreken, dat is een heel belangrijk ding. Kun je die twee dingen voor me bespreken?

Shawn Rogers: Tuurlijk, ja, dat kan ik absoluut. Weet je, onze beweging in deze richting was zeker iteratief en het was een soort van stap voor stap proces. We zijn ons net aan het voorbereiden deze week om versie 13.2 van Statistica te lanceren. En het heeft de nieuwste updates van alle mogelijkheden waarover we het vandaag hebben. Maar toen we teruggingen naar versie 13, een jaar geleden in oktober, hebben we onze mogelijkheid aangekondigd om modellen vanaf ons platform te exporteren en we noemden het destijds NDAA. Het acroniem stond voor Native Distributed Analytics Architecture. We hebben veel tijd, energie en focus gestoken in het openen van ons platform met de mogelijkheid om het te gebruiken als een centraal commandocentrum voor uw geavanceerde analyses, maar ook om vanaf daar te implementeren. En de eerste plaatsen, Robin, die we hebben ingezet, hebben een echt, echt geweldige toevoeging gedaan aan het platform rond machine learning. En dus hadden we de mogelijkheid om van Statistica naar Microsoft's Azure Cloud te implementeren om de kracht van Azure te gebruiken voor machine learning, zoals u weet, is zeer intensief en het is een geweldige manier om cloudtechnologieën te gebruiken. En dus dat was het eerste beetje.

Nu exporteerden we onze modellen naar Azure en gebruikten we Azure om ze uit te voeren en vervolgens de gegevens of de resultaten terug te sturen naar het Statistica-platform. En toen gingen we verder naar andere talen waaruit we wilden exporteren, en natuurlijk is Java een van die deuren voor ons om onze modellen nu naar andere locaties zoals Hadoop te exporteren, dus toen gaf het ons een toneelstuk daar ook.

En ten slotte hebben we ons gericht op het kunnen uitvoeren van onze modellen met die release in databases. En dus dat was de eerste iteratie en om eerlijk te zijn, het eindspel was IoT, maar we waren er nog niet helemaal met versie 13 afgelopen oktober. Sindsdien zijn we daar aangekomen en dat heeft te maken met de mogelijkheid om alle dingen te doen die ik zojuist heb genoemd, maar dan om een ​​soort transportapparaat te hebben. En terugkomend op Dez's vraag, weet je, wat is de uitdaging en hoe doen we dit als we al deze analyses rondlopen? Nou, we gebruiken Boomi als een soort distributiehub en dus omdat het in de cloud is en omdat het zo krachtig is, zoals ik al eerder zei, het is een data-integratieplatform, maar het is ook een applicatie-integratieplatform en het maakt gebruik van JVM's om ons toe te staan om te parkeren en overal te werken waar u een Java virtuele machine kunt laten landen. Dat is wat de deur echt openzwaaide voor al deze gateways en edge computing-platforms en edge-servers, omdat ze allemaal de computer hebben en het platform dat beschikbaar is om een ​​JVM in te draaien. En omdat we de JVM overal kunnen draaien, is Boomi veranderd om een ​​prachtige distributie te zijn en, met mijn woord van eerder, een orkestratieapparaat.

En dit wordt erg belangrijk omdat we allemaal, weet je, ik denk dat het vliegtuigscenario van een minuut geleden geweldig was, en ik heb, weet je, fabrikanten zoals Shire genoemd die tienduizend sensoren in een van hun fabrieken hebben, jij op een bepaald punt moeten beginnen met het soort centrale benadering van geavanceerde analyse. Ad hoc zijn werkt niet echt meer. Vroeger was het volume van de modellen en algoritmen die we gebruikten minimaal, maar nu is het maximaal. Er zijn er duizenden in een organisatie. Dus we hebben, een deel van ons platform is servergebaseerd en wanneer u onze bedrijfssoftware hebt, kunt u uw modellen in de omgeving aanpassen en scoren en beheren. En dat hoort ook bij dat orkestratie-gedoe. We moesten een laag hebben, Robin, die je niet alleen in staat stelde om daar een model te krijgen, maar je ook een kanaal gaf om de modellen aan te passen en ze zo vaak als je nodig had te vervangen, omdat dit is niet iets dat u handmatig kunt doen. Je kunt niet met een thumb drive rond een raffinaderij lopen en proberen modellen naar gateways te uploaden. Je moet er een transport- en beheersysteem tussen hebben, en dus geeft de combinatie van Statistica en Boomi dat aan onze klanten.

Dr. Robin Bloor: Ja. Nou, ik zal heel kort zijn, maar, weet je, deze uitspraak die eerder werd gedaan over het datameer en het idee van het verzamelen van petabytes op een bepaalde plaats, en het feit dat het zwaartekracht heeft. Weet je, toen je begon te praten over orkestratie, begon het me gewoon aan het denken te zetten over het feit dat, weet je, het plaatsen van een gegevensmeer dat erg groot is op één plek waarschijnlijk betekent dat je het echt moet back-uppen en het betekent waarschijnlijk dat je moet sowieso veel gegevens verplaatsen. Weet je, de echte data-architectuur is naar mijn mening sowieso veel meer in de richting waar je het over hebt. Wat het is om het op verstandige plaatsen te verspreiden, is waarschijnlijk het ding dat ik zou zeggen. En het lijkt erop dat je hier heel goed in bent. Ik bedoel, ik ben goed op de hoogte van Boomi, dus het is op een of andere manier bijna oneerlijk dat ik het kan zien en misschien het publiek niet. Maar Boomi is naar mijn mening zo essentieel in termen van wat je doet omdat het toepassingsmogelijkheden heeft. En ook omdat de waarheid is dat je deze analytische berekeningen niet doet zonder ergens om de een of andere reden iets te willen doen. En Boomi speelt daar een rol in, toch?

Shawn Rogers: Ja, absoluut. En zoals u uit eerdere gesprekken weet, heeft Statistica een volledig ontwikkelde bedrijfsregels-engine. En ik denk dat dat echt belangrijk is als we begrijpen waarom we dit doen. Weet je, ik maakte vooraf grapjes dat er echt geen reden is om IoT te doen, tenzij je gaat analyseren, de gegevens gebruikt om betere beslissingen te nemen of acties te ondernemen. Dus waar we ons op concentreerden was niet alleen dat we het model daar konden plaatsen, maar dat we er ook mee konden taggen, een regelset. En omdat Boomi zo robuust is in zijn mogelijkheden om dingen van de ene plaats naar de andere te verplaatsen, kunnen we binnen een Boomi-atoom ook de mogelijkheid om te activeren, te waarschuwen en actie te ondernemen insluiten.

En dus krijgen we dat soort verfijnde weergave van IoT-gegevens waar we zeggen: "Oké, deze gegevens zijn het luisteren waard." Maar echt, weet je, wetende dat "het licht aan is, het licht aan is, het licht is aan, het licht is aan ”is niet zo interessant als wanneer het licht uitgaat of wanneer de rookmelder uit gaat of wanneer wat er met ons productieproces gebeurt buiten de specificaties valt. Wanneer dat gebeurt, willen we onmiddellijk actie kunnen ondernemen. En de gegevens worden hier op dit punt bijna secundair. Omdat het niet zo belangrijk is dat we al die dingen hebben opgeslagen, "het is oké, het is oké, het is okay" signalen, wat belangrijk is, is dat we de "Hey, het is slecht" opmerken en we onmiddellijk actie hebben ondernomen. Of het nu gaat om het sturen van een e-mail naar iemand of we kunnen domeinexpertise erbij betrekken, of dat we een reeks andere processen in gang zetten om onmiddellijk actie te ondernemen, of dat nu correctief is of als reactie op de informatie. En ik denk dat dat is waarom je deze georchestreerde kijk erop moet hebben. Je kunt je niet alleen concentreren op het verspreiden van je algoritmen overal. Je moet ze kunnen coördineren en orkestreren. Je moet kunnen zien hoe ze presteren. En echt, het allerbelangrijkste, ik bedoel, waarom zou je dit in vredesnaam doen als je niet de mogelijkheid kunt toevoegen om onmiddellijk actie te ondernemen tegen de gegevens?

Dr. Robin Bloor: Oké, Rebecca, ik geloof dat je vragen hebt van het publiek?

Rebecca Jozwiak: Dat doe ik. Ik heb heel veel publieksvragen. Shawn, ik weet dat je niet te lang na het einde van het uur wilde volhouden. Wat denk je?

Shawn Rogers: Ik ben blij. Doe Maar. Ik kan er een paar beantwoorden.

Rebecca Jozwiak: Eens kijken. Ik weet dat een van de dingen die je noemde, was dat het IoT in de vroege dagen is en dat het een zekere mate van volwassenheid heeft die zal moeten plaatsvinden en het spreekt een beetje aan deze vraag die een deelnemer vroeg. Als het IPv6-raamwerk robuust genoeg zal zijn om de groei van IoT in de komende vijf of tien jaar op te vangen?

Shawn Rogers: Oh, ik laat Dez mijn antwoord echoën omdat ik denk dat hij dichter bij dit soort informatie staat dat ik ben. Maar ik heb altijd gedacht dat we op een zeer snel pad zijn om de meeste van de bestaande kaders te buigen en te doorbreken. En hoewel ik denk dat de toevoeging van dat nieuwe soort specificatie of de richting die we uitgaan met IPv6-frameworks belangrijk is, en het de deur voor ons opent om veel meer apparaten te hebben en om alles te kunnen geven dat we wil een adres geven. Ik denk dat alles wat ik lees en zie met mijn klanten, en het aantal benodigde adressen, ik denk dat dit op een gegeven moment een nieuwe verschuiving in dat landschap zal veroorzaken. Maar ik ben niet echt een netwerkexpert, dus ik kan niet honderd procent zeggen dat we het op een gegeven moment gaan breken. Maar mijn ervaring leert me dat we dat model op een gegeven moment gaan verstoren.

Rebecca Jozwiak: Het zou me niet verbazen. Ik denk dat kaders onder het gewicht van allerlei dingen breken. En dat is gewoon logisch, toch? Ik bedoel, je kunt geen e-mail sturen met een typemachine. Een andere deelnemer vraagt: "Kun je een Hadoop-framework gebruiken?", Maar ik denk dat ik dat zou kunnen veranderen om te zeggen, hoe zou je een Hadoop-framework gebruiken voor gedistribueerde analyses?

Shawn Rogers: Nou, Robin deed me de gunst om me een historische vraag te stellen en dus sinds versie 13 ongeveer een jaar geleden voor Statistica, hebben we de mogelijkheid om modellen uit ons systeem te krijgen en Hadoop binnen te brengen. En we werken heel nauw samen met alle grote smaken van Hadoop. We hebben echt geweldige succesverhalen over de mogelijkheid om met Cloudera te werken als een van de belangrijkste Hadoop-distributies waarmee we samenwerken. Maar omdat we kunnen uitvoeren in Java, geeft het ons de mogelijkheid om open te zijn en onze analyses overal te plaatsen. Ze plaatsen in een Hadoop-cluster is iets dat we voor veel van onze klanten op een normale, regelmatige en dagelijkse basis doen. Het korte antwoord is ja, absoluut.

Rebecca Jozwiak: Uitstekend. En ik ga er gewoon nog een naar je uit gooien en je laten doorgaan met je vakantie. Een andere deelnemer vraagt, met IoT-analyse plus machinaal leren, dat alle gegevens voor historische doeleinden moeten worden opgeslagen en hoe zal dat de oplossingsarchitectuur beïnvloeden?

Shawn Rogers: Nou, ik denk niet dat alle gegevens moeten worden opgeslagen. Maar ik vind het wel heel interessant om de mogelijkheid te hebben om naar elke gegevensbron te luisteren die we willen binnen onze organisatie, waar deze ook vandaan komt. En ik denk wel dat de veranderingen die we de afgelopen jaren in de markt hebben gezien ons in staat hebben gesteld om die alles-data-benadering van dingen aan te nemen, en het lijkt echt een beetje vruchten af ​​te werpen. Maar het zal voor elk bedrijf en elke use case anders zijn. Weet je, als we naar gezondheidsgegevens kijken, zijn er nu veel regelgevingskwesties, veel nalevingskwesties waar we ons zorgen over moeten maken, en waardoor we gegevens opslaan die andere bedrijven misschien niet begrijpen waarom deze moeten worden opgeslagen, toch ? In de productieprocessen is er voor veel van onze productieklanten een groot voordeel om uw processen historisch te kunnen onderzoeken en terug te kunnen kijken op grote hoeveelheden van deze gegevens om ervan te leren en er betere modellen van te maken.

Ik denk dat veel van de gegevens moeten worden bewaard en ik denk dat we oplossingen hebben die dat tegenwoordig zuiniger en schaalbaarder maken. Maar tegelijkertijd denk ik dat elk bedrijf waarde zal vinden in gegevens die ze niet op atomair niveau hoeven te houden, maar ze willen op een realtime manier analyseren en beslissingen nemen om innovatie te stimuleren binnen hun bedrijf.

Rebecca Jozwiak: Oke goed. Nee, publiek, ik ben vandaag niet bij alle vragen terechtgekomen, maar ik zal ze doorsturen naar Shawn zodat hij je rechtstreeks kan bereiken en die vragen kan beantwoorden. Maar bedankt iedereen voor het bijwonen. Heel erg bedankt aan Shawn Rogers van Dell Statistica en van al onze analisten, Dez Blanchfield en Dr. Robin Bloor. Je kunt het archief hier vinden op insideanalysis.com, SlideShare, we zijn begonnen onze spullen weer terug te plaatsen, en we vernieuwen onze YouTube, dus kijk daar ook naar. Heel erg bedankt mensen. En daarmee ga ik je vaarwel zeggen en tot de volgende keer.

Edge-analyse: eindelijk de iot-economie