Programmering

Hvordan kantanalyse vil drive smartere computere

Mange brugssager til analyse og maskinindlæring opretter forbindelse til data, der er gemt i datalagre eller datasøer, kører algoritmer på komplette datasæt eller en delmængde af dataene og beregner resultater på skyarkitekturer. Denne tilgang fungerer godt, når dataene ikke ændres ofte. Men hvad hvis dataene ændres ofte?

I dag er flere virksomheder nødt til at behandle data og beregne analyser i realtid. IoT driver meget af dette paradigmeskift, da datastreaming fra sensorer kræver øjeblikkelig behandling og analyse for at kontrollere downstream-systemer. Realtidsanalyse er også vigtig i mange brancher, herunder sundhedspleje, finansielle tjenester, fremstilling og reklame, hvor små ændringer i dataene kan have betydelige økonomiske, sundhedsmæssige, sikkerhedsmæssige og andre forretningspåvirkninger.

Hvis du er interesseret i at muliggøre realtidsanalyser - og nye teknologier, der udnytter en blanding af edge computing, AR / VR, IoT-sensorer i skala og maskinindlæring i skala - så er det vigtigt at forstå designovervejelserne for kantanalyse. Edge computing-anvendelsestilfælde som autonome droner, smarte byer, detailkædestyring og augmented reality-spilnetværk er alle målrettet at implementere storskala, meget pålidelig kantanalyse.

Edge analytics, streaming analytics og edge computing

Flere forskellige analyser, maskinlæring og edge computing paradigmer er relateret til edge analytics:

  • Kantanalyse refererer til analyse- og maskinlæringsalgoritmer, der er distribueret til infrastruktur uden for cloudinfrastruktur og "på kanten" i geografisk lokaliseret infrastruktur.
  • Streaming analytics refererer til computing analytics i realtid, når data behandles. Streaminganalyser kan udføres i skyen eller på kanten afhængigt af brugssagen.
  • Hændelsesbehandling er en måde at behandle data på og føre beslutninger i realtid. Denne behandling er en delmængde af streaming-analyse, og udviklere bruger begivenhedsdrevne arkitekturer til at identificere begivenheder og udløse downstream-handlinger.
  • Edge computing refererer til implementering af beregning til edge-enheder og netværksinfrastruktur.
  • Fog computing er en mere generaliseret arkitektur, der opdeler beregning blandt kant-, nærkant- og cloud computing-miljøer.

Ved design af løsninger, der kræver kantanalyse, skal arkitekter overveje fysiske og strømbegrænsninger, netværksomkostninger og pålidelighed, sikkerhedsovervejelser og behandlingskrav.

Årsager til at implementere analyser på kanten

Du spørger måske, hvorfor du vil implementere infrastruktur til kanten til analyse? Der er tekniske, omkostnings- og overholdelsesmæssige overvejelser, der indgår i disse beslutninger.

Applikationer, der påvirker menneskers sikkerhed og kræver modstandsdygtighed i databehandlingsarkitekturen, er et brugstilfælde til kantanalyse. Applikationer, der kræver lav latenstid mellem datakilder, såsom IoT-sensorer og analytics computing-infrastruktur, er en anden brugssag, der ofte kræver kantanalyse. Eksempler på disse brugssager inkluderer:

  • Selvkørende biler, automatiserede maskiner eller enhver transport, hvor kontrolsystemer automatiserer hele eller dele af navigationen.
  • Smarte bygninger, der har sikkerhedskontrol i realtid og ønsker at undgå at være afhængige af netværk og skyinfrastruktur, så folk kan komme ind og ud af bygningen sikkert.
  • Smarte byer, der sporer offentlig transport, implementerer smarte målere til hjælpefakturering og smarte affaldshåndteringsløsninger.

Omkostninger til omkostninger er en væsentlig faktor i brugen af ​​kantanalyser i produktionssystemer. Overvej et sæt kameraer, der scanner de fremstillede produkter for mangler, mens de befinder sig i hurtige transportbånd. Det kan være mere omkostningseffektivt at implementere edge-computerenheder fra fabrikken til at udføre billedbehandlingen snarere end at have højhastighedsnetværk installeret til at overføre videobilleder til skyen.

Jeg talte med Achal Prabhakar, teknisk direktør hos Landing AI, en industriel AI-virksomhed med løsninger, der fokuserer på computersyn. "Produktionsanlæg er meget forskellige fra mainstream analytics-applikationer og kræver derfor nytænkning af AI inklusive implementering," fortalte Prabhakar mig. ”Et stort fokusområde for os er implementering af komplekse dyb læringsvisionsmodeller med kontinuerlig læring direkte på produktionslinjer ved hjælp af dygtige, men råvareudstyr.”

Implementering af analyser til fjerntliggende områder som bygge- og boresteder har også fordel af at bruge kantanalyse og computing. I stedet for at stole på dyre og potentielt upålidelige wide area-netværk implementerer ingeniører kantanalyseinfrastruktur på stedet for at understøtte den krævede data- og analysebehandling. For eksempel implementerede et olie- og gasselskab en streaminganalyseløsning med en distribueret computerplatform i hukommelsen til kanten og reducerede boretiden med så meget som 20 procent fra typisk 15 dage til 12 dage.

Overholdelse og datastyring er en anden grund til kantanalyse. Implementering af lokal infrastruktur kan hjælpe med at opfylde GDPR-overholdelse og andre datasuverænitetsbestemmelser ved at gemme og behandle begrænsede data i de lande, hvor dataene indsamles.

Design af analyser til kanten

Desværre er det ikke altid trivielt at tage modeller og andre analyser og distribuere dem til edge computing-infrastruktur. Computerkravene til behandling af store datasæt gennem beregningsintensive datamodeller kan kræve ombygning, inden de køres og implementeres på edge computing-infrastruktur.

For det første drager mange udviklere og dataforskere nu fordel af de højere niveau analytiske platforme, der er tilgængelige på offentlige og private skyer. IoT og sensorer bruger ofte indlejrede applikationer skrevet i C / C ++, hvilket kan være ukendt og udfordrende terræn for cloud-native dataforskere og ingeniører.

Et andet problem kan være selve modellerne. Når dataforskere arbejder i skyen og skalerer computerressourcer efter behov med relativt lave omkostninger, er de i stand til at udvikle komplekse maskinlæringsmodeller med mange funktioner og parametre for fuldt ud at optimere resultaterne. Men når der implementeres modeller til kantbaseret computerinfrastruktur, kan en alt for kompleks algoritme dramatisk øge omkostningerne ved infrastruktur, enhedernes størrelse og strømkrav.

Jeg diskuterede udfordringerne ved at implementere AI-modeller til kanten med Marshall Choy, produktchef for SambaNova Systems. ”Modeludviklere til kant-AI-applikationer fokuserer i stigende grad mere på meget detaljerede modeller for at opnå forbedringer i parameterreduktion og beregningskrav,” bemærkede han. "Træningskravene til disse mindre, meget detaljerede modeller er fortsat skræmmende."

En anden overvejelse er, at implementering af et meget pålideligt og sikkert kantanalysesystem kræver design og implementering af meget fejltolerante arkitekturer, systemer, netværk, software og modeller.

Jeg talte med Dale Kim, seniordirektør for produktmarkedsføring hos Hazelcast, om brugssager og begrænsninger, når man behandler data ved kanten. Han kommenterede, at mens udstyrsoptimeringer, forebyggende vedligeholdelse, kvalitetssikringskontrol og kritiske alarmer alle er tilgængelige ved kanten, er der nye udfordringer som begrænset hardwareplads, begrænset fysisk tilgængelighed, begrænset båndbredde og større sikkerhedsproblemer.

"Dette betyder, at den infrastruktur, du er vant til i dit datacenter, ikke nødvendigvis fungerer," sagde Kim. "Så du er nødt til at udforske nye teknologier, der er designet med kantcomputerarkitekturer i tankerne."

Den næste grænse inden for analyse

De mere almindelige brugssager til kantanalyse i dag er databehandlingsfunktioner, herunder datafiltrering og aggregeringer. Men da flere virksomheder implementerer IoT-sensorer i målestok, vil behovet for at anvende analyser, maskinindlæring og kunstig intelligensalgoritmer i realtid kræve flere implementeringer på kanten.

Mulighederne ved kanten giver en meget spændende fremtid med smart computing, da sensorer bliver billigere, applikationer kræver mere realtidsanalyse, og det bliver lettere at udvikle optimerede, omkostningseffektive algoritmer til kanten.

$config[zx-auto] not found$config[zx-overlay] not found