Big Data 3 Vs - Konsepter og modeller

Innholdsfortegnelse:

Big Data 3 Vs - Konsepter og modeller
Big Data 3 Vs - Konsepter og modeller

Video: Big Data 3 Vs - Konsepter og modeller

Video: Big Data 3 Vs - Konsepter og modeller
Video: OSI Layer 4 Explained - YouTube 2024, April
Anonim

Begrepet "data" er ikke nytt for oss. Det er en av de viktigste tingene som læres når du velger informasjonsteknologi og datamaskiner. Hvis du kan huske, anses data som den raske informasjonsformen. Selv om det allerede er et tiår, er begrepet Stor Data er en buzz i disse dager. Som det fremgår av termen, er masse og masse data Big Data, og det kan behandles på forskjellige måter ved hjelp av forskjellige metoder og verktøy for å skaffe nødvendig informasjon. Denne artikkelen snakker om konseptene Big Data, ved hjelp av de 3 V-er nevnt av Doug Laney, en pioner innen datalagring, som anses å ha initiert feltet for Infonomics (Informasjonsøkonomi).

Før du fortsetter, vil du kanskje lese artiklene våre om Grunnleggende om Big Data og Big Data Usage for å forstå essensen. De kan legge opp til dette innlegget for videre forklaring av Big Data-konseptene.
Før du fortsetter, vil du kanskje lese artiklene våre om Grunnleggende om Big Data og Big Data Usage for å forstå essensen. De kan legge opp til dette innlegget for videre forklaring av Big Data-konseptene.

Big Data 3 Vs

Data, i sin enorme form, akkumulert via ulike midler, ble arkivert riktig i forskjellige databaser tidligere og ble dumpet etter en tid. Da konseptet viste seg at jo flere dataene er, desto lettere er det å finne ut - forskjellig og relevant informasjon - ved hjelp av de riktige verktøyene, begynte bedrifter å lagre data i lengre perioder. Dette er som å legge til nye lagringsenheter eller bruke skyen til å lagre dataene i hvilken form dataene ble anskaffet: dokumenter, regneark, databaser og HTML osv. Det ordnes deretter i riktige formater ved hjelp av verktøy som kan behandle store biter av Data.

MERK: Omfanget av Big Data er ikke begrenset til dataene du samler inn og lagrer i lokalene og i skyen. Det kan inneholde data fra forskjellige andre kilder, inkludert men ikke begrenset til elementer i det offentlige området.

3D-modellen for Big Data er basert på følgende V-er:

  1. Volum: refererer til styring av datalagring
  2. Hastighet: refererer til hastigheten på databehandling
  3. Variety: refererer til gruppering av data av forskjellige, tilsynelatende ikke-relaterte datasett

Følgende avsnitt beskriver Big Data modellering ved å snakke om hver dimensjon (hver V) i detaljer.

A] Volum av store data

Snakker om de store dataene, man kan forstå volumet som en stor samling av rå informasjon. Selv om det er sant, handler det også om lagringskostnader for data. Viktige data kan lagres både på lokaler og på sky, sistnevnte er det fleksible alternativet. Men trenger du å lagre alt og alt?

Ifølge en vitbok utgitt av Meta Group, når datamengden øker, begynner deler av data å se unødvendig ut. Videre står det at bare det volumet av data skal beholdes som bedriftene har til hensikt å bruke. Andre data kan bli kastet, eller hvis bedriftene er motvillige til å gi slipp på "angivelig ikke-viktige data", kan de dumpes på ubrukte datamaskiner og til og med på bånd slik at bedrifter ikke trenger å betale for lagring av slike data.

Jeg brukte "tilsynelatende ubetydelige data" fordi jeg også tror at data av noe slag kan være nødvendig av enhver bedrift i fremtiden - før eller senere - og dermed må det holdes i god tid før du vet at dataene faktisk er ikke-viktig. Personlig dumper jeg eldre data til harddisker fra yesteryears og noen ganger på DVDer. Hoveddatamaskiner og skylagring inneholder de dataene som jeg anser viktige og vet at jeg skal bruke. Blant disse dataene er det også en gangs bruk av data som kan ende opp med en gammel HDD etter noen år. Eksemplet ovenfor er bare for din forståelse. Det passer ikke til beskrivelsen av Big Data da beløpet er ganske mindre i forhold til hva bedriftene oppfatter som Big Data.

B ] Hastighet i store data

Hastigheten til behandling av data er en viktig faktor når man snakker om begreper Big Data. Det er mange nettsteder, spesielt e-handel. Google hadde allerede innrømmet at hastigheten der en sidebelastning er viktig for bedre rangeringer. Bortsett fra rangeringen gir hastigheten også komfort til brukerne mens de handler. Det samme gjelder for data som behandles for annen informasjon.

Mens du snakker om hastighet, er det viktig å vite at det er utover bare høyere båndbredde. Den kombinerer lett brukbare data med ulike analysverktøy. Lett brukbare data betyr noen lekser for å skape strukturer av data som er enkle å behandle. Den neste dimensjonen - Variety, sprer videre lys på dette.

C] Mangfold av store data

Når det er masse og masse data, blir det viktig å organisere dem på en måte at analyseverktøyene enkelt kan behandle dataene. Det finnes også verktøy for å organisere data. Ved lagring kan dataene være ustrukturerte og av hvilken som helst form. Det er opp til deg å finne ut hvilken relasjon det har med andre data med deg. Når du har funnet ut forholdet, kan du hente passende verktøy og konvertere dataene til ønsket form for strukturert og sortert lagring.

Image
Image

Sammendrag

Med andre ord, Big Datas 3D-modell er basert på tre dimensjoner: USABLE-data som du har; riktig merking av data; og raskere behandling. Hvis disse tre blir tatt vare på, kan dataene dine lett behandles eller analyseres for å finne ut hva du vil.

Ovenstående forklarer begge konsepter og 3D-modellen til Big Data. Artikklene som er koblet til i andre ledd, vil vise seg ekstra støtte hvis du er ny på konseptet.

Hvis du vil legge til noe, vær så snill å kommentere.

Anbefalt: