Gå til innhold
Datavarehus

Datastyringsordliste

 

Denne websiden er maskinoversatt for å hjelpe deg. SAP kan ikke garantere at maskinoversettelsen er riktig eller fullstendig oversatt. Den opprinnelige engelske nettsiden finner du ved å bruke verdenskartet i øvre høyre hjørne av denne siden.

Utforsk et utvalg av datarelaterte termer og definisjoner i vår databehandlingsordliste.

En database er en funksjon for organisering, lagring, administrasjon, sikring og kontroll av tilgang til data. Databaser er utformet i henhold til en rekke ulike skjemaer (skjema), hvorav mange følger relasjonsmodellen for å gjøre tilgangen enklere for programmer og dataspørringer. Vanlige typer databaser omfatter relasjonsdatabasesystemer (RDBMS), in-memory-databaser, objektorienterte databaser (OODBMS), NoSQL-databaser og NewSQL-databaser – hver med sine egne fordeler.

Datahåndtering viser til alle funksjoner som er nødvendige for å samle inn, kontrollere, beskytte, manipulere og levere data. Databehandlingssystemer omfatter databaser, datavarehus og datamarter, verktøy for datainnsamling, lagring og henting; og hjelpefunksjoner for å hjelpe til med validering, kvalitet og integrasjon med applikasjoner og analyseverktøy. Bedrifter trenger en datastrategi for å etablere ansvarlighet for data som stammer fra eller er endemisk for bestemte ansvarsområder.

Databasestyring viser til prosessene og prosedyrene som kreves for å lagre, håndtere, manipulere og beskytte data. I mange organisasjoner er ansvaret for å etablere og føre tilsyn med slike prosedyrer det primære ansvaret til en databaseadministrator (DBA) eller lignende stilling. De fleste organisasjoner er avhengige av et kommersielt databasestyringssystem (DBMS) som det primære verktøyet for administrasjon av databasen deres. 

Databasestyringssystem (DBMS) er et programvareverktøysett som inneholder en lagringsstruktur og et databehandlingsanlegg for databaseadministrasjon. DBMS kan være en integrert del av et lisensiert ERP-system (Enterprise Resource Planning), et nødvendig separat innkjøp, en del av systemprogramvaren (operativsystemet) eller et separat lisensiert programvareprodukt. Uansett, er det viktig at applikasjoner bygges rundt og/eller er fullstendig integrert med DBMS, ettersom de er gjensidig avhengige av effektiv funksjonalitet for både programmer og DBMS. DBMS er i hovedsak et verktøysett for databaseadministrasjon.

En SQL-database er en relasjonsdatabase som lagrer data i tabeller og rader. Dataelementer (rader) er koblet basert på vanlige dataelementer for å muliggjøre effektivitet, unngå redundans og forenkle enkel, fleksibel henting. Navnet SQL er avledet fra Structure Query Language, verktøysettet og spørringsprotokollen for naturlig språk som brukerne kan lære og bruke på alle kompatible databaser for datalagring, manipulering og henting.

NoSQL-databaser ble utviklet for håndtering av ustrukturerte data som SQL ikke kan støtte på grunn av manglende struktur. NoSQL bruker kreative teknikker for å overvinne denne begrensningen, inkludert dynamiske skjemaer og ulike forbehandlingsteknikker. De vanligste databasetypene for ustrukturerte data er nøkkelverdi-, dokument-, kolonne- og diagramdatabaser, og omfatter ofte ting som video, grafikk, fritekst og råsensorutdata.

Et relasjonsdatabasebehandlingssystem er et databasebehandlingssystem (DBMS) som er basert på relasjonsdatamodellen. Innholdet i RDBMS er lagret i tabeller, bestående av rader og kolonner, der hver tabell representerer et bestemt objekt eller entitet, i databasen som kan knyttes til et annet.  En RDBMS inneholder vanligvis flere tabeller og inkluderer tilleggsfunksjoner som opprettholder nøyaktigheten, konsistensen, integriteten og sikkerheten til dataene, samt et SQL-grensesnitt for å få tilgang til dataene i forhold til hverandre gjennom komplekse spørringer.

CDBMS er et begrep skapt av Gartner som hovedsakelig beskriver en skyutrullingsmodell for RDBMS ovenfor.

Strukturerte data formateres nesten i rader og kolonner og kobles til forhåndsdefinerte felt. Vanligvis lagret i Excel-regneark eller relasjonsdatabaser, for eksempel finanstransaksjoner, demografisk informasjon og maskinprotokoller. Inntil nylig var strukturerte data den eneste brukbare typen data for bedrifter.

Ustrukturerte data er ikke organisert i rader og kolonner, noe som gjør det vanskeligere å lagre, analysere og søke. Eksempler på dette er rå IoT-data (Internet of Things), video- og lydfiler, kommentarer til sosiale medier og callsentertranskripsjoner. Ustrukturerte data lagres vanligvis i datasjøer, NoSQL-databaser eller moderne datavarehus.

Semitrukturerte data har noen organisasjonsegenskaper, for eksempel semantiske tagger eller metadata, men samsvarer ikke med radene og kolonnene i et regneark eller en relasjonsdatabase. Et godt eksempel på halvstrukturerte data er e-post – som inkluderer noen strukturerte data, for eksempel avsender- og mottakeradressene, men også ustrukturerte data, som selve meldingen.

Datatilordning er prosessen med å avstemme felt mellom ulike datastrukturer eller databaser. Dette er et nødvendig trinn hvis databaser skal kombineres, hvis data migreres fra ett system eller én database til et annet, eller hvis forskjellige datakilder skal brukes i en enkelt applikasjon eller analyseverktøy – slik det ofte skjer i datalagring. Datatilordning vil identifisere unik, motstridende og duplisert informasjon slik at det kan utvikles et regelsett for å bringe alle dataene inn i et koordinert skjema eller format.

Når du oppretter en ny eller alternativ databasestruktur, starter designeren med et diagram som viser hvordan data vil flyte inn i og ut av databasen. Diagramering av dataflytene kalles datamodellering. Fra dette flytdiagrammet kan programvareingeniører definere egenskapene til dataformater, -strukturer og -funksjoner for å støtte dataflytkravene på en effektiv måte.

Et datavarehus sørger for et enkelt, omfattende lagringssted for data fra mange forskjellige kilder - både internt og eksternt. Hovedformålet er å levere data for Business Intelligence (BI), rapportering og analyse. Moderne datalagre kan lagre og administrere alle datatyper, strukturert og ustrukturert, og er vanligvis distribuert i skyen for å oppnå større skalerbarhet og brukervennlighet.

En datasjø er en stor samling data som er lagret i sitt rå eller naturlige format. Datasjøer brukes vanligvis til å lagre store datamengder, inkludert strukturerte, ustrukturerte og halvstrukturerte data. 

Store data er et begrep som beskriver ekstremt store datasett med strukturerte, ustrukturerte og halvstrukturerte data. Store data er ofte karakterisert av de fem Vs: det innsamlede datavolumet, variasjonen av datatyper, hastigheten som dataene genereres i, datasikkerheten og verdien av den. Med systemer og analyser for administrasjon av store data kan bedrifter mine store data for dyp innsikt som veileder i beslutningstaking og aktiviteter.

I motsetning til Big Data, som er svært omfattende og komplisert, er små data lette for mennesker å forstå. Små datasett kan omfatte alt fra markedsføringsundersøkelser til daglige regneark – og kan til og med være som "små" som ett enkelt innlegg eller e-post i sosiale medier. I økende grad bruker bedrifter små data i tillegg til store data til å lære opp AI- og maskinlæringsalgoritmer, for enda dypere innsikt. 

Tykke data er kvalitativ informasjon som gir innsikt i forbrukernes daglige emosjonelle liv. Den inkluderer observasjoner, følelser og reaksjoner – ting som typisk er vanskelige å kvantifisere. Når det kombineres med store datamengder, vises det et svært omfattende bilde om en forbrukers preferanser og krav.

Dataintegrasjon er praksisen med å overføre, kombinere og klargjøre data, der og når det er behov for det. Denne integrasjonen finner sted i foretaket og utenfor – både på tvers av partnere og i tredjepartsdatakilder og brukstilfeller – for å oppfylle kravene til dataforbruk for alle applikasjoner og forretningsprosesser. Teknikker omfatter masse-/batch-databevegelse, ekstrakt, transformasjon, lasting (ETL), registrering av endringsdata, datareplikering, datavirtualisering, strømming av dataintegrasjon, dataorkestrering og mer.

Datavirtualisering gir bedrifter en enhetlig oversikt over alle foretaksdata – på tvers av ulike systemer og formater – i et virtuelt datalag. I stedet for å duplisere data, forlater datagialiseringen dataene i sine kildesystemer og utsetter ganske enkelt en virtuell representasjon av dem for brukere og applikasjoner i sanntid. Datavirtualisering er en moderne tilnærming til dataintegrasjon som lar brukerne oppdage og manipulere data uavhengig av dens fysiske plassering, format eller protokoll.

Datastoff er en tilpasset kombinasjon av arkitektur og teknologi. Den bruker dynamisk dataintegrasjon og orkestrering for å koble til ulike lokaliseringer, kilder og datatyper. Med de riktige strukturene og strømmene som er definert i datamaskinplattformen, kan bedrifter raskt få tilgang til og dele data uavhengig av hvor de er eller hvordan de ble generert.

Datamask er en tilnærming til datahåndtering som benytter et distribuert arkitektonisk rammeverk. Med andre ord: Det sprer eierskap og ansvar for bestemte datasett i hele bedriften, til brukere som har spesialekspertise til å forstå hva disse dataene betyr og hvordan de best kan bruke dem. 

En datapipeline beskriver et sett med automatiserte og repeterbare prosesser for å finne, rense, transformere og analysere alle typer data ved kilden. Fordi data analyseres i nærheten av der de genereres, kan forretningsbrukere raskt analysere og dele informasjonen de trenger, til en lavere kostnad for organisasjonen. Datapipeliner kan også forbedres ved hjelp av teknologier som maskinlæring for å gjøre dem raskere og mer effektive.

Datastilo er en slang betegnelse på en situasjon der individuelle avdelinger eller funksjonsområder innenfor et foretak ikke deler data og informasjon med andre avdelinger. Denne isolasjonen forhindrer samordnet innsats mot selskapets mål og resulterer i dårlig ytelse (og dårlig kundeservice), høye kostnader og generell manglende evne til å imøtekomme markedskrav og endringer. Det er vanskelig å avstemme dupliserte og overflødige data, noe som ytterligere forhindrer eventuelle forsøk på å koordinere aktiviteter og administrere virksomheten på en effektiv måte.

Dataavstemming er prosessen med å ta rådata og transformere dem til et format som er kompatibelt med etablerte databaser og applikasjoner. Prosessen kan omfatte strukturering, rengjøring, beriking og validering av data etter behov for å gjøre rådata nyttige.

Datasikkerhet er å sikre dataene på en trygg og sikker måte mot uautorisert tilgang eller eksponering, katastrofe eller systemsvikt, og samtidig være lett tilgjengelig for berettigede brukere og anvendelser. Metoder og verktøy omfatter datakryptering, nøkkelstyring, redundans- og sikkerhetskopiering samt tilgangskontroller. Datasikkerhet er et krav for organisasjoner av alle størrelser og typer for å beskytte kunde- og organisasjonsdata mot den stadig økende trusselen om databrudd og personvernrisikoer. Redundans og sikkerhetskopier er viktige for virksomhetens kontinuitet og katastrofegjenoppretting.

Med databeskyttelse menes retningslinjer og praksis for håndtering av data på måter som beskytter dem mot uautorisert tilgang eller publisering. Retningslinjer og praksis for personvern dekker hvordan informasjon samles inn og lagres i henhold til organisasjonens datastrategi, hvordan den kan deles med tredjeparter eller ikke, og hvordan du overholder lovbestemte begrensninger. Databeskyttelse er et foretak som tilfredsstiller kundenes forventninger, samtidig som integriteten og sikkerheten til lagret informasjon beskyttes.

Datakvalitet er et nebuløst begrep som beskriver dataenes egnethet og pålitelighet. Gode kvalitetsdata betyr ganske enkelt at dataene er nøyaktige (virkelig representative for hva de beskriver), pålitelige (konsekvente, kontrollerbare, riktig håndterte og beskyttede), og fullstendige i den grad brukerne og applikasjonene krever det. Datakvaliteten kan bare sikres gjennom en korrekt utformet og gjennomført datastrategi som utføres med verktøy og systemer for industriell styrke samt omfattende fulgt retningslinjer og framgangsmåter for datahåndtering.

Datavalidering er prosessen med å fastsette kvaliteten, nøyaktigheten og gyldigheten av data før import eller bruk av dem. Validering kan bestå av en rekke aktiviteter og prosesser for å autentisere dataene og generelt «rydde opp» dataelementer, herunder fjerning av duplikater, korrigering av åpenbare feil eller manglende elementer, og mulige formateringsendringer (opprydding av data). Datavalidering sikrer at informasjonen du trenger for å ta viktige beslutninger, er nøyaktig og pålitelig.

Dataopprydding er prosessen med å fjerne eller korrigere feil fra et datasett, en tabell eller en database. Disse feilene kan omfatte skadet, unøyaktig, irrelevant eller ufullstendig informasjon. Denne prosessen, også kalt datautskilling, finner doble data og andre inkonsistenser, for eksempel typos og numeriske sett som ikke summerer seg. Dataopprydding kan fjerne feil informasjon eller rette åpenbare feil, for eksempel tomme felt eller manglende koder.

Dataintegritet refererer til datatettheten over lang sikt. Når data er oppgitt eller importert, vridd, validert, renset og lagret, er dataintegritet en erklæring om at datakvaliteten vedlikeholdes, og brukerne kan hvile på at dataene som gikk, ikke har og ikke vil bli endret. Dataene som hentes, er de samme som de som opprinnelig ble lagret. Noen ganger brukes som synonym for datakvalitet, er dataintegriteten mer om pålitelighet og avhengighet.

Datastyring er et sett med retningslinjer og praksis for å sikre riktig dataadministrasjon på tvers av en organisasjon. Det fastsetter IT-infrastrukturen og navngir enkeltpersoner (eller posisjoner) som har myndighet og ansvar for håndtering og sikring av bestemte typer data. Effektiv datagovernance sikrer at data er tilgjengelige, pålitelige, sikre og konforme – og at de ikke blir misbrukt.

Datastyring er implementeringen av retningslinjer og prosedyrer for datastyring for å fastslå datanøyaktighet, pålitelighet, integritet og sikkerhet. Enkeltpersoner som er tilordnet med ansvarsområder for datastyring, administrerer og overvåker prosedyrene og verktøyene som brukes til å håndtere, lagre og beskytte data.

Datainstruksjon er den generelle utformingen for strukturen, retningslinjene og reglene som definerer en organisasjons data, og hvordan den skal brukes og administreres. Datainstruksjon omfatter detaljer om hvordan datastrategien implementeres til støtte for forretningsbehov og -mål – og fungerer som grunnlaget for utvikling av databaser, prosedyrer, garantier, sikkerhet og datagovernance.

Master Data Management (MDM) er praksisen med å opprette én enkelt referansekilde for stamdata for alle viktige forretningsdata. Det omfatter retningslinjer og prosedyrer for å definere, administrere og kontrollere (eller styre) håndtering av stamdata. Sentralisert stamdataadministrasjon fjerner konflikt og forvirring som stammer fra spredte databaser med duplisert informasjon og ukoordinerte data som kan være utdaterte, ødelagte eller forkastet i tid – oppdatert på ett sted, men ikke på et annet. En versjon for å betjene hele foretaket betyr at alle deler av organisasjonen arbeider med de samme definisjoner, standarder og forutsetninger.

Termen analyse refererer til den systematiske analysen av data. Analyseapplikasjoner og verktøysett inneholder matematiske algoritmer og beregningsmotorer som kan manipulere store datasett for å avdekke mønstre, trender, relasjoner og annen intelligens som gjør det mulig for brukere å stille spørsmål og få nyttig innsikt om forretningsvirksomhet, operasjoner og markeder. Mange moderne analyseverktøysett er designet for bruk av ikke-tekniske forretningsfolk, slik at de kan utføre disse analysene med minimal assistanse fra dataspesialister eller IT-spesialister.

Utvidede analyser er analyser som er "utvidet" med kunstig intelligensteknologi, inkludert maskinlæring og naturlig språkbehandling (NLP). Ikke bare kan økte analysefunksjoner hjelpe brukere med å avdekke dypere innsikt, raskere – de kan automatisere mange kompliserte trinn i prosessen og tillate selv ikke-tekniske brukere å spørre etter data på en naturlig, samtalemessig måte.

Datautvinning er utvinningen av nyttig informasjon fra store datasett. Datautvinning gjøres ofte av forretningsbrukere som bruker analyseverktøy for å avdekke mønstre, trender, avvik, relasjoner, avhengigheter og annen nyttig intelligens. Datautvinning har et bredt spekter av applikasjoner, fra å oppdage svindel og cybersikkerhet bekymringer for å forbedre prognoser og finne muligheter for ytelsesforbedring.

Dataprofilering er praksisen med å samle inn statistikk og egenskaper om et datasett, for eksempel nøyaktighet, fullstendighet og gyldighet. Dataprofilering er en av teknikkene som brukes i datavaliderings- og dataoppryddingsforsøk, siden det kan bidra til å oppdage datakvalitetsproblemer som redundanser, manglende verdier og inkonsistenser.

placeholder

Hva er dataadministrasjon?

Lær hvordan organisasjonen kan transformere dataene til en verdifull ressurs.

Nyhetsbrev for SAP Insights

placeholder
Abonner i dag

Få nøkkelinnsikt ved å abonnere på nyhetsbrevet vårt.

Videre lesing

Tilbake til toppen