Hoppa till Innehåll
Datalager

Ordlista för
datahantering

 

Denna webbsida har maskinöversatts för att underlätta för dig. SAP ger inga garantier angående korrektheten eller fullständigheten av maskinöversättningen. Den ursprungliga engelska webbsidan hittar du genom att använda världskartan i det övre högra hörnet på denna sida.

Utforska en rad datarelaterade termer och definitioner i vår datahanteringsordlista.

En databas är en möjlighet att organisera, lagra, hantera, skydda och kontrollera tillgången till data. Databaser är utformade enligt ett antal olika scheman (schema), av vilka många följer relationsmodellen för att underlätta åtkomst för program och dataförfrågningar. Vanliga typer av databaser är relationsdatabashanteringssystem (RDBMS), minnesbaserade databaser, objektorienterade databaser (OODBMS), NoSQL-databaser och NewSQL-databaser – var och en med sina egna fördelar.

Datahantering avser alla funktioner som krävs för att samla in, kontrollera, skydda, manipulera och leverera data. System för datahantering omfattar databaser, datalager och datamarmar, verktyg för insamling, lagring och hämtning av data, och hjälpmedel som hjälper till med validering, kvalitet och integration med applikationer och analysverktyg. Företagen behöver en datastrategi för att fastställa ansvarsskyldighet för data som kommer från eller är endemiska för vissa ansvarsområden.

Ett databashanteringssystem (DBMS) är den verktygslåda för programvara som tillhandahåller en lagringsstruktur och datahanteringsanläggning för databashantering. DBMS kan vara en integrerad del av ett licensierat ERP-system, ett obligatoriskt separat köp, en del av systemprogramvaran (operativsystemet) eller en separat licensierad mjukvaruprodukt. Oavsett källa är det viktigt att applikationer byggs runt och/eller helt integreras med DBMS, eftersom de är ömsesidigt beroende av varandra för att både applikationerna och DBMS ska fungera effektivt. DBMS är i huvudsak en verktygslåda för databashantering.

En relationsdatabas är en typ av databas som organiserar data till tabeller. Dessa tabeller kan länkas (eller kopplas) till varandra för att hjälpa användare att förstå relationerna mellan alla tillgängliga datapunkter. Relationsdatabaser använder strukturerat frågespråk (SQL) för att låta administratörer kommunicera med databasen, koppla tabeller, infoga och radera data m.m.

En SQL-databas är en relationsdatabas som lagrar data i tabeller och rader. Datapositioner (rader) är länkade baserat på vanliga dataelement för att möjliggöra effektivitet, undvika redundans och underlätta enkel, flexibel hämtning. Namnet SQL kommer från den verktygslåda och det naturliga språkfrågeprotokoll som användare kan lära sig och tillämpa på alla kompatibla databaser för datalagring, manipulation och hämtning.

NoSQL-databaser har utvecklats för hantering av ostrukturerade data som SQL inte kan hantera på grund av brist på struktur. NoSQL använder kreativ teknik för att övervinna denna begränsning inklusive dynamiska scheman och olika förbehandlingstekniker. De vanligaste typerna av databaser för ostrukturerade data är nyckel-, dokument-, kolumn- och grafdatabaser och inkluderar ofta saker som video, grafik, fritext och rå sensorutmatning.

Strukturerade data formateras i rader och kolumner och mappas till fördefinierade fält. Exempel som oftast lagras i Excel-kalkylblad eller relationsdatabaser är ekonomiska transaktioner, demografisk information och maskinloggar. Fram till nyligen var strukturerade data den enda användbara typen av data för företag.

Ostrukturerade data är inte organiserade i rader och kolumner, vilket gör det svårare att lagra, analysera och söka. Exempel är rå Internet of Things (IoT) data, video- och ljudfiler, kommentarer i sociala medier och Call Center-transkript. Ostrukturerade data lagras vanligen i datasjöar, NoSQL-databaser eller moderna datalager.

Halvstrukturerade data har vissa organisationsegenskaper, till exempel semantiska taggar eller metadata, men överensstämmer inte med raderna och kolumnerna i ett kalkylblad eller en relationsdatabas. Ett bra exempel på halvstrukturerade data är e-post – som inkluderar en del strukturerade data, som avsändar- och mottagaradresser, men också ostrukturerade data, som själva meddelandet.

Datamappning är processen för matchning av fält mellan olika datastrukturer eller databaser. Detta är ett nödvändigt steg om databaser ska kombineras, om data migreras från ett system eller en databas till en annan, eller om olika datakällor ska användas inom ett enda program eller analysverktyg – vilket ofta sker i datalagerhantering. Datamappningen kommer att identifiera unik, motstridig och dubblerad information så att en uppsättning regler kan utvecklas för att föra in alla data i ett samordnat schema eller format.

När du skapar en ny eller alternativ databasstruktur börjar designern med ett diagram över hur data kommer att flöda till och från databasen. Diagrammering av dataflöden kallas datamodellering. Från detta flödesdiagram kan mjukvaruingenjörer definiera egenskaper hos dataformat, strukturer och databashanteringsfunktioner för att effektivt stödja dataflödeskraven.

Ett datalager erbjuder en enda, omfattande lagringsplats för data från många olika källor – både internt och externt. Huvudsyftet är att tillhandahålla data för Business Intelligence (BI), rapportering och analys. Moderna datalager kan lagra och hantera alla datatyper, strukturerade och ostrukturerade, och distribueras normalt i molnet för ökad skalbarhet och användarvänlighet.

Big Data är en term som beskriver extremt stora dataset av strukturerade, ostrukturerade och halvstrukturerade data. Stordata karaktäriseras ofta av de fem Vs:n: blotta volymen av data som samlas in, de olika datatyperna, den hastighet vid vilken data genereras, uppgifternas sanningshalt och dess värde. Med Big Data Management-system och analyser kan företag registrera Big Data för djupgående insikter som styr beslutsfattande och åtgärder.

Dataintegration är praxis för att samla in, transformera, kombinera och sammanställa data där och när de behövs. Denna integration sker i företaget och i andra sammanhang – både mellan partner och tredjepartsdatakällor och användningsfall – för att uppfylla dataförbrukningskraven för alla applikationer och verksamhetsflöden. Tekniker inkluderar mass-/batch-datarörelser, extraktion, transformering, inläsning (ETL), ändringsdataregistrering, datareplikering, datavirtualisering, strömningsdataintegration, dataorkestrering med mera.

Datavirtualisering ger företag en enhetlig vy över alla företagsdata – över olika system och format – i ett virtuellt dataskikt. I stället för att duplicera data lämnar datavirtualiseringen data i sina källsystem och exponerar helt enkelt en virtuell representation av dem för användare och applikationer i realtid. Datavirtualisering är en modern metod för dataintegration som gör det möjligt för användare att upptäcka och manipulera data oavsett fysisk plats, format eller protokoll.

En datastruktur är en anpassad kombination av arkitektur och teknik. Den använder dynamisk dataintegration och orkestrering för att ansluta olika platser, källor och typer av data. Med rätt strukturer och flöden enligt definitionen inom plattformen för datastruktur kan företag snabbt få tillgång till och dela data oavsett var den finns eller hur den genererades.

En data-pipeline beskriver en uppsättning automatiserade och repeterbara processer för att hitta, rensa, transformera och analysera alla typer av data vid källan. Eftersom data analyseras nära den plats där de genereras kan företagsanvändare snabbt analysera och dela den information de behöver till en lägre kostnad till organisationen. Dataledningar kan också utökas med teknik som maskininlärning för att göra dem snabbare och effektivare.

En data-silo är en slang-term för en situation där enskilda avdelningar eller funktionsområden inom ett företag inte delar data och information med andra avdelningar. Denna isolering förhindrar samordnade insatser mot företagets mål och leder till dåliga resultat (och dålig kundservice), höga kostnader och en allmän oförmåga att möta marknadens krav och förändringar. Dubbla och redundanta data är svåra att stämma av, vilket ytterligare förhindrar alla försök att samordna aktiviteter och hantera verksamheten på ett effektivt sätt.

Data wrangling är processen att ta rådata och omvandla dem till ett format som är kompatibelt med etablerade databaser och applikationer. Processen kan omfatta strukturering, rengöring, berikning och validering av data efter behov för att göra rådata användbara.

Datasäkerhet är en åtgärd för att göra data säkra och säkra – säkra från obehörig åtkomst eller exponering, katastrof eller systemfel, och samtidigt lättillgängligt för legitima användare och applikationer. Metoder och verktyg inkluderar datakryptering, nyckelhantering, redundans och säkerhetskopiering samt åtkomstkontroller. Datasäkerhet är ett krav för organisationer av alla storlekar och typer för att skydda kund- och organisationsdata mot det ständigt ökande hotet om dataintrång och integritetsrisker. Redundans och säkerhetskopior är viktiga för verksamhetens kontinuitet och katastrofåterhämtning.

Med dataintegritet avses de policyer och rutiner för hantering av data som skyddar dem från obehörig åtkomst eller obehörigt röjande. Policyer och rutiner för dataintegritet omfattar hur information samlas in och lagras enligt organisationens datastrategi, hur den kan delas med tredje part eller inte och hur lagstadgade begränsningar följs. Datasekretess är ett affärskrav som tillgodoser kundernas förväntningar samtidigt som den lagrade informationens integritet och säkerhet skyddas.

Datakvalitet är en nebulös term som beskriver uppgifternas lämplighet och tillförlitlighet. Bra data av god kvalitet innebär helt enkelt att uppgifterna är korrekta (verkligen representativa för vad de beskriver), tillförlitliga (konsekventa, granskningsbara, korrekt hanterade och skyddade) och fullständiga i den utsträckning som användare och applikationer kräver. Datakvaliteten kan endast säkerställas genom en korrekt utformad och genomförd datastrategi som genomförs med industriella styrkeverktyg och -system tillsammans med noggrant tillämpade riktlinjer och förfaranden för datahantering.

Datavalidering är processen för att fastställa datakvalitet, korrekthet och giltighet för data före import eller användning. Validering kan bestå av en serie aktiviteter och processer för autentisering av data och i allmänhet "rensning" av dataobjekt, inklusive borttagning av dubbletter, korrigering av uppenbara fel eller saknade objekt samt möjliga formateringsändringar (datarensning). Datavalidering säkerställer att den information du behöver för att fatta viktiga beslut är korrekt och tillförlitlig.

Datarensning är processen för att ta bort eller korrigera fel från ett dataset, en tabell eller en databas. Dessa fel kan inkludera korrupt, felaktig, irrelevant eller ofullständig information. Denna process, som även kallas dataskrubbning, hittar duplicerade data och andra inkonsistenser, till exempel typos och numeriska uppsättningar som inte summeras. Datarensning kan ta bort felaktig information eller åtgärda uppenbara misstag, till exempel tomma fält eller saknade koder.

Dataintegritet avser sanningshalt för data på lång sikt. När data har angetts eller importerats, kritiserats, validerats, rensats och lagrats är dataintegriteten en försäkran om att datakvalitet underhålls och användare kan vara säkra på att de data som gick in inte har och inte kommer att ändras. De data som hämtas är samma som de som ursprungligen lagrades. Ibland används som synonym för datakvalitet, dataintegritet handlar mer om tillförlitlighet och tillförlitlighet.

Datastyrning är en uppsättning policyer och rutiner för att säkerställa korrekt datahantering i hela organisationen. Den fastställer IT-infrastrukturen och namnger de personer (eller befattningar) som har befogenhet och ansvar för hantering och skydd av specifika typer av uppgifter. Effektiv datastyrning säkerställer att data är tillgängliga, tillförlitliga, säkra och konforma – och att de inte missbrukas.

Datastyrning är genomförandet av riktlinjer och förfaranden för datastyrning för att fastställa uppgifternas noggrannhet, tillförlitlighet, integritet och säkerhet. Personer med ansvar för dataadministration hanterar och övervakar procedurer och verktyg som används för att hantera, lagra och skydda data.

Dataarkitektur är den övergripande designen för struktur, policyer och regler som definierar en organisations data och hur den ska användas och hanteras. Dataarkitekturen innehåller detaljer om hur datastrategin genomförs till stöd för företagets behov och mål – och fungerar som grunden för utveckling av databaser, förfaranden, skyddsåtgärder, säkerhet och datastyrning.

Basdatahantering (MDM) är praxis att skapa en enskild "basdatareferenskälla" för alla viktiga affärsdata. Den inkluderar policyer och procedurer för att definiera, hantera och styra (eller reglera) hanteringen av basdata. Centraliserad basdatahantering eliminerar konflikter och förvirring som härrör från spridda databaser med dubblettinformation och okoordinerade data som kan vara inaktuella, korrupta eller förskjutna i tid – uppdaterade på ett ställe men inte på ett annat. Att ha en version för att betjäna hela företaget innebär att alla delar av organisationen arbetar med samma definitioner, standarder och antaganden.

Med termen analys avses den systematiska analysen av data. Analysapplikationer och verktygslådor innehåller matematiska algoritmer och beräkningsmotorer som kan manipulera stora dataset för att upptäcka mönster, trender, relationer och annan intelligens som gör det möjligt för användare att ställa frågor och få användbara insikter om sin verksamhet, verksamhet och sina marknader. Många moderna analysverktyg är utformade för att användas av icke-tekniska affärsmän, vilket gör det möjligt för dem att utföra dessa analyser med minimal hjälp från datavetare eller IT-specialister.

Data mining används för att extrahera användbar information från stora dataset. Datautvinning sker ofta genom att företagsanvändare använder analysverktyg för att upptäcka mönster, trender, anomalier, relationer, beroenden och annan användbar intelligens. Datautvinning har ett brett spektrum av tillämpningar, från att upptäcka bedrägerier och cybersäkerhetsproblem till att förbättra prognoser och hitta möjligheter till prestandaförbättring.

Dataprofilering är praxis att samla in statistik och egenskaper om en datauppsättning, till exempel dess exakthet, fullständighet och giltighet. Dataprofilering är en av de tekniker som används för datavalidering och datarensning, eftersom den kan hjälpa till att upptäcka datakvalitetsproblem som redundans, saknade värden och inkonsistenser.

Vad är datahantering?

Lär dig hur din organisation kan omvandla sina data till en värdefull tillgång.

SAP Insights nyhetsbrev

Prenumerera idag

Få viktiga insikter genom att prenumerera på vårt nyhetsbrev.

Prenumerera idag

Få viktiga insikter genom att prenumerera på vårt nyhetsbrev.

Ytterligare läsning

Tillbaka till början