flex-height
text-black
Glossar för datahantering
Utforska en rad datarelaterade termer och definitioner i vår ordlista för datahantering.
default
{}
default
{}
primary
default
{}
secondary
Vad är en databas?
En databas är en anläggning för att organisera, lagra, hantera, skydda och kontrollera tillgång till data. Databaser är utformade enligt ett antal olika scheman (schema), av vilka många följer relationsmodellen för enkel åtkomst av program och datafrågor. Vanliga typer av databaser inkluderar relationsdatabashanteringssystem (RDBMS), in-memory-databaser, objektorienterade databaser (OODBMS), NoSQL-databaser och NewSQL-databaser – var och en med sina egna fördelar.
Vad är datahantering?
Datahantering avser alla funktioner som krävs för att samla in, kontrollera, skydda, manipulera och leverera data. Datahanteringssystem omfattar databaser, datalager och datamarter, verktyg för insamling, lagring och hämtning av data samt verktyg för validering, kvalitet och integration med applikationer och analysverktyg. Företagen behöver en datastrategi för att fastställa ansvar för uppgifter som härrör från eller är endemiska för vissa ansvarsområden.
Vad är databashantering?
Med databashantering avses de processer och procedurer som krävs för att lagra, hantera, manipulera och skydda data. I många organisationer är ansvaret för att upprätta och övervaka sådana förfaranden det primära ansvaret för en databasadministratör (DBA) eller liknande position. De flesta organisationer förlitar sig på ett kommersiellt databashanteringssystem (DBMS) som det främsta verktyget för att hantera sin databas.
Vad är ett databashanteringssystem (DBMS)?
Ett databashanteringssystem (DBMS) är programvarans verktygslåda som tillhandahåller en lagringsstruktur och datahanteringsanläggning för databashantering. DBMS kan vara en integrerad del av ett licensierat ERP-system (Enterprise Resource Planning), ett obligatoriskt separat inköp, en del av systemprogramvaran (operativsystemet) eller en separat licensierad mjukvaruprodukt. Oavsett källa är det viktigt att applikationer byggs runt och/eller är helt integrerade med DBMS, eftersom de är ömsesidigt beroende för effektiv funktionalitet i både applikationer och DBMS. DBMS är i huvudsak en verktygslåda för databashantering.
Vad är en SQL-databas?
En SQL-databas är en relationsdatabas som lagrar data i tabeller och rader. Dataobjekt (rader) länkas baserat på gemensamma dataelement för att möjliggöra effektivitet, undvika redundans och underlätta enkel och flexibel hämtning. Namnet SQL hämtas från Strucored Query Language, verktygslådan och frågeprotokollet för naturligt språk som användare kan lära sig och tillämpa på alla kompatibla databaser för datalagring, manipulering och hämtning.
Vad är en NoSQL-databas?
NoSQL-databaser utvecklades för hantering av ostrukturerade data som SQL inte kan stödja på grund av bristande struktur. NoSQL använder kreativa tekniker för att övervinna denna begränsning inklusive dynamiska scheman och olika förbearbetningstekniker. De vanligaste typerna av databaser för ostrukturerad data är nyckelvärden, dokument-, kolumn- och grafdatabaser och inkluderar ofta saker som video, grafik, fritext och rå sensorutgång.
Vad är ett relationsdatabashanteringssystem (RDBMS)?
Ett relationsdatabashanteringssystem är ett databashanteringssystem (DBMS) som bygger på relationsdatamodellen. Innehållet i RDBMS lagras i tabeller, bestående av rader och kolumner, där varje tabell representerar ett specifikt objekt, eller entitet, i databasen som kan relateras till ett annat. En RDBMS innehåller vanligtvis flera tabeller och innehåller ytterligare funktioner som upprätthåller noggrannhet, konsekvens, integritet och säkerhet för data, samt ett SQL-gränssnitt för åtkomst till data i relation till varandra genom komplexa frågor.
Vad är en CDBMS?
CDBMS är en term som myntas av Gartner och som huvudsakligen beskriver en molndistributionsmodell för RDBMS ovan.
Vad är strukturerade data?
Strukturerade data är snyggt formaterade i rader och kolumner och mappade till fördefinierade fält. Som exempel kan nämnas finansiella transaktioner, demografisk information och maskinloggar som lagras i Excel-kalkylblad eller relationsdatabaser. Fram till nyligen var strukturerade data den enda användbara typen av data för företag.
Vad är ostrukturerade data?
Ostrukturerade data är inte organiserade i rader och kolumner – vilket gör det svårare att lagra, analysera och söka. Exempel är rådata från Internet of Things (IoT), video- och ljudfiler, kommentarer från sociala medier och utskrifter från callcenter. Ostrukturerad data lagras vanligtvis i datasjöar, NoSQL-databaser eller moderna datalager.
Vad är semistrukturerade data?
Semistrukturerade data har vissa organisationsegenskaper, till exempel semantiska taggar eller metadata, men överensstämmer inte med rader och kolumner i ett kalkylblad eller en relationsdatabas. Ett bra exempel på semistrukturerad data är e-post – som innehåller vissa strukturerade data, som avsändar- och mottagaradresser, men också ostrukturerade data, som själva meddelandet.
Vad är datamappning?
Datamappning är processen att matcha fält mellan olika datastrukturer eller databaser. Detta är ett nödvändigt steg om databaser ska kombineras, om data migreras från ett system eller en databas till ett annat, eller om olika datakällor ska användas i en enda applikation eller ett analysverktyg – vilket ofta sker i datalagring. Datamappning identifierar unik, motstridig och duplicerad information så att en uppsättning regler kan utvecklas för att samla alla data i ett samordnat schema eller format.
Vad är datamodellering?
Vid uppläggning av en ny eller alternativ databasstruktur börjar designern med ett diagram över hur data kommer att flöda in i och ut ur databasen. Diagrammering av dataflöden kallas datamodellering. Från detta flödesdiagram kan programvaruingenjörer definiera egenskaperna hos dataformat, strukturer och databashanteringsfunktioner för att effektivt stödja dataflödeskraven.
Vad är datalagring?
Ett datalager tillhandahåller en enda omfattande lagringsanläggning för data från många olika källor – både interna och externa. Dess huvudsakliga syfte är att tillhandahålla data för business intelligence (BI), rapportering och analys. Moderna datalager kan lagra och hantera alla datatyper, strukturerade och ostrukturerade, och distribueras vanligtvis i molnet för större skalbarhet och användarvänlighet.
Vad är en datasjö?
En datasjö är en stor pool av data som lagras i rått eller naturligt format. Datasjöar används vanligtvis för att lagra stordata, inklusive strukturerade, ostrukturerade och semistrukturerade data.
Vad är Big Data?
Big Data är en term som beskriver extremt stora dataset av strukturerade, ostrukturerade och semistrukturerade data. Big Data kännetecknas ofta av de fem Vs: den rena datavolymen, variationen av datatyper, hastigheten vid vilken data genereras, sanningshalten av data och värdet av den. Med stordatahanteringssystem och analyser kan företag minera Big Data för djupa insikter som vägleder beslutsfattande och åtgärder.
Vad är små data?
I motsats till Big Data, som är enormt omfångsrik och komplex, är små data lätt för människor att förstå. Små datamängder kan inkludera allt från marknadsföringsundersökningar till vardagliga kalkylblad – och kan till och med vara lika ”små” som ett enda inlägg eller e-post i sociala medier. Företagen använder i allt större utsträckning små data, utöver Big Data, för att utbilda sina AI och maskininlärningsalgoritmer, för ännu djupare insikter.
Vad är tjocka data?
Tjocka data är kvalitativ information som ger insikt i vardagens känslomässiga liv. Det inkluderar observationer, känslor och reaktioner – saker som är typiskt svåra att kvantifiera. I kombination med Big Data framträder en mycket omfattande bild av en konsuments preferenser och krav.
Vad är dataintegrering?
Dataintegrering är praxis för att mata in, transformera, kombinera och sammanställa data, när och var de behövs. Integrationen sker inom och utanför företaget – från partner till tredje parts datakällor och användningsfall – för att uppfylla dataförbrukningskraven för alla applikationer och verksamhetsflöden. Tekniker inkluderar bulk/batch data rörelse, extrahera, transformera, läsa in (ETL), ändra dataregistrering, datareplikering, data virtualisering, streaming dataintegration, data orkestrering, och mer.
Vad är virtualisering av data?
Datavirtualisering ger företag en enhetlig bild av alla företagsdata – över olika system och format – i ett virtuellt dataskikt. I stället för att duplicera data lämnar datavvirtualiseringen data i sina källsystem och exponerar helt enkelt en virtuell representation av den för användare och applikationer i realtid. Datavirtualisering är en modern metod för dataintegration som låter användare upptäcka och manipulera data oavsett dess fysiska plats, format eller protokoll.
Vad är datatyg?
Ett datatyg är en anpassad kombination av arkitektur och teknik. Den använder dynamisk dataintegration och orkestrering för att ansluta olika platser, källor och typer av data. Med rätt strukturer och flöden enligt definitionen inom dataplattformen kan företag snabbt komma åt och dela data oavsett var den är eller hur den genererades.
Vad är datanät?
Data mesh är en metod för datahantering som använder en distribuerad arkitektonisk ram. Med andra ord: det sprider ägande och ansvar för specifika dataset över hela verksamheten, till de användare som har specialistkompetens för att förstå vad dessa data innebär och hur de ska användas på bästa sätt.
Vad är data-pipeline?
En data-pipeline beskriver en uppsättning automatiserade och repeterbara processer för att hitta, rensa, transformera och analysera alla typer av data vid källan. Eftersom data analyseras i närheten av var de genereras kan företagsanvändare snabbt analysera och dela den information de behöver till en lägre kostnad för organisationen. Dataledningar kan också förbättras med tekniker som maskininlärning för att göra dem snabbare och effektivare.
Vad är datasilor?
En datasilo är en slangterm för en situation där enskilda avdelningar eller funktionsområden inom ett företag inte delar data och information med andra avdelningar. Denna isolering förhindrar samordnade insatser mot företagets mål och resulterar i dålig prestation (och dålig kundservice), höga kostnader och en allmän oförmåga att svara på marknadens krav och förändringar. Dubbla och överflödiga uppgifter är svåra att stämma av, vilket ytterligare förhindrar alla försök att samordna aktiviteter och effektivt hantera verksamheten.
Vad är data wrangling?
Data wrangling är processen att ta rådata och omvandla den till ett format som är kompatibelt med etablerade databaser och applikationer. Processen kan innefatta strukturering, rengöring, berikning och validering av data vid behov för att göra rådata användbara.
Vad är datasäkerhet?
Datasäkerhet är en åtgärd för att göra data säkra – säkra från obehörig åtkomst eller exponering, katastrof eller systemfel, och samtidigt lätt tillgängliga för legitima användare och applikationer. Metoder och verktyg inkluderar datakryptering, nyckelhantering, redundans och säkerhetskopiering samt åtkomstkontroller. Datasäkerhet är ett krav för organisationer av alla storlekar och typer för att skydda kund- och organisationsdata mot det ständigt ökande hotet om dataintrång och integritetsrisker. Redundans och säkerhetskopiering är viktiga för verksamhetens kontinuitet och katastrofåterställning.
Vad är datasekretess?
Dataskydd avser policyer och praxis för hantering av data på ett sätt som skyddar dem från obehörig åtkomst eller avslöjande. Dataskyddspolicyer och praxis omfattar hur information samlas in och lagras enligt organisationens datastrategi, hur den kan delas med tredje part eller inte och hur man följer lagstadgade restriktioner. Dataskydd är en affärsplikt som uppfyller kundernas förväntningar samtidigt som den lagrade informationens integritet och säkerhet skyddas.
Vad är datakvalitet?
Datakvalitet är en nebulös term som beskriver uppgifternas lämplighet och tillförlitlighet. Goda data av hög kvalitet innebär helt enkelt att data är korrekta (verkligt representativa för vad de beskriver), tillförlitliga (konsekventa, granskbara, korrekt hanterade och skyddade) och kompletta i den utsträckning som användare och applikationer kräver. Datakvaliteten kan endast säkerställas genom en korrekt utformad och genomförd datastrategi som genomförs med verktyg och system för industriell styrka tillsammans med noggrant iakttagna riktlinjer och förfaranden för datahantering.
Vad är datavalidering?
Datavalidering är processen för att fastställa kvalitet, noggrannhet och giltighet för data innan de importeras eller används. Validering kan bestå av en rad aktiviteter och processer för autentisering av data och generellt "rensa" dataobjekt, inklusive borttagning av dubbletter, korrigering av uppenbara fel eller saknade objekt och eventuella formateringsändringar (datarensning). Datavalidering säkerställer att den information du behöver för att fatta viktiga beslut är korrekt och tillförlitlig.
Vad är datarensning?
Datarensning är processen att ta bort eller korrigera fel från ett dataset, en tabell eller en databas. Felen kan inkludera felaktig, felaktig, irrelevant eller ofullständig information. Denna process, även kallad dataskrubbning, hittar dubbla data och andra inkonsistenser, som stavfel och numeriska uppsättningar som inte summeras. Datarensning kan ta bort felaktig information eller åtgärda uppenbara misstag, till exempel tomma fält eller saknade koder.
Vad är dataintegritet?
Dataintegritet avser datasekretess på lång sikt. När data har matats in eller importerats, skrivits om, validerats, rensats och lagrats är dataintegriteten ett bevis på att datakvaliteten underhålls och att användarna kan vara säkra på att de data som angavs inte har ändrats eller kommer att ändras. De data som hämtas är desamma som det som ursprungligen lagrades. Ibland används som synonym för datakvalitet, dataintegritet handlar mer om tillförlitlighet och pålitlighet.
Vad är datastyrning?
Datastyrning är en uppsättning policyer och metoder för att säkerställa korrekt datahantering i en organisation. Den fastställer IT-infrastrukturen och namnger de personer (eller befattningar) som har befogenhet och ansvar för att hantera och skydda specifika typer av uppgifter. Effektiv datastyrning säkerställer att data är tillgängliga, pålitliga, säkra och kompatibla – och att de inte missbrukas.
Vad är dataansvar?
Datastyrning är implementering av policyer och procedurer för datastyrning för att fastställa uppgifters korrekthet, tillförlitlighet, integritet och säkerhet. Individer som allokerats med dataansvarsområden hanterar och övervakar procedurer och verktyg som används för att hantera, lagra och skydda data.
Vad är dataarkitektur?
Dataarkitektur är den övergripande designen för den struktur, de policyer och regler som definierar en organisations data och hur de ska användas och hanteras. Dataarkitektur innehåller detaljer om hur datastrategin implementeras till stöd för affärsbehov och mål – och fungerar som grund för utveckling av databaser, procedurer, skyddsåtgärder, säkerhet och datastyrning.
Vad är basdatahantering?
Master Data Management (MDM) är praxis att skapa en enda, "master" referenskälla för alla viktiga affärsdata. Den inkluderar policyer och procedurer för att definiera, hantera och styra (eller styra) hantering av basdata. Centraliserad basdatahantering eliminerar konflikter och förvirring som härrör från utspridda databaser med dubbel information och okoordinerade data som kan vara inaktuella, skadade eller förskjutna i tid – uppdaterade på ett ställe men inte på ett annat. Att ha en version för hela företaget innebär att alla delar av organisationen arbetar med samma definitioner, standarder och antaganden.
Vad är analys?
Begreppet analys avser systematisk analys av data. Analysapplikationer och verktygspaket innehåller matematiska algoritmer och beräkningsmotorer som kan manipulera stora dataset för att upptäcka mönster, trender, relationer och annan intelligens som gör det möjligt för användare att ställa frågor och få användbara insikter om sin verksamhet, sin verksamhet och sina marknader. Många moderna analysverktyg är utformade för att användas av icke-tekniska affärsmän, så att de kan utföra dessa analyser med minimal hjälp från datavetare eller IT-specialister.
Vad är förstärkt analys?
Förstärkta analyser är analyser som "utökas" med artificiell intelligens teknik, inklusive maskininlärning och naturlig språkbehandling (NLP). Förstärkt analys kan inte bara hjälpa användare att upptäcka djupare insikter, snabbare – de kan automatisera många komplicerade steg i processen och låta även icke-tekniska användare fråga efter data på ett naturligt, konversationellt sätt.
Vad är datautvinning?
Data mining är handlingen att extrahera användbar information från stora dataset. Datautvinning utförs ofta av företagsanvändare som använder analysverktyg för att upptäcka mönster, trender, avvikelser, relationer, beroenden och annan användbar information. Datautvinning har ett brett spektrum av applikationer, från att upptäcka bedrägerier och cybersäkerhetsproblem till att förbättra prognoser och hitta möjligheter till prestandaförbättringar.
Vad är dataprofilering?
Dataprofilering är praxis att samla in statistik och egenskaper om ett dataset, såsom dess riktighet, fullständighet och giltighet. Dataprofilering är en av de tekniker som används vid datavalidering och datarensning, eftersom den kan hjälpa till att upptäcka datakvalitetsproblem som uppsägningar, saknade värden och inkonsekvenser.
SAP-produkt
Vad är datahantering?
Lär dig hur din organisation kan omvandla sina data till en värdefull tillgång.