Mi az a Big Data?
A Big Data az információ óceánja, amelyet naponta úszunk – a számítógépeinkből, mobil eszközeinkből és gépérzékelőinkből származó hatalmas zetabájtos adatok.
Big Data definíciója részletesen
A Big Data az információ óceánja, amelyet minden nap úszunk – a számítógépeinkből, mobil eszközeinkből és gépérzékelőinkből származó hatalmas zettabájtok. Ezeket az adatokat a szervezetek a döntések meghozatalára, a folyamatok és szabályzatok javítására, valamint ügyfélközpontú termékek, szolgáltatások és élmények létrehozására használják. A Big Data nemcsak a volumene, hanem természetének sokfélesége és összetettsége miatt is „nagynak” minősül. Jellemzően meghaladja a hagyományos adatbázisok kapacitását a rögzítéséhez, kezeléséhez és feldolgozásához. A Big Data pedig bárhonnan vagy bárhonnan érkezhet a földön, amit digitálisan nyomon tudunk követni. Meteorológiai műholdak, IoT eszközök, közlekedési kamerák, közösségi média trendek – ezek csak néhány a bányászott és elemzett adatforrások közül, hogy a vállalkozásokat ellenállóbbá és versenyképesebbé tegyék.
A Big Data elemzések fontossága
A Big Data valódi értékét az méri, hogy milyen mértékben képes elemezni és megérteni. A mesterséges intelligencia (MI), a gépi tanulás és a modern adatbázis-technológiák lehetővé teszik a Big Data vizualizációját és elemzését, hogy végrehajtható elemzéseket biztosítson – valós időben. A Big Data elemzések segítenek a vállalatoknak, hogy adataikat munkába állítsák – új lehetőségeket valósítsanak meg és üzleti modelleket építsenek ki. Ahogy Geoffrey Moore, a szerző és a menedzsment elemzője is megjegyezte: „Big Data analitika nélkül a vállalatok vakok és siketek, a világhálón úgy vándorolnak, mint a szarvas egy autópályán.”
A Big Data fejlődése
Amennyire elképzelhetetlen, mint ma, az Apollo Irányító Számítógép az első űrhajót a Holdra vitte kevesebb mint 80 kilobájtnyi memóriával. Azóta a számítógépes technológia exponenciális ütemben nőtt – és ezzel együtt az adatgenerálás is. Valójában az 1980-as évek óta háromévente megduplázódik a világ adattárolási technológiai kapacitása. Alig több mint 50 évvel ezelőtt, amikor az Apollo 11 felemelkedett, a digitális adatok mennyisége az egész világon elférhetett volna az átlagos laptopon. 2020-ban 64.2zb-re becsülik az adatokat, és „A következő öt évben létrehozott digitális adatok mennyisége meghaladja a digitális tárolás megjelenése óta keletkezett adatok mennyiségének kétszeresét.”
Ahogy a szoftver és a technológia egyre fejlettebbé válik, a kevésbé életképes nem digitális rendszerek összehasonlításban vannak. A generált és összegyűjtött adatok digitálisan fejlettebb adatkezelési rendszereket igényelnek a kezelésükhöz. Emellett a közösségi média platformok, az okostelefonos technológiák és a digitálisan csatlakoztatott IoT eszközök exponenciális növekedése segített megteremteni a jelenlegi Big Data korszakot.
Big Data típusok: Mi a strukturált és strukturálatlan adat?
Az adathalmazokat általában három típusba sorolják a struktúrája alapján, és hogy mennyire egyszerű (vagy nem) indexelni.
A Big Data három típusa
- Strukturált adatok: Ez a fajta adat a legegyszerűbb rendszerezni és keresni. Olyan dolgokat tartalmazhat, mint a pénzügyi adatok, a gépnaplók és a demográfiai adatok. Az Előre definiált oszlopokat és sorokat tartalmazó Excel-táblázat jó módja a strukturált adatok elképzelésének. Összetevői könnyen kategorizálhatók, így az adatbázis-tervezők és -adminisztrátorok egyszerű algoritmusokat határozhatnak meg a kereséshez és az elemzéshez. Még ha a strukturált adatok hatalmas mennyiségben is léteznek, az nem feltétlenül minősül Big Data adatnak, mivel a strukturált adatok önmagukban viszonylag egyszerűen kezelhetők, és ezért nem felelnek meg a Big Data meghatározó kritériumainak. Az adatbázisok hagyományosan a Strukturált lekérdezésnyelv (SQL) nevű programozási nyelvet használták a strukturált adatok kezelésére. Az SQL-t az IBM fejlesztette ki az 1970-es években, hogy lehetővé tegye a fejlesztők számára, hogy olyan relációs (táblázatalapú) adatbázisokat hozzanak létre és kezeljenek, amelyek akkoriban kezdtek elindulni.
- Strukturálatlan adatok: Ez az adatkategória olyan dolgokat tartalmazhat, mint a közösségi média bejegyzések, hangfájlok, képek és nyílt végű ügyfél-hozzászólások. Az ilyen típusú adatok nem rögzíthetők könnyen standard soroszlop relációs adatbázisokban. Hagyományosan azoknak a vállalatoknak, amelyek nagy mennyiségű strukturálatlan adatot akartak keresni, kezelni vagy elemezni, munkaigényes manuális folyamatokat kellett használniuk. Az ilyen adatok elemzésének és megértésének lehetséges értékét illetően soha nem merült fel kérdés, de ennek költsége gyakran túl túlzott volt ahhoz, hogy megéri. Figyelembe véve, hogy mennyi időt vett igénybe, az eredmények gyakran elavultak voltak, mielőtt még leszállították volna őket. A táblázatok vagy relációs adatbázisok helyett a strukturálatlan adatokat általában adattavakban, adattárházakban és NoSQL adatbázisokban tárolják.
- Félig strukturált adatok: Ahogy hangzik, a félig strukturált adatok strukturált és strukturálatlan adatok hibridjei. Az e-mailek jó példák, mivel strukturálatlan adatokat tartalmaznak az üzenet törzsében, valamint több szervezeti tulajdonságot, mint a küldő, a címzett, a tárgy és a dátum. A földrajzi címkézést, időbélyegeket vagy szemantikai címkéket használó eszközök strukturálatlan tartalom mellett strukturált adatokat is nyújthatnak. Egy azonosítatlan okostelefonos kép például még mindig elmondhatja, hogy szelfi, és az az idő és hely, ahol azt elvették. A mesterséges intelligenciát használó modern adatbázis nem csak azonnal képes azonosítani a különböző típusú adatokat, hanem valós időben is képes algoritmusokat generálni az érintett adathalmazok hatékony kezelésére és elemzésére.
A big data forrásai
Az adatgeneráló dolgok skálája fenomenális ütemben növekszik – a drónműholdaktól a kenyérpirítókig. A kategorizálás céljából azonban az adatforrások általában három típusra oszthatók:
Szociális adatok
Ahogy a hangok, a közösségi adatokat a közösségi média hozzászólásai, bejegyzései, képei, és egyre inkább a videók generálják. A 4G és 5G mobilhálózatok egyre növekvő globális elterjedtsége miatt a becslések szerint 2023-ra 2,72 milliárdra fog nőni azon emberek száma a világon, akik rendszeresen nézik okostelefonjukon a videotartalmakat. Bár a közösségi médiában és annak használatában tapasztalható tendenciák általában gyorsan és kiszámíthatatlanul változnak, ami nem változik, az a digitális adatok generátorának folyamatos növekedése.
Gépadatok
Az IoT eszközök és gépek érzékelőkkel vannak felszerelve, és képesek digitális adatok küldésére és fogadására. Az IoT érzékelők segítenek a vállalatoknak összegyűjteni és feldolgozni a gépadatokat az eszközökről, járművekről és berendezésekről az egész vállalaton belül. Globálisan az adatgeneráló dolgok száma gyorsan növekszik – az időjárástól és a közlekedési érzékelőktől a biztonsági felügyeletig. Az IDC becslése szerint 2025-re több mint 40 milliárd IoT eszköz lesz a földön, ami a világ összes digitális adatának közel felét hozza létre.
Tranzakciós adatok
Ez a világ egyik leggyorsabban mozgó és növekvő adata. Ismert például, hogy egy nagy nemzetközi kiskereskedő óránként több mint egymillió ügyféltranzakciót dolgoz fel. Amikor pedig hozzáadja a világ összes beszerzési és banki tranzakcióját, képet kap a generált adatok megdöbbentő mennyiségéről. Ezenkívül a tranzakciós adatok egyre inkább félig strukturált adatokból állnak, beleértve az olyan dolgokat, mint a képek és a hozzászólások, így még összetettebbé válik a kezelés és feldolgozás.
Az öt V, amely meghatározza a Big Data
Csak azért, mert egy adathalmaz nagy, nem feltétlenül Big Data. Az ilyen minősítéshez az adatoknak legalább az alábbi öt jellemzővel kell rendelkezniük:
A Big Data öt jellemzője, az 5v-k
- Volumen: Bár a kötet egyáltalán nem az egyetlen összetevő, amely a Big Datát „nagyszerűvé” teszi, minden bizonnyal ez az elsődleges funkció. A Big Data teljes körű kezeléséhez és használatához fejlett algoritmusokra és MI által vezérelt elemzésekre van szükség. De mielőtt ez megtörténne, biztonságos és megbízható eszközre van szükség a nagyvállalatok birtokában lévő sok terabájt adat tárolására, rendszerezésére és kinyerésére.
- Sebesség: A múltban az előállított adatokat később – gyakran manuálisan – hagyományos adatbázisrendszerbe kellett bevinni, mielőtt azokat elemezni vagy lehívni lehetne. Ma a Big Data technológia lehetővé teszi az adatbázisok számára az adatok feldolgozását, elemzését és konfigurálását a generálás során – néha ezredmásodpercen belül. A vállalkozások számára ez azt jelenti, hogy valós idejű adatok használhatók a pénzügyi lehetőségek rögzítésére, az ügyfelek igényeinek megválaszolására, a csalások megakadályozására és bármely más olyan tevékenység kezelésére, ahol a sebesség kritikus fontosságú.
- Változatosság: A kizárólag strukturált adatokból álló adathalmazok nem feltétlenül Big Data adatok, függetlenül attól, hogy mennyire terjedelmesek. A Big Data jellemzően strukturált, strukturálatlan és félig strukturált adatok kombinációiból áll. A hagyományos adatbázisok és adatkezelési megoldások nem rendelkeznek rugalmassággal és terjedelemmel a Big Data összetett, eltérő adathalmazainak kezeléséhez.
- Valódiság: Míg a modern adatbázis-technológia lehetővé teszi a vállalatok számára, hogy megdöbbentő mennyiségű és típusú Big Data adatokat mérjenek és értelmezzék, ez csak akkor értékes, ha pontos, releváns és időszerű. A hagyományos adatbázisok esetében, amelyeket csak strukturált adatokkal töltöttek fel, a szintaktikai hibák és a gépelési hibák voltak a szokásos bűnösök az adatok pontosságának megállapításakor. A strukturálatlan adatokkal egy teljesen új veracitási kihívás áll fenn. Az emberi elfogultság, a társadalmi zaj és az adateredet kérdései mind hatással lehetnek az adatok minőségére.
- Érték: Kérdés nélkül, a Big Data elemzésből származó eredmények gyakran lenyűgözőek és váratlanok. A Big Data elemzéseknek azonban olyan elemzéseket kell biztosítaniuk, amelyek segíthetik a vállalkozásokat abban, hogy versenyképesebbé és ellenállóbbá váljanak – és jobban kiszolgálják ügyfeleiket. A modern Big Data technológiák megnyitják az adatgyűjtési és -lekérdezési kapacitást, amely mérhető előnyökkel jár mind az alsó vonalak, mind az operatív ellenálló képesség számára.
A Big Data előnyei
A modern Big Data kezelési megoldások lehetővé teszik a vállalatok számára, hogy a nyers adatokat releváns elemzésekké alakítsák – példátlan sebességgel és pontossággal.
Termék- és szolgáltatásfejlesztés: A Big Data elemzések lehetővé teszik a termékfejlesztők számára, hogy elemezzék a strukturálatlan adatokat, például az ügyfélvéleményeket és a kulturális trendeket, és gyorsan reagáljanak.
Prediktív karbantartás: Egy nemzetközi felmérésben a McKinsey megállapította, hogy az IoT-képes gépek Big Data elemzése akár 40%-kal csökkentette a berendezések karbantartási költségeit.
Ügyfélélmény: A globális üzleti vezetők 2020-as felmérésében a Gartner megállapította, hogy „a növekvő vállalatok aktívabban gyűjtenek ügyfélélmény-adatokat, mint a nem növekvő vállalatok”. A Big Data elemzése lehetővé teszi a vállalkozások számára, hogy javítsák és személyre szabják ügyfeleik márkaélményét. A Big Data mellett a CX csapatai egyre inkább figyelembe veszik a „vastag adatokat”. Ezek az ügyfelek megfigyeléseire, érzéseire és reakcióira vonatkozó kvalitatív elemzések növelik a Big Datát, és átfogóbb képet adnak a vállalatoknak ügyfeleikről.
Ellenálló képesség és kockázatkezelés: A Covid19-világjárvány számos üzleti vezető számára élesen felébredt, mivel rájöttek, hogy működésük mennyire sebezhető a fennakadások szempontjából. A Big Data elemzések segíthetnek a vállalatoknak a kockázatokra való felkészülésben és a váratlan esetekre való felkészülésben.
Költségmegtakarítás és nagyobb hatékonyság: Amikor a vállalatok fejlett Big Data elemzéseket alkalmaznak a szervezetük összes folyamatában, nemcsak a hatékonysági problémákat észlelhetik, hanem gyors és hatékony megoldásokat is bevezethetnek.
Jobb versenyképesség: A Big Data elemzései segíthetnek a vállalatoknak pénzt megtakarítani, az ügyfeleket, jobb termékeket készíteni és újítani az üzleti műveleteket.
MI és Big Data
A Big Data menedzsment olyan rendszerektől függ, amelyek képesek feldolgozni és érdemben elemezni hatalmas mennyiségű eltérő és összetett információt. E tekintetben a Big Data és az AI valamennyire kölcsönös kapcsolatban áll egymással. A Big Data nem lenne sok gyakorlati használata MI nélkül szervezésre és elemzésre. A mesterséges intelligencia pedig a Big Data adathalmazokban lévő adathalmazok széles körétől függ ahhoz, hogy olyan elemzéseket biztosítson, amelyek kellően robusztusak ahhoz, hogy végrehajthatóak legyenek. A Forrester Research elemzője, Brandon Purcell szerint: „Az adatok az AI éltető eszközei. A mesterséges intelligencia rendszernek tanulnia kell az adatokból ahhoz, hogy betölthesse funkcióját.”
&Quot;Az adatok az AI éltető eszközei. Az ai rendszernek tanulnia kell az adatokból ahhoz, hogy betölthesse funkcióját.&Ajánlat;
Brandon Purcell, elemző, Forrester Kutatás
A Big Data mellett a szervezetek egyre gyakrabban használnak „kis adatokat” a mesterséges intelligencia és a gépi tanulási algoritmusok tanítására. A kis adathalmazok – például a marketingfelmérések, a táblázatok, az e-mailek, a megbeszélések jegyzetei, sőt az egyes közösségi média bejegyzések – gyakran figyelmen kívül maradnak, de értékes információkat tartalmazhatnak. Végső soron minél több anyagot kell megtanulnia az algoritmusoknak, annál jobb lesz a kimenet.
Gépi tanulás és big data
A gépi tanulási algoritmusok meghatározzák a bejövő adatokat, és azonosítják a bennük lévő mintákat. Ezek az elemzések segítik az üzleti döntések meghozatalát és a folyamatok automatizálását. A gépi tanulás azért virágzik a Big Data adatokon, mert minél erőteljesebben elemzik az adathalmazokat, annál nagyobb lehetőség nyílik a rendszer számára a folyamatok tanulására, folyamatos fejlesztésére és adaptálására.
Big Data technológiák
Big Data architektúra
Az építőiparban alkalmazott architektúrához hasonlóan a Big Data architektúra is tervrajzot nyújt arra az alapvető struktúrára, hogy a vállalkozások hogyan fogják kezelni és elemezni az adataikat. A Big Data architektúra feltérképezi a Big Data kezeléséhez szükséges folyamatokat négy alapvető „szinten”, az adatforrásoktól kezdve az adattárolásig, majd a Big Data elemzésig, és végül azon a felhasználási rétegen keresztül, amelyben az elemzett eredmények üzleti intelligenciaként jelennek meg.
Big Data elemzések
Ez a folyamat az adatmodellezés és a Big Data jellemzőkre jellemző algoritmusok használatával lehetővé teszi az érdemi adatvizualizációt. Az MIT Sloan School of Management mélyreható tanulmányában és felmérésében több mint 2000 üzleti vezetőt kérdeztek meg vállalatuk Big Data elemzéssel kapcsolatos tapasztalatairól. Nem meglepő, hogy azok, akik elkötelezettek és támogatták big data menedzsment stratégiáik fejlesztését, a mérhetően előnyös üzleti eredményeket érték el.
Big Data és Apache Hadoop
Kép 10 dimes egyetlen nagy dobozban keverve 100 nikkelrel. Ezután készítsen 10 kisebb dobozt egymás mellett, egyenként 10 nikkelrel és csak egy dime-vel. Melyik forgatókönyv esetén könnyebb lesz észrevenni a dime-okat? Hadoop alapvetően ezen az elven dolgozik. Ez egy nyílt forráskódú keretrendszer, amely számos csatlakoztatott számítógép hálózatán keresztül kezeli az elosztott Big Data feldolgozást. Tehát ahelyett, hogy egy nagy számítógépet használna az összes adat tárolására és feldolgozására, a Hadoop több számítógépet csoportosít egy szinte végtelenül skálázható hálózatba, és párhuzamosan elemzi az adatokat. Ez a folyamat általában egy MapReduce nevű programozási modellt használ, amely koordinálja a Big Data feldolgozást az elosztott számítógépek rendezésével.
Adattavak, adattárházak és NoSQL
A strukturált adatok tárolására a hagyományos SQL spreadsheet-style adatbázisok szolgálnak. A strukturálatlan és félig strukturált Big Data egyedi tárolási és feldolgozási paradigmákat igényel, mivel nem kölcsönöz magának indexelést és kategorizálást. Az adattavak, adattárházak és NoSQL adatbázisok mind olyan adattárházak, amelyek nem hagyományos adathalmazokat kezelnek. Az adattó a nyers adatok hatalmas halmaza, amelyet még fel kell dolgozni. A Data Warehouse olyan adatok tárháza, amelyek már fel lettek dolgozva egy adott célra. A NoSQL adatbázisok rugalmas sémát biztosítanak, amely a feldolgozandó adatok jellegének megfelelően módosítható. E rendszerek mindegyikének vannak erősségei és gyengeségei, és sok vállalkozás használja a különböző adattárak kombinációját, hogy a legjobban megfeleljen az igényeiknek.
Memórián belüli adatbázisok
A hagyományos lemezalapú adatbázisokat SQL és relációs adatbázis technológiákkal fejlesztették ki. Bár nagy mennyiségű strukturált adatot kezelhetnek, egyszerűen nem úgy vannak kialakítva, hogy strukturálatlan adatokat tároljanak és dolgozzanak fel a legjobban. A memórián belüli adatbázisokkal a feldolgozás és az elemzés teljes egészében RAM-ban történik, szemben azzal, hogy az adatokat lemezalapú rendszerből kell lehívni. Az in-memory adatbázisok elosztott architektúrákra is épülnek. Ez azt jelenti, hogy a párhuzamos feldolgozással sokkal nagyobb sebességet érhetnek el, szemben az egyedi csomópontos, lemezalapú adatbázis-modellekkel.
Hogyan működik a Big Data
A Big Data akkor működik, amikor az elemzése releváns és végrehajtható elemzéseket biztosít, amelyek mérhetően javítják az üzletmenetet. A Big Data átalakítására való felkészülés során a vállalkozásoknak biztosítaniuk kell, hogy rendszereik és folyamataik kellően felkészültek legyenek a Big Data gyűjtésére, tárolására és elemzésére.
A Big Data használatának három fő lépése
- Big Data gyűjtése. A Big Data nagy része strukturálatlan adatok masszív halmazaiból áll, az eltérő és inkonzisztens forrásokból történő áradásból. A hagyományos lemezalapú adatbázisok és adatintegrációs mechanizmusok egyszerűen nem felelnek meg ennek a feladatnak. A Big Data kezeléséhez memórián belüli adatbázis-megoldások és Big Data beszerzésre vonatkozó szoftvermegoldások alkalmazására van szükség.
- Big Data tárolása. A big data a maga nevén nagy terjedelmű. Sok vállalkozás rendelkezik helyszíni tárolási megoldásokkal a meglévő adataihoz, és reméli, hogy takarékoskodni fog azzal, hogy ezeket az adattárakat átcsoportosítja, hogy megfeleljen big data feldolgozási igényeinek. A Big Data azonban akkor működik a legjobban, ha a méret- és memóriakorlátozások nem korlátozzák. Azok a vállalkozások, amelyek a kezdetektől nem integrálják a felhőalapú tárolási megoldásokat big data modelljükbe, gyakran sajnálják ezt néhány hónappal az úton.
- Big Data elemzése. A mesterséges intelligencia és a gépi tanulási technológiák Big Data elemzésre való alkalmazása nélkül egyszerűen nem megvalósítható a benne rejlő lehetőségek teljes körű kiaknázása. A Big Data öt V-jének egyike a „sebesség”. Ahhoz, hogy a Big Data elemzések végrehajthatóak és értékesek legyenek, gyorsan meg kell érkezniük. Az elemzési folyamatoknak önoptimalizálónak kell lenniük, és rendszeresen tanulniuk kell a tapasztalatokból – ez az eredmény csak a mesterséges intelligencia funkcionalitásával és a modern adatbázis-technológiákkal érhető el.
Big Data alkalmazások
A Big Data által biztosított elemzések és mélyreható tanulás gyakorlatilag bármely vállalkozás vagy iparág számára előnyöket nyújthat. A nagy szervezetek azonban, amelyek komplex működési hatáskörökkel rendelkeznek, gyakran képesek a big data legértelmesebb felhasználására.
Pénzügy A Journal of Big Data egy 2020-as tanulmányban kiemeli, hogy a Big Data „fontos szerepet játszik a pénzügyi szolgáltatások ágazatának megváltoztatásában, különösen a kereskedelemben és a befektetésekben, az adóreformban, a csalások felderítésében és kivizsgálásában, a kockázatelemzésben és az automatizálásban”. A Big Data segített a pénzügyi ágazat átalakításában is az ügyféladatok és visszajelzések elemzésével, hogy értékes elemzéseket nyerjen az ügyfelek elégedettségének és tapasztalatainak javításához. A tranzakciós adathalmazok a világ leggyorsabban mozgó és legnagyobb adathalmazai. A fejlett Big Data kezelési megoldások egyre növekvő elterjedése segíteni fogja a bankokat és a pénzügyi intézményeket ezen adatok védelmében és olyan módon történő felhasználásában, amely mind az ügyfél, mind a vállalkozás számára előnyös és védett.
Egészségügy A Big Data elemzés lehetővé teszi az egészségügyi szakemberek számára, hogy pontosabb és bizonyítékokon alapuló diagnózisokat készítsenek. Emellett a Big Data segít a kórházi adminisztrátoroknak a trendek észlelésében, a kockázatok kezelésében és a felesleges kiadások minimalizálásában – a lehető legmagasabb költségvetést a betegellátás és a kutatás területére irányítva. A világjárvány közepette a kutatók világszerte arra törekszenek, hogy jobb módokon kezeljék és kezeljék a COVID-19-et – és a Big Data óriási szerepet játszik ebben a folyamatban. A The Scientist 2020. júliusi cikke leírja, hogy az orvosi csoportok hogyan tudtak együttműködni és elemezni a Big Data-t a koronavírus elleni küzdelemben: „Átalakíthatjuk a klinikai tudomány módját, kihasználva a Big Data és az adattudomány eszközeit és erőforrásait olyan módon, ami nem volt lehetséges.”
Szállítmányozás és logisztika Az Amazon Effect egy olyan kifejezés, amely leírja, hogy az Amazon hogyan határozta meg a következő napi szállítási elvárások sávját, hogy a vevők most ilyen szállítási sebességet követeljenek az online rendelésekhez. A Vállalkozó magazin rámutat arra, hogy az Amazon Effect közvetlen eredményeként „az „utolsó mérföldes” logisztikai verseny versenyképesebbé válik.” A logisztikai vállalatok egyre inkább a Big Data elemzéseire támaszkodnak az útvonaltervezés, a rakománykonszolidáció és az üzemanyag-hatékonysági intézkedések optimalizálása érdekében.
Oktatás A világjárvány idején az oktatási intézményeknek világszerte újra fel kellett találniuk tanterveiket és tanítási módszereiket a távoktatás támogatása érdekében. Ennek a folyamatnak jelentős kihívása volt, hogy megbízható módszereket találjon a diákok teljesítményének és az online oktatási módszerek általános hatékonyságának elemzésére és értékelésére. A Big Data oktatásra és online tanulásra gyakorolt hatásáról szóló 2020-as cikk megfigyeli a tanárokat: „A big data sokkal magabiztosabbá teszi őket az oktatás személyre szabásában, a vegyes tanulás fejlesztésében, az értékelési rendszerek átalakításában és az egész életen át tartó tanulás előmozdításában.”
Energia és közművek Az Usa szerint. A Munkaügyi Statisztikák Irodája, a közművállalatok több mint 1,4 milliárd dollárt költenek mérőolvasókra, és jellemzően analóg mérőkre és ritkán kézi leolvasásokra támaszkodnak. Az intelligens mérőolvasók naponta többször szolgáltatnak digitális adatokat, és a Big Data analízis előnyeivel ez az intel hatékonyabb energiafelhasználásról, pontosabb árazásról és előrejelzésről tájékoztathat. Továbbá, amikor a terepi dolgozók megszabadulnak a mérőolvasástól, az adatrögzítés és -elemzés segíthet gyorsabban átcsoportosítani őket oda, ahol a javításokra és frissítésekre a legsürgetőbb szükség van.
Big Data GYIK
Fedezze fel az SAP adatkezelési megoldásait
Kezelje sokszínű adatkörnyezetét, és egyesítse az adatait az üzleti elemzések érdekében.
Ötletek, amiket sehol máshol nem találsz
Regisztráljon egy adag üzleti intelligenciát, amelyet közvetlenül a postafiókjába szállít.