Data Lake
Ein Data Lake ist ein Speicher-Repository, das eine große Menge an Rohdaten in ihrem nativen Format so lange hält, bis es gebraucht wird. Der Begriff Data Lake wird oft in Verbindung mit Hadoop-orientiertem Objektspeicher (Object Storage) gebraucht. In einem solchen Szenario werden die Daten einer Organisation zuerst in die Hadoop-Plattform geladen, und dann mit Business-Analytics- und Data-Mining-Tools verbunden. Die herausgefilterten Daten befinden sich anschließend auf Hadoop-Cluster-Knoten von Commodity-Computern.
Wie Big Data wird der Begriff Data Lake manchmal einfach als ein Marketing-Label für ein Produkt, das Hadoop unterstützt, verunglimpft. Mittlerweile wird aber der Begriff zunehmend als Beschreibung für eine große Datenbasis benutzt, […]
Data Leakage Prevention (DLP)
Die Data Leakage Prevention ist eine Schutzmaßnahme für digitale Inhalte. Dabei geht es darum, Daten an einem Abwandern oder ungewolltem Auslagern zu hindern oder vor nicht autorisierten Zugriffen abzuschirmen. Dabei geht es um externen und internen Missbrauch innerhalb eines Unternehmens oder Netzwerkes.
Allein die Definition verdeutlicht, dass solche Schutzmaßnahmen eher komplexer Natur sind und über die üblichen Virenscanner oder Firewalls hinausgehen. Hundertprozentigen Schutz kann keiner garantieren und oft sind die Methoden auch im rechtlichen Graubereich, beispielsweise wenn es um das Analysieren der Mitarbeitermails oder deren Internetverhalten geht. Kommen noch Compliance-Anforderungen hinzu, wird es meist unübersichtlich. Firmen, die sich für eine DLP-Lösung […]
Data Reliability (Datenzuverlässigkeit)
Als Data Reliability wird die mittlere Zeit bis zu einem Datenverlust (Mean Time to Data Loss, MTDL) bezeichnet.
Data Sharing
Gleichzeitiger Zugriff mehrerer Clients auf identische Daten, vor allem benötigt in Collaboration-Anwendungen.
Data Transfer Rate (Datenübertragungsgeschwindigkeit)
Die Geschwindigkeit, mit der Daten zu oder vom Speichermedium übertragen werden. Für Festplattengeräte wird die Datenübertragungsgeschwindigkeit in der Regel in Millionen Bytes pro Sekunde (MByte/s) gemessen.
Data Warehouse
Data Warehouse ist ein wenig irreführend als Begriff. Es handelt sich hierbei um eine zentrale Sammelstelle für Informationen aus unterschiedlichen Quellen. Das kann als Service bereit gestellt werden, lässt sich aber auch innerhalb eines Unternehmens betreiben. Dieses Datenlager ist meist die Grundlage für OLAP-Prozesse, bei denen sie zur Entscheidungsfindung analysiert und gespeichert werden. Hier sind die Daten nicht nur zusammengefasst, sondern global überschaubar und von den IT-Prozessen des Tagesgeschäfts getrennt. Dies dient der optimalen Analyse ohne andere Geschäftsprozesse zu behindern.
Datamining
Beim Data Mining handelt es sich um die intelligente Analyse von, per Data Warehousing gesammelten, Informationen. Mustererkennungen und andere Algorithmen können Zusammenhänge verschiedener Daten erkennen, zum Beispiel das Zusammenspiel von Käuferverhalten aus CRM-Systemen und Online-Shopping-Nutzung – oder den Zusammenhang der verkauften Cheeseburger-Menge mit medizinischen Statistiken zu Herzinfarkten. Ein Subset des Data Mining speziell zur Auswertung von Geschäftsinformationen heißt Business Intelligence. Jährlich findet mit dem Data Mining Cup in Chemnitz der weltweit größte Studentenwettbewerb zur intelligenten Datenanalyse statt.
Dateiebene
Bei der Datensicherung wird in der Regel auf Dateiebene gearbeitet, nicht auf Ebene von Speicherblöcken (also Bit für Bit). Auch die Speichervirtualisierung findet meist auf Dateiebene statt: Das Speichermedium ist nicht mehr ausschlaggebend, der Nutzer sieht nur noch die Datei und weiß nicht, auf welchem Gerät im Speichernetz sie wirklich residiert. Der Ausdruck »auf Dateiebene« bedeutet also, dass nicht über Geräte, Begriffe oder Datenbanken, sondern wirklich über Dateien auf das Speichermedium zugegriffen wird. Doch Achtung: Wer etwa sein Enterprise Content Management auf reiner Dateiebene betreibt, sollte sich ein ausgeklügeles System für die Dateinamensvergabe ausdenken, um später noch im Datendschungel […]
Dateiorientierung
I/O-Protokolle und -Geräte, die nicht in Blöcken, sondern in Dateien oder Dateifragmenten organisiert sind, nennt man »dateiorientiert«. Dazu gehören [@NFS], [@NAS]-Server und [@CIFS]. Selbst das Internet-Übertragungsprotokoll [@HTTP] ist dateiorientiert.
Datenblock
Der Begriff Datenblock kommt häufig in der IT vor und hat unterschiedliche Bedeutungen. Den Datenblock gibt es in der Datenübertragung, in der Speicheradressierung und in der Software.
Ein Datenübertragungsblock hat eine fixe Anzahl an Bits und Zeichen. Dieser Datenblock beschreibt die Größe und Merkmale der zu übertragenden Daten. Blockaufbau und Blockelemente hängen dabei vom jeweils verwendeten Übertragungsprotokoll ab. Der Datenübertragungsblock wird oft als Frame bezeichnet. Die Länge wird durch einen End Of Block (EOB) oder End of Transmission Block (ETB) beschränkt.
Im Speicherumfeld definiert der Datenblock den kleinsten adressierbaren Speicherplatz eines Mediums. Das kann ein Cache, Hauptspeicher, eine Festplatte, CD […]
