Deduplizierung – Appliance oder Software-basiert?

Die Speicherung von Daten wird immer günstiger – aber auf der anderen Seite wächst die Menge der Daten ständig an. Unternehmen, die Daten doppelt vorhalten, verschenken Geld und Ressourcen. Eine Lösung, den Datenstrom zu drosseln, ist die Deduplizierung von Daten. Für den Anwender gibt es hier im Grunde zwei Möglichkeiten: Die Deduplizierung in einer optimierten

Cognitive Computing als Grundlage für neue Support-Modelle

Heute ist alles ein Rechner – selbst Dinge, denen man das auf den ersten Blick nicht ansieht: Haushaltsgeräte, Autos, Kleidungsstücke. Schon bald werden viele dieser Dinge aufgrund der raschen Fortschritte beim Cognitive Computing anfangen zu “denken”. Und wenn sie es noch nicht selbst tun, dann werden sie Daten sammeln, um sie nachgeordneten kognitiven Systemen zur

Die Vorteile der Data Fabric Infrastruktur von NetApp

Beim Design von Storage-Architekturen für Enterprise-Applikationen kann auf mehrere Aspekte Wert gelegt werden: gute Performance, flexible Administration oder einfache Scale-out-Fähigkeit. Grundsätzlich kann ein Storage-System alle drei Bereiche abdecken. Allerdings hat in der Praxis jedes System eher bei einem bestimmten Aspekt seine Stärken. In diesem Whitepaper von NetApp wird zunächst erklärt, welche Kriterien bei der Auswahl

Die Storage-Anforderungen der Hybrid Cloud erfüllen

Flash-optimierte Storage-Architekturen bieten inzwischen grundsätzlich die im Enterprise-Umfeld erforderliche Zuverlässigkeit, Verfügbarkeit, Skalierbarkeit sowie die Verwaltungsoptionen, wie sie die konsolidierten, heterogenen Workloads erfordern, die in den meisten IT-Abteilungen mittlerweile üblich sind. Immer mehr Unternehmen setzen daher Flash-optimierte Storage-Arrays ein. Gleichzeitig kommt es aber durch Cloud-basierte Workloads zu einem Anstieg der Storage-Ausgaben: Aktuell stehen nach Zahlen von

ownCloud und IBM machen unternehmensweiten Dateiaustausch sicher und flexibel

Informationen den richtigen Mitarbeitern zur richtigen Zeit zur Verfügung zu stellen, wird für Firmen und Organisationen immer wichtiger – seien es nun Universitäten, Forschungseinrichtungen, Finanzinstitute oder Einrichtungen im Gesundheitswesen. Dabei geht es aber nicht nur um einzelne Datensätze oder kurze Detailinformationen. Zunehmend ist die wichtige Information auch in großen Dateien, etwa hochaufgelösten Bildern, Konstruktionszeichnungen oder

Datei-Synchronisierung und Datei-Sharing mit IBM Spectrum Scale und ownCloud On-Premise ermöglichen

Produktivität und Innovationskraft von Unternehmen hängt heute ganz entscheidend davon ab, dass Mitarbeiter in Echtzeit Informationen austauschen und zusammenarbeiten können. Vielfach wird dafür heute zu Consumer-Lösungen gegriffen, die zwar die geforderte Skalierbarkeit, einfache Bedienung und einfachen Zugriff bieten, bei denen aber vertrauliche Firmendaten dann letztendlich auf externen Servern liegen – mit allen damit verbundenen Risiken

Betrieb der ownCloud Enterprise Edition auf IBM Elastic Storage Server

Mitarbeiter benötigen heute für ihre tägliche Arbeit die Möglichkeit, auf Dateien nahtlos von allen Geräten aus zuzugreifen sowie sie mit Kollegen, Kunden und Geschäftspartnern gemeinsam bearbeiten zu können. Die Firmen-IT sorgt sich in Bezug auf gängige Cloud-Dienste am Markt jedoch zu Recht um die Sicherheit der vertraulichen Firmendaten und damit einhergehenden Compliance-Risiken. Die beste Lösung

SSD — smarter Speicher mit viel Potenzial

Das weltweite Datenaufkommen ist in jüngster Vergangenheit enorm gestiegen und wird sich nach Schätzungen der Analysten von IDC alle zwei Jahre noch weiter verdoppeln. Grund dafür ist schlichtweg die zunehmende Digitalisierung unserer Gesellschaft. Fest steht: Je mehr Daten es gibt, desto höher auch der Bedarf an Speicher. Dabei spielen Computer eine zentrale Rolle, denn egal

Zuordnung der Energiekosten und CO2-Emissionen von Rechenzentren auf die IT-Benutzer

Benötigen wir wirklich komplizierte Software und Messeinrichtungen für die Erfassung und Zuordnung von Energiekosten und CO2-Emissionen auf IT-Nutzer? Oder gibt es auch einfache, kostengünstige Methoden für die Aufschlüsselung von Energiekosten und CO2-Emissionen? Wie präzise müssen diese Methoden sein? Dieses Dokument von Schneider Electric bietet einen Überblick über Strategien für die Zuordnung von Energiekosten und CO2-Emissionen

Die unerwarteten Auswirkungen steigender Temperaturen in Datacentern

Eine Anhebung der IT-Eingangstemperaturen ist eine allgemeine Empfehlung für Datacenter-Betreiber, die die Effizienz von Datacentern gezielt verbessern wollen. Es ist zwar richtig, dass eine Anhebung der Temperatur zu mehr Economiser-Betriebsstunden führt, positive Auswirkungen auf das Datacenter als Ganzes, sind jedoch nicht immer gegeben. Dieses Whitepaper von Schneider Electric enthält eine Kostenanalyse (Investitionskosten und Energie) eines