Storage Whitepaper

Die Storage-Anforderungen der Hybrid Cloud erfüllen

Flash-optimierte Storage-Architekturen bieten inzwischen grundsätzlich die im Enterprise-Umfeld erforderliche Zuverlässigkeit, Verfügbarkeit, Skalierbarkeit sowie die Verwaltungsoptionen, wie sie die konsolidierten, heterogenen Workloads erfordern, die in den meisten IT-Abteilungen mittlerweile üblich sind. Immer mehr Unternehmen setzen daher Flash-optimierte Storage-Arrays ein. Gleichzeitig kommt es aber durch Cloud-basierte Workloads zu einem Anstieg der Storage-Ausgaben: Aktuell stehen nach Zahlen von

ownCloud und IBM machen unternehmensweiten Dateiaustausch sicher und flexibel

Informationen den richtigen Mitarbeitern zur richtigen Zeit zur Verfügung zu stellen, wird für Firmen und Organisationen immer wichtiger – seien es nun Universitäten, Forschungseinrichtungen, Finanzinstitute oder Einrichtungen im Gesundheitswesen. Dabei geht es aber nicht nur um einzelne Datensätze oder kurze Detailinformationen. Zunehmend ist die wichtige Information auch in großen Dateien, etwa hochaufgelösten Bildern, Konstruktionszeichnungen oder

Datei-Synchronisierung und Datei-Sharing mit IBM Spectrum Scale und ownCloud On-Premise ermöglichen

Produktivität und Innovationskraft von Unternehmen hängt heute ganz entscheidend davon ab, dass Mitarbeiter in Echtzeit Informationen austauschen und zusammenarbeiten können. Vielfach wird dafür heute zu Consumer-Lösungen gegriffen, die zwar die geforderte Skalierbarkeit, einfache Bedienung und einfachen Zugriff bieten, bei denen aber vertrauliche Firmendaten dann letztendlich auf externen Servern liegen – mit allen damit verbundenen Risiken

Betrieb der ownCloud Enterprise Edition auf IBM Elastic Storage Server

Mitarbeiter benötigen heute für ihre tägliche Arbeit die Möglichkeit, auf Dateien nahtlos von allen Geräten aus zuzugreifen sowie sie mit Kollegen, Kunden und Geschäftspartnern gemeinsam bearbeiten zu können. Die Firmen-IT sorgt sich in Bezug auf gängige Cloud-Dienste am Markt jedoch zu Recht um die Sicherheit der vertraulichen Firmendaten und damit einhergehenden Compliance-Risiken. Die beste Lösung

SSD — smarter Speicher mit viel Potenzial

Das weltweite Datenaufkommen ist in jüngster Vergangenheit enorm gestiegen und wird sich nach Schätzungen der Analysten von IDC alle zwei Jahre noch weiter verdoppeln. Grund dafür ist schlichtweg die zunehmende Digitalisierung unserer Gesellschaft. Fest steht: Je mehr Daten es gibt, desto höher auch der Bedarf an Speicher. Dabei spielen Computer eine zentrale Rolle, denn egal

Zuordnung der Energiekosten und CO2-Emissionen von Rechenzentren auf die IT-Benutzer

Benötigen wir wirklich komplizierte Software und Messeinrichtungen für die Erfassung und Zuordnung von Energiekosten und CO2-Emissionen auf IT-Nutzer? Oder gibt es auch einfache, kostengünstige Methoden für die Aufschlüsselung von Energiekosten und CO2-Emissionen? Wie präzise müssen diese Methoden sein? Dieses Dokument von Schneider Electric bietet einen Überblick über Strategien für die Zuordnung von Energiekosten und CO2-Emissionen

Die unerwarteten Auswirkungen steigender Temperaturen in Datacentern

Eine Anhebung der IT-Eingangstemperaturen ist eine allgemeine Empfehlung für Datacenter-Betreiber, die die Effizienz von Datacentern gezielt verbessern wollen. Es ist zwar richtig, dass eine Anhebung der Temperatur zu mehr Economiser-Betriebsstunden führt, positive Auswirkungen auf das Datacenter als Ganzes, sind jedoch nicht immer gegeben. Dieses Whitepaper von Schneider Electric enthält eine Kostenanalyse (Investitionskosten und Energie) eines

Leitfaden für die Berechnung der Effizienz (PUE) in Datacentern

Bevor Benchmarks für die Effizienz von Datacenter-Infrastrukturen, anhand des PUE-Werts oder anderen Kennzahlen gesetzt werden können, muss Einigkeit zu der Frage erzielt werden, welcher Energieverbrauch zu den IT-Lasten gehört, welcher Verbrauch zur physikalischen Infrastruktur und welche Lasten nicht berücksichtigt werden sollten. Leider sind die bisher veröffentlichten Effizienzdaten, üblicherweise nicht nach einer einheitlichen Methodik berechnet und

Rechenzentrumsprojekte: Systemplanung

Für die Auslegung der physikalischen Infrastruktur in Rechenzentrumsprojekten, hat die Systemplanung, die Bedeutung der sprichwörtlichen Achillesferse. Planungsfehler, in einem früheren Stadium, können sich im weiteren Verlauf multiplizieren und ausweiten. Terminverzögerungen, überschrittene Kostenziele, Zeitverschwendung und letztlich eine suboptimale Systemkonfiguration sind die Folge. Ein Großteil dieser Probleme kann vermieden werden, wenn man die Systemplanung als Datenflussmodell versteht,

FreeStor: Optimization

Keeping the lights on” is no longer a sufficient reason for the IT department’s continued existence. In fact, most businesses are insisting that their IT organizations go far beyond this simple baseline and require IT to constantly innovate and move the business forward. At the same time, budgetary funds that were previously directed to foundational