WISSENSZENTRUM · HOSTING & SYSTEMHAUS
Server, Cloud, Managed Services, Backup, Monitoring — dieses Wissenszentrum erklärt die wichtigsten Konzepte rund um IT-Infrastruktur und Hosting. Praxisnah, ohne Buzzword-Nebel und speziell für den Mittelstand.
Hosting bedeutet im Kern: Jemand stellt Rechenleistung, Speicherplatz und Netzwerkanbindung bereit, damit Ihre Anwendungen — Webseite, Onlineshop, ERP-System, E-Mail — zuverlässig laufen und erreichbar sind. Das kann auf eigener Hardware im Büro geschehen, auf gemieteten Servern in einem Rechenzentrum oder als Cloud-Dienst bei einem Anbieter.
Ein Systemhaus geht über reines Hosting hinaus: Es plant, implementiert und betreibt Ihre gesamte IT-Infrastruktur — von der Serverarchitektur über Netzwerke und Sicherheit bis hin zum laufenden Support. Während ein Hoster Ihnen die Technik zur Verfügung stellt, übernimmt ein Systemhaus die Verantwortung dafür, dass alles reibungslos funktioniert.
Die zentrale Frage: Hosting selbst zu managen bedeutet maximale Kontrolle, aber auch maximale Verantwortung — Updates, Sicherheit, Backups, Ausfallmanagement. Managed Hosting delegiert diese Verantwortung an Experten. Die richtige Wahl hängt von Ihren internen IT-Ressourcen und der Kritikalität Ihrer Systeme ab.
SLA (Service Level Agreement): Vertragliche Vereinbarung über Verfügbarkeit und Reaktionszeiten. Ein SLA von 99,9 % bedeutet maximal 8,7 Stunden ungeplante Ausfallzeit pro Jahr.
Uptime / Verfügbarkeit: Die Zeit, in der ein System erreichbar ist. Für E-Commerce-Systeme sollten mindestens 99,9 % angestrebt werden — bei geschäftskritischen Anwendungen 99,95 % oder mehr.
Latenz: Die Verzögerung bei der Datenübertragung. Niedrige Latenz (< 20 ms) ist besonders wichtig für Datenbankzugriffe, Remote-Desktop-Verbindungen und Shopsysteme.
Redundanz: Die Absicherung gegen Ausfälle durch doppelte Auslegung kritischer Komponenten — Stromversorgung, Netzwerkanbindung, Festplatten (RAID), komplette Server (Failover-Cluster).
DSGVO-Hosting: Hosting in der EU (idealerweise Deutschland), bei dem der Anbieter als Auftragsverarbeiter gemäß Art. 28 DSGVO handelt und entsprechende technische und organisatorische Maßnahmen (TOMs) nachweisen kann.
Nicht jeder Server ist gleich. Die Wahl des richtigen Typs hängt von Leistungsanforderungen, Budget und Kontrollbedürfnis ab.
| Servertyp | Prinzip | Vorteile | Geeignet für |
|---|---|---|---|
| Shared Hosting | Mehrere Kunden teilen sich einen Server | Günstig, kein Admin-Aufwand | Kleine Websites, Blogs |
| vServer (VPS) | Virtualisierte, isolierte Umgebung | Skalierbar, Root-Zugriff, günstig | Webshops, Dev-Umgebungen |
| Rootserver (Dedicated) | Dedizierte physische Hardware | Max. Performance, volle Kontrolle | MSSQL, ERP, Traffic-starke Shops |
| Cloud Server | Ressourcen aus Pool, on-demand | Elastisch skalierbar, Pay-per-Use | Schwankende Last, SaaS-Projekte |
| Managed Server | Dedi/vServer + Admin durch Anbieter | Performance + Komfort, kein IT-Team nötig | KMU ohne eigene IT-Abteilung |
Ein vServer ist die richtige Wahl, wenn Sie flexible Ressourcen brauchen, schnell skalieren wollen und die physische Hardware nicht allein beanspruchen müssen. Typisches Szenario: Webshop-Hosting, Entwicklungsumgebungen, Mail-Server.
Ein Rootserver (Dedicated Server) ist die richtige Wahl, wenn Sie garantierte Performance ohne Nachbareffekte benötigen — z. B. für MSSQL-Datenbanken (JTL-Wawi), hochfrequentierte Onlineshops oder rechenintensive Anwendungen. Die dedizierte Hardware garantiert, dass kein anderer Nutzer Ihre Ressourcen beansprucht.
Managed Services bedeutet: Ein externer Dienstleister übernimmt den laufenden Betrieb, die Wartung und die Überwachung Ihrer IT-Infrastruktur — proaktiv, nicht erst wenn etwas brennt. Statt reaktivem „Break-Fix“ (etwas geht kaputt, dann wird repariert) setzen Managed Services auf Prävention.
Monitoring & Alerting: Permanente Überwachung von Servern, Netzwerk und Anwendungen. Bei Anomalien (CPU-Last, Speicherengpässe, Dienst-Ausfälle) wird sofort alarmiert — idealerweise bevor der Endanwender etwas merkt.
Patch- & Update-Management: Regelmäßige Installation von Sicherheitsupdates für Betriebssystem, Datenbank und Anwendungen. Kritische Patches werden zeitnah eingespielt, reguläre Updates in geplanten Wartungsfenstern.
Backup & Restore: Automatisierte, regelmäßige Datensicherung mit regelmäßigen Restore-Tests. Ein Backup ohne verifizierte Wiederherstellung ist kein Backup — es ist nur eine Hoffnung.
Kapazitätsplanung: Vorausschauende Analyse von Ressourcenverbrauch und Wachstumstrends, damit Engpässe vermieden werden, bevor sie auftreten.
Notfallservice: Erreichbarkeit und Reaktionsfähigkeit auch außerhalb der Geschäftszeiten — essentiell für E-Commerce-Unternehmen, bei denen ein Server-Ausfall um 22 Uhr genauso kostet wie am Montag um 10 Uhr.
Rechenbeispiel: Ein interner IT-Administrator kostet im Mittelstand mindestens 55.000–75.000 € pro Jahr (Gehalt + Lohnnebenkosten). Managed Services für eine typische KMU-Infrastruktur (5–10 Server, Firewall, Backup) liegen bei 1.500–4.000 €/Monat — mit 24/7-Abdeckung, die ein einzelner Admin nicht leisten kann. Ab einer gewissen Infrastrukturgröße ist die Kombination aus Managed Services und internem IT-Koordinator oft die wirtschaftlichste Lösung.
Ein Cloud-Arbeitsplatz (auch: Remote Desktop, RDP-Arbeitsplatz) bedeutet: Ihre Windows-Anwendungen laufen nicht auf dem lokalen PC, sondern auf einem leistungsstarken Server im Rechenzentrum. Sie verbinden sich per Remote-Desktop-Protokoll (RDP) und arbeiten, als säßen Sie direkt davor — nur eben ortsunabhängig.
Terminalserver (RDS — Remote Desktop Services): Mehrere Benutzer teilen sich einen leistungsstarken Windows Server. Jeder bekommt eine eigene Sitzung, sieht aber nur seinen Desktop. Die Ressourcen werden geteilt — kosteneffizient, aber weniger isoliert.
Virtual Desktop Infrastructure (VDI): Jeder Benutzer erhält eine eigene virtuelle Maschine. Maximale Isolation und individuelle Konfiguration, aber höhere Kosten pro Nutzer.
Für die meisten KMU ist der Terminalserver die sinnvollere Wahl: günstiger pro Nutzer, zentral administrierbar und für Standardanwendungen wie JTL-Wawi, Office, E-Mail und Buchhaltungssoftware bestens geeignet.
JTL-Wawi in der Cloud: Das meistgenutzte Szenario im E-Commerce. Die Wawi und die MSSQL-Datenbank laufen auf einem leistungsstarken Cloud-Server. Mitarbeitende verbinden sich per RDP — vom Büro, aus dem Homeoffice oder unterwegs. Die Performance wird durch den Server bestimmt, nicht durch den lokalen PC.
Verteilte Teams: Unternehmen mit mehreren Standorten oder Remote-Mitarbeitenden profitieren besonders: Alle arbeiten auf derselben Umgebung, mit derselben Softwareversion und denselben Daten — ohne VPN-Konfigurationen und Synchronisierungsprobleme.
BYOD (Bring Your Own Device): Da die Rechenleistung im Rechenzentrum liegt, genügt für den Zugriff ein beliebiges Gerät mit RDP-Client — auch ein altes Notebook, ein Tablet oder ein Thin Client. Das reduziert Hardwarekosten erheblich.
Datenverlust gehört zu den existenzbedrohendsten Risiken für Unternehmen. Ein durchdachtes Backup-Konzept ist daher keine Option, sondern Pflicht — sowohl aus betriebswirtschaftlicher Sicht als auch aufgrund gesetzlicher Anforderungen (GoBD, DSGVO).
Die bewährteste Backup-Strategie ist die 3-2-1-Regel: Mindestens 3 Kopien Ihrer Daten, auf mindestens 2 verschiedenen Medientypen, davon mindestens 1 an einem externen Standort (offsite). Dadurch sind Sie gegen Hardware-Ausfälle, Software-Fehler, Ransomware und physische Katastrophen (Brand, Wasserschaden) abgesichert.
RPO (Recovery Point Objective): Wie viel Datenverlust können Sie tolerieren? Ein RPO von 4 Stunden bedeutet: Im schlimmsten Fall gehen die Daten der letzten 4 Stunden verloren. Je niedriger der RPO, desto häufiger müssen Backups erfolgen.
RTO (Recovery Time Objective): Wie schnell muss das System nach einem Ausfall wieder laufen? Ein RTO von 2 Stunden bedeutet: Innerhalb von 2 Stunden muss der Betrieb wiederhergestellt sein. Je niedriger der RTO, desto mehr Investition in Redundanz ist nötig.
| Typ | Funktionsweise | Vor- & Nachteile |
|---|---|---|
| Vollbackup | Sichert alle Daten komplett | Einfache Wiederherstellung, hoher Speicherverbrauch |
| Inkrementell | Sichert nur Änderungen seit letztem Backup | Schnell & speichereffizient, Restore-Kette nötig |
| Differentiell | Sichert Änderungen seit letztem Vollbackup | Kompromiss: schneller Restore als inkrementell |
Kritisch: Ein Backup, das nie getestet wurde, ist wertlos. Regelmäßige Restore-Tests (mindestens quartalsweise) stellen sicher, dass die Wiederherstellung im Ernstfall tatsächlich funktioniert. Etwa 30 % aller Unternehmen, die ihre Backups nie testen, stellen im Katastrophenfall fest, dass die Sicherungen unbrauchbar sind.
Monitoring bedeutet: Ihre Infrastruktur wird rund um die Uhr überwacht — Server, Netzwerk, Dienste, Datenbanken, Speicher und Anwendungen. Ziel ist es, Probleme zu erkennen, bevor sie zu Ausfällen führen.
Infrastruktur-Ebene: CPU-Auslastung, RAM-Verbrauch, Festplattenkapazität, Netzwerkdurchsatz, I/O-Performance. Schwellenwerte lösen Alarme aus, bevor kritische Grenzen erreicht werden.
Dienst-Ebene: Webserver (Apache/Nginx), Datenbankserver (MySQL/MSSQL), Mail-Server, DNS — jeder Dienst wird auf Erreichbarkeit und Antwortzeit geprüft.
Anwendungs-Ebene: Ist der Onlineshop erreichbar? Wie lang sind die Ladezeiten? Funktioniert der Checkout? Gibt es Fehlermeldungen in den Logs? Application Monitoring geht über reine Infrastruktur hinaus und prüft die tatsächliche Nutzererfahrung.
Kein System ist zu 100 % ausfallsicher. Entscheidend ist, wie schnell und strukturiert auf Vorfälle reagiert wird. Ein professionelles Incident Management umfasst: automatische Erkennung und Eskalation, definierte Ansprechpartner und Eskalationsstufen, strukturierte Ursachenanalyse (Root Cause Analysis), dokumentierte Maßnahmen und abschließendes Post-Mortem, um aus dem Vorfall zu lernen.
IT-Sicherheit ist kein einmaliges Projekt, sondern ein kontinuierlicher Prozess. Gerade für E-Commerce-Unternehmen, die mit Kundendaten und Zahlungsinformationen arbeiten, ist ein durchdachtes Sicherheitskonzept unverzichtbar.
Firewall & Netzwerksegmentierung: Eine Firewall ist die erste Verteidigungslinie. Wichtig: Nicht nur eingehenden, sondern auch ausgehenden Traffic filtern. Netzwerksegmentierung trennt kritische Systeme (Datenbank, ERP) vom öffentlich erreichbaren Webserver.
SSL/TLS-Verschlüsselung: Sämtliche Datenübertragung — Shop, Admin-Panels, E-Mail, API-Aufrufe — muss verschlüsselt erfolgen. Mindeststandard: TLS 1.2, empfohlen TLS 1.3.
Patch-Management: Bekannte Sicherheitslücken sind das Einfallstor Nr. 1. Betriebssystem, Webserver, PHP, Datenbank und alle Anwendungen müssen zeitnah gepatcht werden. Automatisierte Patch-Systeme reduzieren das Risiko erheblich.
Zugriffskontrolle: Prinzip der minimalen Rechte (Least Privilege). Jeder Benutzer und jeder Dienst erhält nur die Berechtigungen, die tatsächlich benötigt werden. Zwei-Faktor-Authentifizierung (2FA) für alle administrativen Zugänge.
DDoS-Schutz: Distributed-Denial-of-Service-Angriffe können Shops und Dienste lahmlegen. Schutzmaßnahmen wie CDN-basierte DDoS-Mitigation, Rate Limiting und Traffic Scrubbing gehören für geschäftskritische Systeme zum Standard.
Ransomware — die größte Bedrohung: Ransomware verschlüsselt Ihre Daten und fordert Lösegeld. Die beste Prävention: regelmäßige, offsite-gespeicherte Backups, die nicht vom Hauptsystem aus erreichbar sind (Air Gap). Dazu zeitnahes Patching, E-Mail-Filterung und Awareness-Schulungen für Mitarbeitende. Im Ernstfall ist ein getestetes Backup die einzige zuverlässige Rettung.
Ein Rechenzentrum (Data Center) ist ein spezialisiertes Gebäude mit der Infrastruktur, die für den sicheren und zuverlässigen Betrieb von Servern nötig ist: redundante Stromversorgung (USV + Notstromdiesel), Klimatisierung, physische Sicherheit, Brandschutz und Hochgeschwindigkeits-Netzwerkanbindung.
Rechenzentren werden nach dem Tier-System des Uptime Institute klassifiziert. Tier I bietet grundlegende Infrastruktur ohne Redundanz (99,671 % Verfügbarkeit). Tier II ergänzt redundante Komponenten. Tier III erlaubt Wartung im laufenden Betrieb (99,982 %). Tier IV bietet Fehlertoleranz bei jeder Komponente (99,995 %). Für die meisten mittelständischen Anforderungen ist ein Rechenzentrum mit Tier-III-Niveau der optimale Kompromiss aus Verfügbarkeit und Kosten.
Colocation bedeutet: Sie stellen Ihre eigene Hardware in ein professionelles Rechenzentrum. Sie mieten Stellfläche (Rack-Space), Strom und Netzwerkanbindung — die physische Infrastruktur (Kühlung, Strom, Sicherheit) stellt der Rechenzentrumsbetreiber bereit. Das ist sinnvoll, wenn Sie volle Kontrolle über Ihre Hardware behalten wollen, aber die professionelle Umgebung eines Data Centers benötigen.
Für deutsche Unternehmen ist ein Rechenzentrumsstandort in Deutschland nicht nur aus Performance-Gründen (niedrige Latenz) relevant, sondern vor allem aus Datenschutzgründen. Die DSGVO stellt strenge Anforderungen an die Verarbeitung personenbezogener Daten. Hosting in Deutschland bedeutet: deutsches Datenschutzrecht, deutsche Gerichtsbarkeit und kein Zugriff durch ausländische Behörden (z. B. US Cloud Act).
E-Commerce- und ERP-Systeme stellen besondere Anforderungen an die Hosting-Infrastruktur. Hier genügt kein Standard-Webhosting — die Systeme brauchen dedizierte Ressourcen, optimierte Datenbanken und professionelles Management.
Onlineshops benötigen schnelle Ladezeiten (< 2 Sekunden für die Startseite), hohe Verfügbarkeit (mindestens 99,9 %) und die Fähigkeit, Traffic-Spitzen abzufangen (Black Friday, Kampagnen). Empfohlene Infrastruktur: Webserver mit NVMe-SSDs, PHP-OPcache, Redis/Memcached für Caching, CDN für statische Assets und eine separate Datenbank-Instanz.
JTL-Wawi ist extrem datenbankintensiv. Die Performance hängt zu 80 % von der MSSQL-Konfiguration ab. Entscheidende Faktoren: NVMe-SSDs (nicht SATA!), ausreichend RAM (mindestens 16 GB, besser 32–64 GB), korrekt konfigurierte Tempdb, regelmäßige Index-Wartung und optimierte Max-Memory-Einstellungen. Ein falsch konfigurierter SQL Server kann die Wawi um den Faktor 5–10 langsamer machen.
Für geschäftskritische Systeme reicht ein einzelner Server nicht aus. Hochverfügbarkeit (HA) wird durch redundante Setups erreicht: mindestens zwei Webserver hinter einem Loadbalancer, Datenbank-Replikation (Master-Slave oder Master-Master) und automatisches Failover. Das Ziel: Selbst wenn ein Server komplett ausfällt, bleibt das System ohne spürbare Unterbrechung erreichbar.
Kosten-Perspektive: Jede Stunde Downtime kostet E-Commerce-Unternehmen durchschnittlich zwischen 5.000 und 50.000 € — je nach Umsatzvolumen. Eine Investition von 300–500 €/Monat für professionelles Managed Hosting kann sich bei einem einzigen verhinderten Ausfall bereits amortisieren.
Von Managed Hosting über Cloud-Arbeitsplätze bis zum eigenen Rack im Rechenzentrum — als IT-Systemhaus mit eigenen Rechenzentren in Norddeutschland betreuen wir Ihre Infrastruktur zuverlässig und persönlich.
+49 (0) 4131 227 82 80 · info@wnm.de