Alle 14 Tage aktuelle News aus der IT-Szene   >   
84 Prozent der IT-Führungskräfte sehen Datenbereinigung als Schlüssel zur KI-Transformation 07. 11. 2025
Der aktuelle „State of Data and Analytics“-Report von Salesforce zeigt: Unternehmen stehen unter hohem Druck, ihre Datenstrategien grundlegend zu überarbeiten. Zwar bekennen sich viele zur Datenorientierung, doch die Realität ist geprägt von fragmentierten Datenbeständen, mangelnder Governance und isolierten Systemen – ein Risiko für den erfolgreichen Einsatz von KI.
Neues Rechenzentrum stärkt digitale Eigenständigkeit der HABAU GROUP 07. 11. 2025
Der Baukonzern HABAU hat am Standort Perg ein neues Rechenzentrum in Betrieb genommen. In Zusammenarbeit mit EPS Electric Power Systems entstand innerhalb von zwei Jahren eine hochverfügbare und energieeffiziente IT-Infrastruktur, die den steigenden Anforderungen der Digitalisierung Rechnung trägt.
SCHÄFER IT-Systems verstärkt Engagement in Österreich 06. 11. 2025
Der deutsche Rechenzentrums-Spezialist SCHÄFER IT-Systems intensiviert seine Aktivitäten in Österreich. Mit einem Fokus auf Partnerschaften im Vertrieb und Service sowie auf der modularen Produktlinie iQdata will das Unternehmen seine energieeffizienten und skalierbaren Lösungen auf dem österreichischen Markt fest etablieren.
Zscaler übernimmt SPLX und erweitert Zero Trust Exchange um KI-Sicherheitsfunktionen 06. 11. 2025
Der Cloud-Sicherheitsanbieter Zscaler hat den KI-Sicherheitspionier SPLX übernommen. Mit der Integration erweitert das Unternehmen seine Zero Trust Exchange-Plattform um Funktionen für KI-Asset-Erkennung, automatisiertes Red Teaming und Governance. Ziel ist es, Unternehmen eine durchgängige Absicherung ihrer KI-Anwendungen von der Entwicklung bis zur Bereitstellung zu ermöglichen.
Domains im Schatten der IT-Sicherheit 05. 11. 2025
Domains sind das Rückgrat digitaler Geschäftsmodelle. Sie tragen nicht nur Shop- und E-Mail-Verkehr, sondern auch zentrale Datenflüsse und Bezahlschnittstellen. Wer diesen Kern ungeschützt lässt, riskiert Umsatzverluste, Reputationsschäden und regulatorische Konsequenzen.
Wie SAP mit neuer KI-Strategie die Unternehmenssoftware neu denkt 05. 11. 2025
Auf der diesjährigen TechEd in Berlin präsentierte SAP umfassende Neuerungen, die Künstliche Intelligenz (KI) fest in den Entwicklungsalltag integrieren. Neue Werkzeuge, Partnerschaften und Datenlösungen sollen Entwicklern ermöglichen, Unternehmenssoftware schneller und intelligenter zu gestalten – ohne dabei die Kontrolle über Daten und Prozesse zu verlieren.
Cloudian und CTERA bündeln Kräfte für durchgängige Datenverwaltung vom Edge bis zur Cloud 05. 11. 2025
Der Objektspeicherspezialist Cloudian und der Data-Management-Anbieter CTERA vertiefen ihre Zusammenarbeit. Im Rahmen einer neuen globalen Partnerschaft kombinieren die Unternehmen ihre Technologien zu einer integrierten Plattform für die Verwaltung verteilter Unternehmensdaten. Ziel ist ein nahtloser, sicherer und skalierbarer Ansatz für moderne Datenarchitekturen.
AWS und OpenAI schließen strategische Partnerschaft im Wert von 38 Milliarden US-Dollar 04. 11. 2025
Amazon Web Services (AWS) und OpenAI haben eine mehrjährige strategische Partnerschaft angekündigt. OpenAI erhält ab sofort Zugriff auf die Hochleistungsinfrastruktur von AWS, um seine KI-Modelle zu betreiben und weiterzuentwickeln. Das Abkommen mit einem Gesamtvolumen von 38 Milliarden US-Dollar sieht den Ausbau der Rechenkapazitäten bis mindestens 2027 vor.
Neue it&d business Ausgabe 03/2025 beleuchtet Cybersecurity als Schlüssel zur digitalen Zukunft 31. 10. 2025
Cybersecurity ist längst mehr als Abwehr – sie wird zum entscheidenden Erfolgsfaktor in einer digitalisierten Wirtschaft. Die neue Ausgabe von it&d business (03/2025) beleuchtet, wie Unternehmen und Institutionen ihre Sicherheitsstrategien anpassen, um den Herausforderungen von KI, Datenflut und digitaler Souveränität zu begegnen.
Mit Kyano führt SNP den Wechsel in die SAP Public Cloud durch 31. 10. 2025
Der Heidelberger Softwareanbieter SNP hat seine SAP-Systeme von der SAP Cloud ERP Private in die Public Edition migriert – und nutzt dabei die eigene Transformationsplattform Kyano. Der Schritt gilt als Meilenstein in der Partnerschaft mit SAP und als neuer Anwendungsfall für SNPs Migrationslösungen.
183 Millionen Gmail-Passwörter? Warum die Schlagzeilen in die Irre führen 31. 10. 2025
In den Medien kursiert derzeit die Meldung über ein angebliches Datenleck bei Google mit Millionen kompromittierter Gmail-Passwörter. Doch der Fall liegt anders: Nicht Google selbst wurde gehackt, sondern bekannte und neue Datensätze aus verschiedenen Quellen wurden zusammengeführt. Tenable-Experte Satnam Narang erklärt, was wirklich dahintersteckt – und welche Schutzmaßnahmen jetzt wichtig sind.
Zoom und NVIDIA entwickeln hybride KI-Architektur für den Unternehmenseinsatz 30. 10. 2025
Zoom erweitert seine KI-Infrastruktur um NVIDIA-Technologien, um maßgeschneiderte KI-Funktionen für Unternehmen bereitzustellen. Der neue Zoom AI Companion 3.0 kombiniert offene und geschlossene Modelle zu einer flexiblen, ressourcenschonenden Lösung für produktivere Arbeitsprozesse.
Drei Viertel der Cloud-Nutzenden fordern europäische Datenhoheit 30. 10. 2025
Eine neue, von STRATO beauftragte Forsa-Studie zeigt: Für die Mehrheit der Deutschen ist der Cloud-Speicher längst Alltag – doch Vertrauen und Datenschutz stehen zunehmend im Vordergrund. 75 Prozent der Befragten wollen, dass keine außereuropäischen Institutionen Zugriff auf ihre Daten erhalten. Auch die Zahlungsbereitschaft für europäische Anbieter ist deutlich gestiegen.
HPE baut „Discovery“ und „Lux“ für das Oak Ridge National Laboratory 30. 10. 2025
Hewlett Packard Enterprise (HPE) errichtet zwei neue Systeme für das Oak Ridge National Laboratory des US-Energieministeriums: den Exascale-Supercomputer „Discovery“ und das KI-Cluster „Lux“. Während Discovery auf die nächste Generation der HPE-Cray-Supercomputing-Architektur setzt, entsteht mit Lux eine mandantenfähige Plattform für Künstliche Intelligenz.
Was Googles neuer AI Mode für Unternehmen bedeutet 29. 10. 2025
Nach den USA und Indien führt Google seinen „AI Mode“ nun auch in Deutschland ein. Der KI-gestützte Suchmodus verändert, wie Nutzer Informationen abrufen – und stellt Unternehmen vor neue Herausforderungen. Experte Mare Hojc von AN Digital erklärt, warum klassische Suchstrategien dennoch relevant bleiben und wie Firmen sich auf die neue Suchwelt vorbereiten können.
Programmierende KI: Die generierte Gefahr 29. 10. 2025
Large Language Modells schreiben Code in Sekunden. Was nach einem neuen Level an Effizienz klingt, hat allerdings auch eine Schattenseite. Das Problem: Sicherheit ist bislang kein integraler Bestandteil von KI-basierter Softwareentwicklung.
valantic integriert semantische Datenplattform Bardioc von Almato in sein Portfolio 29. 10. 2025
Die Digitalberatung valantic und Almato, Spezialist für KI-gestützte semantische Datenplattformen, gehen eine strategische Partnerschaft ein. Im Mittelpunkt steht die Plattform Bardioc, die datengetriebene Intelligenz mit erklärbarer KI verbindet und Unternehmen eine sichere, nachvollziehbare Datennutzung ermöglicht.
LG forciert Flüssigkeitskühlung für KI-Rechenzentren 28. 10. 2025
LG Electronics hat mit SK Enmove und Green Revolution Cooling eine Absichtserklärung zur gemeinsamen Entwicklung von Tauchkühlsystemen für KI-Rechenzentren unterzeichnet. Die Allianz soll den steigenden Energie- und Kühlbedarf leistungsstarker GPU-Infrastrukturen adressieren und neue Standards in Effizienz und Nachhaltigkeit setzen.
weiter
Gastkommentar von Jörg Hollerith, Product Manager bei Paessler

Passives und aktives Netzwerk-Monitoring – warum eine Kombination aus den unterschiedlichen Ansätzen die beste Überwachung ermöglicht

Aktives und passives Monitoring sind unterschiedliche Ansätze für die Überwachung von Netzwerken. Das aktive Netzwerk-Monitoring prüft Netzwerke mit gezielten Testabfragen, etwa zu Verfügbarkeit, Latenz oder der Systemleistung. Beim passiven Monitoring wird der tatsächliche Datenverkehr in Echtzeit ausgewertet, um Anomalien, Sicherheitslücken und Probleme proaktiv und frühzeitig zu erkennen. Was genau zeichnet die beiden Ansätze jeweils aus? Was unterscheidet aktives und passives Monitoring voneinander? Und warum sollten beide Ansätze niemals alleinstehend genutzt werden?

Foto: Paessler Jörg Hollerith, Product Manager bei Paessler Aktives Netzwerk-Monitoring

Das aktive Monitoring stellt Netzwerke proaktiv und kontinuierlich mit Sicherheitstests auf die Probe, um eine hohe Leistungsfähigkeit und Funktionalität zu garantieren. Auch synthetisches Monitoring genannt, werden so rund um die Uhr reale Nutzeraktionen simuliert. Auf diese Weise kann das gesamte Netzwerk überprüft werden, von einfachen Ping-Antworten bis zu komplexen mehrstufigen Metriken. Unter anderem wird beim aktiven Monitoring Folgendes geprüft:

  • Reaktionszeit von kritischen Diensten;
  • Verfügbarkeit der Netzwerkressourcen;
  • End-to-End-Transaktionsleistung;
  • Bandbreite und Durchsatz;
  • Metriken für Paketverluste und Latenzzeiten.

Bei der aktiven Überwachung können Monitoring-Systeme auch die Nutzung von Webseiten und Shops so simulieren, wie reale Nutzer jeden Tag darauf zugreifen. Aktive Monitoring-Tools rufen unterschiedliche Unterseiten auf; falls ein Shop vorhanden ist, wird der Kaufprozess simuliert inkl. der Prüfung der Zahlungsfunktion. Wenn einer dieser Schritte verlangsamt ist, erhalten Administratoren sofort eine Warnmeldung. So lassen sich Probleme beheben, bevor sie die Performance und das Nutzererlebnis beeinflussen.

Passives Netzwerk-Monitoring

Passives Monitoring dagegen fungiert als stiller Beobachter des Netzwerks – Systeme beobachten, analysieren und dokumentieren alles, was im Netzwerk passiert, ohne aktiv in den normalen Netzwerkbetrieb einzugreifen. So wird der tatsächliche Traffic im Netzwerk erfasst und analysiert sowie reale Benutzerdaten und Verhaltensmuster erfasst, beispielsweise durch Port-Spiegelung. Dieser Ansatz ermöglicht unter anderem Einblicke in:

  • reale Muster der Netzwerknutzung;
  • Sicherheitsanomalien;
  • Anwendungsleistung;
  • tatsächliche Benutzererfahrung;
  • Probleme und Engpässe im Netzwerk.

Die passive Überwachung bietet ein detailliertes Bild des tatsächlichen Netzwerkzustands – auf Basis von realen Vorgängen und Informationen und nicht von theoretischen Daten. Anstatt simulierter Tests bietet passives Monitoring reale Leistungsdaten, wenn das Netzwerk unter echter Belastung steht. Diese Daten sind von unschätzbarem Wert. Mit Mustern des normalen Netzwerkverkehrs können potenzielle (Sicherheits-)Probleme und Anomalien schnell entdeckt werden. Frühzeitige Warnungen sind wichtig für die Sicherheit von Netzwerken, beispielsweise bei einem ungewöhnlichen Anstieg im ausgehenden Datenverkehr oder bei einem unerwarteten Zugriffsmuster.

Warum Administratoren auf beide Monitoring-Ansätze bauen sollten

Nur ein durchdachtes Vorgehen ermöglicht eine effektive Überwachung moderner IT-Systeme. Für eine ganzheitliche Strategie bieten beide Ansätze wichtige Vorteile. IT-Administratoren sollten sich daher nicht nur auf einen Ansatz verlassen: Aktives und passives Monitoring sind einzeln gut, zusammen aber noch besser!

Aktives Monitoring ist präventiv und ermöglicht die proaktive Erkennung von Problemen, bevor sie Auswirkungen auf den Betrieb haben. Fortlaufende Tests rund um die Uhr schaffen konsistente Vergleichsdaten, was ein Frühwarnsystem für potenzielle Probleme ist und die genaue Verfolgung von Service Level Agreements (SLAs) ermöglicht. Passive Überwachung kann den proaktiven Ansatz um Daten und Analysen von realen Nutzungsmustern ergänzen. Die Ergebnisse des aktiven Monitorings können mit den Erkenntnissen aus dem tatsächlichen Netzwerkverhalten bestätigt werden. Dadurch lassen sich auch Ergebnisse aufdecken, die mit der aktiven Überwachung allein unentdeckt geblieben wären. Passives Monitoring ergänzt den aktiven Ansatz außerdem mit der Analyse von Mustern zur Erkennung von potenziellen Sicherheitsverstößen sowie als solide Grundlage für die Kapazitätsplanung mit Daten, die auf der tatsächlichen Netzwerknutzung beruhen.

Echtzeitdaten der aktiven Überwachung und von eingehenden Analysen des passiven Monitorings miteinander zu kombinieren, ist eine solide Grundlage für fundierte IT-Entscheidungen. Aktive Überwachung kann so ein Frühwarnsystem sein und passive Überwachung notwendigen Kontext und Hintergrundinformationen für ein ganzheitliches Verständnis der IT-Umgebung liefern. Diese Kombination ermöglicht es, schnell auf akute Probleme zu reagieren und fundierte strategische Entscheidungen für die Zukunft treffen.

Es sollte also nicht darum gehen, welcher Ansatz zum Netzwerk-Monitoring besser ist – sondern darum, wie man beide Ansätze am besten miteinander kombinieren kann. Wie eine gute Backup-Strategie sollte auch die Überwachung umfassend und redundant sein. Mit aktivem und passivem Monitoring können Administratoren nicht nur überwachen, sondern es auch verstehen. Die aktive Überwachung zeigt, was schiefgehen könnte, die passive Überwachung zeigt, was schiefgeht – beide zusammen sagen, wann Probleme auftreten könnten und wie Probleme wieder in Ordnung gebracht werden können.

it&t business medien eU
Tel.: +43/1/369 80 67-0
office@ittbusiness.at