Alle 14 Tage aktuelle News aus der IT-Szene   >   
84 Prozent der IT-Führungskräfte sehen Datenbereinigung als Schlüssel zur KI-Transformation 07. 11. 2025
Der aktuelle „State of Data and Analytics“-Report von Salesforce zeigt: Unternehmen stehen unter hohem Druck, ihre Datenstrategien grundlegend zu überarbeiten. Zwar bekennen sich viele zur Datenorientierung, doch die Realität ist geprägt von fragmentierten Datenbeständen, mangelnder Governance und isolierten Systemen – ein Risiko für den erfolgreichen Einsatz von KI.
Neues Rechenzentrum stärkt digitale Eigenständigkeit der HABAU GROUP 07. 11. 2025
Der Baukonzern HABAU hat am Standort Perg ein neues Rechenzentrum in Betrieb genommen. In Zusammenarbeit mit EPS Electric Power Systems entstand innerhalb von zwei Jahren eine hochverfügbare und energieeffiziente IT-Infrastruktur, die den steigenden Anforderungen der Digitalisierung Rechnung trägt.
SCHÄFER IT-Systems verstärkt Engagement in Österreich 06. 11. 2025
Der deutsche Rechenzentrums-Spezialist SCHÄFER IT-Systems intensiviert seine Aktivitäten in Österreich. Mit einem Fokus auf Partnerschaften im Vertrieb und Service sowie auf der modularen Produktlinie iQdata will das Unternehmen seine energieeffizienten und skalierbaren Lösungen auf dem österreichischen Markt fest etablieren.
Zscaler übernimmt SPLX und erweitert Zero Trust Exchange um KI-Sicherheitsfunktionen 06. 11. 2025
Der Cloud-Sicherheitsanbieter Zscaler hat den KI-Sicherheitspionier SPLX übernommen. Mit der Integration erweitert das Unternehmen seine Zero Trust Exchange-Plattform um Funktionen für KI-Asset-Erkennung, automatisiertes Red Teaming und Governance. Ziel ist es, Unternehmen eine durchgängige Absicherung ihrer KI-Anwendungen von der Entwicklung bis zur Bereitstellung zu ermöglichen.
Domains im Schatten der IT-Sicherheit 05. 11. 2025
Domains sind das Rückgrat digitaler Geschäftsmodelle. Sie tragen nicht nur Shop- und E-Mail-Verkehr, sondern auch zentrale Datenflüsse und Bezahlschnittstellen. Wer diesen Kern ungeschützt lässt, riskiert Umsatzverluste, Reputationsschäden und regulatorische Konsequenzen.
Wie SAP mit neuer KI-Strategie die Unternehmenssoftware neu denkt 05. 11. 2025
Auf der diesjährigen TechEd in Berlin präsentierte SAP umfassende Neuerungen, die Künstliche Intelligenz (KI) fest in den Entwicklungsalltag integrieren. Neue Werkzeuge, Partnerschaften und Datenlösungen sollen Entwicklern ermöglichen, Unternehmenssoftware schneller und intelligenter zu gestalten – ohne dabei die Kontrolle über Daten und Prozesse zu verlieren.
Cloudian und CTERA bündeln Kräfte für durchgängige Datenverwaltung vom Edge bis zur Cloud 05. 11. 2025
Der Objektspeicherspezialist Cloudian und der Data-Management-Anbieter CTERA vertiefen ihre Zusammenarbeit. Im Rahmen einer neuen globalen Partnerschaft kombinieren die Unternehmen ihre Technologien zu einer integrierten Plattform für die Verwaltung verteilter Unternehmensdaten. Ziel ist ein nahtloser, sicherer und skalierbarer Ansatz für moderne Datenarchitekturen.
AWS und OpenAI schließen strategische Partnerschaft im Wert von 38 Milliarden US-Dollar 04. 11. 2025
Amazon Web Services (AWS) und OpenAI haben eine mehrjährige strategische Partnerschaft angekündigt. OpenAI erhält ab sofort Zugriff auf die Hochleistungsinfrastruktur von AWS, um seine KI-Modelle zu betreiben und weiterzuentwickeln. Das Abkommen mit einem Gesamtvolumen von 38 Milliarden US-Dollar sieht den Ausbau der Rechenkapazitäten bis mindestens 2027 vor.
Neue it&d business Ausgabe 03/2025 beleuchtet Cybersecurity als Schlüssel zur digitalen Zukunft 31. 10. 2025
Cybersecurity ist längst mehr als Abwehr – sie wird zum entscheidenden Erfolgsfaktor in einer digitalisierten Wirtschaft. Die neue Ausgabe von it&d business (03/2025) beleuchtet, wie Unternehmen und Institutionen ihre Sicherheitsstrategien anpassen, um den Herausforderungen von KI, Datenflut und digitaler Souveränität zu begegnen.
Mit Kyano führt SNP den Wechsel in die SAP Public Cloud durch 31. 10. 2025
Der Heidelberger Softwareanbieter SNP hat seine SAP-Systeme von der SAP Cloud ERP Private in die Public Edition migriert – und nutzt dabei die eigene Transformationsplattform Kyano. Der Schritt gilt als Meilenstein in der Partnerschaft mit SAP und als neuer Anwendungsfall für SNPs Migrationslösungen.
183 Millionen Gmail-Passwörter? Warum die Schlagzeilen in die Irre führen 31. 10. 2025
In den Medien kursiert derzeit die Meldung über ein angebliches Datenleck bei Google mit Millionen kompromittierter Gmail-Passwörter. Doch der Fall liegt anders: Nicht Google selbst wurde gehackt, sondern bekannte und neue Datensätze aus verschiedenen Quellen wurden zusammengeführt. Tenable-Experte Satnam Narang erklärt, was wirklich dahintersteckt – und welche Schutzmaßnahmen jetzt wichtig sind.
Zoom und NVIDIA entwickeln hybride KI-Architektur für den Unternehmenseinsatz 30. 10. 2025
Zoom erweitert seine KI-Infrastruktur um NVIDIA-Technologien, um maßgeschneiderte KI-Funktionen für Unternehmen bereitzustellen. Der neue Zoom AI Companion 3.0 kombiniert offene und geschlossene Modelle zu einer flexiblen, ressourcenschonenden Lösung für produktivere Arbeitsprozesse.
Drei Viertel der Cloud-Nutzenden fordern europäische Datenhoheit 30. 10. 2025
Eine neue, von STRATO beauftragte Forsa-Studie zeigt: Für die Mehrheit der Deutschen ist der Cloud-Speicher längst Alltag – doch Vertrauen und Datenschutz stehen zunehmend im Vordergrund. 75 Prozent der Befragten wollen, dass keine außereuropäischen Institutionen Zugriff auf ihre Daten erhalten. Auch die Zahlungsbereitschaft für europäische Anbieter ist deutlich gestiegen.
HPE baut „Discovery“ und „Lux“ für das Oak Ridge National Laboratory 30. 10. 2025
Hewlett Packard Enterprise (HPE) errichtet zwei neue Systeme für das Oak Ridge National Laboratory des US-Energieministeriums: den Exascale-Supercomputer „Discovery“ und das KI-Cluster „Lux“. Während Discovery auf die nächste Generation der HPE-Cray-Supercomputing-Architektur setzt, entsteht mit Lux eine mandantenfähige Plattform für Künstliche Intelligenz.
Was Googles neuer AI Mode für Unternehmen bedeutet 29. 10. 2025
Nach den USA und Indien führt Google seinen „AI Mode“ nun auch in Deutschland ein. Der KI-gestützte Suchmodus verändert, wie Nutzer Informationen abrufen – und stellt Unternehmen vor neue Herausforderungen. Experte Mare Hojc von AN Digital erklärt, warum klassische Suchstrategien dennoch relevant bleiben und wie Firmen sich auf die neue Suchwelt vorbereiten können.
Programmierende KI: Die generierte Gefahr 29. 10. 2025
Large Language Modells schreiben Code in Sekunden. Was nach einem neuen Level an Effizienz klingt, hat allerdings auch eine Schattenseite. Das Problem: Sicherheit ist bislang kein integraler Bestandteil von KI-basierter Softwareentwicklung.
valantic integriert semantische Datenplattform Bardioc von Almato in sein Portfolio 29. 10. 2025
Die Digitalberatung valantic und Almato, Spezialist für KI-gestützte semantische Datenplattformen, gehen eine strategische Partnerschaft ein. Im Mittelpunkt steht die Plattform Bardioc, die datengetriebene Intelligenz mit erklärbarer KI verbindet und Unternehmen eine sichere, nachvollziehbare Datennutzung ermöglicht.
LG forciert Flüssigkeitskühlung für KI-Rechenzentren 28. 10. 2025
LG Electronics hat mit SK Enmove und Green Revolution Cooling eine Absichtserklärung zur gemeinsamen Entwicklung von Tauchkühlsystemen für KI-Rechenzentren unterzeichnet. Die Allianz soll den steigenden Energie- und Kühlbedarf leistungsstarker GPU-Infrastrukturen adressieren und neue Standards in Effizienz und Nachhaltigkeit setzen.
weiter
dynaMigs

In der Kürze liegt die Würze

Gastbeitrag: Wie sich die Dauer von Migrationsprojekten verkürzen lässt, erklärt Michael Krett.

Foto: dynaMigs Michael Krett ist Geschäftsführer bei dynaMigs, einem IT-Dienstleister, der die volle Bandbreite von Datenmigration, Datenmanagement bis hin zu Prozessautomation für große und mittlere Unternehmen abdeckt Die Datenmenge steigt in den Rechenzentren der meisten Organisationen seit Jahren exponentiell an. Regelmäßige Erweiterungen und Upgrades der Datenspeicher sind die Folge. Mit der größeren Datenmenge erhöht sich oft auch die Komplexität der Datenlandschaft und damit die für die Migration der Daten benötigte Zeit. So manche Datenmigration dauert deshalb mitunter Monate oder sogar Jahre. Es gibt dabei keinen Richtwert dafür, wie schnell eine Migration einer bestimmten Datenmenge abgeschlossen ist: Fast jede Migration ist einzigartig und es gibt viele Wege, um Daten von altem auf neuen Speicher zu portieren. Das macht die Dauer zu einer der wichtigsten Variablen jedes Migrationsprojektes. Denn neben den Anschaffungskosten ist der Zeitfaktor auch für die Migration nicht nur der größte Kostenpunkt - sondern auch der größte Risikofaktor. Es ist deshalb eines der wichtigsten Ziele, diese Variable so kurz wie möglich zu halten. Denn langwierige Migrationsprozesse verursachen nicht nur höhere Kosten, sondern verzögern auch die Nutzung der neuen Server.

Kurze Datenmigrationen sind im Interesse aller

Dass Migrationsprojekte so kurz wie möglich sind, liegt im Sinne aller beteiligten Partner: der Anwender, Systemhäuser, Distributoren und Hardware-Hersteller. Den Kunden ist es letzten Endes egal, welcher Partner in der Pflicht für eine schnelle Datenmigration auf den neuen Storage ist. Systemhäuser, Distributoren und Hersteller haben ein gemeinsames Interesse daran, dass ein Migrationsprojekt so schnell wie möglich und ohne größere Probleme vonstattengeht. Denn nur zufriedene Kunden kaufen beim nächsten notwendigen Speicherupgrade auch wieder beim gleichen Partner und Hersteller ein. Um eine schnelle Migration zu gewährleisten, gibt es zahlreiche Möglichkeiten.

Acht mögliche Bereiche für eine schnellere Migration

Welche Ursachen verlängern Migrationsprojekte unnötig? Und wie gelingt es in der Praxis, Projekte zu verkürzen? Hier sieben mögliche Stellschrauben, an denen die Verantwortlichen ansetzen können, um Migrationen zu verkürzen.

1. Analyse der Daten

Nur wer exakt weiß, welche Daten wo auf dem Quellsystem liegen, kann diese schnell und kostengünstig verschieben. Hier helfen Analysetools, die etwa bereits im Vorfeld aufzeigen, wo kalte Daten liegen. Auch sehen die Migrationsexperten über eine Analyse die Parameter, welche für die Migration entscheidend sein können.

2. Planung und Konzept des Migrationsprojektes

Eine detaillierte Projektplanung mit realistisch gesteckten Zielen geht einem gut geplanten Migrationsprojekt voraus. Hier müssen die Beteiligten Ziele, Zeit, Ressourcen und Kapazitäten einkalkulieren. Je besser die Analyse und je erfahrener die beteiligten Personen im Bereich eines Migrationsprojektes sind, desto realistischer wird letztlich die Planung.

3. Change-Management: Kommunikation zwischen Anwendern und Migrateuren

Ein Migrationsprojekt erfordert ein hohes Maß an Kommunikation mit allen Beteiligten. Denn ein solches Change-Management-Projekt betrifft letztlich alle Mitarbeiter eines Unternehmens in irgendeiner Form. Je qualitativer die Kommunikation, je besser der Informationsfluss, desto reibungsloser die Umsetzung und Akzeptanz der neuen Infrastruktur im Unternehmen. Alle Beteiligten müssen immer wissen, was von ihnen erwartet oder gebraucht wird, um keinen „Projektstau" durch aufkommende Rückfragen und Unklarheiten zu verursachen. Experten für Change-Management sollten Teil eines Teams sein. Sie koordinieren auch Termine für das Umschalten auf die neue Storage-Umgebung mit allen involvierten Personen.

4. Das Toolset der Migrationssoftware

Die richtigen Werkzeuge an der Hand zu haben, ist für ein zeitlich optimiertes Migrationsprojekt unerlässlich. Eine gute Analyse und detaillierte Planung sind Voraussetzung für die Wahl des richtigen Tools. Diese sollten Jobs parallelisieren oder automatisiert ausführen können. Die Umschaltfenster bleiben dadurch möglichst klein. Gute Tools erkennen außerdem gängige Fehler bereits proaktiv und senden entsprechende Warnsignale.

5. Automatisierung

Um die einzelnen Projektschritte zu verkürzen, bieten sich automatisierte Prozesse an. Gerade bei wiederkehrenden Aufgaben können die Beteiligten viel Zeit und Geld sparen. Dazu verknüpfen die Migrationsexperten die bestehenden Systeme der Anwender über eine gemeinsame Schnittstelle, damit die erforderlichen Projektschritte parallel oder nacheinander ausgeführt werden können. Auch hierfür ist ein spezielles Tool notwendig, das die Aufgaben per Knopfdruck startet und dann durchführt. Dies spart viel Administrationsarbeit und damit kostbare Ressourcen.

6. Zeitlich flexibles Umschalten außerhalb der Betriebszeiten

Eine Datenmigration findet idealerweise geräuschlos in Hintergrund statt, damit das Unternehmen seinem Kerngeschäft nachgehen kann und die Mitarbeiter weiterarbeiten können. Dies erfordert zeitliche Flexibilität, da die Umschaltungen und Datenumzüge auf Randarbeitszeiten, Nächte oder Wochenenden gelegt werden. Hier bietet sich der Einsatz externer Dienstleister an, die sich nach den Vorgaben der Endkunden richten und die Daten in deren „Offline-Zeit“ umziehen können - also an den Wochenenden, beziehungsweise nach Feierabend.

7. Schulung und Beratung durch Migrateure

Gerade bei komplexen Projekten empfiehlt es sich, die Mitarbeiter schon im Vorfeld, während und nach der Migration zu schulen. In diesem Rahmen können erfahrene Migrationsexperten wertvolles Wissen an Anwender weitergeben.

Fazit

Um möglichst schnelle Datenumzüge zu erzielen, sollten alle Beteiligten eine Vielzahl von Prozessschritten bedenken und optimieren. Mit der Datenmigration betraute Mitarbeiter haben hierbei entweder einen sehr hohen Erfahrungsschatz und Kenntnisse über aktuell gängige Methoden und Tools oder sie suchen sich die Hilfe von Spezialisten. Diese haben idealerweise jahrzehntelange Erfahrung in der Migration von Großprojekten, kennen sich mit Speichersystemen sämtlicher Hersteller aus und haben ein erprobtes Toolset zur Hand, um jede noch so einzigartige Migration zu bewältigen. Systemhäuser und Partner sind gut beraten ihren Kunden hier bestmögliche Hilfestellung an die Hand zu geben. Denn nur zufriedene Kunden kommen auch beim nächsten Hardware-Refresh wieder.

 

it&t business medien eU
Tel.: +43/1/369 80 67-0
office@ittbusiness.at