Alle 14 Tage aktuelle News aus der IT-Szene   >   
Wenn KI selbst zum Angriffsziel wird 13. 02. 2026
Ein neuer Bericht der Google Threat Intelligence Group zeigt, wie staatlich unterstützte Akteure generative KI bereits heute systematisch für Cyberaufklärung, Social Engineering und Spionage einsetzen. Im Fokus stehen dabei erstmals auch Angriffe auf KI-Modelle selbst.
Token Exchange verbindet Identitäten über Domänengrenzen hinweg 13. 02. 2026
Der parallele Betrieb mehrerer Identitätsdomänen bremst den Einsatz von KI-Agenten, APIs und Microservices. Ein standardisierter Token-Austausch soll Autorisierung über Sicherheitsgrenzen hinweg ermöglichen, ohne bestehende Anwendungen tiefgreifend anzupassen.
IBM erweitert FlashSystem-Portfolio um KI-gestützte Co-Administration 12. 02. 2026
IBM stellt eine neue Generation seiner FlashSystem-Speicher vor. Agentenbasierte KI soll Verwaltungsaufwand deutlich reduzieren, die Ausfallsicherheit erhöhen und Ransomware schneller erkennen. Drei neue Systeme adressieren unterschiedliche Enterprise-Anforderungen.
Sophos übernimmt Arco Cyber und erweitert Angebot um CISO-nahe Managementservices 12. 02. 2026
Mit der Übernahme des britischen Cybersecurity-Spezialisten Arco Cyber baut Sophos sein Serviceportfolio aus. Kern der Erweiterung ist das neue Angebot „Sophos CISO Advantage“, das Organisationen bei Strategie, Governance und Risikobewertung unterstützen soll – auch ohne eigene Sicherheitsleitung.
Wie A1 die Cyber-Resilienz bei EGLO nach einem Ransomware-Vorfall stärkt 11. 02. 2026
Nach einem Ransomware-Angriff hat A1 gemeinsam mit EGLO eine robuste Cyber-Resilienz-Strategie aufgebaut, die Betriebssicherheit, schnelle Wiederherstellung und präventiven Schutz vereint. Der Beitrag beleuchtet die Lessons Learned, technische Maßnahmen und wie Unternehmen ihre Abwehr- und Reaktionsfähigkeit verbessern können.
Wie eine souveräne Cloud-Architektur die IT des Gesundheitsamts Frankfurt modernisiert 11. 02. 2026
Für Behörden gewinnt digitale Souveränität zunehmend an Bedeutung: Der Beitrag zeigt, wie das Gesundheitsamt Frankfurt am Main mit der cloud-nativen Plattform „GA-Lotse“ auf Basis von Exoscale-Cloud und Open-Source-Technologien eine moderne, DSGVO-konforme IT-Lösung realisiert hat. Im Fokus stehen Sicherheit, Datenhoheit und Effizienzgewinne durch föderale Cloud-Architekturen.
Künstliche Intelligenz als Wachstumstreiber im Immobilienvertrieb 11. 02. 2026
Von automatisierter Lead-Qualifizierung über datenbasierte Preisfindung bis hin zu personalisierten Kundenansprachen: Künstliche Intelligenz eröffnet dem Immobilienvertrieb neue Effizienz- und Skalierungspotenziale. Der Beitrag zeigt, wie datengetriebene, KI gestützte Technologien den Immobilienvertrieb effizienter, präziser und skalierbarer machen und welche Vorteile und Chancen sich daraus für Unternehmen ergeben.
STARFACE, estos und Gamma bündeln Roadshow-Format 10. 02. 2026
Mit der „Grow Together Tour 2026“ gehen STARFACE, estos und Gamma Deutschland erstmals gemeinsam auf Tour. Neun Termine im März und April führen durch den gesamten DACH-Raum, Auftakt ist am 4. März in Wien.
Zscaler erweitert Zero-Trust-Ansatz auf den Browser 10. 02. 2026
Mit der Übernahme von SquareX will Zscaler Zero-Trust-Sicherheit direkt in gängige Webbrowser integrieren. Ziel ist es, den sicheren Zugriff auf Anwendungen auch auf nicht verwalteten Geräten zu ermöglichen – ohne zusätzliche Unternehmensbrowser oder klassische Fernzugriffstechnologien.
ESET baut Enterprise-Geschäft in Österreich aus 10. 02. 2026
Der IT-Sicherheitsanbieter ESET überträgt die Verantwortung für Großkunden und strategische Partnerschaften in Österreich an Zvezdan Bogdanovic. Der erfahrene IT- und Vertriebsexperte soll seit Jahresbeginn das Enterprise-Segment weiterentwickeln.
IBM startet globale Ausschreibung für KI-Lösungen in Bildung und Arbeitsmarkt 09. 02. 2026
IBM hat eine weltweite Ausschreibung für die nächste Kohorte seines Impact Accelerator Programms gestartet. Der Fokus liegt auf KI-gestützten Lösungen, die Bildungsprozesse modernisieren und Übergänge in den Arbeitsmarkt verbessern sollen.
Fünf KI-Trends, die 2026 den digitalen Arbeitsplatz prägen 09. 02. 2026
Steigende Betriebskosten, neue regulatorische Anforderungen und der rasante technologische Fortschritt setzen Unternehmen zunehmend unter Druck, ihre Arbeitsprozesse effizienter und zugleich regelkonform zu gestalten. Künstliche Intelligenz spielt dabei eine zentrale Rolle – von der intelligenten Dokumentenverarbeitung über präventive Cybersicherheit bis hin zur Unterstützung von ESG-Reporting und Governance. Konica Minolta hat fünf Trends identifiziert, die den Digital Workplace im Jahr 2026 maßgeblich beeinflussen werden.
Moltbook-Hack legt strukturelle Schwächen im KI-Sektor offen 09. 02. 2026
Nach dem Einbruch bei der KI-Plattform Moltbook warnt der Security-Anbieter ESET vor einem gefährlichen Missverhältnis zwischen Innovationsgeschwindigkeit und IT-Sicherheit. Sicherheitsforscher kompromittierten das System innerhalb weniger Minuten.
Septeo schließt Übernahme von stp.one ab 05. 02. 2026
Der französische Software-Publisher Septeo hat die Übernahme des deutschen Legal-Tech-Anbieters stp.one abgeschlossen. Mit der Transaktion baut die Gruppe ihre europäische Präsenz aus und überschreitet ein Umsatzvolumen von 560 Mio. Euro.
Qsentinel und Nextcloud vereinbaren Partnerschaft für sichere virtuelle Arbeitsplätze 05. 02. 2026
Der Schweizer Anbieter Qsentinel und die Kollaborationsplattform Nextcloud gehen eine strategische Partnerschaft ein. Ziel sind hochsichere virtuelle Arbeitsplätze für Organisationen mit besonders sensiblen Daten.
Überwachungskampagne mit cloud-nativem Android-Trojaner Arsink RAT 04. 02. 2026
Der Sicherheitsspezialist Zimperium hat eine groß angelegte Android-Überwachungskampagne aufgedeckt. Der Remote-Access-Trojaner „Arsink RAT“ nutzt legitime Cloud-Dienste zur Tarnung und erlaubt Angreifern umfassenden Zugriff auf infizierte Geräte.
A1 und Microsoft senken Einstiegshürde für Copilot in österreichischen KMU 04. 02. 2026
Mit einem neuen „Microsoft 365 Copilot for Business“-Angebot wollen A1 und Microsoft kleinen und mittleren Unternehmen in Österreich den Zugang zu KI-gestützten Arbeitswerkzeugen erleichtern. Das Paket kombiniert Copilot-Funktionen mit bestehenden Microsoft-365-Lizenzen und bringt je nach Modell deutliche Preisnachlässe für Bestands- und Neukunden.
Vertiv bringt neue PowerUPS-200-Serie für Arbeitsplätze und vernetzte Haushalte 03. 02. 2026
Mit der neuen PowerUPS-200-Familie bringt Vertiv kompakte USV-Systeme mit 600 bis 2200 VA in den EMEA-Markt. Die Serie richtet sich an vernetzte Haushalte ebenso wie an Arbeitsplätze und POS-Umgebungen – und kombiniert Stromausfallschutz mit Funktionen wie austauschbaren Batterien, USB-Ladeports und unterschiedlichen Anzeige­konzepten für den Systemstatus.
weiter
Gastbeitrag von Jan Wildeboer, EMEA Evangelist bei Red Hat

Small AI auf der Überholspur

Die Erwartungen an die neuesten LLMs waren immens, aber für viele ist die anfängliche Begeisterung inzwischen der Enttäuschung gewichen. Der Hype rund um LLMs ebbt ab und SLMs rücken immer stärker ins Blickfeld – aus gutem Grund. Sie bieten klare Vorteile, darunter Kosteneffizienz und Anpassbarkeit. Zudem können sie schneller produktionsnah und unternehmensspezifisch genutzt werden.

Foto: Red Hat Jan Wildeboer, EMEA Evangelist bei Red Hat Unternehmen sollten vor jeder Einführung von KI genau prüfen, welches Sprachmodell – ein LLM (Large Language Model) oder ein SLM (Small Language Model) – am besten zu den eigenen Anforderungen passt. Die Ziele des KI-Einsatzes bestimmen, ob ein generalistisches LLM oder ein spezialisiertes SLM optimal ist. Unternehmen sollten die Unterschiede beachten, damit ein erfolgreicher Einsatz gewährleistet ist.

LLMs sind universell ausgelegt und verfügen über Basiswissen, sodass sie nicht auf fachspezifische Antworten abzielen. Auch das Problem möglicher Halluzinationen ist schwer in den Griff zu bekommen. Hingegen ist ein SLM eine kleinere Version eines LLMs, das über mehr Fachwissen verfügt, schneller angepasst und effizienter ausgeführt werden kann.

SLMs werden in der Regel anhand kleinerer Datensätze trainiert, die auf bestimmte Branchen- oder Fachbereiche und Themen zugeschnitten sind. Ein Gesundheitsdienstleister könnte beispielsweise einen SLM-gestützten Chatbot verwenden, der auf medizinischen Datensätzen basiert. In einem solchen Fall muss der SLM-gestützte Chatbot nicht anhand generischen, universellen Wissens trainiert werden, da dies für den konkreten Use Case im Gesundheitswesen irrelevant ist.

Im Vergleich zu LLMs bietet die Nutzung kleinerer Modelle zahlreiche Vorteile. Sie unterstützen eine dynamische Anpassung und kontinuierliche Integration neuer Daten. Das heißt, mit ihnen sind auch Trainingsläufe deutlich schneller durchführbar. Kleine Modelle tragen auch zu einer erheblichen Kosteneinsparung bei, schließlich erfordern LLMs mit Milliarden von Parametern erhebliche Investitionen. Mit SLMs können große Datenmengen auch mit geringen Rechenressourcen ausgewertet werden. Small bedeutet dabei keineswegs „klein“ und „wenig Funktionen“, sondern vielmehr „anforderungsspezifisch“, „schnell“ und „austauschbar“.

Nicht zuletzt verringert die Nutzung kleiner Modelle mit domänenspezifischen Daten auch die Abhängigkeit der Unternehmen von großen LLM-Anbietern, deren Lösungen vielfach eine Blackbox hinsichtlich Algorithmen, Trainingsdaten oder Modellen sind. Damit trägt Small AI im Sinne eines „Own your Stack“ und „Own your Data“ zur digitalen Souveränität bei.

Von der Antwortverbesserung zum Aufruf externer Funktionen

Diese Vorteile führen dazu, dass künftig verstärkt kleine KI-Modelle für fachspezifische Aufgaben genutzt werden. Selbst große LLM-Anbieter stellen inzwischen zusätzlich kleinere Modelle bereit. Prinzipiell können auch LLMs, also die sogenannten Foundation Models, als Technologiebasis dienen und auf die konkreten Unternehmensanforderungen hin optimiert werden, wie einige Beispiele zeigen. RAG (Retrieval-Augmented Generation) bietet die Möglichkeit, die in einem LLM vorhandenen Daten durch externe Wissensquellen wie Daten-Repositories, Textsammlungen oder bestehende Dokumentationen zu ergänzen. Diese Ressourcen werden segmentiert, in einer Vektordatenbank indiziert und als Referenzmaterial genutzt, um genauere Antworten zu liefern. So wird auch die Gefahr von Halluzinationen verringert. Ein anderes Beispiel ist der offene Standard MCP (Model Context Protocol), eine standardisierte Schnittstelle für den Datenaustausch zwischen LLMs und externen Tools, Datenquellen oder Systemen. MCP hat aufgrund der Benutzerfreundlichkeit und der Vorteile für den Einsatz von KI schnell an Relevanz gewonnen. Während es bei einer RAG-Nutzung nur darum geht, die LLM-Antworten mit externen oder aktuellen Informationen zu ergänzen und zu verbessern, bietet der MCP-Ansatz vor allem auch die Möglichkeit, direkte Aktionen auszuführen. KI-Agenten können so mit APIs, Tools oder Datenbanken interagieren, um zum Beispiel Datensätze zu aktualisieren.

Open-Source-basiert zur vertrauenswürdigen KI

Bei jeder Nutzung eines KI-Modells stellt sich unweigerlich die Frage nach der Sicherheit und Unabhängigkeit, gerade in einer Zeit, in der die digitale Souveränität an Bedeutung gewinnt. Aber auch hier gibt es inzwischen viele Lösungen wie die Granite-Familie von Open-Source-lizensierten Modellen. Bei Granite handelt es sich um ein LLM, das von IBM für Unternehmensanwendungen entwickelt wurde. Die Modellfamilie deckt ein breites Spektrum an KI-Anwendungsfällen ab, von der Codegenerierung über die Verarbeitung natürlicher Sprache bis hin zur Gewinnung von Erkenntnissen aus großen Datensätzen – alles unter einer Open-Source-Lizenz. Die Modelle verfügen über ein grundlegendes Wissen, das sich durch Finetuning weiter anpassen lässt, damit die Modelle bestimmte Aufgaben für nahezu alle Branchen ausführen können. Was die Granite-KI-Modelle von anderen Basismodellen unterscheidet, ist die Offenlegung der Trainingsdaten, was den Nutzenden mehr Transparenz bietet.

Abbildung 1: Der Ansatz von Red Hat im KI- und ML-Engineering ist zu 100 Prozent Open-Source-basiert (Quelle: Red Hat)

vLLM und llm-d als Bausteine moderner KI-Anwendungen

Der KI-Bereich ist derzeit von einer hohen Dynamik mit vielen neuen Angeboten und Leistungsmerkmalen geprägt. Zwei neue Entwicklungen aus der Open-Source-Welt sind dabei von besonderer Relevanz: vLLM und llm-d.

vLLM ist eine Library von Open Source Codes, die von der vLLM Community verwaltet werden. Das Modell unterstützt LLMs, Berechnungen effizienter durchzuführen. Konkret handelt es sich bei einem vLLM um einen Inferenzserver, der den Output generativer KI-Anwendungen durch eine bessere Nutzung des GPU-Speichers beschleunigt. Damit adressiert der Inferenzserver eine zentrale Herausforderung: GenAI-Modelle werden immer komplexer und in immer größerem Umfang produktiv eingesetzt, sodass die Inferenz zum Flaschenhals wird. Sie benötigt viele Hardware-Ressourcen, beeinträchtigt die Reaktionsfähigkeit und treibt die Kosten in die Höhe. Mit robusten Inferenzservern kann die für KI-Workloads erforderliche Hardware nun wesentlich effizienter genutzt werden.

Während vLLM eine umfassende Modellunterstützung für eine Vielzahl von Hardwareplattformen bietet, geht llm-d noch einen Schritt weiter. Aufbauend auf bestehenden IT-Infrastrukturen in Unternehmen bietet llm-d verteilte und fortschrittliche Inferenzfunktionen, die zur Ressourceneinsparung und Leistungssteigerung beitragen, darunter eine deutliche Verbesserung der Time-to-First-Token und des Durchsatzes unter Latenzbedingungen. llm-d ist eine leistungsstarke Suite von Neuerungen, entscheidend sind aber zwei Innovationen, die zur Verbesserung der Inferenz beitragen: die Disaggregation und der intelligente Scheduling Layer. Durch die Disaggregation können Hardware-Beschleuniger während der Inferenz wirksamer genutzt werden. Dabei wird die Prompt-Verarbeitung von der Token-Generierung in einzelne Workloads, sogenannte Pods, getrennt. Diese Aufteilung ermöglicht eine unabhängige Skalierung und Optimierung in den einzelnen Phasen, die schließlich unterschiedliche Rechenanforderungen haben. Der intelligente Scheduling Layer erweitert zudem die Kubernetes Gateway API und ermöglicht differenziertere Routing-Entscheidungen für eingehende Anfragen. Dafür werden Echtzeitdaten wie die Cache- und Pod-Auslastung genutzt, um Anfragen an die optimale Instanz weiterzuleiten, wodurch die Arbeitslast im Cluster ausgeglichen wird.

Hybrid Cloud als Infrastrukturbasis

Welchen KI-Weg ein Unternehmen auch einschlägt, wichtig sind auf jeden Fall immer eine adäquate Architekturbasis und Infrastruktur. Zur Vermeidung eines Vendor-Lock-ins, Nutzung neuer KI-Innovationen und Umsetzung beliebiger Anwendungsfälle empfiehlt sich eine flexible und hybride Plattform, die auf Open Source basiert. Eine solche Plattform bietet auch die erforderliche Flexibilität für das Training und Finetuning sowie für die Bereitstellung und Überwachung von KI-Modellen in der Cloud, am Edge oder on-premises. So kann ein Training beispielsweise auf GPU-Farmen mit klarer Mandantentrennung in der Cloud erfolgen und anschließend das Modell on-premises im Produktivbetrieb eingesetzt werden. Auf diese Weise wird auch die Datensicherheit und -hoheit mit der für anspruchsvolle KI-Modelle nötigen kostenintensiven Rechenleistung in Einklang gebracht.

Abbildung 2: Mit Red Hat OpenShift AI, einer flexiblen, skalierbaren KI/ML-Plattform, können Unternehmen KI-gestützte Anwendungen in Hybrid-Cloud-Umgebungen entwickeln und bereitstellen. (Quelle: Red Hat)

Hybrid-Cloud-Lösungen sind allein schon deshalb sinnvoll, weil sie die Chancen, die KI bietet, nicht durch isolierte Infrastrukturen einschränkt. Schließlich sollte es das Ziel sein, dass ein Unternehmen jedes Modell auf jedem Beschleuniger und in jeder Cloud einsetzen kann – und zwar mit konsistenter Benutzererfahrung und ohne exorbitante Kosten. Die Möglichkeiten dazu existieren schon heute. Vor allem aber kann ein Swarm-AI-Ansatz, der auf der Nutzung vieler kleiner Modelle für spezifische Aufgaben basiert und eine Alternative zu LLMs darstellt, den Weg in eine vielversprechende KI-Zukunft weisen. KI wird so zu einem Tool, das jetzt greifbar und für Unternehmen eigenständig nutzbar ist sowie unmittelbar bei der täglichen Arbeit unterstützt.

it&t business medien eU
Tel.: +43/1/369 80 67-0
office@ittbusiness.at