Top-News

Die Modernisierung von Gewerbegebäuden ermöglicht enorme CO2-Einsparungen – wenn die Finanzierung gesichert ist

Fakt ist: Gewerbliche und öffentliche Gebäude sind pro Quadratmeter energieintensiver als Wohngebäude. Die Erhöhung ihrer Energieeffizienz trägt deshalb besonders zur Erreichung von Dekarbonisierungszielen bei. Die schwierige wirtschaftliche Lage bremst jedoch die erforderlichen Investitionen in Technologien zur Gebäudemodernisierung. Eine neue Studie von Siemens Financial Services (SFS) kalkuliert die Menge an CO2, die in den USA, Europa,…

Welche KI-Trends Unternehmen in 2024 erwarten – Der Blick in die Glaskugel

Im November 2022 machte OpenAI seinen Chatbot »ChatGPT« der Öffentlichkeit zugänglich. Massiv prägten die Einführung und Verbreitung zahlloser KI-Tools das Jahr 2023. Künstliche Intelligenz ist überall – alles ist künstliche Intelligenz – zumindest auf dem Papier. Die inflationäre Verwendung des Buzzwords beschleunigte den Hype um das emotional aufgeladene Thema und schürte gleichzeitig Verunsicherung, besonders außerhalb der Digitalblase.

Auf dem Weg zur generativen KI – Wie KI-fähig sind die Daten überhaupt?

Mit generativer KI werden Prozesse möglich, die vor kurzem noch undenkbar waren. Kein Wunder, dass sich Unternehmen aller Größen und Branchen deutliche Effizienzsteigerungen und damit Kosteneinsparungen versprechen. Ihr volles Potenzial kann die Technologie jedoch nur entfalten, wenn das Rohmaterial stimmt. Quantität, Qualität und Zugänglichkeit der Daten entscheiden maßgeblich über den Erfolg eines KI-Projekts.

Künstliche Intelligenz lebt von Daten. Nur wenn genügend vorhanden sind, können KI-Systeme lernen. KPIs etwa sind umso aussagekräftiger, je weiter sie in die Vergangenheit reichen. Erst dann wird eine historische Entwicklung einzelner Prozesse erkennbar, aus der die Technologie gewinnbringende Schlüsse ziehen kann. »Nicht kleckern, sondern klotzen« sollte also die Devise lauten – denn auch vermeintlich veraltete Informationen können einen echten Mehrwert liefern. Industriebetriebe beispielsweise sind immer wieder erstaunt, wie eigentlich als nutzlos erachtete Daten aus Fertigungsanlagen im Kontext von KI und Machine Learning plötzlich relevant werden. Grundsätzlich gilt: Das analytische Potenzial liegt in der Verknüpfung unterschiedlichster Datenquellen und dem Erkennen von Zusammenhängen.

Unstrukturierte Daten sind als Ressource begehrter denn je. An Daten mangelt es den wenigsten Unternehmen. Im Gegenteil – die Quellen sind so vielfältig wie die Formate: von Textdateien, Excel-Dokumenten, Bildern, Videos und Audiodateien bis hin zu Verkaufskennzahlen, Maschinen- sowie CRM-Daten und dem Monitoring der eigenen Homepage. Immer mehr dieser Informationen liegen unstrukturiert vor – laut einer aktuellen Forrester-Studie wird sich ihr Anteil bis 2024 sogar verdoppeln [1]. Unstrukturierte Datenquellen müssen jedoch erst erschlossen, aufbereitet und klassifiziert werden, damit die KI überhaupt ihre Arbeit verrichten kann. Erschwerend kommt ein weiteres Problem hinzu: Datensilos, in denen relevante Informationen wie die Nadel im Heuhaufen verschwinden. Viele dieser Silos sind bewusst geschaffen worden – etwa aus Datenschutzgründen oder weil sich einzelne Abteilungen dagegen entschieden haben, Informationen zu teilen. Wenn dann noch unterschiedliche Systeme im Einsatz sind und die Daten an den verschiedensten Orten liegen, wird – neben der Herausforderung ungenauer und redundanter Datensätze – der notwendige Informationsaustausch blockiert und damit die KI in ihrer Entscheidungsfindung ausgebremst.

In der Folge beschäftigen sich Data Scientists mit einer Aufgabe, für die sie eigentlich überqualifiziert und auch zu teuer sind: Laut IDC entfallen mehr als 80 Prozent des Gesamtaufwands bei der Datenverarbeitung auf die Verwaltung, Recherche, Aufbereitung und Sicherung des Materials, sodass nicht einmal 20 Prozent für die eigentliche Analyse übrigbleiben [2]. Je fragmentierter oder unstrukturierter die Daten sind, desto höher ist der Zeit- und Arbeitsaufwand für die beiden Schritte Export und Bereinigung.

Der Mehrwert einer guten Datenaufbereitung. Jede gute Datenaufbereitung setzt zunächst eine Explorationsphase voraus, denn nur so lässt sich das Ausgangsmaterial beurteilen und ein grundlegendes Verständnis für die Materie erlangen. Anschließend folgen Maßnahmen, um Informationen für KI-Anwendungen nutzbar zu machen, die Qualität spürbar zu verbessern und so die optimale Grundlage für die spätere Modellierung zu schaffen. Sogenannte Data Engineers und Data Analysts kümmern sich darum, dass die Datensätze von Fehlern, Dubletten und Abweichungen bereinigt werden. Im nächsten Schritt werden sie als Vorbereitung für die nachfolgende Arbeit der Data Scientists extrahiert. Dazu gehören auch das Entwickeln neuer Features und die Selektion relevanter Merkmale.

Unabhängig davon, für welchen Datenarchitekturansatz sich Unternehmen entscheiden, müssen die vorhandenen Daten darüber hinaus sauber und einfach exportiert werden können. Wer ein KI-Modell entwickelt, benötigt also ein System mit möglichst vielen Schnittstellen zu den Programmen von ML- und KI-Anbietern. Der Mehrwert einer modernen Data-Preparation-Lösung kommt aber nicht nur den Prozessen zugute, sondern auch Aspekten wie Data Governance und Compliance. Der Schutz personenbezogener Daten ist eine unabdingbare Voraussetzung bei der Nutzung künstlicher Intelligenz: Um Verstöße gegen die DSGVO zu vermeiden, müssen diese Daten – ebenso wie sensible Unternehmensinterna – so früh wie möglich erkannt, aussortiert, pseudonymisiert oder zugriffsgeschützt werden.

Ohne die richtige Infrastruktur scheitert die KI-Reise. Darüber hinaus erfordert die Analyse und Klassifikation der Daten ebenso wie die Trainings- und Produktionsphase der KI die richtige Hardware-Infrastruktur. Ausreichend Rechenleistung ist essenziell, und keinesfalls dürfen die Systeme dafür das Budget unnötig belasten. Ansonsten besteht nämlich das Risiko, dass der erhoffte ROI durch die Kosten für die Infrastruktur aufgefressen wird. GPU-Instanzen wiederum helfen, die Anlernzeit von Modellen zu verkürzen. Gleichzeitig werden sie für Algorithmen mit niedrigen Latenzanforderungen benötigt, etwa für Echtzeitanwendungen in der Fertigung. Die Datenverarbeitung im Rahmen von künstlicher Intelligenz ist zudem sehr rechen- und damit zeitintensiv: Um die Ressourcen optimal zu nutzen, sollten sich die Compute- und Storage-Instanzen in der Regel im selben Rechenzentrum wie die Daten befinden.

Für die methodische Umsetzung hinsichtlich der Speicherung stehen wiederum verschiedene Architekturansätze zur Verfügung – vom klassischen Data Warehouse über Data Lake bis hin zu Data Mesh. Ein Data Warehouse speichert Informationen in einem strukturierten Format und stellt quasi ein zentrales Repository für vorverarbeitete Daten dar. Im Vergleich dazu ist ein Data Lake die deutlich flexiblere Alternative, wenn es um die Verknüpfung der unterschiedlichsten Informationsquellen geht. In diesem »Daten-See« lassen sich digitale Informationen unabhängig von Quelle, Relevanz und aktuellem Bedarf speichern. Sie behalten ihre ursprüngliche Form und bekommen erst eine Struktur, wenn sie gebraucht und ausgelesen werden. Hinter Data Mesh steht wiederum ein dezentrales Konzept, bei dem ein Team die Verantwortung für die Entwicklung und den Betrieb von Datenprodukten innerhalb ihrer fachlichen Domäne trägt.

Sofort einsatzbereit: validierte Designs. Angesichts der zahlreichen Herausforderungen auf der KI-Reise ist die Verwendung validierter Designs der einfachste Weg, ein entsprechendes Projekt umzusetzen. Diese vereinen eine Software-Suite für den KI-Lebenszyklus mit Frameworks und vortrainierten KI-Modellen sowie Server-Hardware inklusive Beschleuniger und Speicher quasi in einem Produkt. Ein zentraler Bestandteil eines solchen Validated Design ist oftmals eine Query-SQL-Engine, mit der die riesigen Datenmengen aus Data Warehouses, Data Lakes oder Data Meshes innerhalb kürzester Zeit verarbeitet und analysiert werden können. Die derzeit wahrscheinlich schnellste Engine Starburst basiert auf einer sogenannten MPP-Architektur (Massively Parallel Processing). Prozesse werden bei dieser Architektur von mehreren Einheiten parallel ausgeführt. Dadurch sind MPP-Architekturen in der Lage, massive Datenmengen problemlos zu verarbeiten und Analysen wesentlich schneller bereitzustellen. Auch das sonst notwendige Kopieren oder Verschieben entfällt, und über Enterprise-Konnektoren lassen sich die verschiedensten Datenquellen anbinden. Das ermöglicht problemlose Big-Data-Analysen ohne Cubes, Extracts oder Aggregationstabellen. Aufwändige ETL-Prozesse (Extract, Transform, Load) gehören damit der Vergangenheit an.

Fakt ist: Die Gefahr, dass KI-Projekte scheitern, steigt angesichts einer schlechten Datenaufbereitung. Deshalb muss vor der Implementierung eines Modells sichergestellt werden, dass die Daten exportierbar, konsistent und qualitativ hochwertig sind. Und auch nur wenn Brücken zwischen bisher abgeschotteten Silos geschlagen werden, können Unternehmen das Potenzial generativer KI ausschöpfen.

 


Dennis Scheutzel,
Director & General Manager
Unstructured Data Solutions and AI
bei Dell Technologies Deutschland

 

[1] https://www.forrester.com/report/predictions-2024-data-and-analytics/RES179927
[2] https://www.idc.com/getdoc.jsp?containerId=US46297420

 

 

Illustration: © Gorodenkoff, Suryadi suyamtina | shutterstock.com

396 Artikel zu „Generative KI“

Deutscher Markt für generative KI wächst jährlich um 20 Prozent

https://de.statista.com/infografik/32056/volumen-des-marktes-fuer-generative-kuenstliche-intelligenz/ Die Nutzung von künstlicher Intelligenz (KI) zur Erstellung von Texten, Bildern, Videos und Musik ist in vielen Arbeitsbereichen längst zum Alltag geworden. Allein in Deutschland ist der Markt für die sogenannte »Generative KI« in den letzten Jahren auf mehr als 2,5 Milliarden Euro angewachsen. Das Wachstumspotenzial der jungen Technologie ist allerdings noch bei weitem…

Microsoft Copilot: Wie Partner vom Hype um generative KI profitieren können

Mit dem »Copilot« integriert Microsoft generative KI in alle Tools und Produkte von Microsoft 365. Die Leistungsfähigkeit und Vorteile des intelligenten Assistenten sind beeindruckend, dennoch ist der Vertrieb für Partner kein Selbstläufer.   Seit der kostenlosen Verfügbarkeit von ChatGPT ist die Begeisterung für generative KI ungebrochen. Einer Umfrage des Marktforschungsinstituts Gartner aus November 2023 zufolge…

Unternehmen sind (noch) nicht bereit, um generative KI erfolgreich einzuführen

Datensilos und Datenqualität sind (überwindbare) Herausforderungen, wenn IT-Teams weltweit ihre Data Stacks auf generative KI vorbereiten.   Eine neue Studie von Alteryx, der AI Platform for Enterprise Analytics, zeigt, dass Unternehmen aufgrund ihrer Daten noch nicht bereit sind, das Potenzial generativer künstlicher Intelligenz (KI) auszuschöpfen [1]. Die Ergebnisse der Studie »Data Stack Evolution: Legacy Challenges…

Supermicro stellt SuperCluster für generative KI-Lösungen vor

  Supermicro, Inc. ein Anbieter von IT-Gesamtlösungen für KI, Cloud, Storage und 5G/Edge, kündigt sein neuestes Produktportfolio an, um den Einsatz von generativer KI zu beschleunigen. Die Supermicro SuperCluster-Lösungen bieten grundlegende Bausteine für die Gegenwart und die Zukunft der Infrastruktur für große Sprachmodelle (Large Language Models, LLM).   Die drei leistungsstarken Supermicro SuperCluster sind jetzt für…

So können Unternehmen generative KI mit gutem Gewissen einsetzen

Generative KI bietet enorme Möglichkeiten, kommt aber nicht ohne Risiken ins Haus. Bei einem unbedarften Einsatz drohen Datenschutzverstöße und der Verlust von geistigem Eigentum. Experten zeigen auf, wie Unternehmen ChatGPT und Co. in vier Schritten unter Kontrolle bekommen.   Im Handumdrehen Content erstellen, Tabellenkalkulationen erzeugen und sogar Programmcode schreiben: Generative KI bietet immense Möglichkeiten beim…

Generative KI: Abwarten ist die falsche Strategie

Deutsche Unternehmen zögern bei ChatGPT & Co.: Erst 3 Prozent setzen generative KI zentral ein, 6 Prozent planen das fürs laufende Jahr. Bitkom veröffentlicht Leitfaden zu rechtlichen Fragen beim Einsatz generativer KI im Unternehmen.   ChatGPT, Gemini & Co. haben in deutschen Unternehmen noch einen schweren Stand. Erst 3 Prozent nutzen generative KI bereits zentral…

Generative KI verbessert die Behebung von Schwachstellen im Code erheblich

Large-Language-Modelle helfen Cloud-Entwicklern im Hinblick auf die Sicherheit. Durch den Einsatz KI-gesteuerter Lösungen zur Behebung von Schwachstellen kann DevSecOps erheblich verbessert werden.   Cyberbedrohungen entwickeln sich schneller als je zuvor. Um dem entgegenzuwirken und ihr Unternehmen besser zu schützen, ist das Ziel von CISOs im Prinzip relativ einfach: Fehlkonfigurationen und Schwachstellen in Anwendungen sollten möglichst…

Generative KI hat enorme Auswirkungen auf Softwareentwicklung und Softwaresicherheit

Seit der Veröffentlichung von ChatGPT im November 2022 arbeitet die Technologiebranche daran, solche auf annähernd menschlichem Level funktionierenden Konversationsschnittstellen zu etablieren und praktisch zu nutzen. Fast jedes größere Unternehmen verbindet heute seine interne oder produktbezogene Dokumentation mit einem großen Sprachmodell, sogenannten »Large Language Models« oder kurz LLMs, um Fragen möglichst schnell zu beantworten. Gleichzeitig kommen…

Generative KI: Vier Risiken, die Unternehmen adressieren sollten

Generative KI-Systeme wie ChatGPT und Copilot haben ihren Siegeszug gestartet und werden sich nicht mehr stoppen lassen. Technologien, die eigenständig Texte und Bilder über einfache Prompts erstellen und Ideen generieren können, haben die Art, wie wir kreativ denken und Probleme lösen, in kurzer Zeit signifikant verändert. Obwohl die (generative) KI anfangs auf einige Vorbehalte stieß…

Generative KI – ab 2028 ein Markt mit einem Volumen von 100 Milliarden Dollar

Der Markt für generative künstliche Intelligenz (GenAI) wird bis 2028 exponentiell wachsen. Das ergibt eine Markteinschätzung von Sopra Steria Next, der Managementberatungssparte von Sopra Steria. Die Experten gehen davon aus, dass sich der Markt für GenAI von etwa acht Milliarden US-Dollar im Jahr 2023 auf über 100 Milliarden US-Dollar im Jahr 2028 verzehnfachen wird, was…

Daten schützen vor dem Internet – generative KI erhöht die Gefahr von Datenlecks

Angesichts zunehmender Nutzung von generativer KI wie ChatGPT und Bard sowie Schatten-IT sollten Unternehmen möglichen Datenlecks gezielt vorbeugen.   Mit dem Aufkommen hybrider Arbeitsformen sind Datenlecks zu einem wichtigen Thema geworden. Mitarbeiter arbeiten jetzt von verschiedenen Orten aus, darunter zu Hause, in Cafés und sogar in öffentlichen Bibliotheken. Dadurch wird es schwieriger, den Überblick über…

Prognosen 2024: Generative KI verändert Cybersecurity

Generative KI ist einer der Treiber für mehr Self-Service-Cybersicherheit und Governance auf Vorstandsebene; die Entwicklung quantenresistenter kryptografischer Algorithmen gewinnt an Dynamik.   In den vergangenen Jahren lag der Schwerpunkt darauf, hybride Arbeitsumgebungen abzusichern. Hier haben sich neue Normen für die Remote- und Office-Umgebung etabliert, einschließlich der weit verbreiteten Cloud-Nutzung. Betrüger und Cyberkriminelle haben sich rasch…

Generative KI wird zur Fitness-Kur für Banken

ChatGPT ist nur eines von vielen Beispielen für generative KI – wenn auch das weitaus bekannteste. Die möglichen Anwendungsszenarien dafür sind praktisch unbegrenzt, der Fantasie keine Grenzen gesetzt. Banken und Finanzdienstleistern eröffnet sich damit die Chance, einen Teil ihrer strukturellen Defizite aufzuarbeiten und zu lösen.   Generative KI hat gleich zweifach ein Wettrennen ausgelöst: auf…

Generative KI: Mehrheit fürchtet Bias, Datenschutzverletzungen und Urheberrechtsprobleme

Applause befragt über 3.000 Fachleute weltweit zu ihrer Nutzung und ihren Bedenken von Nutzung generativer KI am Arbeitsplatz. 90 Prozent der Teilnehmer weltweit befürchten, dass KI-Voreingenommenheit die Genauigkeit der Antworten beeinträchtigen könnte. 67 Prozent glauben, dass generative KI-Dienste den Datenschutz verletzen.   Applause, ein Anbieter für Software-Testing und digitale Qualitätssicherung, hat die Ergebnisse seiner ersten…

Generative KI – die Büchse der Pandora? 6 wichtige Faktoren für eine KI-Policy

Ob wir es wollen oder nicht – generative künstliche Intelligenz (KI) findet ihren Weg in immer mehr Unternehmen und gehört bereits fast zum Mainstream. Dabei gehen Unternehmen sehr unterschiedlich mit den Tools um und verfolgen individuelle Ansätze bei der Einführung. Warum ist es dringend notwendig, eine verbindliche KI-Richtlinie zu entwickeln und welche Aspekte sollten dabei…

Generative KI aus Deutschland treibt die Digitalisierung der öffentlichen Verwaltung

Materna und Aleph Alpha schließen strategische Partnerschaft für die öffentliche Verwaltung.   Das Heidelberger Startup Aleph Alpha entwickelt sich zum führenden europäischen Unternehmen bei der Erforschung und Entwicklung von generativer KI-Technologie. Mit Aleph Alpha hat Materna eine strategische Partnerschaft speziell für den öffentlichen Sektor geschlossen, um die Mehrwerte großer Sprachmodelle zügig in der Verwaltung voranzutreiben.…

Die Kontrolle über generative KI behalten

Laut Gartner werden bis 2025 mehr als die Hälfte aller Rollenbeschreibungen für Software Engineering Leader (SWEL) ausdrücklich die Aufsicht über generative künstliche Intelligenz (KI) enthalten.   »Abgesehen von den Auswirkungen generativer KI auf die Technologieumsetzung verändert sie auch die Führungsaufgaben in der Softwareentwicklung«, sagt Haritha Khandabattu, Senior Director Analyst bei Gartner. »Dazu gehören die Bereiche…

IBM watsonx macht generative KI fit fürs Business

Generative KI wie Midjourney oder ChatGPT und die ihnen zugrundeliegenden Foundation-Modelle sind medial allgegenwärtig und viele Unternehmen suchen fieberhaft nach Möglichkeiten, sie für sich zu nutzen. Aber sie sind oft überfordert, unzureichend vorbereitet und unsicher, wie sie vorgehen sollen – denn die möglichen rechtlichen Risiken sind immer noch immens und viele technische Fragen unbeantwortet. Dennoch…

Generative KI: mehr Vorteile als Risiken

Die Risiken generativer künstlicher Intelligenz – wie Verletzungen des Urheberrechts oder der Cybersicherheit – sind offenkundig. Dennoch glauben international drei von vier Manager, dass ihre Vorteile größer sind als die damit verbundenen Probleme; in Deutschland sagen dies gut zwei Drittel. Nahezu alle Führungskräfte (96 Prozent international, 99 Prozent in Deutschland) stellen fest, dass generative KI…

Checkmarx und OWASP starten erstes weltweites Codebashing-E-Learning-Programm

OWASP-Chapter und deren Mitglieder erhalten Zugang zu Codebashing, um die Weichen für die durchgängige Einhaltung von Application-Security-Standards und Compliance-Vorgaben sicherzustellen und eine vertrauensvolle Zusammenarbeit zwischen Security-Teams und Entwicklern zu gewährleisten.   Checkmarx, der Marktführer im Bereich Cloud-native Application Security, hat gemeinsam mit dem Open Worldwide Application Security Project (OWASP) ein neues AppSec-Training-Programm rund um das…

Nahtlose Integration mit SAP SuccessFactors ermöglicht reibungslose HR-Prozesse an allen internationalen Standorten

Parallel zum unternehmensweiten Schritt in die Cloud mit SAP SuccessFactors entschied sich GRENKE für die flächendeckende Einführung der digitalen Personalakte – eine komplexe Herausforderung für einen international tätigen Finanzdienstleister. Mit aconso konnte die GRENKE-Gruppe diese Hürden erfolgreich und reibungslos meistern. Seit dem Projektbeginn hat die Personalarbeit an Effizienz gewonnen und die Einführung weiterer HR-Services ist in Planung.

KI-Inferenz-Workloads brauchen keine GPU

Es ist unbestritten, dass die Entwicklung von KI eine der größten Herausforderungen unserer Zeit ist. Laut Next Move Strategy Consulting wird der Markt für KI-Technologien im Jahr 2023 rund 200 Milliarden US-Dollar betragen und bis 2028 auf über 1,8 Billionen US-Dollar anwachsen. Zumindest im letzten Jahr konzentrierte sich der größte Teil dieses Marktes auf das…