Haben Sie die Neuigkeiten schon gehört?
EVACO News halten Sie immer auf dem Laufenden
Alles zu neuen BI-Themen, Produkten, Partnern und Events erfahren Sie genau hier.

Ziemlich beste Freunde
ESG Reporting und Meldepflichten Warum intelligente BI und Data Analytics...

Datenmanagement der Zukunft: TimeXtender Holistic Data Suite
Daten sind der Schlüssel zu fundierten Geschäftsentscheidungen ...vorausgesetzt, sie stehen...

Qlik startet mit aufregenden Neuigkeiten durch
Upsolver Akquisition, Data Flow in Qlik Cloud Analytics™ u.v.m. Upsolver...

DeepSeek – Revolution oder Hype?
DeepSeek und die Mixture-of-Experts Architektur (MoE) Die KI-Welt ist in...

Die Highlights im Überblick
Das Qlik Update Q4 hat umfassende Neuerungen und Verbesserungen in...

Effizientes KPI-Monitoring durch Anomaly Detection
Das Erkennen ungewöhnlicher Muster ist elementarer Bestandteil verschiedener Analyseansätze und...

Ziemlich beste Freunde
ESG Reporting und Meldepflichten
Warum intelligente BI und Data Analytics für beide unverzichtbar sind
Nachhaltigkeit und Transparenz sind zu zentralen Themen in der Unternehmenswelt geworden. Während das ESG-Reporting (Environmental, Social, Governance) darauf abzielt, Unternehmen in ihrem nachhaltigen Handeln zu messen und ihre Fortschritte sichtbar zu machen, bestehen zahlreiche gesetzliche Meldepflichten, die Unternehmen verpflichten, bestimmte Mengen- und Umweltberichte bereitzustellen. Prominente Vertreter sind das Elektro-Altgeräte-Register EAR, Batteriegesetz BattG sowie die Verpackungsverordnung VerpackG. Allen gemeinsam ist in die Notwendigkeit einer präzisen Datenerfassung, -verarbeitung und -meldung. Hier kommt Business Intelligence (BI) und Data Analytics ins Spiel – sie ermöglichen eine effiziente, automatisierte und zuverlässige Bereitstellung dieser Informationen.
ESG Reporting und gesetzliche Meldepflichten: Parallelen und Schnittmengen
Das ESG-Reporting gewinnt durch regulatorische Vorgaben wie die Corporate Sustainability Reporting Directive (CSRD) oder die EU-Taxonomie an Bedeutung. Unternehmen müssen hierbei detaillierte Daten zu Umwelt- und Sozialstandards offenlegen, um ihre Nachhaltigkeitsleistung zu dokumentieren. Gleichzeitig existieren spezifische gesetzliche Berichtspflichten für Unternehmen, insbesondere im Bereich Umwelt- und Produktverantwortung:
- Elektro-Altgeräte-Register (EAR): Hersteller und Importeure von Elektro- und Elektronikgeräten sind verpflichtet, ihre in Verkehr gebrachten Mengen an die Stiftung EAR zu melden. Ziel ist eine nachhaltige Entsorgung und Rückführung dieser Produkte.
- Batteriegesetz (BattG): Unternehmen, die Batterien und Akkus vertreiben, müssen jährlich ihre Mengen melden und sich an Rücknahmesystemen beteiligen.
- Verpackungsgesetz (VerpackG): Hier sind Unternehmen verpflichtet, Verpackungsmengen zu registrieren und an Recycling- und Entsorgungssysteme zu melden.
- Chemikalienverordnung (REACH): Unternehmen, die Chemikalien herstellen oder importieren, müssen Daten über deren Sicherheit und Umweltverträglichkeit bereitstellen.
- Emissionsberichterstattung (BEHG – Brennstoffemissionshandelsgesetz): Unternehmen mit CO₂-Emissionen sind zur jährlichen Berichterstattung verpflichtet, um den nationalen Emissionshandel zu unterstützen.
- Kreislaufwirtschaftsgesetz (KrWG): Regelt die Abfallwirtschaft und verpflichtet Unternehmen zur Dokumentation und Meldung von Abfallmengen.
- Energieeffizienzgesetz (EnEfG): Große Unternehmen müssen Energieverbräuche und Effizienzmaßnahmen erfassen und melden.
- Wasserhaushaltsgesetz (WHG): Verpflichtet Unternehmen, wasserrechtliche Meldungen zu erstellen, insbesondere zu Entnahmen und Abwassereinleitungen.
- Luftreinhalteverordnung (TA Luft): Bestimmt Berichts- und Überwachungspflichten für emissionsrelevante Industrieanlagen.
Gesetzliche Meldepflichten und ESG-Reporting haben nicht nur gemeinsame Herausforderungen, sondern auch zahlreiche Schnittmengen. Emittierte Schadstoffmengen sind relevant für gesetzliche Meldepflichten und Erwähnung in Nachhaltigkeitsberichten. Beides erfordert präzise Erfassung von Mengen- und Verbrauchsdaten, eine strukturierte Verarbeitung der Informationen und eine termingerechte Berichterstattung.
Die Rolle von BI und Data Analytics für effiziente Meldungen
Die manuelle Zusammenstellung und Verarbeitung der für ESG-Reports und gesetzliche Meldungen relevanten Daten ist zeitaufwendig und fehleranfällig. Hier bieten Business Intelligence (BI) und Data Analytics entscheidende Vorteile:
- Automatisierte Datenerfassung und -aggregation: BI-Tools ermöglichen die Anbindung unterschiedlicher Datenquellen, wodurch alle relevanten Informationen automatisiert erfasst und strukturiert verarbeitet werden können.
- Echtzeit-Überwachung und -Reporting: Durch intelligente Dashboards können Unternehmen jederzeit den aktuellen Stand ihrer Mengenmeldungen einsehen und so frühzeitig auf Abweichungen reagieren.
- Konsistente und revisionssichere Berichterstattung: Die Nutzung von BI-Systemen stellt sicher, dass Daten fehlerfrei, standardisiert und im geforderten Format an die Behörden oder an ESG-Berichtsplattformen übermittelt werden.
- Effizienzsteigerung durch KI und Predictive Analytics: Künstliche Intelligenz kann Muster in den Daten erkennen, Warnfunktionen übernehmen und Prognosen über zukünftige Mengenmeldungen oder Emissionswerte ermöglichen.
- Integration mit Nachhaltigkeitszielen: ESG- und gesetzliche Berichterstattung lassen sich durch BI-gestützte Datenmodelle vereinen, sodass Unternehmen nicht nur gesetzliche Anforderungen erfüllen, sondern auch ihre eigenen Nachhaltigkeitsstrategien messbar machen können.
Planerische Komponente: Ex-Post und Ex-Ante Betrachtung
Ein wesentlicher Aspekt ist die Notwendigkeit, sowohl rückblickende (Ex-Post) als auch vorausschauende (Ex-Ante) Daten bereitzustellen. Unternehmen müssen nicht nur die tatsächlich angefallenen Ist-Mengen eines Berichtszeitraums dokumentieren, sondern auch Prognosen für zukünftige Mengen abgeben. Im Folgejahr werden diese Prognosen mit den tatsächlich angefallenen Werten abgeglichen. BI- und Analytics-Tools sind dabei unerlässlich, um:
- Historische Daten effizient zu analysieren und als Grundlage für Prognosen zu nutzen.
- Abweichungen zwischen geplanten und tatsächlichen Mengen frühzeitig zu erkennen.
- Unternehmen bei der strategischen Planung und Zielerreichung zu unterstützen.
- Die Genauigkeit von Ex-Ante-Berichten durch Machine Learning kontinuierlich zu verbessern.
Fazit: Digitalisierung als Schlüssel für nachhaltige und gesetzeskonforme Unternehmen
Die steigenden regulatorischen Anforderungen im Bereich ESG-Reporting und gesetzlicher Meldepflichten machen eine effiziente, datengetriebene Berichterstattung unabdingbar. Unternehmen, die auf AI, BI und Data Analytics setzen, profitieren von höherer Genauigkeit, Zeitersparnis und einer verbesserten Entscheidungsgrundlage. Die Digitalisierung dieser Prozesse stellt sicher, dass Nachhaltigkeitsziele nicht nur erfüllt, sondern auch strategisch weiterentwickelt werden können.

Tradition + Innovation
Transformation an der Ruhr
Immer im (am) Fluss
Ruhrort ist ein Ort des Wandels – ein historisches Zentrum des Handels und der Industrie, das sich immer wieder neu erfindet. Mit einem Ureinwohner und einem Zugezogenen sind hier in unmittelbarer Nachbarschaft zwei Unternehmen beheimatet, die auf den ersten Blick unterschiedlich erscheinen, aber bei genauerem Hinsehen spannende Parallelen aufweisen: Haniel und EVACO.
Nachbarschaftliche Parallelen
Mit seiner über 250 jährigen Geschichte als Familienunternehmen hat Haniel nicht nur den Mündungsort der Ruhr (=Ruhrort), sondern das gesamte Ruhrgebiet und die das „Revier“ prägende Montanindustrie entscheidend mitgeprägt. Die Gründung der ersten Tiefbauzeche Zollverein markierte einen Meilenstein der Kohleförderung und damit entscheidend für die industrielle Entwicklung der Region.
EVACO ist ein Pionier in der „Datenförderung“ und unterstützt Unternehmen seit über 20 Jahren dabei, wertvolle Erkenntnisse aus ihren Daten zu gewinnen – quasi moderner Bergbau, der Information zu Tage fördert. Aus Kohle wird Energie gewonnen, wir verandeln Daten in Wissen. Bezeichnend, dass EVACO am 16.09.2025 den jährlichen #datatalk congress zum wiederholten Male „auf Zollverein“ veranstaltet: im Oktogon, einem Veranstaltungsort auf dem achteckigen Fundament des ehemaligen Kühlturm der Zeche – symbolisch für den Strukturwandel im Revier.
Transformationstreiber
Doch das ist nicht die einzige Parallele zwischen den neuen Nachbarn. Während Haniel mit der Initiative Urban Zero daran arbeitet, Ruhrort zum ersten CO₂-neutralen Stadtviertel der Welt zu transformieren, unterstützt EVACO mit Lösungen für ESG-Reporting und Nachhaltigkeitsberichterstattung Transparenz und ganzheitliche Verantwortung in Unternehmen.
Ob durch Förderung von Ressourcen oder Wissen, durch Engagement für nachhaltige Stadtentwicklung oder digitale Transformation – Haniel und EVACO zeigen, dass Tradition und Innovation Hand in Hand gehen – und perfekt zu Ruhrort passen.
Macht Euch auf dem #datatalk congress selbst ein Bild von dieser Transformation

Datenmanagement der Zukunft: TimeXtender Holistic Data Suite
Daten sind der Schlüssel zu fundierten Geschäftsentscheidungen
…vorausgesetzt, sie stehen in der passenden Qualität, Aktualität und Struktur zur Verfügung
In der Praxis ist mangelnde Datenqualität ein Dauerthema. Die TimeXtender Holistic Data Suite bietet einen ganzheitlichen Ansatz für Unternehmen, die ihre Datenprozesse optimieren möchten.
TimeXtender automatisiert Datenintegrations-Workflows mithilfe von Metadaten und fortschrittlicher KI. Die unkomplizierte Low-Code-Lösung ermöglicht selbst kleinen Teams, Daten schnell zu erfassen, aufzubereiten und verwertbar zu machen. Das hält die Kosten überschaubar und sichert die Zukunftsfähigkeit von Investitionen.
Durch die Übernahme und Integration von Exmon hat TimeXtender sein Leistungsangebot um das gesamte Datenmanagement Spektrum erweitert und bildet mit der „Holistic Data Suite“ neben der Automatisierung von Datenintegrationsprozessen auch die Themen Stammdatenverwaltung, Datenqualität und die zentrale Steuerung von Datenprozessen. Alle Produkte stehen als Komplettangebot Holistic Data Suite oder als folgende eigenständige Produkte zur Verfügung, die modular einsetzbar sind und Flexibilität gewährleisten.
- TimeXtender Integration: Eine leistungsstarke No-Code/Code-Plattform zur Automatisierung von Datenflüssen, die Effizienz und Flexibilität kombiniert.
- TimeXtender Master Data Management: Ermöglicht eine strukturierte Verwaltung von Stammdaten mit klaren Verantwortlichkeiten und standardisierten Workflows, um die Datenqualität zu verbessern.
- TimeXtender Data Quality: Ein regelbasiertes System zur automatisierten Sicherstellung der Datenqualität, das Unternehmen dabei unterstützt, konsistente und verlässliche Daten zu nutzen.
- TimeXtender Orchestration: Die zentrale Steuerung und Überwachung von Datenprozessen, inklusive einer gezielten Bereitstellung und Skalierung von Ressourcen – insbesondere in der Azure Cloud.
Warum TimeXtender?
Unsere Erfahrung zeigt: Unternehmen profitieren von einer flexiblen, integrierten Lösung, die sowohl technologische als auch organisatorische Herausforderungen adressiert. Die TimeXtender Holistic Data Suite bietet eine zukunftssichere Plattform für Unternehmen, die datengetriebene Entscheidungen auf einer verlässlichen Basis treffen möchten.
Interesse geweckt? Lass uns über Deine individuellen Anforderungen sprechen oder die Vorteile der TimeXtender-Lösung in Aktion demonstrieren!

Qlik startet mit aufregenden Neuigkeiten durch
Upsolver Akquisition, Data Flow in Qlik Cloud Analytics™ u.v.m.
Upsolver
Qlik gewinnt mit Upsolver einen der Pioniere im Bereich Echtzeit-Daten-Streaming und Apache Iceberg-Optimierung. Dieser Schritt stärkt Fähigkeit von Qlik, Unternehmen durchgängige, offene und skalierbare Lösungen für Datenintegration, Analytik und KI auf einer einzigen Plattform anzubieten.
Das offene Tabellenformat Apache Iceberg ermöglicht Unternehmen, offene Lakehouses zu implementieren, die hochleistungsfähige Analysen auf großen Datenbeständen ermöglichen und gleichzeitig eine nahtlose Integration mit verschiedenen Datenverarbeitungs-Engines gewährleisten.
Die Vorteile auf einen Blick:
- Echtzeit-Fähigkeiten: Optimierte Datenaufnahme für schnellere Entscheidungen und KI-gestützte Workflows.
- Effiziente Datenverwaltung: Integration des Upsolver Adaptive Iceberg Optimizers zur Reduzierung der Speicherkosten und Steigerung der Abfrageleistung um bis zu 5x.
- Offene, flexible Architektur: Skalierbare und interoperable Datenlösungen für Unternehmen.
Data Flow: No-Code-Datenaufbereitung in Qlik Cloud Analytics
Mit Data Flow bietet Qlik eine intuitive No-Code-Lösung zur Datenaufbereitung für Analysen, Machine Learning und KI:
- Visueller Editor mit Drag-and-Drop-Funktionalität für einfache Datenverarbeitung (QVD, Parquet u.v.m.).
- No-Code-Prozessoren für Bereinigungs-, Aggregations- und Filterfunktionen.
- Datenvorschau zur Sicherstellung von Genauigkeit und Transparenz.
- Automatische Skripterstellung zur Integration in Qlik-Skripte.
Direct Access Gateway 1.7.0: Neue Features & Performance-Boost
Die neueste Version des Direct Access Gateway verbessert Leistung und Sicherheit:
- Neuer File-Connector: Sicherer Dateizugriff und direktes Datenstreaming in Qlik Sense.
- Bessere Performance: Gleichzeitige Verarbeitung mehrerer Anfragen durch Async Command Support.
Empfehlung: Kunden sollten auf die neueste Version upgraden und mittelfristig von Qlik Data Transfer auf Data Gateway Direct Access umsteigen.
Regex-Unterstützung in Qlik Cloud Analytics
Qlik Cloud Analytics bietet jetzt native Regex-Unterstützung für Skripte und das Frontend. Nutzen Sie diese Funktion für:
- Mustererkennung und Datenextraktion
- Validierung von Datenformaten
- Standardisierung von Daten anhand vordefinierter Muster
Custom Groups: Flexibles Benutzer- & Gruppenmanagement
Mit Custom Groups erhalten Unternehmen mehr Kontrolle über Benutzerberechtigungen, auch ohne Identity Provider (IdP). Vorteile:
- Verwaltung von Benutzergruppen ohne IT-verwaltete Active Directory-Gruppen.
- Vereinfachte Integration mit Drittanbieter-Anwendungen.
- Nutzung für API-gesteuerte Benutzerverwaltung via OAuth2 Machine-to-Machine.
Neues Lizenzmodell für Qlik Application Automation
Gute Nachrichten! Standard-Ausführungen sind jetzt kostenlos, wenn ausschließlich Qlik-Konnektoren genutzt werden. Nur Automationen mit Drittanbieter-Integrationen werden als Lizenzverwendung gewertet.
KI-Power für Qlik Talend Cloud & Snowflake Cortex AI
- Qlik Talend Cloud bietet jetzt eine GenAI-Dokumentationsfunktion, die automatisch Beschreibungen für Datensätze erstellt.
- Snowflake Cortex AI-Integration in Qlik Cloud Data Integration mit Funktionen für:
- Sentiment Analysis
- Data Classification
- Text Summarization
- Translation
Diese strategischen Erweiterungen stärken die Position von Qlik als führendes Unternehmen für Datenintegration und Analytics und heben die KI-gestützte Datenanalyse auf ein neues Level.

DeepSeek – Revolution oder Hype?
DeepSeek und die Mixture-of-Experts Architektur (MoE)
Die KI-Welt ist in Aufruhr – DeepSeek sorgt für Begeisterung und Kontroversen gleichermaßen. Während die technologische Effizienz und Leistungsfähigkeit des Modells beeindruckt, gibt es auch kritische Stimmen zu Datenschutz und Zensur. Doch was macht DeepSeek wirklich einzigartig?
Die Mixture-of-Experts-Architektur: Das Erfolgsgeheimnis von DeepSeek
Große Sprachmodelle (LLMs) basieren auf neuronalen Netzwerken mit mehreren Schichten. Klassische Architekturen verarbeiten jede Eingabe mit allen Neuronen, was enorme Rechenressourcen erfordert. DeepSeek setzt jedoch auf die Mixture-of-Experts (MoE)-Architektur, um diese Herausforderung zu meistern.
MoE teilt das Netzwerk in spezialisierte Experten auf. Ein Gate-Netzwerk entscheidet dynamisch, welcher Experte für welche Eingabe aktiviert wird. Dadurch arbeitet nicht das gesamte Modell gleichzeitig, sondern nur die jeweils relevanten Experten. Das Ergebnis: schnellere Berechnungen, reduzierter Energieverbrauch und eine bessere Spezialisierung.
DeepSeek optimiert das MoE-Prinzip
Obwohl MoE nicht neu ist, verbessert DeepSeek bestehende Schwachstellen. Klassische MoE-Modelle haben oft das Problem einer ungleichen Verteilung: Einige Experten sind überlastet, während andere kaum genutzt werden. Dadurch entstehen Ungleichgewichte im Training und Ineffizienzen im Modell.
DeepSeek begegnet diesem Problem mit einer optimierten Filterung. Anfragen werden in zwei Gruppen unterteilt:
- Allgemeine Experten: Zuständig für Sprachverständnis und logisches Denken.
- Spezialisierte Experten: Trainiert für spezifische Aufgaben wie komplexe Mathematik oder Programmierung.
Durch diese Struktur wird sichergestellt, dass alle Experten gleichmäßig genutzt und trainiert werden, was zu einer höheren Gesamtleistung führt.
Zukunftsperspektiven: Was bedeutet DeepSeek für die KI-Entwicklung?
DeepSeek beweist, dass LLMs weiterhin großes Optimierungspotenzial haben. In einer Zeit, in der KI-Agenten immer wichtiger werden, sind Effizienzsteigerungen entscheidend, um im Wettbewerb zu bestehen.
Aber DeepSeek ist nicht allein. Zahlreiche LLMs konkurrieren mit spezialisierten Lösungen für unterschiedliche Anwendungsfälle. Besonders in Kombination mit Wissensdatenbanken gewinnt KI an Bedeutung. Retrieval-Augmented Generation (RAG) ermöglicht es Unternehmen, Dokumente interaktiv zu nutzen, Fachliteratur zu analysieren und komplexe Daten effizient zu verwalten.
Möchten Sie LLMs und RAGs in Ihrem Unternehmen einsetzen? Wir bieten maßgeschneiderte Lösungen, um Sie auf diesem Weg zu unterstützen. Kontaktieren Sie uns für eine individuelle Beratung!

Die Highlights im Überblick
Das Qlik Update Q4 hat umfassende Neuerungen und Verbesserungen in allen Bereichen gebracht – von Visualisierungen über Cloud-Funktionen bis hin zu Machine Learning.
Neue Qlik Demo-Website Explore.qlik.com
Explore.qlik.com bietet einen interaktiven Einblick in die Welt von Qlik. Dank Qlik Anonymous Access können Besucher alle Lösungen live erleben, inklusive Demos, Videos und geführter Erlebnisse.
Qlik Sense Enterprise Client Managed
Neu ist die Unterstützung für PostgreSQL-Versionen 15 und 16. Entwickler profitieren von Features wie gruppierbaren Arbeitsblättern, anpassbaren Benutzeroberflächen und neuen Objekten wie dem Registerkarten-Container und Navigationsmenü.
Wichtig: Admins sollten Websocket-Add-ons prüfen, bevor sie das Update installieren.
Erweiterungen für Visualisierungen & Dashboards
- Gruppierung und Veröffentlichung von Arbeitsblättern.
- Individuelle Gestaltungsmöglichkeiten für Filterfenster, Tabellen und Dashboards.
- Neue Objekte: Kombi-Diagramm, Chart-Animationen und verbesserte Stylingoptionen.
Qlik Cloud: Neue Funktionen und Verbesserungen
- Einführung des Qlik Data Gateway als Nachfolger von Qlik Data Transfer.
- Neuer Editor mit vereinfachtem Design und Analysefunktionen.
- PixelPerfect für hochwertige, markenkonforme Berichte.
AutoML & Qlik Answers
Die intelligente Modelloptimierung wurde erweitert und bietet jetzt Anomalie-Erkennung sowie neue Funktionen zur verbesserten Modellverarbeitung und Datenaufbereitung.
QlikView
Oldie, but Goodie – das Evergreen erhält zwar keine neuen Features mehr, aber weiterhin Updates, Bugfixes und Engine-Optimierungen.
Hinweis: Der QlikView Mobile Client ist ab Mai 2024 nicht mehr verfügbar.

Effizientes KPI-Monitoring durch Anomaly Detection
Das Erkennen ungewöhnlicher Muster ist elementarer Bestandteil verschiedener Analyseansätze und hat eine lange Historie. Den Begriff Anomaly Detection kennt man aus spezifischen Bereichen wie der Betrugserkennung im Bankwesen oder der IT-Sicherheit. Wenn z.B. ein Login von einem neuen Gerät erfolgt oder an einem ungewöhnlichen Ort stattfindet, wird das als Anomalie gewertet und der Anwender per E-Mail um die Bestätigung des Vorgangs gebeten.
Anomaly Detection ist mitnichten ein exklusives Thema für die genannten Fachbereiche. Jedes Unternehmen steht vor der Herausforderung, Kennzahlen zu überwachen, um bei Abweichungen schnellstmöglich reagieren zu können. Insbesondere unter Berücksichtigung der ständig wachsenden Datenmengen bietet eine skalierbare Möglichkeit, ungewöhnliche Beobachtungen effizient und automatisiert zu identifizieren, ein großes Potenzial.
Anomaly Detection eröffnet interessante Möglichkeiten für ein effizientes und mehrschichtiges KPI-Monitoring und ist damit die ideale Ergänzung zu Dashboards. Typischerweise wird zwischen drei Arten von Anomalien unterschieden:
Punktuelle Anomalien
Punktuelle Anomalien sind das, was man gemeinhin unter einer Anomalie versteht. Sie liegt dann vor, wenn eine Beobachtung weit außerhalb des üblichen Wertebereichs liegt. Wenn sich bspw. monatliche Kosten normalerweise zwischen 10.000 und 20.000 Euro bewegen, würde ein auftretender Wert von 0 oder 100.000 Euro als punktuelle Anomalie bezeichnet.
Methoden zur punktuellen Anomalie-Identifikation sind: Z-Score, Isolation Forest, Local Outlier Factor (LOF).
Kontextuelle Anomalien
Kontextuelle Anomalien betrachten nicht nur den einzelnen Wert, sondern auch dessen Beziehung zu anderen Variablen. Der Wert selbst mag unauffällig erscheinen, doch im Kontext kann er ungewöhnlich sein. Ein Beispiel: Die Bestellzahlen steigen, während gleichzeitig die durchschnittlichen Bestellwerte plötzlich sinken. Solche Veränderungen bleiben bei einer rein visuellen Analyse von Dashboards oft lange unentdeckt.
Methoden zur kontextuellen Anomalie-Identifikation sind: Conditional Random Fields (CRF), Support Vector Machine (SVM), Bayesian Networks.
Kollektive Anomalien
Kollektive Anomalien treten auf, wenn eine ganze Gruppe von Datenpunkten von der Norm abweicht. Dabei sind die einzelnen Werte für sich genommen oft nicht auffällig. Beispielsweise mag es normal sein, dass bestimmte Produkte an einzelnen Tagen nicht verkauft werden. Sollte jedoch eine ganze Woche lang kein Verkauf stattfinden, deutet dies auf ein größeres Problem hin.
Methoden zur kollektiven Anomalie-Identifikation sind: DBSCAN, Hidden Markov Models (HMM).
Von Statistik bis KI
Um die unterschiedlichen Anomalien erkennen zu können, gibt es eine Vielzahl möglicher Lösungen von klassischer Statistik bis hin zu modernsten KI-Ansätzen. Oftmals lassen sich bereits mit vergleichsweise einfachen Methoden große Erkenntnisse erzielen. Welcher Ansatz der richtige ist, hängt von der Komplexität der Prozesse und der gewünschten Fehlertoleranz ab, ist also eine Einzelfallentscheidung.
Der Einsatz von Anomaly Detection ist in jedem Fall ein echter Wettbewerbsvorteil und bietet eine quantitativ gestützte Lösung zur Risikoreduzierung. Falls Du Anwendungsfälle hast, bei denen Du mittels Anomalie Detection frühzeitig gegensteuern möchtest, kannst Du uns gerne ansprechen. Wir haben das Knowhow und die Tools, Dich pragmatisch und zielführend zu unterstützen.

Make or Buy
Bestehende BI-Tools oder spezialisierte Software – für wen welcher Weg der richtige ist
Das ESG-Reporting (Environmental, Social, Governance) stellt Finanzleiter und Controller vor ein entscheidenden Dilemma: Soll das ESG-Reporting in die bestehende BI-Infrastruktur integriert werden, die bereits für Finanzanalysen genutzt wird, oder lohnt sich die Investition in eine spezialisierte ESG-Software?
Auf der Habenseite bestehender BI-Tools stehen Vorteile wie Kostenersparnis, vertraute Bedienung und die Möglichkeit, ESG- und Finanzdaten in einer zentralen Plattform zu analysieren. Spezialisierte ESG-Lösungen punkten durch vorgefertigte Templates zur Erfassung komplexer Nachhaltigkeitsdaten und erleichtern die Erfüllung regulatorischer Anforderungen.
Die Entscheidung für oder gegen spezialisierte Software hängt stark von den individuellen Anforderungen des Unternehmens, den vorhandenen Ressourcen und der strategischen Bedeutung von ESG-Reporting ab.
ESG Reporting auf Basis bestehender BI-Tools
- Die Nutzung bestehender BI-Tools für die Abbildung von ESG-Reportings ist effizient, kostensparend und ermöglicht eine zentrale Datenbasis, in der Finanz- und ESG-Daten integriert werden können. Sie bieten Flexibilität und eine vertraute Umgebung, die kosteneffizient ist, die Lernkurve verkürzt und dynamische Anpassungen erlaubt.
Spezialisierte ESG-Software
- bietet tiefgehende, branchenspezifische Funktionen und vorgefertigte Frameworks, die es leichter machen, ESG-Standards wie GRI oder SASB einzuhalten. Sie werden mit vorgefertigten Analysen ausgeliefert, bilden häufig Branchenstandards ab und können Benutzerführungen als Hilfestellung beinhalten.
Für wen sich welche Variante lohnt
- Unternehmen mit hohen regulatorischen Anforderungen, komplexen ESG-Daten (z. B. CO₂-Fußabdruck) oder ambitionierten Nachhaltigkeitsstrategien sollten spezialisierte Tools in Betracht ziehen. Besonders relevant ist dies für Branchen wie Energie, Produktion oder Finanzdienstleistungen, in denen ESG ein strategisches Kernthema darstellt.
- Mittelständische Unternehmen oder solche mit weniger anspruchsvollen ESG-Anforderungen können bestehende BI-Tools nutzen, insbesondere wenn eine starke BI-Infrastruktur bereits vorhanden ist. Dies ist ideal, wenn ESG-Daten eher ergänzend zu Finanzdaten betrachtet werden und keine hochkomplexen Analysen erforderlich sind.
Kritischer Erfolgsfaktor Datenintegration
- Nachvollziehbare Datenaggregation ist eine notwendige Bedingung beim ESG-Reporting, unabhängig davon, ob bestehende BI-Tools oder spezialisierte ESG-Software eingesetzt werden. Dies liegt daran, dass ESG-Daten aus einer Vielzahl von internen und externen Quellen stammen und mit Finanz- sowie operativen Daten konsistent verknüpft werden müssen.
IMMER UP
TO DATE
MIT UNSEREM
NEWSLETTER
Abonnieren Sie unsere Newsletter
In unserem EVACOletter geben wir regelmäßig einen Überblick zu aktuellen News & Events, unseren Webinaren oder unserem Trainingsangebot. Wir berichten über Messen und auch Partneraktivitäten, um Ihnen so die Möglichkeit zu bieten, sich über unser vielfältiges Angebot zu informieren. Sie möchten von uns auf dem Laufenden gehalten werden?