Back to top

Ziemlich beste Freunde

ESG Reporting und Meldepflichten

Warum intelligente BI und Data Analytics für beide unverzichtbar sind

Nachhaltigkeit und Transparenz sind zu zentralen Themen in der Unternehmenswelt geworden. Während das ESG-Reporting (Environmental, Social, Governance) darauf abzielt, Unternehmen in ihrem nachhaltigen Handeln zu messen und ihre Fortschritte sichtbar zu machen, bestehen zahlreiche gesetzliche Meldepflichten, die Unternehmen verpflichten, bestimmte Mengen- und Umweltberichte bereitzustellen. Prominente Vertreter sind das Elektro-Altgeräte-Register EAR, Batteriegesetz BattG sowie die Verpackungsverordnung VerpackG. Allen gemeinsam ist in die Notwendigkeit einer präzisen Datenerfassung, -verarbeitung und -meldung. Hier kommt Business Intelligence (BI) und Data Analytics ins Spiel – sie ermöglichen eine effiziente, automatisierte und zuverlässige Bereitstellung dieser Informationen.

ESG Reporting und gesetzliche Meldepflichten: Parallelen und Schnittmengen

Das ESG-Reporting gewinnt durch regulatorische Vorgaben wie die Corporate Sustainability Reporting Directive (CSRD) oder die EU-Taxonomie an Bedeutung. Unternehmen müssen hierbei detaillierte Daten zu Umwelt- und Sozialstandards offenlegen, um ihre Nachhaltigkeitsleistung zu dokumentieren. Gleichzeitig existieren spezifische gesetzliche Berichtspflichten für Unternehmen, insbesondere im Bereich Umwelt- und Produktverantwortung:

  • Elektro-Altgeräte-Register (EAR): Hersteller und Importeure von Elektro- und Elektronikgeräten sind verpflichtet, ihre in Verkehr gebrachten Mengen an die Stiftung EAR zu melden. Ziel ist eine nachhaltige Entsorgung und Rückführung dieser Produkte.
  • Batteriegesetz (BattG): Unternehmen, die Batterien und Akkus vertreiben, müssen jährlich ihre Mengen melden und sich an Rücknahmesystemen beteiligen.
  • Verpackungsgesetz (VerpackG): Hier sind Unternehmen verpflichtet, Verpackungsmengen zu registrieren und an Recycling- und Entsorgungssysteme zu melden.
  • Chemikalienverordnung (REACH): Unternehmen, die Chemikalien herstellen oder importieren, müssen Daten über deren Sicherheit und Umweltverträglichkeit bereitstellen.
  • Emissionsberichterstattung (BEHG – Brennstoffemissionshandelsgesetz): Unternehmen mit CO₂-Emissionen sind zur jährlichen Berichterstattung verpflichtet, um den nationalen Emissionshandel zu unterstützen.
  • Kreislaufwirtschaftsgesetz (KrWG): Regelt die Abfallwirtschaft und verpflichtet Unternehmen zur Dokumentation und Meldung von Abfallmengen.
  • Energieeffizienzgesetz (EnEfG): Große Unternehmen müssen Energieverbräuche und Effizienzmaßnahmen erfassen und melden.
  • Wasserhaushaltsgesetz (WHG): Verpflichtet Unternehmen, wasserrechtliche Meldungen zu erstellen, insbesondere zu Entnahmen und Abwassereinleitungen.
  • Luftreinhalteverordnung (TA Luft): Bestimmt Berichts- und Überwachungspflichten für emissionsrelevante Industrieanlagen.

Gesetzliche Meldepflichten und ESG-Reporting haben nicht nur gemeinsame Herausforderungen, sondern auch zahlreiche Schnittmengen. Emittierte Schadstoffmengen sind relevant für gesetzliche Meldepflichten und Erwähnung in Nachhaltigkeitsberichten. Beides erfordert präzise Erfassung von Mengen- und Verbrauchsdaten, eine strukturierte Verarbeitung der Informationen und eine termingerechte Berichterstattung.

Die Rolle von BI und Data Analytics für effiziente Meldungen

Die manuelle Zusammenstellung und Verarbeitung der für ESG-Reports und gesetzliche Meldungen relevanten Daten ist zeitaufwendig und fehleranfällig. Hier bieten Business Intelligence (BI) und Data Analytics entscheidende Vorteile:

  1. Automatisierte Datenerfassung und -aggregation: BI-Tools ermöglichen die Anbindung unterschiedlicher Datenquellen, wodurch alle relevanten Informationen automatisiert erfasst und strukturiert verarbeitet werden können.
  2. Echtzeit-Überwachung und -Reporting: Durch intelligente Dashboards können Unternehmen jederzeit den aktuellen Stand ihrer Mengenmeldungen einsehen und so frühzeitig auf Abweichungen reagieren.
  3. Konsistente und revisionssichere Berichterstattung: Die Nutzung von BI-Systemen stellt sicher, dass Daten fehlerfrei, standardisiert und im geforderten Format an die Behörden oder an ESG-Berichtsplattformen übermittelt werden.
  4. Effizienzsteigerung durch KI und Predictive Analytics: Künstliche Intelligenz kann Muster in den Daten erkennen, Warnfunktionen übernehmen und Prognosen über zukünftige Mengenmeldungen oder Emissionswerte ermöglichen.
  5. Integration mit Nachhaltigkeitszielen: ESG- und gesetzliche Berichterstattung lassen sich durch BI-gestützte Datenmodelle vereinen, sodass Unternehmen nicht nur gesetzliche Anforderungen erfüllen, sondern auch ihre eigenen Nachhaltigkeitsstrategien messbar machen können.

Planerische Komponente: Ex-Post und Ex-Ante Betrachtung

Ein wesentlicher Aspekt ist die Notwendigkeit, sowohl rückblickende (Ex-Post) als auch vorausschauende (Ex-Ante) Daten bereitzustellen. Unternehmen müssen nicht nur die tatsächlich angefallenen Ist-Mengen eines Berichtszeitraums dokumentieren, sondern auch Prognosen für zukünftige Mengen abgeben. Im Folgejahr werden diese Prognosen mit den tatsächlich angefallenen Werten abgeglichen. BI- und Analytics-Tools sind dabei unerlässlich, um:

  • Historische Daten effizient zu analysieren und als Grundlage für Prognosen zu nutzen.
  • Abweichungen zwischen geplanten und tatsächlichen Mengen frühzeitig zu erkennen.
  • Unternehmen bei der strategischen Planung und Zielerreichung zu unterstützen.
  • Die Genauigkeit von Ex-Ante-Berichten durch Machine Learning kontinuierlich zu verbessern.

Fazit: Digitalisierung als Schlüssel für nachhaltige und gesetzeskonforme Unternehmen

Die steigenden regulatorischen Anforderungen im Bereich ESG-Reporting und gesetzlicher Meldepflichten machen eine effiziente, datengetriebene Berichterstattung unabdingbar. Unternehmen, die auf AI, BI und Data Analytics setzen, profitieren von höherer Genauigkeit, Zeitersparnis und einer verbesserten Entscheidungsgrundlage. Die Digitalisierung dieser Prozesse stellt sicher, dass Nachhaltigkeitsziele nicht nur erfüllt, sondern auch strategisch weiterentwickelt werden können.

Tradition + Innovation

Transformation an der Ruhr

Immer im (am) Fluss

Ruhrort ist ein Ort des Wandels – ein historisches Zentrum des Handels und der Industrie, das sich immer wieder neu erfindet. Mit einem Ureinwohner und einem Zugezogenen sind hier in unmittelbarer Nachbarschaft zwei Unternehmen beheimatet, die auf den ersten Blick unterschiedlich erscheinen, aber bei genauerem Hinsehen spannende Parallelen aufweisen: Haniel und EVACO.

Nachbarschaftliche Parallelen

Mit seiner über 250 jährigen Geschichte als Familienunternehmen hat Haniel nicht nur den Mündungsort der Ruhr (=Ruhrort), sondern das gesamte Ruhrgebiet und die das „Revier“ prägende Montanindustrie entscheidend mitgeprägt. Die Gründung der ersten Tiefbauzeche Zollverein markierte einen Meilenstein der Kohleförderung und damit entscheidend für die industrielle Entwicklung der Region.

EVACO ist ein Pionier in der „Datenförderung“ und unterstützt Unternehmen seit über 20 Jahren dabei, wertvolle Erkenntnisse aus ihren Daten zu gewinnen – quasi moderner Bergbau, der Information zu Tage fördert. Aus Kohle wird Energie gewonnen, wir verandeln Daten in Wissen. Bezeichnend, dass EVACO am 16.09.2025 den jährlichen #datatalk congress zum wiederholten Male „auf Zollverein“ veranstaltet: im Oktogon, einem Veranstaltungsort auf dem achteckigen Fundament des ehemaligen Kühlturm der Zeche – symbolisch für den Strukturwandel im Revier.

Transformationstreiber

Doch das ist nicht die einzige Parallele zwischen den neuen Nachbarn. Während Haniel mit der Initiative Urban Zero daran arbeitet, Ruhrort zum ersten CO₂-neutralen Stadtviertel der Welt zu transformieren, unterstützt EVACO mit Lösungen für ESG-Reporting und Nachhaltigkeitsberichterstattung Transparenz und ganzheitliche Verantwortung in Unternehmen.

Ob durch Förderung von Ressourcen oder Wissen, durch Engagement für nachhaltige Stadtentwicklung oder digitale Transformation – Haniel und EVACO zeigen, dass Tradition und Innovation Hand in Hand gehen – und perfekt zu Ruhrort passen.

Macht Euch auf dem #datatalk congress selbst ein Bild von dieser Transformation

Datenmanagement der Zukunft: TimeXtender Holistic Data Suite

Daten sind der Schlüssel zu fundierten Geschäftsentscheidungen

…vorausgesetzt, sie stehen in der passenden Qualität, Aktualität und Struktur zur Verfügung

In der Praxis ist mangelnde Datenqualität ein Dauerthema. Die TimeXtender Holistic Data Suite bietet einen ganzheitlichen Ansatz für Unternehmen, die ihre Datenprozesse optimieren möchten.

TimeXtender automatisiert Datenintegrations-Workflows mithilfe von Metadaten und fortschrittlicher KI. Die unkomplizierte Low-Code-Lösung ermöglicht selbst kleinen Teams, Daten schnell zu erfassen, aufzubereiten und verwertbar zu machen. Das hält die Kosten überschaubar und sichert die Zukunftsfähigkeit von Investitionen.

Durch die Übernahme und Integration von Exmon hat TimeXtender sein Leistungsangebot um das gesamte Datenmanagement Spektrum erweitert und bildet mit der „Holistic Data Suite“ neben der Automatisierung von Datenintegrationsprozessen auch die Themen Stammdatenverwaltung, Datenqualität und die zentrale Steuerung von Datenprozessen. Alle Produkte stehen als Komplettangebot Holistic Data Suite oder als folgende eigenständige Produkte zur Verfügung, die modular einsetzbar sind und Flexibilität gewährleisten.

  • TimeXtender Integration: Eine leistungsstarke No-Code/Code-Plattform zur Automatisierung von Datenflüssen, die Effizienz und Flexibilität kombiniert.
  • TimeXtender Master Data Management: Ermöglicht eine strukturierte Verwaltung von Stammdaten mit klaren Verantwortlichkeiten und standardisierten Workflows, um die Datenqualität zu verbessern.
  • TimeXtender Data Quality: Ein regelbasiertes System zur automatisierten Sicherstellung der Datenqualität, das Unternehmen dabei unterstützt, konsistente und verlässliche Daten zu nutzen.
  • TimeXtender Orchestration: Die zentrale Steuerung und Überwachung von Datenprozessen, inklusive einer gezielten Bereitstellung und Skalierung von Ressourcen – insbesondere in der Azure Cloud.

Warum TimeXtender?

Unsere Erfahrung zeigt: Unternehmen profitieren von einer flexiblen, integrierten Lösung, die sowohl technologische als auch organisatorische Herausforderungen adressiert. Die TimeXtender Holistic Data Suite bietet eine zukunftssichere Plattform für Unternehmen, die datengetriebene Entscheidungen auf einer verlässlichen Basis treffen möchten.

Interesse geweckt? Lass uns über Deine individuellen Anforderungen sprechen oder die Vorteile der TimeXtender-Lösung in Aktion demonstrieren!

Qlik startet mit aufregenden Neuigkeiten durch

Upsolver Akquisition, Data Flow in Qlik Cloud Analytics™ u.v.m.

Upsolver

Qlik gewinnt mit Upsolver einen der Pioniere im Bereich Echtzeit-Daten-Streaming und Apache Iceberg-Optimierung.  Dieser Schritt stärkt Fähigkeit von Qlik, Unternehmen durchgängige, offene und skalierbare Lösungen für Datenintegration, Analytik und KI auf einer einzigen Plattform anzubieten.

Das offene Tabellenformat Apache Iceberg ermöglicht Unternehmen, offene Lakehouses zu implementieren, die hochleistungsfähige Analysen auf großen Datenbeständen ermöglichen und gleichzeitig eine nahtlose Integration mit verschiedenen Datenverarbeitungs-Engines gewährleisten.

Die Vorteile auf einen Blick:

  • Echtzeit-Fähigkeiten: Optimierte Datenaufnahme für schnellere Entscheidungen und KI-gestützte Workflows.
  • Effiziente Datenverwaltung: Integration des Upsolver Adaptive Iceberg Optimizers zur Reduzierung der Speicherkosten und Steigerung der Abfrageleistung um bis zu 5x.
  • Offene, flexible Architektur: Skalierbare und interoperable Datenlösungen für Unternehmen.

Data Flow: No-Code-Datenaufbereitung in Qlik Cloud Analytics

Mit Data Flow bietet Qlik eine intuitive No-Code-Lösung zur Datenaufbereitung für Analysen, Machine Learning und KI:

  • Visueller Editor mit Drag-and-Drop-Funktionalität für einfache Datenverarbeitung (QVD, Parquet u.v.m.).
  • No-Code-Prozessoren für Bereinigungs-, Aggregations- und Filterfunktionen.
  • Datenvorschau zur Sicherstellung von Genauigkeit und Transparenz.
  • Automatische Skripterstellung zur Integration in Qlik-Skripte.

Direct Access Gateway 1.7.0: Neue Features & Performance-Boost

Die neueste Version des Direct Access Gateway verbessert Leistung und Sicherheit:

  • Neuer File-Connector: Sicherer Dateizugriff und direktes Datenstreaming in Qlik Sense.
  • Bessere Performance: Gleichzeitige Verarbeitung mehrerer Anfragen durch Async Command Support.

Empfehlung: Kunden sollten auf die neueste Version upgraden und mittelfristig von Qlik Data Transfer auf Data Gateway Direct Access umsteigen.

Regex-Unterstützung in Qlik Cloud Analytics

Qlik Cloud Analytics bietet jetzt native Regex-Unterstützung für Skripte und das Frontend. Nutzen Sie diese Funktion für:

  • Mustererkennung und Datenextraktion
  • Validierung von Datenformaten
  • Standardisierung von Daten anhand vordefinierter Muster

Custom Groups: Flexibles Benutzer- & Gruppenmanagement

Mit Custom Groups erhalten Unternehmen mehr Kontrolle über Benutzerberechtigungen, auch ohne Identity Provider (IdP). Vorteile:

  • Verwaltung von Benutzergruppen ohne IT-verwaltete Active Directory-Gruppen.
  • Vereinfachte Integration mit Drittanbieter-Anwendungen.
  • Nutzung für API-gesteuerte Benutzerverwaltung via OAuth2 Machine-to-Machine.

Neues Lizenzmodell für Qlik Application Automation

Gute Nachrichten! Standard-Ausführungen sind jetzt kostenlos, wenn ausschließlich Qlik-Konnektoren genutzt werden. Nur Automationen mit Drittanbieter-Integrationen werden als Lizenzverwendung gewertet.

KI-Power für Qlik Talend Cloud & Snowflake Cortex AI

  • Qlik Talend Cloud bietet jetzt eine GenAI-Dokumentationsfunktion, die automatisch Beschreibungen für Datensätze erstellt.
  • Snowflake Cortex AI-Integration in Qlik Cloud Data Integration mit Funktionen für:
    • Sentiment Analysis
    • Data Classification
    • Text Summarization
    • Translation

Diese strategischen Erweiterungen stärken die Position von Qlik als führendes Unternehmen für Datenintegration und Analytics und heben die KI-gestützte Datenanalyse auf ein neues Level.

 

 

 

DeepSeek – Revolution oder Hype?

DeepSeek und die Mixture-of-Experts Architektur (MoE)

Die KI-Welt ist in Aufruhr – DeepSeek sorgt für Begeisterung und Kontroversen gleichermaßen. Während die technologische Effizienz und Leistungsfähigkeit des Modells beeindruckt, gibt es auch kritische Stimmen zu Datenschutz und Zensur. Doch was macht DeepSeek wirklich einzigartig?

Die Mixture-of-Experts-Architektur: Das Erfolgsgeheimnis von DeepSeek

Große Sprachmodelle (LLMs) basieren auf neuronalen Netzwerken mit mehreren Schichten. Klassische Architekturen verarbeiten jede Eingabe mit allen Neuronen, was enorme Rechenressourcen erfordert. DeepSeek setzt jedoch auf die Mixture-of-Experts (MoE)-Architektur, um diese Herausforderung zu meistern.

MoE teilt das Netzwerk in spezialisierte Experten auf. Ein Gate-Netzwerk entscheidet dynamisch, welcher Experte für welche Eingabe aktiviert wird. Dadurch arbeitet nicht das gesamte Modell gleichzeitig, sondern nur die jeweils relevanten Experten. Das Ergebnis: schnellere Berechnungen, reduzierter Energieverbrauch und eine bessere Spezialisierung.

DeepSeek optimiert das MoE-Prinzip

Obwohl MoE nicht neu ist, verbessert DeepSeek bestehende Schwachstellen. Klassische MoE-Modelle haben oft das Problem einer ungleichen Verteilung: Einige Experten sind überlastet, während andere kaum genutzt werden. Dadurch entstehen Ungleichgewichte im Training und Ineffizienzen im Modell.

DeepSeek begegnet diesem Problem mit einer optimierten Filterung. Anfragen werden in zwei Gruppen unterteilt:

  • Allgemeine Experten: Zuständig für Sprachverständnis und logisches Denken.
  • Spezialisierte Experten: Trainiert für spezifische Aufgaben wie komplexe Mathematik oder Programmierung.

Durch diese Struktur wird sichergestellt, dass alle Experten gleichmäßig genutzt und trainiert werden, was zu einer höheren Gesamtleistung führt.

Zukunftsperspektiven: Was bedeutet DeepSeek für die KI-Entwicklung?

DeepSeek beweist, dass LLMs weiterhin großes Optimierungspotenzial haben. In einer Zeit, in der KI-Agenten immer wichtiger werden, sind Effizienzsteigerungen entscheidend, um im Wettbewerb zu bestehen.

Aber DeepSeek ist nicht allein. Zahlreiche LLMs konkurrieren mit spezialisierten Lösungen für unterschiedliche Anwendungsfälle. Besonders in Kombination mit Wissensdatenbanken gewinnt KI an Bedeutung. Retrieval-Augmented Generation (RAG) ermöglicht es Unternehmen, Dokumente interaktiv zu nutzen, Fachliteratur zu analysieren und komplexe Daten effizient zu verwalten.

Möchten Sie LLMs und RAGs in Ihrem Unternehmen einsetzen? Wir bieten maßgeschneiderte Lösungen, um Sie auf diesem Weg zu unterstützen. Kontaktieren Sie uns für eine individuelle Beratung!