Tag Archives: Datenqualität

Do It Right First Time (DIRFT-Konzept)

Im Zusammenhang mit der Qualität von Artikelstammdaten taucht immer wieder das sogenannte „DIRFT-Konzept“ auf. Wo kommt dieses Konzept her und was bedeutet es eigentlich im Zusammenhang mit der Qualität von Artikelstammdaten?

Der Erfinder des Konzepts ist Philip Bayard Crosby (1926- 2001). Er gilt als einer der Denker der Qualitätswissenschaft mit dem Tätigkeitsschwerpunkt des Null-Fehler-Programms (vgl. Kamiske, Qualitätsmanagement von A bis Z, 2011, S. 41f). Er entwickelte es als Antwort auf die Qualitätskrise der späten 1970er und in den 1980er Jahren, in denen vor allem amerikanische und europäische Hersteller, aufgrund der höheren Qualität der japanischen Produkte, Marktanteile an japanische Hersteller verloren haben (vgl. Crosby, Quality Is Free – The Art Of Making Quality Certain, 1980, S. 3ff). Das Null-Fehler-Programm zielt auf eine mängelfreie Produktion ohne Ausschuss und Nacharbeiten ab. Es duldet keinerlei „akzeptable“ Fehlerquoten und keine Nachbesserungen. Stattdessen ist eine Produktion stets ohne Fehler anzustreben. In seiner kostenorientierten Betrachtung stellt der Qualitätswissenschaftler fest, dass nicht die qualitativhochwertige Fertigung die Produktionskosten in die Höhe treibt, sondern die Nichteinhaltung bestimmter Vorgaben die Gesamtkosten ansteigen lassen. Es entsteht demnach ein Fehlleistungsaufwand (vgl. Kamiske, Qualitätsmanagement von A bis Z, 2011, S. 138).

Das Gesamtkonzept wird in der Literatur vereinfacht als DIRFT-Ansatz bezeichnet. Dabei steht das Akronym für den von Crosby formulierten Leitsatz „Do it right the first time“ (vgl. Chemuturi, Mastering Software Quality Assurance, 2010, S. 15ff). Ins Deutsche übersetzt lässt es sich mit: „Dinge direkt beim ersten Mal richtigmachen!“ umschreiben.

Übertragen auf eine prozessbezogene Artikelstammdatenqualitätsoptimierung, zielt das DIRFT-Konzept auf die Fehlervermeidung im Vorfeld und während des gesamten Artikelstammdaten-prozesses ab. Es ist damit eine proaktive Strategie zur Verbesserung der Datenqualität (vgl. Redman, Data Quality For The Information Age, 1996, S. 11ff). Die Vermeidung von Fehlern orientiert sich an der Einhaltung bestimmter Anforderungen oder Spezifikationen (vgl. Liesmann (Hrsg.), Controlling und Kostenrechnung, 1997, S. 553). Dies können beispielsweise die Nutzungsvorgaben und Regeln des GDSN-Standards respektive die Anforderungen des Data Quality Gates für den deutschen Zielmarkt sein (vgl. https://www.gs1-germany.de/gs1-solutions/stammdaten/data-quality-gate/).

Bei der Artikelstammdatenanlage bedeutet DIRFT demnach nichts anderes, als die Daten bei der Ersterfassung gleich richtig im IT-System einzugeben. Es gilt die Maßgabe, dass die Daten sowohl im Hause des Lieferanten, als auch in der nachfolgenden Wertschöpfungskette des Handels und der Endkonsumenten ohne Nachkorrekturen und ohne Einschränkungen nutzbar sind. Das Nachbearbeiten von Artikelstammdaten – im Sinne von reaktiven Datenqualitätsmaßnahmen – ist zu vermeiden.

Dinge beim ersten Mal gleich richtig zu machen, wird die Artikelstammdatenpfleger/-innen nicht davon abhalten Fehler zu machen. Es wird allerdings dazu ermutigt, sich ständig zu verbessern und proaktive Maßnahmen zur Optimierung der Datenqualität anzustreben. Außerdem werden sie die wertschöpfungsübergreifende Nutzung der Artikelstammdaten stets im Blick haben

Rampenmanagement

Nachhaltiges Rampenmanagement und Datenqualität – Wie geht das zusammen?

Neulich habe ich mir auf dem Logistik-Roundtable des EHI (Euro Handels Institut) und des HDE (Handelsverband Deutschland) in der Technischen Hochschule Ingolstadt einen Vortrag zum Projekt  “Nachhaltiges Rampenmanagement” (NARAMA) angehört. Präsentiert wurden die Forschungsergebnisse des Projekt von Niels Hackius vom Institut für Logistik und Unternehmensführung von der Technischen Hochschule in Hamburg-Harburg. Bei diesem Forschungsprojekt geht es um die Optimierung von logistischen Schnittstellen nach ökologischen, sozialen und ökonomischen Kriterien.
Continue reading

Major Release 3 ist live im 1WorldSync Systems!

Houston…we’ve landed.

1WorldSync gibt bekannt, dass unsere Applikationen nun voll Major Release 3 kompatibel sind und Datensynchronisierung wieder aufgenommen worden ist. Die investierten Ressourcen, Energien und Vorbereitungen haben sich gelohnt. Dies ist ein wichtiger Schritt in der Geschichte von GDSN.

Continue reading

Anstieg unstrukturierter Daten

Big Data: Nicht ohne DQM!

Sascha Kasper,  Director Solution Partners & New Businesses bei 1WorldSync, schreibt über Big Data:

Wenn über Big Data gesprochen wird, ist die Diskussion über unstrukturierte Daten nicht weit. Das hat auch die Fachtagung “Big Data im Alltag – Welchen Nutzen hat der Anwender heute und in der Zukunft?”, die am 25. Februar 2016 in der Industrie und Handelskammer (IHK) Dortmund stattfand, wieder gezeigt. Denn das Thema Datenqualität kam erwartungsgemäß nicht zu kurz. Kein Wunder, denn die Deutsche Gesellschaft für Informations- und Datenqualität e.V. (DGIQ) hat dieses Event mit veranstaltet.

Continue reading

Handwaage

Major Release und die Nutzung der “Recommendation 20” für Maßeinheiten Codes (Teil 2)

In einer meiner letzten Blogbeiträge, habe ich bereits auf die Wichtigkeit und die Vorteile der Maßeinheiten Codes gemäß der Recommendation 20 hingewiesen. Verdeutlicht habe ich die Nutzungsvorteile der neuen Codes und deren Migration vom BMS Release 2.8 zum Major Release (MjR).

Heute möchte ich die Gelegenheit nutzen um auf das Maßeinheiten Dokument aufmerksam zu machen, das im Download-Bereich für alle Nutzer unseres Datenpools zur Verfügung steht. Für den ein oder anderen Nutzer handelt es sich sicherlich um ein sehr bekanntes Dokument.

Continue reading

Major Release 3 Migrationsdokument

Das standardkonforme Migrationsdokument zum Major Release 3

Im Zuge der Umsetzung des Major Releases (MjR) möchte ich an dieser Stelle einmal auf das Migrationsdokument aufmerksam machen.

Für die interne Implementierung der Datensender und -empfänger bietet das Dokument in  erster Linie einen detaillierten Überblick über die Migration der bestehenden Attribute in der Version BMS 2.8 zum Major Release (BMS Version 3). Insgesamt sind in dem Dokument weiter über 1000 Attribute abgebildet. Der Leser erhält damit volle Transparenz über mögliche Datenverluste, die im Zuge der Migration der Daten von 2.8 zum Major Release 3 entstehen könnten. Auf Basis dieser Informationen kann – filterbar im Dokument – für jedes Attribut geprüft werden, ob das eigene Unternehmen von den Datenverlusten betroffen ist oder nicht. Im Falle eines möglichen Migrationsdefizits kann  dann im Einzelfall entschieden werden, wie mit dem Attribut vor oder nach der Migration umzugehen sei.
Continue reading

wsi-publishing

Ich nutze die WS|Publishing Web-Oberfläche – Wie wirkt sich das GDSN Major Release 3 auf mein Unternehmen aus?

Im Rahmen unserer Videoserie #MjR3Experten beantworten wir häufig gestellte Fragen unserer Nutzer zum Major Release 3.

Eine vielfach gestellte Frage der Nutzer unserer WS|Publishing Web-Oberflächen (UI) lautet: Wie wirkt sich das Major Release 3 auf mein Unternehmen aus? Continue reading

DIY unlimited – Optimal vorbereitet für den Online-Handel

Dass der Online-Handel boomt, zeigt eine aktuelle IFH-Hochrechnung. Der Online-Handel in Deutschland werde 2015 rund 46 Mrd. Euro umsetzen, so die Berechnungen.

Weiterhin werden Händler, die mehrere Vertriebswege bedienen (Multi-Channel) als innovativer, kundenfreundlicher und sympathischer wahrgenommen als reine Internethändler (Pure-Player). Dies zeigt eine Cross-Channel-Studie der Handelsberatung ECC Köln und hybris Sofware.

Continue reading

Internet der Dinge

Internet der Dinge und Artikelstammdatenqualität

Neulich habe ich in der Wirtschaftswoche einen Artikel zum Thema “Internet der Dinge” gelesen (vgl. Wirtschaftswoche, Heft 10, 2015, S. 38- 43). Unter der Überschrift “Partitur einer Utopie” behandelt der Artikel den Status der Entwicklung in Deutschland. Im deutschen Sprachgebrauch wird auch oft der Begriff “Industrie 4.0” gebraucht. Continue reading

Artikelstammdaten

Machen Artikelstammdaten glücklich?

Aufhänger meines neuen Blog-Eintrages ist der Beitrag von Dmitrii Kovalchuk (My Master Data Effect). Kovalchuk schildert darin, dass die Pflege hochqualitativer Daten in seinem Adressbuch dazu geführt hat, seine Frau kennenzulernen, mit ihr eine Familie zu gründen und er dadurch heute ein glücklicher Mensch ist. Meine daraus resultierende Frage: Lassen sich seine Gedanken auch auf das Thema Artikelstammdatenmanagement übertragen?  Continue reading