Dienstag, 11. Juli 2023
Computer Aided Design und Digital Prototyping
![]() |
Bild: National Archives / Combined Military Service Digital Photographic Files - CC0 1.0 |
Vor allem im Hardware-Bereich gibt es immer wieder derartige Fälle, was nicht nur die Entwicklung von Prototypen von Maschinen, Fahrzeugen und Geräten umfasst, sondern auch die von Bauwerken und Gebäuden. Zum Einen können die eingebauten Rohstoffe teuer sein, zum anderen sind die Einzelteile fest miteinender verbunden, um Belastbarkeit und Stabilität zu gewährleitsten. Ein "Auseinandernehmen und neu Zusammensetzen" geht also nicht so einfach.
Will man sich nicht darauf verlassen, alles beim ersten mal richtig zu machen (was, wenn es nicht klappt, gerade bei Bauwerken richtig teuer werden kann) braucht man also eine Alternative, mit der man einem Inspect & Adapt zumindest nahe kommen kann. Eine mittlerweile weit verbreitete ist das so genannte Computer Aided Design (CAD), bei dem ein neues Gebäude-, Maschinen- oder Gerätebau-Vorhaben vor der eigentlichen Umsetzung durch mehrere digitale Simulations-Durchläufe geht.
Die entsprechenden Erfahrungswerte vorausgesetzt können damit eine ganze Reihe von Annahmen im Voraus überprüft, gegebenenfalls angepasst und erneut überprüft werden, noch bevor die eigentliche Konstruktion begonnen hat. Die häufigsten dertigen Überprüfungen beziehen sich auf Statik und Stabilität, es sind aber auch zahlreiche andere denkbar, vom voraussichtlichen Materialverschleiss bis hin zum Verhalten von Menschenmengen oder Luftströmen in einem Gebäude.
Natürlich kann man auf diese Weise nicht alles vorhersehen, was später in der Realität eintreffen wird, zumindest einen Teil der Validierungen kann man aber vorwegnehmen. Ein Fall, der das nachvollziehbar macht, ist der Wind-Widerstand von Hochhäusern, der erst ab einer bestimmten Höhe des Baus spürbar wird. Da übliche Windrichtungen und -stärken bekannt sind, ist es möglich, den Bauplan so lange zu optimieren, bis zu starke Schwankungen des fertigen Gebäudes im Voraus auszuschliessen sind.
Ein anderer Einsatzbereich ist die Berechnung möglicher Varianten eines bestehenden Hardware-Produkts, z.B. eines Fahrzeugs, einer Maschine oder eines Haushaltgeräts. Sollen diese besonders günstig, leistungsstark, robust, umweltfreundlich oder sparsam im Verbrauch sein, kann auf Basis des bestehenden Produkts ein digitaler Protyp entwickelt werden, mit dem die gewünschte Variante auf Umsetzbarkeit und mögliche Probleme überprüft wird.
Mit Hilfe derartiger Vorgehensweisen lässt sich das erreichen, was der auf dieser Website schon mehrfach erwähnte Grossprojekt-Forscher Bent Flyvbjerg "thinking slow, acting fast" genannt hat, also eine schnelle Umsetzung hochkomplexer Vorhaben durch eine auf Virtualisierung beruhende Validierung von Annahmen noch im Planungszeitraum. Noch mehr Shift Left geht nicht.
Montag, 5. Dezember 2022
Digitalisierung (VI)
![]() |
Bild: Pixabay / Slon Pics - Lizenz |
Im Kontext von agilem Arbeiten gilt Digitalisierung grundsätzlich als etwas Gutes. Die einfache Verfügbarkeit und Verarbeitbarkeit von Daten, die extrem beschleunigte Kommunikation und das Wegfallen der Aufwände für die physische Aktenlagerung und -verwaltung können entscheidend zur schnellen Reaktions- und Lieferfähigkeit beitragen. Allerdings kann auch das Gegenteil zutreffen, Die Digitalisierung kann die Agilität behindern und einschränken.
Dieses Phänomen tritt absehbar dann auf, wenn die Flexibilität einer digitalen Eingabe-Regulierung oder Prozess-Steuerung kleiner ist als die Varianz der eingehenden Parameter. Weniger technokratisch gesagt: Wenn digitalisierte Prozesse und Formatierungen nur für einen Teil der möglichen Anwendungfälle passend sind, für alle anderen aber nur noch eingeschränkt oder gar nicht, dann wird es für all diese anderen kompliziert und langwierig.
Das Bemerkenswerte an derartigen Konstellationen: in vielen Fällen sind sie nicht zufällig entstanden sondern sie sind explizit so gewollt. Das kann zum einen so sein, weil unreflektiert bestehende dysfunktionale Formate oder Prozesse digitalisiert werden (unvergessen ist das legendäre Zitat "Wenn sie einen Scheißprozess digitalisieren, dann haben sie einen scheiß digitalen Prozess."). Die funktionieren dann genauso schlecht wie vorher in analoger Form.
Zum anderen kann aber auch die irrige Annahme dahinterstecken, dass man durch eine Einschränkung von Handlungsoptionen im digitalisierten Prozess auch Komplexität und Ungewissheit einschränken könnte (was letztendlich nichts anderes als eine weitere Taylorismus-Phantasie ist). Da das meistens in der Realität nicht funktioniert führt es dazu, dass immer wieder falsche oder unnötig aufwändig erzeugte Ergebnisse zustandekommen, was auch hier auf Kosten der Agilität geht.
Aber selbst wenn derartige Hintergründe nicht gegeben sind kann Digitalisierung ein Hindernis für ein agiles Vorgehen sein. Dann nämlich, wenn die digitalisierten Systeme so umfangreich oder so technologisch so veraltet sind, dass selbst kleine Anpassungen unverhältnismässig viel Zeit und Geld erfordern. Schlimmstenfalls kann es sogar zum technischen Bankrott kommen, dem Zustand in dem Anpassungen gar nicht mehr möglich sind.
Heisst das im Ergebnis also, dass man Digitalisierung lassen soll wenn man agil arbeiten möchte? Natürlich nicht. Völlig analog würde ein agiles Vorgehen ebenfalls nur noch schwer möglich sein. Man sollte sich aber bewusst machen, dass Digitalisierungsvorhaben nicht nur Vorteile mit sich bringen sondern auch Einschränkungen und Risiken. Derer sollte man sich bewusst sein, sonst riskiert man, dass man zwar digital arbeitet, aber auch langsam und unflexibel ist.
Donnerstag, 7. Oktober 2021
Do not automate all the things
Es ist der Schlachtruf der DevOps-Bewegung: Automate all the Things!, ein Anspruch der in seiner radikalen Absolutheit oft von dem Hyperbole and Half-Meme unterstrichen wird. Nicht nur in Bezug auf DevOps sondern mittlerweile auch für die Agilität im Allgemeinen ist diese Haltung zu einem der zentralen Distinktionsmerkmale geworden, ohne sie wäre es vermutlich nicht zu der damit verbundenen Erfolgsgeschichte gekommen. Und doch - mittlerweile sollte man das Ganze kritisch hinterfragen.
Zur Erinnerung, eigentlich ist Automatisierung in der agilen Produktentwicklung etwas Gutes. Manuelle Release-, (Regressions-)Test-, Dokumentations- und ähnliche Prozesse können schnell absurde Umfänge annehmen, in der Durchführung ewig dauern und gigantische Kontroll- und Koordinierungs-Bürokratien erzeugen. Da das jegliche Beweglichkeit und Reaktionsfähigkeit ersticken würde bleibt nur eines - automatisieren, im Wettlauf gegen die Zeit.
Was im Rahmen dieses Vorgehens aus dem Blick geraten kann ist aber, dass die Automatisierung auch im wahrsten Sinn des Wortes Schattenseiten hat. Nicht umsonst wird sie im Deutschen auch als Dunkelverarbeitung bezeichnet, sobald Prozesse einmal selbstständig ablaufen sind sie vor dem menschlichen Auge verborgen (zumindest in der IT, wo Automatisierung fast immer Digitalisierung bedeutet, unter Umständen sogar irgendwo in der Cloud statt in den eigenen Systemen).
Bedingt dadurch kann es vorkommen, dass Informationen gar nicht mehr auffallen (oder erst dann wenn es zu spät ist). Eines der häufigsten Beispiele dafür sind Burndown-Charts. Dort wo sie manuell an der Wand erstellt werden ist es für ein Team schon früh sichtbar ob es Fortschritte macht oder ob es sich festgefahren hat, dort wo sie automatisiert erstellt werden (z.B. auf einer versteckten Web-Seite in Jira) werden sie oft nur zum Sprintende angeschaut, schlimmstenfalls nie.
Selbst wenn sie sichtbar angezeigt werden, können wichtige Informationen aber übersehen werden. Auch hier gibt es ein häufiges Beispiel: die Summe der Punkte auf den Tickets, die anzeigen seit wann sich hier nichts mehr bewegt hat. Dort wo sie automatisiert hochgezählt werden treten oft schnell Abstumpfungs-Effekte ein, dort wo sie manuell hinzugefügt werden entsteht eine bewusstere Beschäftigung mit dem Thema, die häufiger zu Korrekturmassnahmen führt.
Nicht zu unterschätzen ist auch der Effekt der eintritt wenn die Beschäftigung mit den eigenen Prozessen zu einem Standard-Bestandteil von Regelmeetings wird. Das kann etwa im Rahmen von Reviews oder Retrospektiven stattfinden, es können aber auch eigene Termine dafür geschaffen werden, z.B. solche in denen man gemeinsam die eigenen technischen und organisatorischen Schulden begutachtet. Das Ergebnis ist eine Verankerung der Themen im kollektiven Gedächtnis der Organisation.
Um langsam zum Schluss zu kommen - heisst das, dass man die Prozessautomatisierung doch wieder seinlassen soll? Natürlich nicht, und die bisher genannten Beispiele verleiten auch nicht dazu. Repetitive Tätigkeiten sollen (bzw. müssen) weiterhin automatisiert werden wenn Agilität das Ziel ist, das bleibt unverändert. Eine "Ent-Automatisierung" lohnt sich aber trotzdem, vor allem bei vielen Datenerhebungen, um so Probleme offensichtlich zu machen und Lösungsfindungen anzustossen.
Freitag, 20. August 2021
Software is still eating the world
Grafik: Pxfuel - Lizenz |
Auf den Tag genau heute von 20 Jahren veröffentlichte der amerikanische Wagniskapital-Investor Marc Andreessen einen Artikel im Wall Street Jounal. Sein Titel: Why Software Is Eating the World. Vermutlich ohne es beabsichtigt zu haben gelang ihm damit das wovon jeder Journalist und Schriftsteller träumt - er prägte ein Sprichwort das bis heute in der englischen Sprache geläufig ist. Software is eating the world, sinngemäss übersetzt Software übernimmt die Welt.
Bereits zum damaligen Zeitpunkt konnte Andreesen aufzeigen, dass viele Branchen ohne Software nicht mehr funktionieren würden. Energieversorgung, Finanzwesen, Buch- und Einzelhandel, Filmindustrie, Verteidigungsindustrie, Telekommunikation und Anzeigenmarkt waren seine Beispiele, dazu kamen neue, von Anfang an digitale Geschäftsmodelle wie Suchmaschinen, Navigationssysteme und Video-Spiele. Schon um das Jahr 2000 war die Welt abhängig von Software.
Trotz der bereits damals weitgehenden Übernahme vieler Geschäftsprozesse durch Computerprogramme hat sich dieser Trend seitdem noch weiter verstärkt. Die vermutlich weitgehendste Weiterentwicklung dürfte dabei sein, dass Software heute nicht mehr bloss menschliche Entscheidungen ausführt sondern selbst welche trifft, sogar so weitreichende wie wer aus Gefängnissen entlassen wird, wer Arbeitslosenhilfe enthält oder wer von der Polizei gesucht wird.
Ein weiterer zunehmender Trend ist die ständige Vernetzung zwischen den Systemen, vor allem über das Internet. Schon vor 20 Jahren konnten so zwar bereits Updates eingespielt und Dateien versandt werden, mittlerweile gibt es aber immer mehr Anwendungen die ohne permanente Verbindung nicht mehr funktionieren. Das betrifft zum Beispiel Computerspiele, aber auch von Software betriebene Geräte wie Staubsauger und Türklingeln.
Alleine das ist bei genauerer Betrachtung bereits beunruhigend, geradezu verstörend wird es wenn man bedenkt, dass Software durch diese ständige Vernetzung fast immer von aussen angreifbar ist. Einer grösseren Öffentlichkeit dürfte die Anfälligkeit der amerikanischen Wahlen zu Ohren gekommen sein, aber auch die öffentliche Wasserversorgung lässt sich hacken, die IT-Systeme von Banken und (besonders albtraumhaft) das Betriebssystem von Insulinpumpen und Herzschrittmachern.
Diese Trends haben Folgen für die Art wie Software entwickelt wird. Wegen der möglicherweise schwerwiegenden Auswirkungen muss es möglich sein versehentlich falsch entwickelte IT-Programme schnell zu korrigieren, Updates schnell einzuspielen, Schäden an Software und IT-Infrastruktur schnell zu beheben und schnelle Gegenmassnahmen gegen Viren und Hacker umzusetzen. Ohne diese Reaktionsfähigkeit wird Software is eating the world zu einer existenziellen Bedrohung.
Das wiederum bedeutet, dass sich die Softwareentwicklungs-Organisationen in Unternehmen und Behörden ändern müssen (und es bereits tun). Egal ob man dafür Buzzwords wie Lean und Agile benutzt oder nicht - langsame und schwerfällige Prozesse (zu denen bereits Quartalsreleases gehören) werden in immer weniger Fällen akzeptabel. Für ein Sprichwort wird es zwar nicht reichen, ein zwingender Schluss ist es aber trotzdem: die Übernahme der Welt durch Software zwingt Organisationen in die Agilität.
Donnerstag, 14. Januar 2021
Digitalisierung (V)
Grafik: Pixabay / Geralt - Lizenz |
Einer der Gründe wegen denen ich diese kleine Website betreibe ist, dass ich das hier gesammelte Material zur Wissensvermittlung (und Meinungsäusserung) bei meinen Kunden einsetzen kann - und dass sie auch danach noch dauerhaft darauf zugreifen können. In diesem Zusammenhang sind nach und nach verschiedene Inhalts-Typen entstanden, unter anderem auch einer der mittlerweile so häufig geworden ist, dass er jetzt eine eigene Kategorie bekommt: die der Begriffsdifferenzierungen, in der es darum geht, dass man viele Begriffe auf unterschiedliche Weisen verstehen kann.
Auch heute gibt es wieder eine solche Differenzierung, diesesmal mit einem Klassiker: der Digitalisierung. Denn (Surprise!) auch hinter diesem Wort können sich durchaus verschiedene Bedeutungen verbergen. Diese hier sind aus meiner Sicht die Wichtigsten:
Digitalisierung von Dokumenten
Die vermutlich erste Variante der mit der die meisten der heute Berufstätigen in Kontakt gekommen sind, z.B. weil viele Universitäten seit Ende der 90er von ihren Studenten verlangen, dass Referatsunterlagen und Hausarbeiten auch als Word- oder Powerpoint-Dokument abzugeben sind. In vielen Organisationen bis heute die primäre Form der Digitalisierung. Ein Beispiel dafür wäre der Bundestag, der alle öffentlich zugänglichen Dokumente einfach in PDFs umwandelt und auf seine Website stellt.
Digitalisierung von Kommunikation
Ebenfalls eine grundlegende Form. Zu nennen ist hier zunächst die Digitalisierung der schriftlichen Kommunikation, die zuerst in Form von Emails und später in Messenger-Diensten wie WhatsApp stattfand, noch später kamen dazu die Digitalisierung von Gesprächen mit Voice over IP und von visueller Kommunikation mit den verschiedenen Videoconferencing-Diensten wie Skype oder Zoom. Da über sie nicht nur direkte Kommunikation sondern auch Meetings stattfinden gibt es einen fliessenden Übergang zum nächsten Typ.
Digitalisierung von Arbeitsprozessen
Wenn heute in grossen Organisationen Digitalisierungsprojekte gestartet werden ist meistens diese Variante gemeint, die sich in weiten Teilen mit der Prozess-Automatisierung überschneidet. Moderne Posteingangssysteme sind beispielsweise in der Lage bei eingehender Post die zuständige Abteilung zu erkennen und an sie weiterzuleiten, was früher von Hand passiert wäre. Ein Problem kann dabei auftreten wenn "historisch gewachsene" Abläufe eins zu eins digitalisiert werden. Mit den unsterblichen Worten von Thorsten Dirks: "Wenn sie einen Scheißprozess digitalisieren, dann haben sie einen digitalen Scheißprozess."
Digitalisierung von Geschäftsmodellen
Der heilige Gral der heutigen Digitalisierung, wenn man so will. Die Übertragung ganzer Geschäftsmodelle in die digitale Form macht völlig neue Produkte und Dienstleistungen möglich, etwa im Fall von Streaming-Diensten, die nicht nur ein digitalisierter Video-Versand sind, sondern auch Empfehlungs-Algorithmen und interaktive Filme umfassen oder im Fall von digitalen Notenheften, die es durch Software möglich machen aus Orchesterwerken einzelne Stimmen zu extrahieren, die Tonart einzelner Passagen zu verändern oder am Konzert-Ton zu erkennen wann umgeblättert oder gescrollt werden muss.
Digitalisierung von Kreativprozessen
Die höchste Stufe an der aktuell gearbeitet wird, und dazu eine die für viele Menschen leicht gruselig ist, da sie in einen Bereich hineingeht von dem man bis vor kurzem glaubte, dass ihn nur das menschliche Gehirn beherrscht. Da sich diese Entwicklung mit der (final noch ungeklärten) Frage überschneidet was eigentlich Kreativität ist fehlt hier noch eine allgemein anerkannte Definition. Klar ist aber auch, dass bereits heute Tätigkeiten von Computern ausgeübt werden die man früher als kreativ bezeichnet hätte, etwa das Malen von Bildern oder das Schreiben journalistischer Texte.
Digitalisierung des Bewusstseins
Im Moment noch Science Fiction. Auch hier besteht das Problem, dass die Phänomene "Intelligenz" und "Bewusstsein" nicht genau definiert sind, es besteht aber die theoretische Möglichkeit, dass der technische Fortschritt irgendwann zur technischen Singularität und künstlichem Bewusstsein führt. Eine mit Bewusstsein ausgestattete künstliche Intelligenz könnte dann (neben vielem Anderen) in der Lage sein selbst unternehmerische Entscheidungen zu treffen. Nach allem was wir wissen wäre das die Endstufe dessen was wir als Digitalisierung bezeichnen.
Donnerstag, 24. September 2020
Digitalisierung (IV)
Bild: Pixabay / Joshua Woroniecki - Lizenz |
"Wenn sie einen Scheißprozess digitalisieren, dann haben sie einen scheiß digitalen Prozess."Thorsten Dirks, Vorstandsvorsitzender der Telefónica Deutschland, auf dem Wirtschaftsgipfel der Süddeutschen Zeitung
Was Thorsten Dirks mit dieser leicht obszönen Ausdrucksweise hervorheben wollte ist einer der grössten Fehler den man bei Digitalisierungsprojekten machen kann (der aber trotzdem immer wieder gemacht wird) - die Eins zu Eins-Übertragung eines bisher analogen Arbeitsablaufs in eine digitale Form. Warum das ein Fehler ist lässt sich an einem einfachen Beispiel aufzeigen.
Stellen wir uns den Posteingang eines grossen Unternehmens vor. Sämtliche eingehenden Briefe werden von der Zentral-Poststelle nach Ressort sortiert, dann von den Ressort-Poststellen nach Priorität sortiert und dann zur Bearbeitung den Fachreferaten übergeben. Nach einem Digitalisierungsprojekt werden eingehende Emails in der Zentral-Poststelle nach Ressorts sortiert, dann von den Ressort-Poststellen nach Priorität sortiert und dann zur Bearbeitung den Fachreferaten gemailt.1
Zwei Dinge sind an diesem Beispiel zu beachten: zum einen war bereits der ursprüngliche, analoge Prozess offensichtlich schlecht designed. Mit den beiden verschiedenen Poststellen wies er gleich zwei Flaschenhälse auf, dazu kommt, dass die ohne Abstimmung mit den Fachreferaten vorgenommene Priorisierung das Risiko von Fehl-Optimierungen erhöhte. Und zum anderen wurden die Schritte dieses Prozess durch die Digitalisierung nicht verändert sondern nur in ein anderes Medium übertragen.
Eine Digitalisierung derartiger Abläufe kann zwar in überschaubarem Rahmen für Beschleunigung sorgen (Emails sind schneller als Briefe), das mögliche Potential wird dadurch aber nur in Ansätzen ausgeschöpft. Wesentlich weiter kann man kommen wenn auch das grundlegende Prozessdesign neu gedacht wird. Gerade die Bearbeitungsschritte die in der analogen Welt noch nicht möglich waren sind es schliesslich, die die grösste Wirkung entfalten können.
Noch einmal zurück zum Beispiel des Grossunternehmens-Posteingangs. Er könnte so umgestaltet werden, dass die Fachabteilungen von aussen kommende Mails direkt empfangen können2, durch KI könnte bei zentral eingehenden Mails automatisiert erkannt werden wo sie hingehören und die Priorisierung könnte im Rahmen gemeinsamer Arbeit an geteilten Dokumenten erfolgen auf die jeder zugreifen kann.
Vermutlich würde hier eine begriffliche Differenzierung Sinn machen. Neben der Digitalisierung im engeren Sinn (der Umwandlung bestehender Prozesse) könnte die digitale Neugestaltung von Prozessen gestellt werden. Digitalisierungsvorhaben wären beide, der zweite Typ hätte aber einen wesentlich höheren Wirkungsgrad.
1Dieses Beispiel ist von einem real existierenden Fall inspiriert
2Das ist in manchen Konzernen tatsächlich nicht möglich
Montag, 17. August 2020
Digitalisierung (III)
Bild: JBSA / Zachary Bumpus - Public Domain |
Zu den verwunderten bis spöttischen Reaktionen auf die in nahezu allen grossen Unternehmen und Behörden laufenden Digitalisierungsprogramme gehört die Frage warum es denn heute noch einen Bedarf dafür geben würde. Sollte die Digitalisierung von Büro- und Datenhaltungsprozessen nicht schon seit Jahrzehnten abgeschlossen sein? Die Antwort: leider nein, und aktuelle Ereignisse lassen erkennen auf warum das so ist.
Eine in den letzten Tagen durch die Medien gegangene Meldung handelte von fehlender Digitalisierung: an Urlaubsrückkehrern durchgeführte Krankheits-Tests fanden direkt an den Grenzen statt, wobei die Dokumentation von Kontaktdaten und Test-IDs auf Notizblöcken erfolgte. Diese Daten in die Systeme der Gesundheitsämter zu übertragen war aufwändig und manchmal wegen unleserlicher Schrift unmöglich, weshalb hunderte Menschen nicht von ihrer Erkrankung erfuhren.
Die Gründe dafür, dass hier keine digitalisierte Datenerfassung stattfand sind schnell zu erkennen - die dafür notwendige Hardware hätte zuerst gekauft und die dazugehörige Software programmiert werden müssen, die Geräte hätten verteilt werden müssten und das Personal müsste geschult, und das alles unter immensem Zeitdruck, da die Ferienrückreiseverkehr sich nicht verzögern liess. Das manuelle Festhalten dürfte trotz der Probleme das Schnellste und Beste gewesen sein was so schnell machbar war.
Und selbst wenn derartige Behelfslösungen durch den Einsatz digitaler Techniken ersetzt werden ist der Digitalisierungsprozess dadurch nicht zwingend abgeschlossen, das zeigt eine andere Meldung: in anderen Testzentren gingen Dokumente zwar auf digitalem Weg ein, allerdings mit einer veralteten, eher für Einzelfallnutzung gedachten Software. Die Folge: mehrere tausend verschiedene Dokumente hatten den identischen Dateinamen "Telefax.pdf" und mussten einzeln gesichtet und umbenannt werden.
Auch hier kann man den Hintergrund verstehen - eine modernere Software wäre zwar erstrebenswert gewesen, deren Entwicklung ist aber noch nicht abgeschlossen. Die Fax-Schnittstelle dagegen existiert bereits und ermöglicht eine zwar umständliche, im Vergleich zur manuellen Erfassung aber deutlich schnellere Datenerfassung, mit der man erstmal anfangen konnte. Das Ergebnis ist eine schrittweise Digitalisierung: erst der Posteingang, dann die Benennung, dann die Sortierung, etc.
Aus "agiler Sicht" sind diese Vorgehensweisen hochgradig sinnvoll. Statt lange auf ein fertig entwickeltes Stück Software zu warten kann man mit einfachen aber schnellen Lösungen erste Erfahrungen sammeln, die Erkenntnisse in die parallel verlaufende Weiterentwicklung einfliessen lassen und dadurch am Ende bessere Ergebnisse haben. Um ein letztes mal die deutsche Seuchenbekämpfung zu nennen: dieser Ansatz wird hier genutzt und vom Ausland als vorbildlich empfunden.
Das Risiko ist allerdings, dass an irgendeinenem Punkt die noch nicht digitalisierten Prozesschritte in Relation zu anderen Aufgaben so unwichtig erscheinen, dass sie "wegpriorisiert" werden. Diese Restbestände sind es, wegen denen viele Digitalisierungsprogramme auch nach Jahrzehnten noch nicht abgeschlossen sind.
Freitag, 14. April 2017
Digitalisierung (II) - die agile Grossküche
Bild: Hans / Pixabay - Lizenz |
Zunächst durch eine Digitalisierung bestehender Prozesse. In den meisten Gastronomieen notiert die Kellnerin die Bestellung auf einem Zettel, geht zu einer Durchreiche in die Küche und gibt ihn einem Küchengehilfen, der ihn an die Köche weitergibt. Allein hier führt der Einsatz von Technik schon zu deutlicher Beschleunigung: wenn die Kellnerin die Bestellung in ein Handheld eingeben und an einen Drucker in die Küche mailen kann muss sie sich seltener durch den vollen Gastraum drängen, während gleichzeitig in der Küche die Probleme mit dem Entziffern unleserlicher oder verschmierter Schrift wegfallen. Aber das ist erst der Anfang.
In den meisten Großküchen müssen die verschiedenen Köche und Hilfskräfte von einem Küchenchef koordiniert werden. Es gibt verschiedene Spezialisten (z.B. für die Zubereitung von Fleischgerichten oder Nachtischen) die ihre Arbeit zeitlich aufeinander abgestimmt verrichten müssen. Nur so bekommt jeder Gast seinen jeweiligen Gang zum jeweils richtigen Zeitpunkt serviert. Mit dem digitalen Bestellungs-Input kann auch hier optimiert werden: wenn jeder Koch an der Wand vor sich einen Touch-Bildschirm hat kann er dort angeben, dass er gerade eine Zubereitung abgeschlossen hat, er bekommt direkt die nächste Besellung angezeigt und kann kurz darauf melden, dass er fertig ist und das Gericht abgeholt werden kann. Eine Koordination durch hektisches Durcheinanderschreien ist nicht mehr nötig.
Zur Schlusspointe: ein solches System kann nicht nur die Bestell- und Küchenprozesse agilisieren, es kann auch selbst agil erstellt werden. Zuerst Handhelds für die Kellnerinnen, dann ein "digitaler Leitstand" für den Küchenchef, zuletzt Computerprogramme die Verteilung und Timing der Zubereitungs-Aufgaben automatisiert durchführen - iterativ-inkrementelle Arbeit wie im Lehrbuch, mit der Möglichkeit zu ständigen Feedbackschleifen und Verbesserungen. Und wenn am Ende der Küchenchef seine Berufsbezeichnung zum CTO ändert ahnt man, zu welchen Umwälzungen die Digitalisierung führen kann.
1Ich bin mir nicht mehr sicher in welchem ich diese Einblicke bekommen habe, ich glaube aber, dass es das Weiße Bräuhaus war.
Donnerstag, 27. Oktober 2016
Digitalisierung
Grafik: Pixabay / Geralt - Lizenz |
Wenn meine Kunden mich nach den Voraussetzungen für eine gelungene Einführung von Scrum/Agile fragen nenne ich (neben anderen) immer die Digitalisierung von Daten und Prozessen. Das überrascht dann den einen oder anderen (was wiederum mich überrascht1). Bei genauerer Betrachtung stellt sich oft heraus, dass noch weite Teile des Unternehmens in der Welt der physischen Datenhaltung verblieben sind. Aber warum ist das ein Problem? Aus mehreren Gründen.
Zunächst sind nicht digitalisierte Informationen nur schwer verfügbar. Wenn man sich nicht gerade am Standort des physischen Archivs befindet muss man den Archivar oder die Sekretärin anrufen, sie auf die Suche schicken und hoffen, dass sie das Richtige finden. Und selbst wenn das gelungen ist gehen die Probleme weiter. Entweder man muss auf die Zustellung warten oder man lässt alles einscannen und hat dann ein riesiges, nicht durchsuchbares PDF (oder noch schlimmer: einen Ordner voll JPGs). Handelt es sich bei derartig schwer zugänglichen Dokumenten um wichtige Informationen (Lizenzverträge, Zuständigkeitsabgrenzungen, Stakeholderverzeichnisse, etc.) kann es sein, dass ihre späte Verfügbarkeit den Beginn der Arbeiten stark verzögert, bzw. bereits getane Arbeit obsolet werden lässt.
Dazu kommt, dass physische Daten oft nur mit Mühe zu aktualisieren sind. In einem Unternehmen habe ich erlebt, dass die Mitarbeiter ihr Feedback zu einer neuen Software auf Papier schreiben und in BVW-Briefkästen einwerfen mussten. Alleine das Entziffern und Abtippen dauerte ewig. In einem anderen Fall druckte der Kundendienst die Feedback-Emails der Kunden aus und heftete sie in Aktenordnern ab (!). Infolgedessen traten wieder die im letzten Abschnitt beschriebenen Probleme auf. Mit einem solchen Vorgehen ist es nahezu unmöglich die Rückmeldungen der Benutzer zeitnah in die Weiterentwicklung einfließen zu lassen.
Einen Sonderfall bilden halbherzige oder Teil-Digitalisierungen. Auch hier Beispiele aus der Praxis: In einer Behörde lag der von einer Agentur erstellte Corporate Identity-Leitfaden zwar digital vor, allerdings nur gebrannt auf CDs, die (natürlich) in Aktenordnern im Archiv lagen. In einem anderen Unternehmen waren Produktdaten zwar in einer Access-Datenbank erfasst, die allerdings keine Schnittstelle zu den Webanwendungen hatte, die diese Daten benötigten. Eine Gruppe von Werkstudenten machte nichts anderes als die beiden Systeme manuell zu synchronisieren, was jedesmal mehrere Wochen dauerte.
Wenn solche Daten von Anfang an in miteinander vernetzten CMS oder CRM-Systemen aufgenommen werden können Vorgänge auf eine im Vergleich atemberaubende Geschwindigkeit beschleunigt werden. Auf wichtige Dokumente oder aktuelle Nutzerstatistiken lässt sich innerhalb von Minuten zugreifen, und die entnommenen Informationen und Erkenntnisse können sofort in die Weiterführung der Arbeit übernommen werden. Schöne neue Welt. Erst so lässt sich wirklich agil arbeiten.
Das Problem an dieser Stelle ist natürlich, dass eine Digitalisierung und Vernetzung größerer Aktenbestände Zeit und Geld erfordert. Der mittel- und langfristige Effizienzgewinn ist allerdings so groß, dass diese Investition sich absolut lohnt.
1Okay, mittlerweile nicht mehr.