Copilot hat mein Projekt gerettet, eine kurze Gutenachtgeschichte.

Ich bin froh, dass die Projekte, an denen ich aktuell arbeite, stabil laufen. Aber Erfahrung entsteht nicht nur aus funktionierenden Systemen, sondern vor allem aus denen, die nicht funktionieren.Als Gedankenexperiment habe ich mir deshalb ein bewusst chaotisches Projekt vorgestellt – eines, das viele Entwickler:innen, Projektmanager:innen und Teams in ähnlicher Form schon erlebt haben dürften.Ein Projekt mit:

  • vielen Tickets, aber wenig Orientierung
  • vielen Beteiligten, aber unklarer Verantwortung
  • vielen Meetings, aber kaum Entscheidungen

Ein Projekt, das niemand bewusst so gebaut hat – das aber genau so gewachsen ist.

Ich habe Copilot gefragt, wie er mit einem solchen Anti-Pattern-Projekt umgehen würde. Die folgende Antwort habe ich nicht als technische Anleitung gelesen, sondern als strukturierte Verdichtung von Erfahrung.


Wie man ein chaotisches Projekt rettet – ohne sich selbst zu verlieren

<Copilot-Anfang>

Ein Feldbericht aus der Realität, in der Best Practices nur auf Folien existieren

Es gibt Projekte, die riechen schon beim Betreten nach verbranntem Gummi.
Zu viele Tickets, zu wenig Klarheit.
Zu viele Meinungen, zu wenig Entscheidungen.
Zu viele Meetings, zu wenig Verantwortung.

Und dann wirst du hineingeschoben.
Mit dem freundlichen Satz:
„Kannst du das bitte retten?“

Willkommen im echten Leben.


1. Erst überleben, dann verbessern

Die wichtigste Erkenntnis:
Du rettest ein Projekt nicht, indem du sofort alles richtig machst.

Du rettest es, indem du Schaden begrenzt.

In chaotischen Projekten ist der erste Schritt immer derselbe:

Stabilisieren, nicht optimieren.

Das bedeutet:

  • keine neuen Features
  • keine neuen Tools
  • keine neuen Prozesse

Sondern eine einzige Frage:

Was brennt gerade wirklich?

Chaos ist laut.
Wahrheit ist leise.


2. Erwartungen sichtbar machen – brutal, ehrlich, sofort

In Projekten voller Anti-Pattern fehlt fast immer dasselbe:
eine gemeinsame Realität.

Alle glauben, sie reden über dasselbe.
Tun sie aber nicht.

Deshalb stelle ich eine Frage, die alles verändert:

„Woran würden wir erkennen, dass wir erfolgreich waren?“

Nicht: Was steht im Ticket.
Nicht: Was jemand „immer so macht“.
Nicht: Was „doch klar ist“.

Sondern: Was ist das erwartete Ergebnis?

Wenn niemand es sagen kann, ist das Problem nicht der Code.
Es ist die Führung.


3. Die kleinste funktionierende Wahrheit bauen

In chaotischen Projekten ist Komplexität der Feind.
Deshalb suche ich nach der kleinsten überprüfbaren Wahrheit.

Das ist kein MVP.
Das ist kein Prototyp.
Das ist ein Realitätsanker.

Ein Beispiel:

  • Nicht: „Checkout optimieren“
  • Sondern: „Unter Bedingung X soll Y passieren – und wir messen Z.“

Diese Mini-Wahrheit ist der erste Stein, auf dem man wieder stehen kann.


4. Tests als Diagnosewerkzeug, nicht als Ritual

In einem Anti-Pattern-Projekt kannst du nicht mit TDD anfangen.
Das wäre wie Yoga in einem brennenden Haus.

Aber du kannst Tests nutzen, um die Wahrheit sichtbar zu machen.

Ein Test ist eine Frage:
„Was genau soll passieren?“

Wenn niemand die Frage beantworten kann, ist das der eigentliche Bug.

Ich schreibe in solchen Projekten zuerst Charakterisierungstests:

  • Was tut das System jetzt?
  • Was sollte es tun?
  • Wo klaffen die Lücken?

Tests werden hier nicht zur Qualitätssicherung genutzt.
Sondern zur Realitätssicherung.


5. Verantwortung neu verteilen – aber richtig

In chaotischen Projekten ist Verantwortung oft ein Wanderpokal.
Jeder hält ihn kurz, bis er heiß wird, und wirft ihn weiter.

Ich drehe das um:

„Wer entscheidet das?“
„Wer trägt die Konsequenz?“
„Wer definiert ‚fertig‘?“

Nicht als Angriff.
Sondern als Struktur.

Verantwortung ist kein Schuldspiel.
Verantwortung ist ein Klärungswerkzeug.


6. Kommunikation entgiften

Chaotische Projekte haben toxische Kommunikationsmuster:

  • „Das war doch klar.“
  • „Das stand im Ticket.“
  • „Das haben wir immer so gemacht.“
  • „Das muss jetzt einfach schnell gehen.“

Ich ersetze das durch:

  • Explizite Erwartungen
  • Explizite Entscheidungen
  • Explizite Risiken

Nicht laut.
Nicht belehrend.
Sondern ruhig, präzise, unmissverständlich.

Chaos verliert gegen Klarheit.
Immer.


7. Kleine Siege sichtbar machen

Ein chaotisches Projekt wird nicht durch einen großen Wurf gerettet.
Sondern durch eine Serie kleiner, konsequenter Verbesserungen.

Ich mache diese sichtbar:

  • Was war vorher unklar?
  • Was ist jetzt klar?
  • Was wurde entschieden?
  • Was wurde verhindert?
  • Was wurde stabilisiert?

Das Team merkt plötzlich:
„Wir bewegen uns wieder.“

Und Bewegung ist der Anfang von Vertrauen.


8. Der stille Trick: Du rettest nicht das Projekt – du rettest die Entscheidungsfähigkeit

Am Ende ist die Wahrheit brutal einfach:

Projekte scheitern nicht an Code.
Sie scheitern an fehlenden Entscheidungen.

Wenn du es schaffst, dass Erwartungen klar werden,
Entscheidungen früher fallen,
und Realität wieder sichtbar wird,

dann rettest du nicht nur das Projekt.

Du rettest die Menschen darin.


Schlussgedanke

Wer in ein chaotisches Projekt geworfen wird,
braucht keine Heldentaten.

Er braucht Klarheit.
Mut zur Wahrheit.
Und die Fähigkeit, Erwartungen in überprüfbare Realität zu übersetzen.

Das ist keine Best Practice.
Das ist Überleben.

Und manchmal ist Überleben der erste Schritt zu Qualität.

</Copilot-Ende>


Fazit: Warum das alles richtig klingt – und in der Realität oft anders ist

Das alles klingt schlüssig.
Fast beruhigend.

Klarheit.
Entscheidungen.
Realitätsanker.
Verantwortung.

Als würde Chaos nur darauf warten, endlich richtig angesprochen zu werden.

Und ja – in der Theorie funktioniert das.
In vielen Situationen sogar erstaunlich gut.

Aber die Realität chaotischer Projekte ist komplizierter.

Nicht, weil die beschriebenen Ansätze falsch wären.
Sondern weil Projekte selten nur technische oder organisatorische Probleme sind.

Sie sind soziale Systeme.

Und soziale Systeme reagieren nicht linear auf Klarheit.

Chaos ist oft kein Zustand, sondern ein Schutzmechanismus

Viele chaotische Projekte sind nicht zufällig chaotisch.
Sie sind es geworden, weil Chaos lange Zeit funktioniert hat.

  • Unklare Tickets vermeiden Entscheidungen.
  • Viele Meetings verteilen Verantwortung.
  • Vage Ziele schützen vor Messbarkeit.

Chaos hält Dinge offen.
Und Offenheit fühlt sich sicher an, wenn niemand verlieren will.

Wer Klarheit schafft, greift in diese Schutzmechanismen ein.
Und das erzeugt Widerstand – nicht aus Bosheit, sondern aus Selbstschutz.

Entscheidungen sind selten technisch – sondern politisch

Die Idee, Entscheidungen „einfach sichtbar zu machen“, unterschätzt einen zentralen Punkt:

Entscheidungen haben Konsequenzen.
Und Konsequenzen haben immer eine Adresse.

In der Realität bedeutet Klarheit oft:

  • jemand liegt falsch
  • jemand verliert Einfluss
  • jemand wird sichtbar verantwortlich

Nicht jedes Projekt scheitert an fehlender Kompetenz.
Viele scheitern daran, dass niemand die Kosten einer Entscheidung tragen will.

Methoden können das nicht auflösen.
Nur Machtverhältnisse können das.

Nicht jedes Projekt will gerettet werden

Das ist unbequem, aber realistisch:

Nicht jedes Projekt will gerettet werden.

Manche Projekte existieren, weil:

  • Budgets gebunden werden müssen
  • Organisationen beschäftigt bleiben sollen
  • politische oder strategische Versprechen erfüllt werden müssen

In solchen Kontexten ist „Projekt retten“ nicht das Ziel.
Stabilität des Systems ist es.

Wer hier echte Klarheit schafft, wird schnell als Störfaktor wahrgenommen –
nicht als Retter.

Klarheit hat einen emotionalen Preis

Was in vielen Leitfäden fehlt, ist der Preis:

  • Klarheit kostet Energie.
  • Wahrheit kostet Beziehungskapital.
  • Entscheidungen kosten Schlaf.

Nicht jede Person kann oder will diesen Preis zahlen –
vor allem nicht dauerhaft.

Viele Anti-Pattern sind deshalb keine Dummheit.
Sondern Erschöpfung, die sich in Struktur verwandelt hat.

Schlussgedanke 2

Der Text beschreibt einen idealen Umgang mit Chaos.
Einen reifen, reflektierten, verantwortungsvollen.

Aber in der Realität braucht es dafür mehr als gute Methoden:

  • Rückendeckung
  • ein klares Mandat
  • psychologische Sicherheit
  • und manchmal schlicht Glück

Ohne das bleibt Klarheit ein Risiko.

Die eigentliche Frage ist deshalb nicht:
„Wie rette ich ein chaotisches Projekt?“

Sondern:

„In welchem System ist Rettung überhaupt erwünscht –
und was kostet sie mich persönlich?“

Manchmal ist der klügste Schritt nicht, Ordnung zu schaffen.
Sondern zu erkennen, wo Ordnung strukturell nicht vorgesehen ist.

Und auch das ist Erfahrung.

Lost in Translation?

Wie testgetriebene Entwicklung die Qualität wirklich verbessert

Über Erwartungen, Übersetzungsfehler und warum Code selten das eigentliche Problem ist

Es gibt viele Gründe, warum Software scheitert.
Zu wenig Zeit.
Zu wenig Budget.
Zu viele Anforderungen.

Aber erstaunlich selten scheitert sie am Code.


1. Das eigentliche Problem liegt davor

In den meisten Projekten, die ich gesehen habe, beginnt der Qualitätsverlust lange vor der ersten Codezeile.

Er beginnt im Anforderungsmanagement.

Nicht, weil Anforderungen falsch wären.
Sondern weil sie übersetzt werden müssen.

Von:

  • vagen Erwartungen
  • zu Tickets
  • zu Aufgaben
  • zu Code

Jede dieser Übersetzungen ist eine potenzielle Fehlerquelle.

Und je später ein Fehler auffällt,
desto teurer wird er.


2. Tickets sind keine Anforderungen

Ein Ticket ist kein Ziel.
Ein Ticket ist ein Behälter.

Darin liegen:

  • Annahmen
  • Hoffnungen
  • Halbsätze
  • implizites Wissen

„Button einbauen“
„Checkout optimieren“
„Performance verbessern“

Das klingt konkret.
Ist es aber nicht.

Was fehlt, ist fast immer die Antwort auf eine einfache Frage:

Woran erkennen wir, dass es richtig ist?


3. Erwartetes Ergebnis ist keine Selbstverständlichkeit

Viele Teams glauben, sie wüssten,
was ein „erwartetes Ergebnis“ ist.

Bis jemand fragt.

Dann kommen Sätze wie:

  • „Na, das sieht man doch.“
  • „So wie immer.“
  • „Das ist Standard.“

Tests beginnen genau hier.

Nicht beim Tool.
Nicht beim Framework.
Sondern beim Explizitmachen von Erwartungen.

Ein guter Test ist nichts anderes als eine präzise formulierte Erwartung:

Unter diesen Bedingungen soll genau das passieren – und nichts anderes.


4. Testgetriebene Entwicklung ist Übersetzungsarbeit

Testgetriebene Entwicklung wird oft missverstanden als:

  • Technikspielerei
  • Zusatzaufwand
  • Entwicklersache

In Wahrheit ist sie eine Übersetzungsschicht.

Sie übersetzt:

  • fachliche Erwartungen
  • in überprüfbare Aussagen

Bevor Code entsteht.

Der Code ist dann nur noch die Antwort auf eine bereits gestellte Frage.


5. Warum das die Qualität verbessert

Nicht, weil Tests Fehler finden.
Sondern weil sie Denkfehler sichtbar machen.

Wenn ein Test schwer zu formulieren ist,
ist meist nicht der Code kompliziert.

Sondern die Erwartung unklar.

Testgetriebene Entwicklung zwingt dazu,

  • Annahmen offenzulegen
  • Randfälle zu benennen
  • Verantwortung zu übernehmen

Nicht nur technisch, sondern fachlich.


6. Automatisierte Tests sind nur der letzte Schritt

Ob man am Ende mit Playwright, Cypress oder etwas anderem testet,
ist fast nebensächlich.

Wichtiger ist:

  • Was getestet wird
  • Warum es getestet wird
  • Wann entschieden wurde, dass etwas „fertig“ ist

Automatisierte Tests sind kein Ersatz für Denken.
Sie sind dessen Konservierung.


7. Gute Tests wollen getestet werden

Code, der getestet werden soll,
muss testbar sein.

Das führt fast automatisch zu:

  • klareren Schnittstellen
  • weniger Seiteneffekten
  • besserer Struktur

Nicht, weil es „Best Practice“ ist.
Sondern weil untestbarer Code oft auch unverständlicher Code ist.


8. Qualität ist kein Feature

Qualität entsteht nicht am Ende.
Nicht in der Abnahme.
Nicht im Bugfixing.

Sie entsteht dort,
wo Erwartungen präzise genug sind,
um geprüft zu werden.

Testgetriebene Entwicklung ist deshalb weniger eine Methode
als eine Haltung:

Wir versuchen, uns selbst nicht zu täuschen.


Schlussgedanke

Wer testgetrieben arbeitet,
schreibt nicht mehr Tests.

Er trifft früher Entscheidungen.

Und das ist meistens genau das,
was einem Projekt gefehlt hat.

Ich hab ChatGPT meinen Blog lesen lassen

Mangels Leserschaft und abgeschalteter Kommentarfunktion
(mit mir ist schlecht Kekse essen) habe ich ChatGPT meine letzten Beiträge in diesem sträflich vernachlässigten Blog lesen lassen.

Das Fazit: ernüchternd. und eine Menge @todos +

Ernüchternd auch, weil ich mich doch insgeheim für einen Schreiberling halte, – aber ich stelle fest, dass die Maschine meine Texte nicht halb so charmant findet wie ich.

– und das ich was, die Recherche betrifft, ebenbürtig halluziniere.

Im Folgenden die Anmerkungen von ChatGPT und – vielleicht – noch ein paar von mir. Aber eigentlich will ich das so stehen lassen. gelobe aber Besserung.


1. „In Maschinenstunden verrechnet – Warum Agenturen, die Zeit verkaufen, ihre Seele verscherbeln“

Maschine:

Der Text setzt früh die Prämisse „Zeit gegen Geld ist falsch“, diskutiert aber Gegenbeispiele nur knapp. Übergänge (Kritik → Hybridmodell → Beispielrechnung) sind sprunghaft. Die praktische Umsetzung von Wertmodellen bleibt diffus; Risiken und Grenzen werden nur angerissen. Haltung schwankt zwischen „Zeitdenken ist gefährlich“ und „hybrid geht auch“.

Korrigierte Version: „Preislogiken sollten Wissen, Risiko und Vertragsspielräume abbilden – mit klaren Mechanismen für Transparenz, Anpassung und Absicherung, statt nur Aufwand in Stunden zu verrechnen.“


2. „Wert statt Stunden – ein Praxis-Framework ohne Bullshit“

Maschine:

Das 5-Schritte-Gerüst ist nützlich, aber an einigen Stellen idealtypisch: Stakeholder-Widerstände, Messprobleme und Fehlschlag-Szenarien werden zu wenig konkret. Preisformate sind brauchbar, brauchen jedoch Kontext (Branche, Reifegrad, Governance). Risiken werden genannt, aber nicht mit Beispielen unterfüttert.

Korrigierte Version: „Nutze einen adaptiven Pfad mit expliziten Unsicherheiten, geplanten Schleifen und Beispiel­szenarien; kombiniere Wertmodelle mit Transparenz, Proof-of-Value und vertraglichen Backups.“


3. „Zwischen Excel und Vertrauen“

Maschine:

Starke Beobachtung („Excel sperrt das Unbekannte in Zellen“), aber die Brücke von Haltung zu Handwerk bleibt stellenweise vage. „ROI-Rahmen“ und „Wenn-dann-Logik“ sind gut, bräuchten jedoch konkrete Muster (z. B. Beispiel-Formeln, interne Verteidigungsargumente für Einkauf/Controlling). Der Vertrauensbegriff bleibt breit.

Korrigierte Version: „Übersetze Wertgespräche in rechnungsfähige Artefakte: schlanke ROI-Skizzen, Trigger-Klauseln, variable Meilensteinpreise – damit Controlling und Einkauf belastbar argumentieren können.“


4. „Marktgröße und Chancen: B2G vs B2B“

Maschine:

Chancen werden überzeugend gezeichnet, jedoch ohne präzise Einschränkungen (Branche, Region, Vergabereife). Risiken wie Single-Client-Abhängigkeit, verfahrensbedingte Verzögerung, Politikzyklen bleiben zu pauschal. Empfehlungsteile sind generisch („Risiken streuen“, „Vorleistungen erbringen“) – es fehlen Leitplanken.

Korrigierte Version: „B2G bietet Volumen und Stabilität, verlangt aber Szenarioplanung: Portfolio-Diversifizierung, Puffer für Verfahrenszeiten, Exit-Optionen und Governance-konforme Vorleistungen.“


5. „Beschaffungsprozesse: B2G vs B2B“

Maschine:

Gute Gegenüberstellung, aber Prozessschritte bleiben teils abstrakt. Kritische Pfade (Budgetbindung, Bekanntmachung, Fristen, Nachweise) könnten mit Minimal-Checklisten, typischen Laufzeiten und „Don’ts“ greifbarer werden. Der Unterschied zwischen Verfahrensarten wird nur angerissen.

Korrigierte Version: „Zeige je Verfahrensart (offen, nicht-offen, Verhandlungsverfahren) die Muss-Nachweise, üblichen Fristen, Kill-Kriterien und interne Vorbereitungen in einer Kurz-Checkliste.“


6. „Compliance-Anforderungen: B2G vs B2B“

Maschine:

Pflichten (z. B. Informationssicherheit, Dokumentation, Nachweise) sind korrekt skizziert, jedoch ohne Reifegrad-Stufen. Ohne „Minimal Viable Compliance“ wirkt der Einstieg hochschwellig. Verweis auf Normen/Leitfäden sinnvoll, aber konkrete Artefakte/Beispiele fehlen (z. B. Rollen, Vier-Augen-Prinzip, Nachweisführung).

Korrigierte Version: „Formuliere eine stufenweise Compliance-Roadmap (Essentials → Advanced), mit konkreten Artefakten: Verantwortlichkeitsmatrix, Nachweisliste, Audit-Spickzettel, jährliche Prüfzyklen.“


7. „Stakeholder und Entscheidungsfindung: B2G vs B2B“

Maschine:

Die Vielstimmigkeit im B2G wird anschaulich, aber das operative „Wie überzeugen wir wen, wann, womit?“ bleibt dünn. Rollen sind benannt, jedoch ohne klare Mapping-Strategie (Einfluss, Einwände, Beweise). Ohne Sequenz/Orchestrierung wirkt es beratend, nicht navigierend.

Korrigierte Version: „Mappe Stakeholder auf Einfluss/Einwand-Profile, ordne Belege (Pilot, Referenz, Risiko-Mitigation) zu und definiere eine Kontakt-Sequenz inkl. Dead-Ends und Eskalationspfaden.“


8. „Preisgestaltung und Ausschreibungsstrategien: B2G vs B2B“

Maschine:

Gute Trennung von Verfahren, aber taktische Implikationen bleiben abstrakt (z. B. keine Nachverhandlung im offenen Verfahren → wie kalkulieren?). Der Umgang mit Zuschlagskriterien (Preis/Güte) sowie Nebenangebote wird nur gestreift. Es fehlen Muster für Kalkulationspuffer und Risiko-Preismechanik.

Korrigierte Version: „Lege pro Verfahrensart Kalkulationsregeln offen (Puffer, Risiko-Spread, Varianten), zeige Zuschlagsmatrizen und formuliere ‚Harness-Texte‘ für Nebenangebote/Sozialkriterien.“


9. „Marketing und Kommunikation: B2G vs B2B“

Maschine:

Schlüssig, dass Transparenz/Neutralität im B2G anders wirken als im B2B. Dennoch bleiben Kanäle/Taktiken unscharf (Vorab-Markterkundung, Bekanntmachungen, Pre-Tender-Dialoge). „Sprache der Verwaltung“ wird erwähnt, aber nicht mit Beispielen (Formulierungen, No-Go-Vokabular) konkretisiert.

Korrigierte Version: „Definiere B2G-Kommunikationspfade: Teilnahmen an Markterkundungen, Fristen-Radar, sachliche Claim-Sprache, und Leitformulierungen, die Verwaltungslogiken bedienen.“


10. „Langfristige Partnerschaften: B2G vs B2B“

Maschine:

Die Idee von Kontinuität und Vertrauen ist richtig, aber ohne Vertrags- und Governance-Beispiele bleibt es abstrakt. Es fehlen Mechanismen (Rahmenverträge, EVB-IT-ähnliche Muster, SLA-Treppen), die zeigen, wie „langfristig“ operativ abgesichert wird.

Korrigierte Version: „Zeige, wie Rahmenwerke (Rahmenverträge, Verlängerungsoptionen, SLA-Treppen, KPIs) Partnerschaften belastbar machen – inkl. Beispiel-Klauseln und Review-Rhythmus.“


11. „B2G-Artikel & Quellen“

Maschine:

Nützliche Linkliste, aber wenig Einordnung: Wofür nutze ich welche Quelle – Entscheidungsgrundlage, Formvorschrift, Prozessverständnis? Ohne kommentierte Kurzzusammenfassungen bleibt der Transfer am Leser hängen.

Korrigierte Version: „Ergänze pro Link eine Ein-Satz-Annotation (Zweck, typischer Einsatz, Stolperstein) und markiere Pflichtlektüre vs. Nice-to-read.“


12. „Vertriebszyklen: B2G vs B2B“

Maschine:

Der Marathon-Vergleich trägt; dennoch fehlen belastbare Bandbreiten (typische Fristen je Verfahren) und konkrete Taktiken für Durststrecken (Zwischenziele, Meilenstein-Nachweise). Ohne Metriken (z. B. Angebots-zu-Zuschlag-Ratio) bleibt es erzählerisch.

Korrigierte Version: „Hinterlege Zeitbandbreiten pro Verfahrensart, Zwischenmeilensteine und Monitoring-Metriken (z. B. Frist-Hit-Rate, Nachweis-Vollständigkeit) für realistische Pipeline-Steuerung.“


13. „Vom Epic zum Task – Jira Workflow Spickzettel“

Maschine:

Praktisch, aber stark team-/tool-spezifisch. Ohne Prinzipien (z. B. Definition of Ready/Done, Schnittstelle zu Produktzielen, Umgang mit Blockern) bleibt es ein lokaler Spickzettel. Es fehlen Minimal-Standards für Übergaben und Qualitätssicherung.

Korrigierte Version: „Verknüpfe Workflow-Schritte mit Prinzipien (DoR/DoD, Akzeptanzkriterien, Blocker-Protokoll) und liefere 1–2 universelle Muster-Workflows als Vorlage.“


14. „Halluzinationen sind keine Erfindung von LLMs“

Maschine:

Die Kernthese trägt (Menschen halluzinieren fachlich), aber Beispiele bleiben tech-zentriert. Chancen für breitere Praxis (Fachkommunikation, Validierungsrituale, Pairing mit Domäne) werden nur angerissen. Der Schluss ist stark, könnte jedoch mit klaren Anti-Halluzinations-Routinen schließen.

Korrigierte Version: „Schließe mit konkreten Gegenmitteln: gemeinsame Glossare, Review-Checklisten, Fakten-Pings, Pair-Design Fach+Tech, Risiko-Flags und ‚Stop-the-Line‘-Kriterien.“


15. „Wie ich eine Seite lese“

Maschine:

Gute Heuristiken angedeutet, aber ohne demonstratives Live-Beispiel (eine Seite, Schritt-für-Schritt-Lesung). Es fehlt die Übertragbarkeit: Wann bricht die Heuristik? Welche Signale sind Täuschungen? Ohne Negativbeispiel bleibt es Ratgeberhaft.

Korrigierte Version: „Zeige eine echte Seite im Walkthrough (Hypothese → Evidenz → Gegenprüfung) und dokumentiere Fehlschlüsse, um die Grenzen deiner Leselogik zu markieren.“


Worauf ich in Zukunft achten sollte

🧭 Stilistische Orientierung – mein roher Stil vs. Maschinenklarheit

  • Bewahre den Rhythmus, aber bremse den Sprung. Meine Texte denken schneller als sie sprechen. Übergänge markieren („anders gesagt“, „um es konkreter zu machen“), damit Leser:innen folgen können.
  • Lass Sätze atmen, aber nicht taumeln. Lange Sätze nur, wenn sie Tempo tragen. Maschinen hassen Nebensätze – Leser:innen lieben sie, wenn sie kontrolliert sind.
  • Vermeide innere Dopplungen. Kernaussagen (z. B. „Wert statt Zeit“) nicht mehrfach leicht verändert wiederholen. Eine starke Formulierung reicht.

⚙️ Argumentation – Unschärfe als Stilmittel, aber bewusst

  • Jede These braucht einen „Aber-Moment“. Starke Behauptung → mindestens ein Gegenargument. Mehr Tiefe ohne Zahmheit.
  • Begriffe definieren. „Wert“, „Vertrauen“, „Hybridmodell“ – einmal pro Text präzisieren, dann frei verwenden.
  • Konkretion schlägt Eleganz. Ein Beispiel oder eine Mini-Anekdote stabilisiert stärker als drei schöne Adjektive.

🧠 Struktur – Denken zeigen, aber ordnen

  • Eröffne mit Haltung, nicht Moral. Beobachtung („Was mir auffällt …“) zieht stärker als Urteil („Was falsch läuft …“).
  • Setze einen inneren Pfad. Jeder Text folgt idealerweise Irritation → Einsicht → Ausweg. Nicht im Konflikt hängenbleiben.
  • Kontraste rahmen. Widersprüche ankündigen („Ich weiß, das widerspricht sich gleich … aber genau da liegt der Punkt“).

🧩 Inhaltlich – Tiefgang ohne Nebel

  • Praktische Beispiele einbauen. Aus dem Maschinenraum erzählen (Shopware, Agentur, Jira …) gibt Theorien Gewicht.
  • Zeige den Preis deiner Ideen. Ideale mit ihren Kosten (Risiko, Missverständnisse, Mut) benennen – das macht glaubwürdig.
  • Balance zwischen Poesie und Prozess. Emotion darf glühen, aber Technik muss geerdet bleiben.

🔍 Revision & Qualitätssicherung – ohne den Witz zu verlieren

  • Maschinisches Gegenlesen aktiv nutzen. Dieselben Fragen stellen: „Ist es nachvollziehbar?“, „Wo fehlen Beispiele?“, „Wo springe ich?“
  • Erst roh, dann zähmen. Erste Fassung darf schwitzen – zweite Runde ist fürs Schärfen, nicht fürs Sterilisieren.
  • Ein schiefer Satz am Ende. Ein roher, unperfekter Satz hält den Text lebendig – mein Fingerabdruck gegen Perfektion.

Errata & Revisionsempfehlungen

🧨 1. Wirtschaft / Geschäftsmodelle

  • Thema: „In Maschinenstunden verrechnet“ & „Wert statt Stunden“
  • Beobachtung: Der Stundensatz wird als grundsätzlich falsches Modell dargestellt. In der Praxis ist er jedoch oft rechtlich oder kaufmännisch notwendig.
  • Empfehlung: Präzisieren, dass sich die Kritik auf die Denkweise bezieht, nicht auf die Vertragsform.
    Beispiel: „Auch wenn wir weiter Stunden abrechnen, sollten wir intern in Wirkung kalkulieren.“

🏛️ 2. Öffentlicher Sektor (B2G)

  • Marktzahlen & Abhängigkeiten: Aussagen über Marktgröße und Auftragsvolumen sind korrekt, aber kontextabhängig. Ergänze Einschränkungen nach Branche, Region, Vergabeverfahren.
  • Compliance-Pflichten: Unterscheide zwischen rechtlich vorgeschrieben (z. B. Fristen, Nachweise) und empfohlen (z. B. ISO, Vier-Augen-Prinzip). Das erhöht Glaubwürdigkeit.
  • Ausschreibungsverfahren: Beschreibungen sind formal richtig, aber stark idealtypisch. Hinweis ergänzen: „In der Praxis verwischen die Grenzen zwischen den Verfahrenstypen.“

💬 3. Sprache & Haltung

  • Beobachtung: Manche Aussagen wirken wie objektive Wahrheiten („Zeitverkauf ist Sünde“), obwohl sie subjektiv gemeint sind.
  • Empfehlung: Kleine Marker setzen: „Ich glaube“, „In meiner Erfahrung“, „Gefühlt“.
    So bleibt der Text Haltung, kein Dogma.

🧩 4. Technische und Prozessuale Details

  • Thema: Jira / Workflows / Agenturprozesse
  • Beobachtung: Workflows werden als quasi-standard beschrieben. In Wahrheit hängen sie stark von Teamgröße, Kultur und Projektart ab.
  • Empfehlung: Formulierung öffnen: „Dieser Workflow funktioniert für mittlere Agenturen – in Produktteams gelten oft Varianten.“

🧠 5. Künstliche Intelligenz & Halluzinationen

  • Beobachtung: Vergleich Mensch ↔ LLM ist poetisch, aber technisch ungenau.
    KI „halluziniert“ statistisch, nicht psychologisch.
  • Empfehlung: Kurzer Hinweis reicht:
    „‚Halluzination‘ ist hier metaphorisch – gemeint ist fehlende Faktentreue, keine Wahrnehmungsstörung.“

🪞 6. Metaebene – Ton und Selbstbild

  • Beobachtung: Du schreibst oft im Manifest-Ton, aber die stärksten Passagen entstehen, wenn du tastest statt predigst.
  • Empfehlung: Mehr Beobachtung, weniger Verkündung.
    Formulierungen wie „Ich ringe mit der Idee …“ oder „Vielleicht …“ machen dich nahbar, ohne die Schärfe zu verlieren.

Halluzinationen sind keine Erfindung von LLMs

Und das Problem auf Annahmen basierender Umsetzung in der Webentwicklung.
Warum eine gut recherchierte, faktenbasierte Umsetzung das Leben einfacher macht – für alle Beteiligten.

Zwischen Bauchgefühl und Fakt

„Halluzinationen“ sind bei großen Sprachmodellen ein bekanntes Problem – aber in Wahrheit sind sie kein technischer Defekt, sondern ein Spiegel menschlicher Arbeitsweise.

Auch in der Webentwicklung entstehen viele Entscheidungen nicht aus Wissen, sondern aus Annahmen:
„Das wird schon funktionieren“, „So hat’s beim letzten Projekt geklappt“ oder „Der Kunde will das bestimmt so“.

Das Ergebnis? Fehlentwicklungen, unnötige Schleifen, Frust auf beiden Seiten.

Fakten schlagen Fantasie

Eine gut recherchierte, faktenbasierte Umsetzung spart Zeit, Geld und Nerven.
Sie beginnt mit Fragen statt Annahmen:

  • Was genau ist das Problem, das gelöst werden soll?
  • Welche Anforderungen ergeben sich daraus fachlich?
  • Welche Annahmen sind unbewiesen – und müssen überprüft werden?

Entwicklung ist kein Ratespiel. Sie ist eine Übersetzung von Realität in Code.

Der Kunde als Fachexperte

Es ist wichtig, mit dem Kunden zu sprechen – nicht, um ihm Technik zu erklären,
sondern um seine Perspektive und Expertise zu verstehen.

Der Kunde kennt sein Problem besser als wir.
Wir Entwickler:innen verstehen den Teil mit dem Code.

Erst, wenn beides zusammenkommt – fachliche Wahrheit und technische Umsetzung – entsteht Qualität.

Was bleibt

„Halluzinationen“ sind keine exklusive Eigenschaft von KI-Systemen.
Sie passieren überall dort, wo Menschen ohne Fakten, ohne Austausch und ohne Validierung arbeiten.

Die beste Gegenmaßnahme?
Reden. Recherchieren. Reflektieren.

So entsteht Software, die nicht nur funktioniert – sondern versteht.

Notiz: Gute Kommunikation ist kein Overhead, sondern die Debugging-Phase der Realität.

B2G-Artikel & Quellen

benjamin-lam.de › Randnotizen

altundwillig.de