Busflow Docs

Internal documentation portal

Skip to content

L2-E: Detailanalyse Commerce- & Kommunikations-APs (AP20–AP26)

Herkunft: funding-drilldown-L1.md — Level-2-Drilldown E von 8.

Ziel: Tiefenanalyse, Reife-Assessment und Vorhaben-Zuordnung der sieben APs außerhalb Kern-Vorhaben 1–3 und Kandidaten AP10–AP19.

Reihenfolge: G → A → B → D/E/F (parallel) → C → H. E läuft parallel zu D und F.


Scope

Tiefenanalyse der sieben APs außerhalb der Kern-Vorhaben 1–3 und der Kandidaten AP10–AP19:

  • AP20–AP23 (Commerce Intelligence, Vorhaben 4) — alle Status 🟡, Codebasis-Validierung ausstehend
  • AP24 (Field-Device Media Pipeline mit On-Device Quality Scoring & Consent Management) — Status ⚪
  • AP25 (Adaptive Multi-Channel Feedback Engine mit Domain-Specific Sentiment Analysis) — Status ⚪
  • AP26 (Proactive Lifecycle Communication Engine) — Status ⚪, Ablehnungsrisiko 🟡–🔴

Nicht im Scope: Kern-APs (→ L2-D), Kandidaten AP10–AP19 (→ L2-F).

Quelldokumente

  • docs/strategy/funding-work-packages.md (§Commerce-Kandidaten + §AP24–AP26)
  • docs/strategy/bsfz-antrag-vorhaben.md (Vorhaben 4)
  • docs/supporting/reference/bsfz-ablehnungsrisiken.md (§Wackelkandidaten 5–6, §Muster D)
  • docs/architecture/gdpr-strategy.md
  • docs/architecture/communications.md (Kanal-Architektur für AP25/AP26)
  • docs/architecture/workflow-orchestration.md (Event-Orchestrierung für AP26)
  • docs/product/PRODUCT_differentiators-10-percent.md (§1 360° Customer Profile)
  • docs/schemas/schema-operations.md (§Offline Photo Upload Protocol für AP24)
  • ADR-021 (Customer Intelligence Context — EngagementScore, ChannelPreference)

Untersuchungsfragen

  1. Codebasis-Validierung: Welche der sieben APs haben Codebasis-Artefakte (Schemas, Prototypen, ADRs)? Welche sind rein konzeptionell?
  2. Vorhaben-Zuordnung AP24–AP26: Gehören die drei neuen APs in Vorhaben 4 (Privacy/Commerce-Bogen), bilden sie ein Vorhaben 5, oder verteilen sie sich auf bestehende Vorhaben (z.B. AP26 → Vorhaben 2 wegen Event-Orchestrierung, AP24 → Vorhaben 3 wegen On-Device-ML)?
  3. Vorhaben-4-Kohärenz: Ist die übergreifende Forschungsfrage (Privacy vs. Datennutzung) stark genug für AP20–AP23? Falls AP24–AP26 dazukommen — hält der Bogen?
  4. Privacy-Spannungs-Argumentation: Ist Muster D für alle APs tragfähig? AP24 hat eine Consent-Dimension (Recht am eigenen Bild), AP25 hat ChannelPreference-Privacy — passen sie in Muster D?
  5. Stunden-Plausibilität: 640h (AP20–AP23) + 340h (AP24–AP26) = 980h für überwiegend konzeptionelle APs — realistisch?
  6. Reife-Assessment: Welche APs sind reif für die Ersteinreichung? Welche verschieben sich auf Jahr 2+?
  7. Fehlende Belege: Welche ADRs, Research-Docs oder Prototypen müssen vor Einreichung erstellt werden? AP24 warnt explizit: ohne On-Device-ML kein AP.
  8. Abgrenzung zu Marketing/Trivialität: AP21 (AI-SEO), AP23 (Conversion Analytics), AP25 (Feedback-Engine) und AP26 (Lifecycle Communication) riskieren, als Standard-Marketing-Automatisierung wahrgenommen zu werden. Sind die technischen Argumentationen ausreichend?
  9. Abhängigkeiten zwischen neuen APs: AP24 verwandt mit AP16 (Mobile OCR — gleiche Pipeline, anderer Input). AP25 konsumiert AP20-Daten (EngagementScore). AP26 ↔ AP7a Abgrenzung: L2-E hat den Lead — die Abgrenzung zwischen AP26 (Lifecycle Communication) und AP7a (Broadcast-Resilience) wird hier geschrieben, L2-D übernimmt das Ergebnis.

Erwartete Ergebnisse

  • Reife-Matrix (AP20–AP26 × Dimension: Codebasis, Belege, Forschungsfrage, Stunden, Risiko)
  • Pro AP: F&E-/Engineering-Split und Gutachter-Einwand + Verteidigungstext (Input für L2-C)
  • Vorhaben-Zuordnungsempfehlung für AP24–AP26
  • Go/No-Go-Empfehlung pro AP für Ersteinreichung
  • Liste fehlender Artefakte, die vor Einreichung erstellt werden müssen
  • Für AP24–AP26: Initiale Antragstext-Entwürfe im Format von bsfz-antrag-vorhaben.md (Ziel, Stand der Technik, Durchgeführte Arbeiten, Unsicherheiten) — diese APs haben noch keinen Antragstext
  • Für AP20–AP23: Ggf. überarbeitete Forschungsfragen und Antragstext-Korrekturen
  • Abhängigkeits-Karte (AP24–AP26 zu bestehenden APs)
  • AP26 ↔ AP7a Abgrenzungsdokument (wird von L2-D übernommen)

Akzeptanzkriterien

  • Reife-Matrix enthält alle 7 APs × alle 5 Dimensionen — kein Feld leer oder "unklar"
  • Go/No-Go pro AP enthält eine Begründung ≤3 Sätze
  • AP24–AP26 Antragstext-Entwürfe bestehen den Frascati-Schnelltest (kein Feature-Vokabular, keine Gesetzesreferenzen)
  • AP26 ↔ AP7a Abgrenzung ist als eigenständiger Abschnitt formuliert, nicht nur erwähnt

Offene Hypothesen (L1)

  • V4 Time-Zero: Frühester V4-Commit 2026-04-17 (ADR-021). Prospektive F&E-Stunden sind FZulG-konform — die 640h müssen nicht alle vor Einreichung geleistet sein. Dennoch bewerten: Reicht die bisherige Beleglage für die Ersteinreichung, oder sollten weitere Artefakte vor Antragsstellung erstellt werden?
  • AP25 → AP20 Abhängigkeit: AP25 konsumiert EngagementScore und ChannelPreference aus ADR-021. Ohne AP20 gibt es kein AP25. Muss in Vorhaben-Zuordnung berücksichtigt werden.
  • AP24 hat eine harte Bedingung: On-Device Quality Scoring via TensorFlow.js/ONNX im PWA-Kontext. Falls nicht technisch realisierbar → Standard-Upload-Pipeline → kein AP.
  • AP24–AP26 haben keine Wackelkandidat-Analyse in bsfz-ablehnungsrisiken.md (nur Einzeiler in der Risikoübersicht). L2-E muss detaillierte Analysen im Stil von Wackelkandidat 1–6 erarbeiten.
  • bsfz-antrag-vorhaben.md enthält keine Texte für AP24–AP26. L2-E muss initiale Antragstext-Entwürfe erstellen.

Randbedingungen

  • Ehrliche Bewertung der Reife — kein "Hochschreiben" konzeptioneller APs
  • Empfehlung, ob Vorhaben 4 eingereicht, erweitert (AP24–AP26), aufgeteilt, oder auf Jahr 2 verschoben werden soll
  • AP24: On-Device-ML muss real sein, sonst Standard-Upload-Pipeline
  • AP26: 🟡–🔴 Ablehnungsrisiko — besondere Aufmerksamkeit bei der Forschungsfrage

Internal documentation — Busflow