L2-E: Detailanalyse Commerce- & Kommunikations-APs (AP20–AP26)
Herkunft:
funding-drilldown-L1.md— Level-2-Drilldown E von 8.Ziel: Tiefenanalyse, Reife-Assessment und Vorhaben-Zuordnung der sieben APs außerhalb Kern-Vorhaben 1–3 und Kandidaten AP10–AP19.
Reihenfolge:
G → A → B → D/E/F (parallel) → C → H. E läuft parallel zu D und F.
Scope
Tiefenanalyse der sieben APs außerhalb der Kern-Vorhaben 1–3 und der Kandidaten AP10–AP19:
- AP20–AP23 (Commerce Intelligence, Vorhaben 4) — alle Status 🟡, Codebasis-Validierung ausstehend
- AP24 (Field-Device Media Pipeline mit On-Device Quality Scoring & Consent Management) — Status ⚪
- AP25 (Adaptive Multi-Channel Feedback Engine mit Domain-Specific Sentiment Analysis) — Status ⚪
- AP26 (Proactive Lifecycle Communication Engine) — Status ⚪, Ablehnungsrisiko 🟡–🔴
Nicht im Scope: Kern-APs (→ L2-D), Kandidaten AP10–AP19 (→ L2-F).
Quelldokumente
docs/strategy/funding-work-packages.md(§Commerce-Kandidaten + §AP24–AP26)docs/strategy/bsfz-antrag-vorhaben.md(Vorhaben 4)docs/supporting/reference/bsfz-ablehnungsrisiken.md(§Wackelkandidaten 5–6, §Muster D)docs/architecture/gdpr-strategy.mddocs/architecture/communications.md(Kanal-Architektur für AP25/AP26)docs/architecture/workflow-orchestration.md(Event-Orchestrierung für AP26)docs/product/PRODUCT_differentiators-10-percent.md(§1 360° Customer Profile)docs/schemas/schema-operations.md(§Offline Photo Upload Protocol für AP24)- ADR-021 (Customer Intelligence Context — EngagementScore, ChannelPreference)
Untersuchungsfragen
- Codebasis-Validierung: Welche der sieben APs haben Codebasis-Artefakte (Schemas, Prototypen, ADRs)? Welche sind rein konzeptionell?
- Vorhaben-Zuordnung AP24–AP26: Gehören die drei neuen APs in Vorhaben 4 (Privacy/Commerce-Bogen), bilden sie ein Vorhaben 5, oder verteilen sie sich auf bestehende Vorhaben (z.B. AP26 → Vorhaben 2 wegen Event-Orchestrierung, AP24 → Vorhaben 3 wegen On-Device-ML)?
- Vorhaben-4-Kohärenz: Ist die übergreifende Forschungsfrage (Privacy vs. Datennutzung) stark genug für AP20–AP23? Falls AP24–AP26 dazukommen — hält der Bogen?
- Privacy-Spannungs-Argumentation: Ist Muster D für alle APs tragfähig? AP24 hat eine Consent-Dimension (Recht am eigenen Bild), AP25 hat ChannelPreference-Privacy — passen sie in Muster D?
- Stunden-Plausibilität: 640h (AP20–AP23) + 340h (AP24–AP26) = 980h für überwiegend konzeptionelle APs — realistisch?
- Reife-Assessment: Welche APs sind reif für die Ersteinreichung? Welche verschieben sich auf Jahr 2+?
- Fehlende Belege: Welche ADRs, Research-Docs oder Prototypen müssen vor Einreichung erstellt werden? AP24 warnt explizit: ohne On-Device-ML kein AP.
- Abgrenzung zu Marketing/Trivialität: AP21 (AI-SEO), AP23 (Conversion Analytics), AP25 (Feedback-Engine) und AP26 (Lifecycle Communication) riskieren, als Standard-Marketing-Automatisierung wahrgenommen zu werden. Sind die technischen Argumentationen ausreichend?
- Abhängigkeiten zwischen neuen APs: AP24 verwandt mit AP16 (Mobile OCR — gleiche Pipeline, anderer Input). AP25 konsumiert AP20-Daten (EngagementScore). AP26 ↔ AP7a Abgrenzung: L2-E hat den Lead — die Abgrenzung zwischen AP26 (Lifecycle Communication) und AP7a (Broadcast-Resilience) wird hier geschrieben, L2-D übernimmt das Ergebnis.
Erwartete Ergebnisse
- Reife-Matrix (AP20–AP26 × Dimension: Codebasis, Belege, Forschungsfrage, Stunden, Risiko)
- Pro AP: F&E-/Engineering-Split und Gutachter-Einwand + Verteidigungstext (Input für L2-C)
- Vorhaben-Zuordnungsempfehlung für AP24–AP26
- Go/No-Go-Empfehlung pro AP für Ersteinreichung
- Liste fehlender Artefakte, die vor Einreichung erstellt werden müssen
- Für AP24–AP26: Initiale Antragstext-Entwürfe im Format von
bsfz-antrag-vorhaben.md(Ziel, Stand der Technik, Durchgeführte Arbeiten, Unsicherheiten) — diese APs haben noch keinen Antragstext - Für AP20–AP23: Ggf. überarbeitete Forschungsfragen und Antragstext-Korrekturen
- Abhängigkeits-Karte (AP24–AP26 zu bestehenden APs)
- AP26 ↔ AP7a Abgrenzungsdokument (wird von L2-D übernommen)
Akzeptanzkriterien
- Reife-Matrix enthält alle 7 APs × alle 5 Dimensionen — kein Feld leer oder "unklar"
- Go/No-Go pro AP enthält eine Begründung ≤3 Sätze
- AP24–AP26 Antragstext-Entwürfe bestehen den Frascati-Schnelltest (kein Feature-Vokabular, keine Gesetzesreferenzen)
- AP26 ↔ AP7a Abgrenzung ist als eigenständiger Abschnitt formuliert, nicht nur erwähnt
Offene Hypothesen (L1)
- V4 Time-Zero: Frühester V4-Commit 2026-04-17 (ADR-021). Prospektive F&E-Stunden sind FZulG-konform — die 640h müssen nicht alle vor Einreichung geleistet sein. Dennoch bewerten: Reicht die bisherige Beleglage für die Ersteinreichung, oder sollten weitere Artefakte vor Antragsstellung erstellt werden?
- AP25 → AP20 Abhängigkeit: AP25 konsumiert
EngagementScoreundChannelPreferenceaus ADR-021. Ohne AP20 gibt es kein AP25. Muss in Vorhaben-Zuordnung berücksichtigt werden. - AP24 hat eine harte Bedingung: On-Device Quality Scoring via TensorFlow.js/ONNX im PWA-Kontext. Falls nicht technisch realisierbar → Standard-Upload-Pipeline → kein AP.
- AP24–AP26 haben keine Wackelkandidat-Analyse in
bsfz-ablehnungsrisiken.md(nur Einzeiler in der Risikoübersicht). L2-E muss detaillierte Analysen im Stil von Wackelkandidat 1–6 erarbeiten. bsfz-antrag-vorhaben.mdenthält keine Texte für AP24–AP26. L2-E muss initiale Antragstext-Entwürfe erstellen.
Randbedingungen
- Ehrliche Bewertung der Reife — kein "Hochschreiben" konzeptioneller APs
- Empfehlung, ob Vorhaben 4 eingereicht, erweitert (AP24–AP26), aufgeteilt, oder auf Jahr 2 verschoben werden soll
- AP24: On-Device-ML muss real sein, sonst Standard-Upload-Pipeline
- AP26: 🟡–🔴 Ablehnungsrisiko — besondere Aufmerksamkeit bei der Forschungsfrage