← L3

Как клиенты оценивают 'хорошо' и 'плохо': 6-слойная модель критериев исполнения

«Нормально» — это не критерий качества

Product manager спрашивает пользователя: «Как вам продукт?» Ответ: «Нормально.» Что это значит? Что продукт идеально решает задачу? Что он терпим? Что пользователь не нашёл альтернативу?

«Нормально» не содержит информации, потому что вопрос не содержит структуры. Клиент оценивает качество не абстрактно — он оценивает конкретные аспекты исполнения конкретной задачи. «Медленно генерируется отчёт» — это конкретный критерий (Speed). «Непонятно, как интерпретировать результат» — это конкретный критерий (Confidence). «Слишком много ручных шагов» — это конкретный критерий (Effort).

Product DNA Section 5C формализует процесс: от обнаружения критериев до непрерывного мониторинга — через 6 слоёв.

6 слоёв Execution Criteria Architecture

#СлойВопрос, на который отвечаетМетодВыход
1DiscoveryЧто значит «хорошо выполнено»?Ulwick desired outcome statements50-150 outcomes per Primary Demand
2ClassificationКакого ТИПА этот стандарт?Kano Model surveyMust-be / One-dimensional / Attractive tag
3Meta-dimensionsВ какой КАТЕГОРИИ качества?SERVQUAL-adapted taxonomyCategory tag per outcome
4PrioritizationКакие критерии важнее ВСЕГО?ODI Opportunity ScoringOpportunity landscape map
5OperationalizationКак ПРОВЕРИТЬ?BDD Given/When/Then + QFD mappingAcceptance criteria per feature
6MonitoringМы всё ещё соответствуем?CSAT (outcome) + CES (process) per criterionOngoing quality tracking

Каждый слой строится на выходе предыдущего. Нельзя классифицировать (слой 2) без обнаружения (слой 1). Нельзя приоритизировать (слой 4) без классификации (слой 2) и категоризации (слой 3).

Слой 1: Discovery — Ulwick Desired Outcome Statements

Tony Ulwick (Outcome-Driven Innovation, 1991-2016) формализовал способ описания того, что клиент считает «хорошим исполнением». Формат:

{Направление} + {метрика} + {объект контроля} + {контекстуальный уточнитель}

Правила:

  • Направление: всегда «minimize» или «increase». Никогда не субъективное «improve» или «better» — они не измеримы.
  • Метрика: время, вероятность, количество, частота, стоимость — что-то, что можно измерить.
  • Объект контроля: что именно клиент пытается изменить.
  • Контекст: когда, где, при каких условиях.

Примеры:

Плохо сформулированоХорошо (Ulwick format)
«Быстрее делать отчёты»«Minimize the time it takes to generate a competitive analysis report from collected data»
«Точнее определять сегменты»«Increase the likelihood that segment classification reflects actual buyer behavior patterns»
«Проще добавлять данные»«Minimize the number of manual steps required to import interview transcript into the system»
«Лучше визуализация»«Minimize the effort required to share artifact with non-technical stakeholders in a presentable format»

Объём: для каждого Primary Demand (L2 в Product DNA Demand Architecture) нужно 50-150 desired outcome statements, организованных по Demand Steps (L3). Это кажется избыточным — до тех пор, пока вы не поймёте, что каждый outcome = один потенциальный competitive differentiator.

Как собирать outcomes

  1. Возьмите одну Primary Demand (L2) и разбейте на Demand Steps (L3)
  2. Для каждого Demand Step проведите 5-10 интервью с вопросом: «Когда вы делаете [шаг], что может пойти не так? Что занимает больше всего времени? Что разочаровывает?»
  3. Каждый ответ переформулируйте в Ulwick format (direction + metric + object + context)
  4. Deduplicate и группируйте — обычно сходится к 50-150 уникальным outcomes

Слой 2: Classification — Kano Model (1984)

Noriaki Kano предложил классификацию, которая объясняет, почему некоторые функции вызывают восторг, а другие — только раздражение при отсутствии:

Категория KanoЕсли реализованоЕсли НЕ реализованоПример
Must-be (базовые) Нейтральная реакция — «ну, это же очевидно» Сильное неудовлетворение — «это вообще как?!» Продукт загружается за <3 секунды. Данные не теряются. Авторизация работает.
One-dimensional (линейные) Удовлетворение пропорционально реализации Неудовлетворение пропорционально отсутствию Скорость генерации отчёта: чем быстрее, тем довольнее. Чем медленнее, тем злее.
Attractive (восхищающие) Восторг — «вау, я не ожидал!» Нейтральная реакция — не знал, что это возможно AI автоматически связывает факты из разных интервью в паттерн. Неожиданно, но ценно.

Temporal decay: A → O → M

Критический инсайт Kano: категории деградируют со временем. То, что вчера было Attractive (восторг), завтра становится One-dimensional (ожидание), послезавтра — Must-be (минимум).

Реальный пример: в 2015 году real-time collaboration в документах (Google Docs) была Attractive. В 2020 — One-dimensional (Notion, Coda тоже это делали). В 2025 — Must-be (любой инструмент без real-time collaboration воспринимается как сломанный).

Практическое следствие: регулярно пересматривайте Kano-классификацию. Функции, которые год назад вызывали восторг, сейчас могут быть table stakes.

Как проводить Kano survey

Для каждого outcome — пара вопросов:

  1. Functional: «Если продукт [делает X], как вы к этому отнесётесь?» (Нравится / Ожидаю / Нейтрально / Терплю / Не нравится)
  2. Dysfunctional: «Если продукт НЕ [делает X], как вы к этому отнесётесь?» (те же варианты)

Комбинация ответов определяет категорию. Например: «Нравится» + «Не нравится» = One-dimensional. «Нравится» + «Нейтрально» = Attractive. «Нейтрально» + «Не нравится» = Must-be.

Слой 3: Meta-dimensions — 6 измерений качества

Parasuraman, Zeithaml и Berry (1985/1988) создали SERVQUAL — модель 5 измерений качества сервиса. Product DNA адаптирует её для продуктовых критериев:

#ИзмерениеВопросПример outcome
QD1AccuracyПравильный ли результат?«Increase the likelihood that extracted facts match interview content»
QD2SpeedКак быстро?«Minimize the time from data upload to first insight»
QD3ConfidenceМожно ли доверять результату?«Increase the likelihood that recommendations are evidence-based»
QD4FitПодходит ли под мой контекст?«Minimize irrelevant recommendations for my industry/segment»
QD5PresentationУдобно ли использовать результат?«Minimize the effort to share artifact with stakeholders»
QD6EffortСколько усилий от меня потребовалось?«Minimize manual data entry during onboarding»

Каждый desired outcome (из слоя 1) получает тег одного или нескольких meta-dimensions. Это позволяет анализировать, в каком аспекте качества продукт силён, а в каком — слаб.

Типичный паттерн для AI-продуктов: высокий Speed (QD2) + низкий Accuracy (QD1) + очень низкий Confidence (QD3). Пользователь получает результат быстро, но не уверен в его правильности. Приоритет: поднять Accuracy и Confidence, а не ускорять Speed ещё больше.

Слой 4: Prioritization — ODI Opportunity Scoring

Tony Ulwick разработал формулу, которая объективно определяет, какие outcomes представляют наибольшую возможность:

Opportunity Score = Importance + max(Importance - Satisfaction, 0)

Где:

  • Importance — насколько критичен этот outcome для клиента (survey, шкала 1-10)
  • Satisfaction — насколько хорошо текущие решения удовлетворяют этот outcome (survey, шкала 1-10)

Интерпретация:

Opportunity ScoreСтатусДействие
≥ 12Underserved — сильная возможностьBuild now. Клиенты считают это важным, но ни одно решение не справляется
10-12Appropriately served — table stakesMaintain. Не дифференциатор, но необходимость
< 10Overserved — возможность упрощенияReduce или eliminate. Клиенты не ценят текущий уровень — можно упростить

Kano overlay для ODI

Комбинирование ODI scoring с Kano classification даёт более точную приоритизацию:

  • Must-be + Satisfaction < 4 → CRITICAL. Базовое ожидание не выполнено. Это не opportunity — это системная ошибка. Чинить немедленно.
  • One-dimensional + high Opportunity Score → PRIMARY build target. Линейная зависимость: чем лучше сделаете, тем довольнее клиент. Максимальный ROI на усилия.
  • Attractive + any score → Не появится в опросах (клиенты не знают, что это возможно). Требует qualitative discovery: наблюдение, customer development, competitor analysis.

Минимальная выборка: Ulwick рекомендует n ≥ 180 респондентов на сегмент для статистической валидности ODI scoring. Для ранних стадий (pre-PMF) достаточно 30-50 — но с пометкой, что confidence ниже.

Слой 5: Operationalization — BDD Given/When/Then

Dan North (2006) предложил Behavior-Driven Development как способ перевести бизнес-требования в проверяемые спецификации. Product DNA использует BDD для операционализации desired outcomes:

Desired OutcomeBDD Specification
«Minimize the time it takes to generate a competitive analysis» Given project has ≥ 10 facts collected
When user clicks "Generate Competitive Analysis"
Then artifact is generated within 30 seconds
And artifact contains ≥ 5 competitive dimensions
«Increase the likelihood that extracted facts match interview content» Given user sends message with factual content
When FactExtractorService processes the message
Then ≥ 80% of extracted facts are semantically accurate
And no hallucinated facts appear in output
«Minimize manual data entry during onboarding» Given new user creates first project
When user describes their niche in 2-3 sentences
Then system auto-populates project context
And user enters ≤ 3 manual inputs to start working

Каждая BDD-спецификация — это acceptance criterion для разработки. Инженер видит не абстрактное «сделать быстрее», а конкретное «≤ 30 секунд, ≥ 5 dimensions». QA проверяет не «работает ли», а «соответствует ли Given/When/Then».

QFD mapping: outcome → feature → spec

Quality Function Deployment (Akao, 1990) — методика трансляции клиентских требований в технические характеристики. В Product DNA:

  1. Outcome (что клиент хочет) → Feature (что мы строим) → Spec (как мы проверяем)
  2. Одна feature может покрывать несколько outcomes
  3. Один outcome может требовать несколько features
  4. Матрица QFD показывает coverage: какие outcomes покрыты, какие — нет

Слой 6: Monitoring — CSAT + CES per criterion

После запуска нужен непрерывный мониторинг. Два инструмента:

ИнструментЧто измеряетФорматКогда использовать
CSAT (Customer Satisfaction Score) Удовлетворённость результатом (outcome quality) «Насколько вы довольны [конкретным outcome]?» (1-5 или 1-7) После завершения core action. Привязан к конкретному outcome, а не к продукту в целом
CES (Customer Effort Score) Усилие, затраченное на процесс (execution quality) «Насколько легко было [выполнить задачу]?» (1-7) После каждого Demand Step (L3). Dixon et al. (2010) доказали: CES — лучший предиктор loyalty, чем NPS

Dixon, Freeman и Toman (2010) в исследовании для HBR показали, что снижение усилий клиента (CES) — более сильный предиктор лояльности, чем повышение удовлетворения (CSAT). Проще говоря: сделать проще важнее, чем сделать приятнее.

Пример: PM-инструмент — 15 outcomes через все 6 слоёв

Рассмотрим конкретный пример для инструмента управления проектами. Primary Demand (L2): «Когда начинается новый спринт, спланировать работу команды так, чтобы приоритетные задачи были выполнены в срок.»

Слой 1: Discovery — 15 outcomes (выборка)

#Desired Outcome (Ulwick format)
1Minimize the time it takes to prioritize backlog items for the upcoming sprint
2Increase the likelihood that sprint capacity matches actual team availability
3Minimize the number of tasks that carry over to the next sprint
4Increase the likelihood that dependencies between tasks are identified before sprint start
5Minimize the effort to communicate sprint plan to stakeholders
6Increase the likelihood that the most critical bugs are addressed in each sprint
7Minimize the time spent in sprint planning meetings
8Increase the likelihood that team members understand their assigned tasks without clarification
9Minimize the number of mid-sprint scope changes
10Increase the accuracy of effort estimates for planned tasks
11Minimize the time to identify blocked tasks during sprint execution
12Increase the likelihood that sprint retrospective insights are actionable
13Minimize the effort to track sprint progress in real-time
14Increase the confidence that velocity trends reflect actual team performance
15Minimize the number of manual status updates required from team members

Слой 2-3: Classification + Meta-dimensions

#KanoMeta-dimensionКомментарий
1One-dimensionalSpeedЧем быстрее приоритизация, тем довольнее. Прямая зависимость
2Must-beAccuracyЕсли capacity не совпадает — sprint fails. Базовое ожидание
3One-dimensionalAccuracyCarryover — прямой индикатор качества планирования
4Attractive → One-dimensionalAccuracyАвтоматическое определение зависимостей — пока ещё wow, скоро будет ожидание
5One-dimensionalEffort, PresentationЧем проще поделиться планом, тем довольнее
8Must-beFitЕсли задачи непонятны без доп. вопросов — базовая ошибка UX
10AttractiveAccuracy, ConfidenceAI-based estimation — пока wow-фактор
11One-dimensionalSpeedReal-time blocker detection — линейная ценность
15Must-be → killerEffortРучные обновления статуса — главная боль команд. Автоматизация = must

Слой 4: ODI Prioritization

#ImportanceSatisfactionOpportunity ScoreПриоритет
1 (prioritize backlog)949 + 5 = 14Underserved — build now
2 (capacity match)868 + 2 = 10Table stakes — maintain
3 (minimize carryover)939 + 6 = 15Extremely underserved — top priority
4 (dependencies)737 + 4 = 11Underserved — good opportunity
10 (estimate accuracy)828 + 6 = 14Underserved — build now
15 (minimize manual updates)929 + 7 = 16Extremely underserved — top priority

Результат: #15 (минимизация ручных обновлений) и #3 (сокращение carryover) — два highest-opportunity outcomes. Это конкретные targets для дифференциации. Не «сделать лучше Jira», а «решить две конкретные underserved потребности».

Слой 5: Operationalization (примеры)

Outcome #15 → BDD:

Given team member moves task to "In Progress" in the board
When task status changes
Then sprint dashboard updates automatically within 5 seconds
And no additional status update action is required from team member
And stakeholders see updated progress without refreshing page

Outcome #3 → BDD:

Given sprint contains 20 tasks with estimated effort
When system detects velocity vs remaining work mismatch at sprint midpoint
Then system alerts PM with specific tasks at risk of carryover
And suggests re-prioritization options ranked by impact

Слой 6: Monitoring

После релиза — per-outcome CSAT + CES:

  • Outcome #15: CES survey после каждого sprint → «Насколько легко было отслеживать прогресс?» (1-7)
  • Outcome #3: CSAT survey в конце спринта → «Насколько вы довольны тем, как система помогла завершить запланированные задачи?» (1-5)

Практическое применение: пошаговый процесс

  1. Определите Primary Demand (L2) и разбейте на Demand Steps (L3)
  2. Для каждого L3 соберите outcomes (5-10 интервью, переформулируйте в Ulwick format)
  3. Проведите Kano survey (минимум 30 респондентов) → тегируйте каждый outcome
  4. Присвойте meta-dimensions (QD1-QD6) каждому outcome
  5. Проведите ODI survey (Importance + Satisfaction) → рассчитайте Opportunity Scores
  6. Для top-3 outcomes напишите BDD specs
  7. После релиза — настройте CSAT + CES мониторинг per outcome

Связанные материалы: 7 слоёв Product DNA · 26 Evidence Points → 26 Evidence Points · Feature Priority Matrix · ABCDX-сегментация

AI CPO автоматически формулирует desired outcomes из ваших данных и рассчитывает Opportunity Scores → aicpo.ru

Поделиться:
Р

Роман Неверов

Эксперт по продуктовому управлению и AI-инструментам для запуска продуктов

Попробуйте AI CPO

AI-ассистент для продуктовых команд — от идеи до запуска

Начать бесплатно
← Все статьи