RU EN

Исследование

Фаза исследования: от данных к пониманию

Фаза исследования — фундамент всей работы. Здесь собираются данные, формулируются спросы (Demands), строятся сегменты и создаётся база для стратегических решений. Все 10 артефактов этой фазы основаны на Product DNA v2 — нитях Demand Architecture, Motivation Genome и Evidence Engine.

Карта болей / Friction Points

Методология

Карта болей основана на концепции Frustration Pressure (F1) из Transition Dynamics. В Product DNA v2 «боль» — это friction point: конкретная неудовлетворённость текущим решением, которая толкает пользователя к поиску альтернативы. F1 = интенсивность × длительность × частота.

Friction points классифицируются по типу спроса, к которому они относятся:

Тип friction pointDemand TypeПримерЗначение для продукта
Функциональная DT1 (Direct) «Забываю включить таймер» Прямая функциональная ценность продукта
Эмоциональная Emotional Destination (Strand 1) «Чувствую вину за переоценку часов» Gap score: current → desired emotional state
Социальная DT6 (Social) «Клиент думает, что я непрофессионал» Social Risk (F5) — как хочет выглядеть
Frictional (Tax) DT3 (Frictional) «Ввожу данные заново, потому что экспорт сломался» L5 (Friction Point) — убрать автоматизацией
Compensatory DT7 (Compensatory) «Записываю в блокнот, потому что CRM не открывается на телефоне» Disruption opportunity — решить оригинальную потребность

Как работает генерация

  1. Вы описываете проблемы пользователей в чате (или загружаете данные из Telegram, файлы с отзывами)
  2. AI извлекает факты типа «pain» с весом от 10 до 100 (вес = интенсивность × достоверность)
  3. Friction points группируются по категориям и Demand Types
  4. Генератор строит приоритизированную карту: критические → средние → низкие

Критерии качества

  • Конкретность: «Забываю включить таймер» лучше, чем «неудобно учитывать время»
  • Привязка к контексту: каждая friction point привязана к конкретной ситуации (EP02 Catalyst)
  • Traceability: каждая friction point ссылается на конкретное сообщение из чата
  • Количество: минимум 5 для осмысленной карты, оптимально 10-15
  • Разнообразие: должны быть представлены разные Demand Types
Пример
Для приложения тайм-трекинга для фрилансеров:
Критические (F1 > 0.7):
— «Забываю включить таймер» (DT1 Direct, 12 упоминаний, вес 95)
— «Не понимаю, на что ушло время за неделю» (DT1 Direct, 9 упоминаний, вес 85)
Средние (F1 0.4-0.7):
— «Стыдно выставлять счёт "на глаз"» (DT6 Social, 6 упоминаний, вес 65)
— «Чувствую, что работаю неэффективно, но не могу доказать» (Emotional, вес 60)
Низкие (F1 < 0.4):
— «Хочу красивый отчёт для клиента» (DT1 Direct, 3 упоминания, вес 35)
Советы
  • Загрузите экспорт Telegram-чата целевой аудитории — AI извлечёт friction points из реальных разговоров
  • Цитируйте реальные слова пользователей (в кавычках) — это повышает вес факта
  • Для каждой friction point определите Demand Type — помогает понять стратегическое действие

Карта Core Drives

Артефакт из Strand 1 (Motivation Genome). Визуализирует глубинные мотивации целевой аудитории через 6 Core Drives:

#Core DriveОпределениеФразы-маркеры в интервью
CD1MasteryСтать лучше в том, что важно«хочу разобраться», «стать профессионалом»
CD2AutonomyКонтролировать процесс и решения«не зависеть от...», «сам решаю», «свобода»
CD3SecurityЗащитить то, что имеешь«не потерять...», «стабильность», «гарантия»
CD4StatusБыть признанным, заметным, уважаемым«чтобы считали экспертом», «репутация»
CD5ConnectionПринадлежать, быть частью чего-то«команда», «вместе», «для семьи»
CD6EfficiencyТратить меньше ресурсов на рутину«быстрее», «не тратить время», «автоматизировать»
B2B-правило
В B2B решениях почти всегда участвуют CD3 (Security) + CD4 (Status) для ЛПР лично — даже когда заявленная причина CD6 (Efficiency). Карта Core Drives помогает это увидеть.

Формулировка спроса (Demand Statements)

Методология: Product DNA Demand Statement

Demand Statement — фундаментальная единица анализа в Product DNA v2. Формулировка описывает не то, что делает продукт, а то, что пользователь пытается достичь в конкретном контексте.

Каноническая формула: «Когда [ситуация/trigger], я хочу [действие], чтобы [измеримый результат]»

Каждый Demand Statement относится к уровню в 7-уровневой иерархии спроса (L0-L6) и классифицируется по одному из 8 типов спроса (DT1-DT8).

8 типов спроса (Demand Types)

ТипОпределениеПримерСтратегическое действие
DT1 Direct Целенаправленное действие к результату «Купить куртку для похода» Решать лучше конкурентов
DT2 Orientational Поиск, оценка, выбор «Найти CRM под мою команду» SEO, контент, organic захват
DT3 Frictional Из-за дефектов текущего решения «Ввожу данные заново, экспорт сломался» Убрать автоматизацией
DT4 Aspirational Нет поведенческих доказательств «Когда-нибудь хочу выучить китайский» Отфильтровать из roadmap
DT5 Habitual Автоматическое повторение «Каждое утро открываю Slack» Retention driver — защищать
DT6 Social Для/с другими людьми «Показать отчёт клиенту» Viral growth — sharing
DT7 Compensatory Обходной путь «Записываю в блокнот — CRM слишком сложная» Disruption — решить оригинал
DT8 Emergent Только благодаря новому инструменту «AI находит паттерны в 50 интервью» Category creation — обучать рынок
Важно
DT2 (Orientational) = поисковые запросы → точка органического захвата: контент на vc.ru, Habr, YouTube, SEO.
DT3 (Frictional) = баги/фрикции текущих решений → продукт, который убивает friction конкурента, получает мощный Push (F1).
DT4 (Aspirational) = исключить из скоринга — нет поведенческих доказательств.

6 свойств спроса

СвойствоОпределениеШкалаВлияние на продукт
Sequence Position Позиция в цепочке исполнения 1-N ordinal Ранние = commoditize (автоматизация). Поздние = захватить ценность
Frequency Как часто спрос возникает Daily → Once Высокая частота = привычка, retention
Social Radius Сколько людей вовлечено Solo → Public Wider radius = higher viral coefficient
Elimination Potential Может ли продукт уничтожить этот шаг 0.0-1.0 High = «killable» step → автоматизация
Value Concentration Где пользователь видит создание ценности Low → Critical High = pricing anchor point
Switching Cost Стоимость смены решения на этом шаге $ / часы / риск High = moat creation opportunity
Killable Demands
Шаги ранее в цепочке с высоким Elimination Potential — «killable demands». Продукт, который «убивает» предшествующие шаги, захватывает больше ценности. Пример: Яндекс.Аренда убила шаги по осмотру, депозиту и договору — всё, что было до «заехать в квартиру».
Пример полного Demand Statement
L2 Primary Demand (DT1 Direct, daily, solo):
«Когда я заканчиваю рабочий день, я хочу точно знать, сколько часов я отработал на каждый проект, чтобы выставить честный счёт клиенту и не чувствовать себя виноватым за переоценку.»

Core Drive: CD2 (Autonomy) + CD3 (Security)
Emotional Destination: Frustrated → Confident (gap score: 7)
Trigger (EP02): Конец рабочего дня, когда нужно записать часы
Incumbent Solution (EP03): Google Sheets + таймер в телефоне
Decision Criteria (EP07): Быстро (< 3 мин), точно (± 5 мин), без ручного ввода

Demand Graph (Карта Job-ов)

Методология: Demand Graph Algebra

Карта Job-ов — визуальное представление 7-уровневой иерархии спроса и связей между ними. Это не обычная mind map — это граф с типизированными рёбрами:

Тип связиОбозначениеЧто означаетПример
hierarchyL1 → L2Декомпозиция «родитель-потомок»Life Outcome → Primary Demand → Demand Step
sequenceL3 → L3Временная последовательность«Collect data» → «Analyze» → «Prioritize»
enablesL3 ⇒ L3Prerequisite зависимость«Upload transcript» ⇒ «Extract data points»
conflictsL3 ⊗ L3Взаимоисключающие«Move fast» ⊗ «Be thorough»
competesSolution → L2Альтернатива решает тот же спросToggl → «Учёт времени»

Операции с графом

  • Coverage analysis: Какой % L3-шагов L2 покрывает наш продукт?
  • Gap analysis: Какие L3-шаги не имеют решающей фичи?
  • Chain bottleneck: Какой L3-шаг имеет наибольшую friction × frequency?
  • Elimination opportunity: Какие L3-шаги имеют высокий Elimination Potential?
Как использовать граф
  • Начинайте с L2 (Primary Demand) — это ваша текущая позиция
  • Смотрите вверх (L1): какой Life Outcome стоит за Primary Demand? Если вы решаете L1 целиком — это мощнее
  • Смотрите вниз (L3): какие Demand Steps можно «убить» (Elimination Potential)?
  • Смотрите вбок: какие Related Demands возникают до/после? Если решаете их тоже — это lock-in

Сегменты пользователей

Методология: Demand-Based Segmentation + Segment Fit Score

В Product DNA v2 сегмент = люди с одинаковыми Primary Demands + одинаковыми Execution Criteria в одинаковом контексте. Это принципиально отличается от демографической сегментации. 25-летний фрилансер и 55-летний CEO могут быть в одном сегменте.

Каждый сегмент оценивается по 10-факторному Segment Fit Score (см. Методология), который определяет грейд: A/B/C/D/X.

Классификация по Segment Fit Score

ГрейдScoreОпределениеДействие
A ≥ 7.5 Идеальный fit: спросы совпадают, готовы платить, быстрое решение All-in: продукт, маркетинг, продажи для них
B 6.0-7.4 Хороший fit: большинство спросов совпадают, есть фрикции Обслуживать хорошо, оптимизировать конверсию
C 4.0-5.9 Маргинальный: часть спросов совпадает, низкая WTP Деприоритизировать — 80% поддержки
D < 4.0 Плохой fit: спросы не совпадают Активно отказывать или перенаправлять
X Unscored Недостаточно данных Приоритет исследования — провести интервью
Правило 80/20
80% выручки должны приходить от A+B. Если C+D потребляют > 20% времени команды — активно обрезайте. Типичная ошибка: C-сегмент громко жалуется, и команда тратит ресурсы на него вместо A-сегмента.

Дашборд уверенности

Артефакт из Strand 5 (Evidence Engine). Визуализирует, что вы знаете и насколько уверены:

  • Покрытие EP: какие из 26 Evidence Points собраны, какие отсутствуют
  • Bayesian Confidence: вычисленная уверенность с учётом sample size, consistency, behavioral signal, temporal decay
  • Evidence Quality Tier: Hypothesis / Bronze / Silver / Gold / Platinum
  • Рекомендации: какие EP собрать в первую очередь для максимального прироста уверенности
Решения по уверенности
  • Confidence ≥ 0.70 → Безопасно строить фичи для этого спроса
  • Confidence 0.50-0.69 → Строить если low cost, иначе собирать больше данных
  • Confidence 0.30-0.49 → Приоритет исследования — НЕ строить
  • Confidence < 0.30 → Только гипотеза — валидировать перед любыми инвестициями

Карточки персон

Методология: Demand-driven персоны

В отличие от традиционных персон, demand-driven персоны фокусируются на спросах, контексте, Core Drives и Transition Forces. Карточка включает:

  • Primary Demand (L2) + Emotional Destination (Strand 1)
  • Core Drives — ключевые мотивации (CD1-CD6)
  • Trigger (EP02) — ситуация, когда возникает потребность
  • Incumbent Solution (EP03) — что используют сейчас
  • Decision Criteria (EP07) — как судят об успехе
  • Transition Forces — F1-F6 для этой персоны
  • Economic Threshold (EP16) — готовность платить
Пример
Персона: Анна, UX-дизайнер фрилансер
Primary Demand: Точный учёт времени на проекты
Core Drives: CD2 (Autonomy) + CD3 (Security)
Emotional Destination: Frustrated → Confident (gap: 7)
Trigger (EP02): Конец рабочего дня, нужно записать часы
Incumbent (EP03): Google Sheets + таймер в телефоне
Decision Criteria (EP07): Быстро (< 3 мин), точно, без усилий
WTP (EP16): 500-1000 руб./мес.
F1 Frustration: Формулы в Sheets ломаются, ручной ввод забывается (intensity: 7, freq: daily)
F3 Outcome Attraction: Видела авто-трекинг у коллеги — удобно
F4 Behavioral Inertia: Data: 3 года данных в Sheets. Habit: ежедневный workflow
F5 Risk Perception: Functional: «А вдруг потеряю данные при миграции?»

Скрипт интервью

Методология: 26 Evidence Points интервью

AI генерирует скрипт для глубинного интервью по Product DNA v2. Ключевое отличие: вопросы направлены на прошлое поведение (что делал, сколько платил, когда решил поменять), а не на будущие намерения («купили бы вы?»).

Золотое правило Product DNA
Спрос изучается по факту затрат в прошлом — НИКОГДА по будущим намерениям. «Купили бы вы?» = бесполезные данные. «Сколько заплатили за решение последний раз?» = реальный сигнал.

Структура скрипта

Скрипт строится вокруг 6 Transition Forces и 26 Evidence Points:

  1. Разогрев (2-3 мин) — установление раппорта, согласие на запись
  2. Контекст и Trigger (5-7 мин) — EP01-EP02: «Когда впервые задумались? Что произошло?»
  3. Incumbent Solution + Inertia (5-7 мин) — EP03, EP22: «Как решаете сейчас? Что пробовали раньше?»
  4. Frustration Pressure (10-15 мин) — EP04-EP05, EP20: «Что не устраивало? Почему ушли от предыдущего?»
  5. Outcome Attraction + Consideration Set (5-7 мин) — EP06, EP14, EP25: «Что рассматривали? Как видите жизнь через 6 мес.?»
  6. Risk Perception + Decision (5-7 мин) — EP07-EP08, EP21, EP23: «Чего боялись? Кто сопротивлялся?»
  7. First Contact + Value Revelation (3-5 мин) — EP09-EP10, EP26: «Первый опыт? Когда стало ценным? За сколько?»
  8. Advocacy + Engagement (3-5 мин) — EP11-EP12, EP24, EP19: «Как описали бы другу? Как измеряете ROI?»
  9. Завершение + попытка продажи (2-3 мин) — реальное предложение или CTA
26 Evidence Points
Каждое интервью должно стремиться собрать все 26 Evidence Points (см. 26 EP). Качество данных определяется покрытием:
  • Platinum: EP01-EP26, N ≥ 10 интервью → confidence ceiling 0.95
  • Gold: EP01-EP19, N ≥ 5 → ceiling 0.85
  • Silver: EP01-EP12, N ≥ 3 → ceiling 0.70
  • Bronze: EP01-EP07, N ≥ 1 → ceiling 0.50
  • Hypothesis: < 7 EPs, N = 0 → ceiling 0.30 max

Критерии качества

Артефакт из Strand 5C (Execution Criteria). Формализует, как клиенты оценивают выполнение спроса:

Мета-измерениеВопросПример outcome
AccuracyПравильный ли результат?«Увеличить вероятность, что извлечённые факты соответствуют содержанию интервью»
SpeedНасколько быстро?«Минимизировать время от загрузки данных до первого инсайта»
ConfidenceМожно ли доверять?«Увеличить вероятность, что рекомендации основаны на доказательствах»
FitПодходит ли к моему контексту?«Минимизировать нерелевантные рекомендации для моей индустрии»
PresentationУдобно ли представлен результат?«Минимизировать усилия для отправки артефакта стейкхолдерам»
EffortСколько усилий?«Минимизировать ручной ввод данных при онбординге»

Включает Kano-классификацию (Must-be / One-dimensional / Attractive) и ODI Opportunity Score (Importance + max(I-S, 0)) для приоритизации.

Рекрутинг респондентов

Методология: поиск людей с реальным опытом

Критическое правило рекрутинга: только люди, которые УЖЕ ПЛАТИЛИ деньги за решение релевантного спроса или конкурирующее решение. Заявленные намерения («Я бы купил...») = бесполезные данные.

9 каналов рекрутинга

#КаналЛучше всего дляСтоимостьСкоростьКачество данных
1Существующие клиентыЛюбой продукт с юзерамиБесплатно1-2 дняВысшее — они уже платили ВАМ
2Личная сеть (команда)Редкая экспертиза, B2BБесплатно1-3 дняВысокое — тёплый контакт
3Snowball-рефералыПосле первых 2-3 интервьюБесплатноOngoingВысокое — pre-qualified
4Telegram-каналы/чатыRU/CIS, B2C, SMB0-3000 руб.3-7 днейСреднее
5LinkedIn + emailB2B, international0-5000 руб.5-14 днейСреднее-Высокое
6Конференции/вебинарыНишевые профессионалы0-15000 руб.7-14 днейСреднее
7Платные панелиСрочно, USA/Europe$50-200/интервью1-5 днейСреднее (incentive bias)
8Рекрутинговые агентстваB2B, C-level$100-500/интервью7-21 деньСреднее-Высокое
9B2C-агентства (RU)Российский рынок3-10K руб./интервью5-10 днейСреднее

Скрининг: 5 обязательных фильтров

Скрининговая анкета
1. Платили ли за решение этой задачи? (обязательно — без исключений)
— Что именно? Сколько? Когда?

2. В целевом сегменте?
— Роль/ситуация совпадает? Контекст (trigger, стадия) совпадает?

3. Может описать ПРОШЛОЕ поведение?
— «Расскажите о последнем разе, когда...» Если только «Я бы...» → отклонить

4. Свежесть: спрос проявлялся в последние 6 месяцев?
— Старше = искажение памяти (Kahneman: peak-end rule)

5. Автономия решения: этот человек принимал решение о покупке?
— B2B: был ли ЛПР или только пользователь?

Автоматическое исследование

Помимо ручного ввода данных, AI CPO проводит автоматическое исследование ниши. Нажмите кнопку «Исследование» в чате или напишите «Исследуй нишу [название]».

Как работает

  1. Подбор ниши: NicheMatcher — keyword LIKE match → LLM fallback → find/create niche
  2. Проверка кеша: Если ниша уже исследовалась и данные свежие — возвращаются мгновенно (0 сетевых вызовов)
  3. Расширение запросов: LLM генерирует поисковые запросы для DuckDuckGo и Telegram
  4. Поиск каналов: Находит TG-каналы (фильтр: подписчики ≥ 50, посты свежее 90 дней, фильтр ботов)
  5. Сбор постов: Парсит 2-3 страницы из каждого канала (~60 постов, pagination через before=)
  6. Поиск статей: Находит статьи на vc.ru, Habr (JSON state + generic readability)
  7. LLM-фильтрация: AI отбирает только pain-relevant инсайты
  8. Итерация: Если инсайтов < 5 — исследование повторяется (до 3 раундов)
Кеширование
Результаты исследований кешируются для всех пользователей (shared corpus). TTL: посты 24ч, статьи 7д, инсайты 90д. Повторное исследование той же ниши может быть бесплатным, если кеш свежий.
Стоимость
Автоматическое исследование стоит 500 кредитов. Используйте его после первичного сбора контекста через чат — тогда AI будет искать инсайты, релевантные уже собранным данным.
Назад Быстрый старт Далее Стратегия