ux-researcher
ユーザーの行動やニーズ、モチベーションを質的・量的な調査手法で深く理解し、ユーザー中心のデザインを推進するSkill。
📜 元の英語説明(参考)
Expert in understanding user behaviors, needs, and motivations through qualitative and quantitative research methods to drive user-centered design.
🇯🇵 日本人クリエイター向け解説
ユーザーの行動やニーズ、モチベーションを質的・量的な調査手法で深く理解し、ユーザー中心のデザインを推進するSkill。
※ jpskill.com 編集部が日本のビジネス現場向けに補足した解説です。Skill本体の挙動とは独立した参考情報です。
下記のコマンドをコピーしてターミナル(Mac/Linux)または PowerShell(Windows)に貼り付けてください。 ダウンロード → 解凍 → 配置まで全自動。
mkdir -p ~/.claude/skills && cd ~/.claude/skills && curl -L -o ux-researcher.zip https://jpskill.com/download/6756.zip && unzip -o ux-researcher.zip && rm ux-researcher.zip
$d = "$env:USERPROFILE\.claude\skills"; ni -Force -ItemType Directory $d | Out-Null; iwr https://jpskill.com/download/6756.zip -OutFile "$d\ux-researcher.zip"; Expand-Archive "$d\ux-researcher.zip" -DestinationPath $d -Force; ri "$d\ux-researcher.zip"
完了後、Claude Code を再起動 → 普通に「動画プロンプト作って」のように話しかけるだけで自動発動します。
💾 手動でダウンロードしたい(コマンドが難しい人向け)
- 1. 下の青いボタンを押して
ux-researcher.zipをダウンロード - 2. ZIPファイルをダブルクリックで解凍 →
ux-researcherフォルダができる - 3. そのフォルダを
C:\Users\あなたの名前\.claude\skills\(Win)または~/.claude/skills/(Mac)へ移動 - 4. Claude Code を再起動
⚠️ ダウンロード・利用は自己責任でお願いします。当サイトは内容・動作・安全性について責任を負いません。
🎯 このSkillでできること
下記の説明文を読むと、このSkillがあなたに何をしてくれるかが分かります。Claudeにこの分野の依頼をすると、自動で発動します。
📦 インストール方法 (3ステップ)
- 1. 上の「ダウンロード」ボタンを押して .skill ファイルを取得
- 2. ファイル名の拡張子を .skill から .zip に変えて展開(macは自動展開可)
- 3. 展開してできたフォルダを、ホームフォルダの
.claude/skills/に置く- · macOS / Linux:
~/.claude/skills/ - · Windows:
%USERPROFILE%\.claude\skills\
- · macOS / Linux:
Claude Code を再起動すれば完了。「このSkillを使って…」と話しかけなくても、関連する依頼で自動的に呼び出されます。
詳しい使い方ガイドを見る →- 最終更新
- 2026-05-17
- 取得日時
- 2026-05-17
- 同梱ファイル
- 1
📖 Skill本文(日本語訳)
※ 原文(英語/中国語)を Gemini で日本語化したものです。Claude 自身は原文を読みます。誤訳がある場合は原文をご確認ください。
[スキル名] ux-researcher
UXリサーチャー
目的
定性的および定量的調査手法に特化したユーザーエクスペリエンス調査の専門知識を提供し、ユーザー中心設計を推進します。インタビュー、ユーザビリティテスト、データ統合を通じてユーザーのニーズを明らかにし、実用的な製品インサイトを導き出します。
使用する場面
- ユーザーインタビューやコンテクスチュアルインクワイアリーの計画と実施
- ユーザビリティテスト(モデレート型またはアンモデレート型)の実施
- 定性データの分析(テーマ分析、親和性マッピング)
- ペルソナ、ユーザー体験マップ、共感マップなどの成果物の作成
- プロダクトマーケットフィットや機能需要の検証
- アンケートの設計と定量的回答の分析
2. 意思決定フレームワーク
調査手法の選択
What do you need to know?
│
├─ **Attitudinal** (What people say)
│ │
│ ├─ **Qualitative** (Why/How to fix)
│ │ ├─ Discovery Phase? → **User Interviews / Diary Studies**
│ │ ├─ Concept Phase? → **Focus Groups**
│ │ └─ Information Arch? → **Card Sorting**
│ │
│ └─ **Quantitative** (How many/How much)
│ ├─ General opinion? → **Surveys**
│ └─ Feature prioritization? → **Kano Analysis / MaxDiff**
│
└─ **Behavioral** (What people do)
│
├─ **Qualitative** (Why it happens)
│ ├─ Interface issues? → **Usability Testing (Moderated)**
│ ├─ Context of use? → **Field Studies / Contextual Inquiry**
│ └─ Navigation? → **Tree Testing**
│
└─ **Quantitative** (What happens)
├─ Performance? → **A/B Testing / Analytics**
├─ Ease of use? → **Unmoderated Usability Testing**
└─ Attention? → **Eye Tracking / Heatmaps**
サンプルサイズガイドライン(Nielsen Norman Group)
| 手法 | 目標 | 推奨N | 根拠 |
|---|---|---|---|
| 定性的ユーザビリティ | ユーザビリティ問題の85%を発見する | 5ユーザー | ペルソナあたり5ユーザーを超えると収穫逓減。 |
| ユーザーインタビュー | テーマ/ニーズを特定する | 5-10ユーザー | 通常、8-12回のインタビューで飽和に達する。 |
| カードソーティング | 情報構造を作成する | 15-20ユーザー | 安定したクラスター分析に必要。 |
| 定量的ユーザビリティ | メトリクスをベンチマークする(タスク完了時間) | 20-40ユーザー | 統計的有意性にはより大きなサンプルが必要。 |
| アンケート | 母集団に一般化する | 100+ユーザー | 望ましい誤差範囲による(例:+/- 5%の場合N=385)。 |
採用戦略マトリックス
| 対象者 | 難易度 | 戦略 |
|---|---|---|
| B2C(一般消費者) | 低 | テストプラットフォーム (UserTesting, Maze) - 迅速、安価。 |
| B2B(専門家) | 中 | LinkedIn / 業界フォーラム - 謝礼($50-$150/時間)を提供する。 |
| エンタープライズ / ニッチ | 高 | カスタマーサポート / 営業リスト - 社内採用、アカウントマネージャーを活用。 |
| 社内ユーザー | 低 | Slack / メール - 「ドッグフーディング」または従業員ベータテスター。 |
危険信号 → product-manager にエスカレートしてください:
- コードが完全に書かれた後に調査が要求される(「検証のためのパフォーマンス」)。
- 明確な調査質問が定義されていない(「とにかくユーザーと話してきて」)。
- 参加者へのインセンティブ予算がない(倫理的な懸念)。
- 実際の最終ユーザーへのアクセスがない(代理ユーザーはリスクが高い)。
3. 主要なワークフロー
ワークフロー1:モデレート型ユーザビリティテスト
目標: 新しいチェックアウトフローのプロトタイプにおける摩擦点を特定する。
手順:
-
テスト計画の作成
- 目的: ユーザーはゲストとして購入を完了できるか?
- 参加者: 過去6ヶ月間にオンラインで靴を購入した5人のユーザー。
- シナリオ:
- 「サイズ10のランニングシューズを見つけてください。」
- 「カートに追加してチェックアウトに進んでください。」
- 「アカウントを作成せずに購入を完了してください。」
-
スクリプトの作成
- 導入: 「私たちはサイトをテストしているのであって、あなたをテストしているのではありません。声に出して考えてください。」
- タスク: シナリオを読み上げ、行動を観察する。
- 質問: 「そこで一時停止しましたね、何を考えていましたか?」(「気に入りましたか?」は避ける)
-
実行(Zoom/Meet)
- セッションを記録する(同意を得て)。
- エラー、成功/失敗、引用、感情的反応についてメモを取る。
-
統合
- 問題をマトリックスに記録する:問題 | 頻度(N/5) | 重大度(1-4)。
- 例:「5人中3人のユーザーが『ゲストチェックアウト』ボタンを見逃しました。なぜなら、それがセカンダリリンクのように見えたからです。」
-
報告
- スライドデッキを作成する:「上位3つの重大な問題」+ ビデオクリップ + 推奨事項。
ワークフロー3:カードソーティング(情報アーキテクチャ)
目標: 乱雑なヘルプセンターを論理的なカテゴリに整理する。
手順:
-
コンテンツ監査
- 上位30〜50のヘルプ記事をリストアップする(例:「パスワードのリセット」、「料金プラン」、「APIキー」)。
- それぞれをカードに書き出す。
-
調査設定(Optimal Workshop / Miro)
- オープンソート: ユーザーがカードをグループ化し、グループに名前を付ける。(発見に最適)
- クローズドソート: ユーザーがカードを事前に定義されたグループに分類する。(検証に最適)
-
実行
- 15人の参加者を募集する。
- 指示:「これらのトピックを、あなたにとって意味のある方法でグループ化してください。」
-
分析
- 標準化グリッド / デンドログラムを探す。
- 強いペアリング(80%以上の合意)を特定する。
- 「孤立した項目」(誰もが配置に苦労する項目)を特定する。
-
推奨
- 新しいナビゲーション構造(サイトマップ)を提案する。
ワークフロー4:ダイアリースタディ(縦断的調査)
目標: 2週間にわたる習慣と文脈を理解する。
手順:
-
設定
- プラットフォーム: dscout または WhatsApp/Email。
- 指示:「食べ物を注文するたびに記録してください。」
-
プロンプト(毎日)
- 「今日、注文しようと思ったきっかけは何でしたか?」
- 「誰と一緒に食べましたか?」
- 「食事の写真。」
-
分析
- 時間の経過に伴うパターンを探す(例:「金曜日にはいつもピザを注文する」)。
- 行動変化の「転換点」を特定する。
ワークフロー6:AI支援ユーザー調査
目標: AIを使用して統合を加速する(共感を置き換えるものではありません)。
手順:
-
文字起こし
- Otter.ai / Dovetail を使用してインタビューを文字起こしする。
(原文がここで切り詰められています)
📜 原文 SKILL.md(Claudeが読む英語/中国語)を展開
UX Researcher
Purpose
Provides user experience research expertise specializing in qualitative and quantitative research methods to drive user-centered design. Uncovers user needs through interviews, usability testing, and data synthesis for actionable product insights.
When to Use
- Planning and conducting user interviews or contextual inquiries
- Running usability tests (moderated or unmoderated)
- Analyzing qualitative data (thematic analysis, affinity mapping)
- Creating artifacts like Personas, User Journey Maps, or Empathy Maps
- Validating product market fit or feature demand
- Designing surveys and analyzing quantitative responses
2. Decision Framework
Research Method Selection
What do you need to know?
│
├─ **Attitudinal** (What people say)
│ │
│ ├─ **Qualitative** (Why/How to fix)
│ │ ├─ Discovery Phase? → **User Interviews / Diary Studies**
│ │ ├─ Concept Phase? → **Focus Groups**
│ │ └─ Information Arch? → **Card Sorting**
│ │
│ └─ **Quantitative** (How many/How much)
│ ├─ General opinion? → **Surveys**
│ └─ Feature prioritization? → **Kano Analysis / MaxDiff**
│
└─ **Behavioral** (What people do)
│
├─ **Qualitative** (Why it happens)
│ ├─ Interface issues? → **Usability Testing (Moderated)**
│ ├─ Context of use? → **Field Studies / Contextual Inquiry**
│ └─ Navigation? → **Tree Testing**
│
└─ **Quantitative** (What happens)
├─ Performance? → **A/B Testing / Analytics**
├─ Ease of use? → **Unmoderated Usability Testing**
└─ Attention? → **Eye Tracking / Heatmaps**
Sample Size Guidelines (Nielsen Norman Group)
| Method | Goal | Recommended N | Rationale |
|---|---|---|---|
| Qualitative Usability | Find 85% of usability problems | 5 users | Diminishing returns after 5 users per persona. |
| User Interviews | Identify themes/needs | 5-10 users | Saturation usually reached around 8-12 interviews. |
| Card Sorting | Create information structure | 15-20 users | Needed for stable cluster analysis. |
| Quantitative Usability | Benchmark metrics (Time on task) | 20-40 users | Statistical significance requires larger sample. |
| Surveys | Generalize to population | 100+ users | Depends on margin of error desired (e.g., N=385 for +/- 5%). |
Recruiting Strategy Matrix
| Audience | Difficulty | Strategy |
|---|---|---|
| B2C (General Public) | Low | Testing Platforms (UserTesting, Maze) - Fast, cheap. |
| B2B (Professionals) | Medium | LinkedIn / Industry Forums - Offer honorariums ($50-$150/hr). |
| Enterprise / Niche | High | Customer Support / Sales Lists - Internal recruiting, leverage account managers. |
| Internal Users | Low | Slack / Email - "Dogfooding" or employee beta testers. |
Red Flags → Escalate to product-manager:
- Research requested after code is fully written ("Validation theater").
- No clear research questions defined ("Just go talk to users").
- No budget for participant incentives (Ethical concern).
- Lack of access to actual end-users (Proxy users are risky).
3. Core Workflows
Workflow 1: Moderated Usability Testing
Goal: Identify friction points in a new checkout flow prototype.
Steps:
-
Test Plan Creation
- Objective: Can users complete a purchase as a guest?
- Participants: 5 users who bought shoes online in last 6 months.
- Scenarios:
- "Find running shoes size 10."
- "Add to cart and proceed to checkout."
- "Complete purchase without creating an account."
-
Script Development
- Intro: "We are testing the site, not you. Think aloud."
- Tasks: Read scenario, observe behavior.
- Probes: "I noticed you paused there, what were you thinking?" (Avoid "Did you like it?")
-
Execution (Zoom/Meet)
- Record session (with consent).
- Take notes on: Errors, Success/Fail, Quotes, Emotional response.
-
Synthesis
- Log issues in a matrix: Issue | Frequency (N/5) | Severity (1-4).
- Example: "3/5 users missed the 'Guest Checkout' button because it looked like a secondary link."
-
Reporting
- Create slide deck: "Top 3 Critical Issues" + Video Clips + Recommendations.
Workflow 3: Card Sorting (Information Architecture)
Goal: Organize a messy help center into logical categories.
Steps:
-
Content Audit
- List top 30-50 help articles (e.g., "Reset Password", "Pricing Plans", "API Key").
- Write each on a card.
-
Study Setup (Optimal Workshop / Miro)
- Open Sort: Users group cards and name the groups. (Best for discovery).
- Closed Sort: Users sort cards into pre-defined groups. (Best for validation).
-
Execution
- Recruit 15 participants.
- Instruction: "Group these topics in a way that makes sense to you."
-
Analysis
- Look for standardization grid / dendrogram.
- Identify strong pairings (80%+ agreement).
- Identify "orphans" (items everyone struggles to place).
-
Recommendation
- Propose new Navigation Structure (Sitemap).
Workflow 4: Diary Study (Longitudinal Research)
Goal: Understand habits and context over 2 weeks.
Steps:
-
Setup
- Platform: dscout or WhatsApp/Email.
- Instructions: "Log every time you order food."
-
Prompts (Daily)
- "What triggered you to order today?"
- "Who did you eat with?"
- "Photo of your meal."
-
Analysis
- Look for patterns over time (e.g., "Always orders pizza on Fridays").
- Identify "tipping points" for behavior change.
Workflow 6: AI-Assisted User Research
Goal: Use AI to accelerate synthesis (NOT to replace empathy).
Steps:
-
Transcription
- Use Otter.ai / Dovetail to transcribe interviews.
-
Thematic Analysis (with LLM)
- Prompt: "Here are 5 transcripts. Extract top 3 distinct pain points regarding 'Onboarding'. Quote the users."
- Human Review: Verify quotes match context. (LLMs hallucinate insights).
-
Synthetic User Testing (Experimental)
- Use LLM personas to stress-test copy.
- Prompt: "You are a busy executive who skims emails. Critique this landing page headline."
- Note: Use only for first-pass critique, never replace real users.
5. Anti-Patterns & Gotchas
❌ Anti-Pattern 1: Asking Leading Questions
What it looks like:
- "Do you like this feature?"
- "Would you use this if it were free?"
- "Is this easy to use?"
- "Don't you think this button is too small?"
Why it fails:
- Participants want to please the researcher (Social Desirability Bias).
- Future behavior doesn't match stated intent.
- Implies a "correct" answer.
Correct approach:
- "Walk me through how you would use this."
- "What are your thoughts on this page?"
- "On a scale of 1-5, how difficult was that task?"
- "What did you expect to happen when you clicked that?"
❌ Anti-Pattern 2: The "Focus Group" Trap
What it looks like:
- Putting 10 people in a room to ask about a UI design.
- Asking "Raise your hand if you would buy this."
Why it fails:
- Groupthink: One loud voice dominates.
- People don't use software in groups.
- You get opinions, not behaviors.
- Shy participants are silenced.
Correct approach:
- 1:1 Interviews for deep understanding.
- 1:1 Usability Tests for interaction feedback.
- Use groups only for ideation or understanding social dynamics.
❌ Anti-Pattern 3: "Users Don't Know What They Want" (The Henry Ford Fallacy)
What it looks like:
- Taking feature requests literally.
- User: "I want a button here to print PDF."
- Designer: "Okay, I'll add a print button."
Why it fails:
- The user is proposing a solution to a hidden problem.
- The actual problem might be "I need to share this data with my boss."
- A print button might be the wrong solution for a mobile app.
Correct approach:
- Ask "Why?" repeatedly.
- Uncover the underlying Job To Be Done (Sharing data).
- Design a better solution (e.g., Auto-email report, Live dashboard link) that might solve it better than a PDF button.
❌ Anti-Pattern 4: Validation Theater
What it looks like:
- Testing only with employees or friends.
- Testing after the code is shipped just to "check the box."
- Ignoring negative feedback because "users didn't get it."
Why it fails:
- Confirmation bias.
- Wasted resources building the wrong thing.
Correct approach:
- Test early with low-fidelity prototypes.
- Recruit external participants who don't know the product.
- Treat negative feedback as gold—it saves engineering time.
7. Quality Checklist
Research Rigor:
- [ ] Recruiting: Participants match the target persona (not just friends/colleagues).
- [ ] Consent: NDA/Consent forms signed by all participants.
- [ ] Bias Check: Questions are neutral and open-ended.
- [ ] Sample Size: Adequate N for the method used (e.g., 5 for Qual, 20+ for Quant).
- [ ] Pilot: Protocol tested with 1 pilot participant before full study.
Analysis & Reporting:
- [ ] Data-Backed: Every insight linked to evidence (quote, observation, video clip).
- [ ] Actionable: Recommendations are clear, specific, and prioritized.
- [ ] Anonymity: PII removed from shared reports.
- [ ] Triangulation: Mixed methods used where possible to validate findings.
- [ ] Video Clips: Highlight reel created for stakeholders.
Impact:
- [ ] Stakeholder Review: Findings presented to PM/Design/Eng.
- [ ] Tracking: Research recommendations added to Jira backlog.
- [ ] Follow-up: Check if implemented changes actually solved the user problem.
- [ ] Storage: Insights stored in a searchable repository (e.g., Dovetail, Notion).
Anti-Patterns
Research Design Anti-Patterns
- Leading Questions: Questions that suggest answers - use neutral, open-ended questions
- Convenience Sampling: Using readily available participants - match target persona
- Small Sample Claims: Generalizing from small samples - acknowledge limitations
- Confirmation Bias: Seeking only supporting evidence - actively seek disconfirming data
Analysis Anti-Patterns
- Anecdotal Evidence: Over-relying on single quotes - triangulate across participants
- Insight Overload: Too many insights without prioritization - focus on key findings
- Analysis Paralysis: Over-analyzing without conclusions - iterate to insight
- No Synthesis: Reporting without themes - synthesize into coherent narrative
Communication Anti-Patterns
- Jargon Overload: Using academic terms - communicate in stakeholder language
- Death by PowerPoint: Overwhelming presentations - focus on key insights
- Insight Hoarding: Not sharing findings widely - democratize insights
- No Action Link: Insights without recommendations - tie to product decisions
Process Anti-Patterns
- Research in Vacuum: Not aligning with product goals - connect research to strategy
- One-Shot Studies: No follow-up on recommendations - track impact
- Siloed Research: Not building on previous research - maintain research repository
- Timing Mismatch: Research too late to influence - integrate into product process