jpskill.com
🛠️ 開発・MCP コミュニティ

ux-researcher

ユーザーの行動やニーズ、モチベーションを質的・量的な調査手法で深く理解し、ユーザー中心のデザインを推進するSkill。

📜 元の英語説明(参考)

Expert in understanding user behaviors, needs, and motivations through qualitative and quantitative research methods to drive user-centered design.

🇯🇵 日本人クリエイター向け解説

一言でいうと

ユーザーの行動やニーズ、モチベーションを質的・量的な調査手法で深く理解し、ユーザー中心のデザインを推進するSkill。

※ jpskill.com 編集部が日本のビジネス現場向けに補足した解説です。Skill本体の挙動とは独立した参考情報です。

⚡ おすすめ: コマンド1行でインストール(60秒)

下記のコマンドをコピーしてターミナル(Mac/Linux)または PowerShell(Windows)に貼り付けてください。 ダウンロード → 解凍 → 配置まで全自動。

🍎 Mac / 🐧 Linux
mkdir -p ~/.claude/skills && cd ~/.claude/skills && curl -L -o ux-researcher.zip https://jpskill.com/download/6756.zip && unzip -o ux-researcher.zip && rm ux-researcher.zip
🪟 Windows (PowerShell)
$d = "$env:USERPROFILE\.claude\skills"; ni -Force -ItemType Directory $d | Out-Null; iwr https://jpskill.com/download/6756.zip -OutFile "$d\ux-researcher.zip"; Expand-Archive "$d\ux-researcher.zip" -DestinationPath $d -Force; ri "$d\ux-researcher.zip"

完了後、Claude Code を再起動 → 普通に「動画プロンプト作って」のように話しかけるだけで自動発動します。

💾 手動でダウンロードしたい(コマンドが難しい人向け)
  1. 1. 下の青いボタンを押して ux-researcher.zip をダウンロード
  2. 2. ZIPファイルをダブルクリックで解凍 → ux-researcher フォルダができる
  3. 3. そのフォルダを C:\Users\あなたの名前\.claude\skills\(Win)または ~/.claude/skills/(Mac)へ移動
  4. 4. Claude Code を再起動

⚠️ ダウンロード・利用は自己責任でお願いします。当サイトは内容・動作・安全性について責任を負いません。

🎯 このSkillでできること

下記の説明文を読むと、このSkillがあなたに何をしてくれるかが分かります。Claudeにこの分野の依頼をすると、自動で発動します。

📦 インストール方法 (3ステップ)

  1. 1. 上の「ダウンロード」ボタンを押して .skill ファイルを取得
  2. 2. ファイル名の拡張子を .skill から .zip に変えて展開(macは自動展開可)
  3. 3. 展開してできたフォルダを、ホームフォルダの .claude/skills/ に置く
    • · macOS / Linux: ~/.claude/skills/
    • · Windows: %USERPROFILE%\.claude\skills\

Claude Code を再起動すれば完了。「このSkillを使って…」と話しかけなくても、関連する依頼で自動的に呼び出されます。

詳しい使い方ガイドを見る →
最終更新
2026-05-17
取得日時
2026-05-17
同梱ファイル
1

📖 Skill本文(日本語訳)

※ 原文(英語/中国語)を Gemini で日本語化したものです。Claude 自身は原文を読みます。誤訳がある場合は原文をご確認ください。

[スキル名] ux-researcher

UXリサーチャー

目的

定性的および定量的調査手法に特化したユーザーエクスペリエンス調査の専門知識を提供し、ユーザー中心設計を推進します。インタビュー、ユーザビリティテスト、データ統合を通じてユーザーのニーズを明らかにし、実用的な製品インサイトを導き出します。

使用する場面

  • ユーザーインタビューやコンテクスチュアルインクワイアリーの計画と実施
  • ユーザビリティテスト(モデレート型またはアンモデレート型)の実施
  • 定性データの分析(テーマ分析、親和性マッピング)
  • ペルソナ、ユーザー体験マップ、共感マップなどの成果物の作成
  • プロダクトマーケットフィットや機能需要の検証
  • アンケートの設計と定量的回答の分析


2. 意思決定フレームワーク

調査手法の選択

What do you need to know?
│
├─ **Attitudinal** (What people say)
│  │
│  ├─ **Qualitative** (Why/How to fix)
│  │  ├─ Discovery Phase? → **User Interviews / Diary Studies**
│  │  ├─ Concept Phase? → **Focus Groups**
│  │  └─ Information Arch? → **Card Sorting**
│  │
│  └─ **Quantitative** (How many/How much)
│     ├─ General opinion? → **Surveys**
│     └─ Feature prioritization? → **Kano Analysis / MaxDiff**
│
└─ **Behavioral** (What people do)
   │
   ├─ **Qualitative** (Why it happens)
   │  ├─ Interface issues? → **Usability Testing (Moderated)**
   │  ├─ Context of use? → **Field Studies / Contextual Inquiry**
   │  └─ Navigation? → **Tree Testing**
   │
   └─ **Quantitative** (What happens)
      ├─ Performance? → **A/B Testing / Analytics**
      ├─ Ease of use? → **Unmoderated Usability Testing**
      └─ Attention? → **Eye Tracking / Heatmaps**

サンプルサイズガイドライン(Nielsen Norman Group)

手法 目標 推奨N 根拠
定性的ユーザビリティ ユーザビリティ問題の85%を発見する 5ユーザー ペルソナあたり5ユーザーを超えると収穫逓減。
ユーザーインタビュー テーマ/ニーズを特定する 5-10ユーザー 通常、8-12回のインタビューで飽和に達する。
カードソーティング 情報構造を作成する 15-20ユーザー 安定したクラスター分析に必要。
定量的ユーザビリティ メトリクスをベンチマークする(タスク完了時間) 20-40ユーザー 統計的有意性にはより大きなサンプルが必要。
アンケート 母集団に一般化する 100+ユーザー 望ましい誤差範囲による(例:+/- 5%の場合N=385)。

採用戦略マトリックス

対象者 難易度 戦略
B2C(一般消費者) テストプラットフォーム (UserTesting, Maze) - 迅速、安価。
B2B(専門家) LinkedIn / 業界フォーラム - 謝礼($50-$150/時間)を提供する。
エンタープライズ / ニッチ カスタマーサポート / 営業リスト - 社内採用、アカウントマネージャーを活用。
社内ユーザー Slack / メール - 「ドッグフーディング」または従業員ベータテスター。

危険信号 → product-manager にエスカレートしてください:

  • コードが完全に書かれたに調査が要求される(「検証のためのパフォーマンス」)。
  • 明確な調査質問が定義されていない(「とにかくユーザーと話してきて」)。
  • 参加者へのインセンティブ予算がない(倫理的な懸念)。
  • 実際の最終ユーザーへのアクセスがない(代理ユーザーはリスクが高い)。


3. 主要なワークフロー

ワークフロー1:モデレート型ユーザビリティテスト

目標: 新しいチェックアウトフローのプロトタイプにおける摩擦点を特定する。

手順:

  1. テスト計画の作成

    • 目的: ユーザーはゲストとして購入を完了できるか?
    • 参加者: 過去6ヶ月間にオンラインで靴を購入した5人のユーザー。
    • シナリオ:
      1. 「サイズ10のランニングシューズを見つけてください。」
      2. 「カートに追加してチェックアウトに進んでください。」
      3. 「アカウントを作成せずに購入を完了してください。」
  2. スクリプトの作成

    • 導入: 「私たちはサイトをテストしているのであって、あなたをテストしているのではありません。声に出して考えてください。」
    • タスク: シナリオを読み上げ、行動を観察する。
    • 質問: 「そこで一時停止しましたね、何を考えていましたか?」(「気に入りましたか?」は避ける)
  3. 実行(Zoom/Meet)

    • セッションを記録する(同意を得て)。
    • エラー、成功/失敗、引用、感情的反応についてメモを取る。
  4. 統合

    • 問題をマトリックスに記録する:問題 | 頻度(N/5) | 重大度(1-4)。
    • 例:「5人中3人のユーザーが『ゲストチェックアウト』ボタンを見逃しました。なぜなら、それがセカンダリリンクのように見えたからです。」
  5. 報告

    • スライドデッキを作成する:「上位3つの重大な問題」+ ビデオクリップ + 推奨事項。


ワークフロー3:カードソーティング(情報アーキテクチャ)

目標: 乱雑なヘルプセンターを論理的なカテゴリに整理する。

手順:

  1. コンテンツ監査

    • 上位30〜50のヘルプ記事をリストアップする(例:「パスワードのリセット」、「料金プラン」、「APIキー」)。
    • それぞれをカードに書き出す。
  2. 調査設定(Optimal Workshop / Miro)

    • オープンソート: ユーザーがカードをグループ化し、グループに名前を付ける。(発見に最適)
    • クローズドソート: ユーザーがカードを事前に定義されたグループに分類する。(検証に最適)
  3. 実行

    • 15人の参加者を募集する。
    • 指示:「これらのトピックを、あなたにとって意味のある方法でグループ化してください。」
  4. 分析

    • 標準化グリッド / デンドログラムを探す。
    • 強いペアリング(80%以上の合意)を特定する。
    • 「孤立した項目」(誰もが配置に苦労する項目)を特定する。
  5. 推奨

    • 新しいナビゲーション構造(サイトマップ)を提案する。

ワークフロー4:ダイアリースタディ(縦断的調査)

目標: 2週間にわたる習慣と文脈を理解する。

手順:

  1. 設定

    • プラットフォーム: dscout または WhatsApp/Email。
    • 指示:「食べ物を注文するたびに記録してください。」
  2. プロンプト(毎日)

    • 「今日、注文しようと思ったきっかけは何でしたか?」
    • 「誰と一緒に食べましたか?」
    • 「食事の写真。」
  3. 分析

    • 時間の経過に伴うパターンを探す(例:「金曜日にはいつもピザを注文する」)。
    • 行動変化の「転換点」を特定する。


ワークフロー6:AI支援ユーザー調査

目標: AIを使用して統合を加速する(共感を置き換えるものではありません)。

手順:

  1. 文字起こし

    • Otter.ai / Dovetail を使用してインタビューを文字起こしする。

(原文がここで切り詰められています)

📜 原文 SKILL.md(Claudeが読む英語/中国語)を展開

UX Researcher

Purpose

Provides user experience research expertise specializing in qualitative and quantitative research methods to drive user-centered design. Uncovers user needs through interviews, usability testing, and data synthesis for actionable product insights.

When to Use

  • Planning and conducting user interviews or contextual inquiries
  • Running usability tests (moderated or unmoderated)
  • Analyzing qualitative data (thematic analysis, affinity mapping)
  • Creating artifacts like Personas, User Journey Maps, or Empathy Maps
  • Validating product market fit or feature demand
  • Designing surveys and analyzing quantitative responses


2. Decision Framework

Research Method Selection

What do you need to know?
│
├─ **Attitudinal** (What people say)
│  │
│  ├─ **Qualitative** (Why/How to fix)
│  │  ├─ Discovery Phase? → **User Interviews / Diary Studies**
│  │  ├─ Concept Phase? → **Focus Groups**
│  │  └─ Information Arch? → **Card Sorting**
│  │
│  └─ **Quantitative** (How many/How much)
│     ├─ General opinion? → **Surveys**
│     └─ Feature prioritization? → **Kano Analysis / MaxDiff**
│
└─ **Behavioral** (What people do)
   │
   ├─ **Qualitative** (Why it happens)
   │  ├─ Interface issues? → **Usability Testing (Moderated)**
   │  ├─ Context of use? → **Field Studies / Contextual Inquiry**
   │  └─ Navigation? → **Tree Testing**
   │
   └─ **Quantitative** (What happens)
      ├─ Performance? → **A/B Testing / Analytics**
      ├─ Ease of use? → **Unmoderated Usability Testing**
      └─ Attention? → **Eye Tracking / Heatmaps**

Sample Size Guidelines (Nielsen Norman Group)

Method Goal Recommended N Rationale
Qualitative Usability Find 85% of usability problems 5 users Diminishing returns after 5 users per persona.
User Interviews Identify themes/needs 5-10 users Saturation usually reached around 8-12 interviews.
Card Sorting Create information structure 15-20 users Needed for stable cluster analysis.
Quantitative Usability Benchmark metrics (Time on task) 20-40 users Statistical significance requires larger sample.
Surveys Generalize to population 100+ users Depends on margin of error desired (e.g., N=385 for +/- 5%).

Recruiting Strategy Matrix

Audience Difficulty Strategy
B2C (General Public) Low Testing Platforms (UserTesting, Maze) - Fast, cheap.
B2B (Professionals) Medium LinkedIn / Industry Forums - Offer honorariums ($50-$150/hr).
Enterprise / Niche High Customer Support / Sales Lists - Internal recruiting, leverage account managers.
Internal Users Low Slack / Email - "Dogfooding" or employee beta testers.

Red Flags → Escalate to product-manager:

  • Research requested after code is fully written ("Validation theater").
  • No clear research questions defined ("Just go talk to users").
  • No budget for participant incentives (Ethical concern).
  • Lack of access to actual end-users (Proxy users are risky).


3. Core Workflows

Workflow 1: Moderated Usability Testing

Goal: Identify friction points in a new checkout flow prototype.

Steps:

  1. Test Plan Creation

    • Objective: Can users complete a purchase as a guest?
    • Participants: 5 users who bought shoes online in last 6 months.
    • Scenarios:
      1. "Find running shoes size 10."
      2. "Add to cart and proceed to checkout."
      3. "Complete purchase without creating an account."
  2. Script Development

    • Intro: "We are testing the site, not you. Think aloud."
    • Tasks: Read scenario, observe behavior.
    • Probes: "I noticed you paused there, what were you thinking?" (Avoid "Did you like it?")
  3. Execution (Zoom/Meet)

    • Record session (with consent).
    • Take notes on: Errors, Success/Fail, Quotes, Emotional response.
  4. Synthesis

    • Log issues in a matrix: Issue | Frequency (N/5) | Severity (1-4).
    • Example: "3/5 users missed the 'Guest Checkout' button because it looked like a secondary link."
  5. Reporting

    • Create slide deck: "Top 3 Critical Issues" + Video Clips + Recommendations.


Workflow 3: Card Sorting (Information Architecture)

Goal: Organize a messy help center into logical categories.

Steps:

  1. Content Audit

    • List top 30-50 help articles (e.g., "Reset Password", "Pricing Plans", "API Key").
    • Write each on a card.
  2. Study Setup (Optimal Workshop / Miro)

    • Open Sort: Users group cards and name the groups. (Best for discovery).
    • Closed Sort: Users sort cards into pre-defined groups. (Best for validation).
  3. Execution

    • Recruit 15 participants.
    • Instruction: "Group these topics in a way that makes sense to you."
  4. Analysis

    • Look for standardization grid / dendrogram.
    • Identify strong pairings (80%+ agreement).
    • Identify "orphans" (items everyone struggles to place).
  5. Recommendation

    • Propose new Navigation Structure (Sitemap).

Workflow 4: Diary Study (Longitudinal Research)

Goal: Understand habits and context over 2 weeks.

Steps:

  1. Setup

    • Platform: dscout or WhatsApp/Email.
    • Instructions: "Log every time you order food."
  2. Prompts (Daily)

    • "What triggered you to order today?"
    • "Who did you eat with?"
    • "Photo of your meal."
  3. Analysis

    • Look for patterns over time (e.g., "Always orders pizza on Fridays").
    • Identify "tipping points" for behavior change.


Workflow 6: AI-Assisted User Research

Goal: Use AI to accelerate synthesis (NOT to replace empathy).

Steps:

  1. Transcription

    • Use Otter.ai / Dovetail to transcribe interviews.
  2. Thematic Analysis (with LLM)

    • Prompt: "Here are 5 transcripts. Extract top 3 distinct pain points regarding 'Onboarding'. Quote the users."
    • Human Review: Verify quotes match context. (LLMs hallucinate insights).
  3. Synthetic User Testing (Experimental)

    • Use LLM personas to stress-test copy.
    • Prompt: "You are a busy executive who skims emails. Critique this landing page headline."
    • Note: Use only for first-pass critique, never replace real users.


5. Anti-Patterns & Gotchas

❌ Anti-Pattern 1: Asking Leading Questions

What it looks like:

  • "Do you like this feature?"
  • "Would you use this if it were free?"
  • "Is this easy to use?"
  • "Don't you think this button is too small?"

Why it fails:

  • Participants want to please the researcher (Social Desirability Bias).
  • Future behavior doesn't match stated intent.
  • Implies a "correct" answer.

Correct approach:

  • "Walk me through how you would use this."
  • "What are your thoughts on this page?"
  • "On a scale of 1-5, how difficult was that task?"
  • "What did you expect to happen when you clicked that?"

❌ Anti-Pattern 2: The "Focus Group" Trap

What it looks like:

  • Putting 10 people in a room to ask about a UI design.
  • Asking "Raise your hand if you would buy this."

Why it fails:

  • Groupthink: One loud voice dominates.
  • People don't use software in groups.
  • You get opinions, not behaviors.
  • Shy participants are silenced.

Correct approach:

  • 1:1 Interviews for deep understanding.
  • 1:1 Usability Tests for interaction feedback.
  • Use groups only for ideation or understanding social dynamics.

❌ Anti-Pattern 3: "Users Don't Know What They Want" (The Henry Ford Fallacy)

What it looks like:

  • Taking feature requests literally.
  • User: "I want a button here to print PDF."
  • Designer: "Okay, I'll add a print button."

Why it fails:

  • The user is proposing a solution to a hidden problem.
  • The actual problem might be "I need to share this data with my boss."
  • A print button might be the wrong solution for a mobile app.

Correct approach:

  • Ask "Why?" repeatedly.
  • Uncover the underlying Job To Be Done (Sharing data).
  • Design a better solution (e.g., Auto-email report, Live dashboard link) that might solve it better than a PDF button.

❌ Anti-Pattern 4: Validation Theater

What it looks like:

  • Testing only with employees or friends.
  • Testing after the code is shipped just to "check the box."
  • Ignoring negative feedback because "users didn't get it."

Why it fails:

  • Confirmation bias.
  • Wasted resources building the wrong thing.

Correct approach:

  • Test early with low-fidelity prototypes.
  • Recruit external participants who don't know the product.
  • Treat negative feedback as gold—it saves engineering time.


7. Quality Checklist

Research Rigor:

  • [ ] Recruiting: Participants match the target persona (not just friends/colleagues).
  • [ ] Consent: NDA/Consent forms signed by all participants.
  • [ ] Bias Check: Questions are neutral and open-ended.
  • [ ] Sample Size: Adequate N for the method used (e.g., 5 for Qual, 20+ for Quant).
  • [ ] Pilot: Protocol tested with 1 pilot participant before full study.

Analysis & Reporting:

  • [ ] Data-Backed: Every insight linked to evidence (quote, observation, video clip).
  • [ ] Actionable: Recommendations are clear, specific, and prioritized.
  • [ ] Anonymity: PII removed from shared reports.
  • [ ] Triangulation: Mixed methods used where possible to validate findings.
  • [ ] Video Clips: Highlight reel created for stakeholders.

Impact:

  • [ ] Stakeholder Review: Findings presented to PM/Design/Eng.
  • [ ] Tracking: Research recommendations added to Jira backlog.
  • [ ] Follow-up: Check if implemented changes actually solved the user problem.
  • [ ] Storage: Insights stored in a searchable repository (e.g., Dovetail, Notion).

Anti-Patterns

Research Design Anti-Patterns

  • Leading Questions: Questions that suggest answers - use neutral, open-ended questions
  • Convenience Sampling: Using readily available participants - match target persona
  • Small Sample Claims: Generalizing from small samples - acknowledge limitations
  • Confirmation Bias: Seeking only supporting evidence - actively seek disconfirming data

Analysis Anti-Patterns

  • Anecdotal Evidence: Over-relying on single quotes - triangulate across participants
  • Insight Overload: Too many insights without prioritization - focus on key findings
  • Analysis Paralysis: Over-analyzing without conclusions - iterate to insight
  • No Synthesis: Reporting without themes - synthesize into coherent narrative

Communication Anti-Patterns

  • Jargon Overload: Using academic terms - communicate in stakeholder language
  • Death by PowerPoint: Overwhelming presentations - focus on key insights
  • Insight Hoarding: Not sharing findings widely - democratize insights
  • No Action Link: Insights without recommendations - tie to product decisions

Process Anti-Patterns

  • Research in Vacuum: Not aligning with product goals - connect research to strategy
  • One-Shot Studies: No follow-up on recommendations - track impact
  • Siloed Research: Not building on previous research - maintain research repository
  • Timing Mismatch: Research too late to influence - integrate into product process